博舍

浅谈人工智能的伦理问题 人工智能与人伦之间的问题

浅谈人工智能的伦理问题

浅谈人工智能的伦理问题

资料整理,仅供参考

引言

2018  年3月 18日晚上 10 点左右,伊莱恩·赫兹伯格(ElaineHerzberg)骑着自行车穿过亚利桑那州坦佩市的一条街道,突然间被一辆自动驾驶汽车撞翻,最后不幸身亡。这是一辆无人自动驾驶汽车,尽管车上还有一位驾驶员,但车子由一个完全的自驾系统(人工智能)所控制。与其他涉及人与AI技术二者之间交互的事件一样,此事件引发了人们对人工智能中道德和法律问题的思考。系统的程序员必须履行什么道德义务来阻止其研发产品导致人类的生命受到威胁?谁对赫兹伯格的死负责?是该自动驾驶汽车公司测试部们?人工智能系统的设计者,甚至是机载传感设备的制造商?

关于人工智能的伦理讨论一直在进行,从人工智能研究的开始,重点主要集中在讨论可能性和对未来影响的理论工作,但对人工智能实际应用中研究讨论较少。尽管学术界对人工智能伦理道德的关系进行探讨已经持续了几十年,但并没有得出普遍的人工智能伦理是什么,甚至应该如何定义命名也没有统一规范化。近年来,随着社会科技技术的不断发展,人工智能的发展取得重大的突破。人工智能相关伦理研究讨论日益广泛,影响着我们的生活。在当前AI伦理受到越来越多讨论研究的背景下,本文主要通过对一些案例分析人工智能的伦理问题,结合本学期《工程伦理》课程所学,谈谈自己的理解与收获。

人工智能及其案例讨论分析

“人工智能”被设计为一种为从环境中获取因素的系统,并基于这些外界的输入来解决问题,评估风险,做出预测并采取行动。在功能强大的计算机和大数据时代之前,这种系统是由人类通过一定的编程及结合特定规则实现,随着科学技术的不断进步,新的方法不断出现。其中之一是机器学习,这是目前AI最活跃最热门的领域。应用统计学的方法,允许系统从数据中“学习”并做出决策。关注技术的进步,我们更关注的是在极端情况下的伦理问题。例如在一些致命的军事无人机中使用AI技术,或者是AI技术可能导致全球金融体系崩溃的风险等。

对大量的数据进行汇总分析,我们可以利用AI技术帮助分析贷款申请人的信誉,决定是否给予贷款以及额度,同时也可以对应聘者进行评估,决定是否录取,还可以预测犯罪分子再次犯罪的几率等等。这些技术变革已经深刻影响着社会,改变着人们生活。但是,此类技术应用也会引发一些令人困扰的道德伦理问题,由于AI系统会增强他们从现实世界数据中学到的知识,甚至会放大对种族和性别偏见。因此,当遇到不熟悉的场景时,系统也会做出错误的判断。而且,由于许多这样的系统都是“黑匣子”,人们往往很难理解系统做出判断的内在原因,因此难以质疑或探究,给人们决策带来风险。举几个具体例子:2014年,亚马逊开发了一种招聘工具,用于识别招聘的软件工程师,结果该系统却表现出对妇女的歧视,最后该公司不得不放弃了该系统。2016年,ProPublica在对一项商业开发的系统进行了分析,该系统可预测罪犯再次犯罪的可能性,旨在帮助法官做出更好的量刑决定,结果也发现该系统对黑人有歧视偏见。在过去的两年中,自动驾驶汽车在依靠制定的规则和训练数据进行学习,然而面对陌生的场景或其系统无法识别的输入时,无法做出正确判断,从而导致致命事故。

由于这些系统被视为专有知识产权,因此该私人商业开发人员通常拒绝提供其代码以供审查。同时,技术的进步本身并不能解决AI核心的根本问题—经过深思熟虑设计的算法也必须根据特定的现实世界的输入做出决策。然而这些输入会有缺陷,并且不完善,具有不可预测性。计算机科学家比其他人更快地意识到,在设计了系统之后,不可能总是事后解决这些问题。越多人认识到道德伦理问题应该被当作在部署一个系统前所要考虑的一个问题。

对失业、不平衡问题的讨论与思考

人工智能的重要的道德和伦理问题,既是社会风险的前沿,也是社会进步的前沿。我们讨论两个突出问题:失业、不平衡问题。

1.失业

几十年来,为了释放人类劳动,我们一直在制造模仿人类的机器,让机器替代我们更有效地执行日常任务。随着经济的飞速发展,自动化程度越来越高,大量新发明出现在我们生活中,使我们的生活变得更快,更轻松。当我们使用机器人替代我们人类完成任务,即让手工完成的工作变成自动化时,我们就释放了资源来创建与认知而非体力劳动有关的更复杂的角色。这就是为什么劳动力等级取决于工作是否可以自动化的原因(例如,大学教授的收入比水管工的收入还多)。麦肯锡公司最近的一份报告估计,到2030年,随着全球的自动化加速,接近8亿个工作岗位将会消失。例如,随着自动驾驶系统兴起,AI技术引发了人们对失业的忧虑,大量的卡车司机工作岗位可能受到威胁。我们人类将有史以来第一次开始在认知水平上与机器竞争。最可怕的是,它们比我们拥有更强大的能力。也有一些经济学家担心,作为人类的我们将无法适应这种社会,最终将会落后与机器。

2.不平衡

设想没有工作的未来会发生什么?目前社会的经济结构很简单:以补偿换取贡献。公司依据员工一定量的工作来支付其薪水。但是如果借助AI技术,公司可以大大减少其人力资源。因此,其总收入将流向更少的人。那些大规模使用新技术的公司,其少部分人将获得更高比例的工资,这导致贫富差距在不断扩大。在2008年,微软是唯一一家跻身全球十大最有价值公司的科技公司。苹果以39位居第二,谷歌以51位居第三。然而,到2018年,全球十大最有价值公司前五名均是美国科技公司。

当今世界,硅谷助长了“赢者通吃”的经济,一家独大的公司往往占据大部分市场份额。因此,由于难以访问数据,初创企业和规模较小的公司难以与Alphabet和Facebook之类的公司竞争(更多用户=更多数据,更多数据=更好的服务,更好的服务=更多的用户)。我们还发现一个现象,就是这些科技巨头创造的就业机会相比于市场上其他公司往往少很多。例如,1990年,底特律三大公司的市值达到650亿美元,拥有120万工人。而在2016年,硅谷三大公司的价值为1.5万亿美元,但只有190,000名员工。那么如今技能变得多余的工人将如何生存,这样趋势下去会不会引发社会暴乱,科技巨头应不应该承担更多的社会责任,这些都是值得我们思考的问题。

人工智能伦理问题建议

由上文可知,缺乏对伦理的认知,会对社会及人类生活造成的一定风险,因此,为加强AI伦理因素在实际应用的正确导向作用,应从以下几个方面入手:

1.明确定义道德行为

AI研究人员和伦理学家需要将伦理价值表述为可量化的参数。换句话说,他们需要为机器提供明确的答案和决策规则,以应对其可能遇到的任何潜在的道德困境。这将要求人类在任何给定情况下就最道德的行动方针达成共识,这是一项具有挑战性但并非不可能的任务。例如,德国自动驾驶和互联驾驶道德委员会提出:建议将道德价值观编程到自动驾驶汽车中,以优先保护人类生命为重中之重。在不可避免的致命撞车事故发生时,汽车不应基于年龄,性别、身体或心理构造等个人特征来选择是否要杀死一个人。

2.众包人类道德伦理

工程师需要收集足够的关于明确道德伦理标准的数据,以适当地训练AI算法。即使在为道德价值观定义了特定的指标之后,如果没有足够的公正数据来训练模型,那么AI系统可能仍会难以取舍。获得适当的数据具有挑战性,因为道德伦理规范不能始终清晰地标准化。不同的情况需要采取不同的方针,在某些情况下可能根本没有单一的道德伦理行动方针。解决此问题的一种方法是将数百万人的道德伦理困境的潜在解决方案收集打包。例如,麻省理工学院的一个项目,其展示了如何在自动驾驶汽车的背景下使用众包数据来有效地训练机器以做出更好的道德决策。但研究结果还表明,全球道德价值观可能存在强烈的跨文化差异,在设计面向人的AI系统时也要注意考虑这一因素。

3.使AI系统更加透明

政策制定者需要实施指导方针,使关于伦理的AI决策,尤其是关于道德伦理指标和结果的决策更加透明。如果AI系统犯了错误或产生了不良后果,我们将不能接受“ 算法做到了 ”作为借口。但是我们也知道,要求完全算法透明性在技术上不是很有用。工程师在对道德价值进行编程之前应该考虑如何量化它们,以及考虑运用这些人工智能技术而产生的结果。例如,对于自动驾驶汽车,这可能意味着始终保留所有自动决策的详细日志,以确保其道德伦理责任。

结束语

伦理问题的出现是工程活动发展的必然要求。以人工智能技术为基础的现代工程活动日益复杂,对自然和社会的影响越来越深刻。同时,作为工程活动中的关键角色,工程师群体在一定意义上具有改变世界的力量。正所谓“力量越大,责任也就越大”。工程师在一般的法律责任之外,还负有更重要的道德责任。作为AI领域的工程技术人员,不断创新人工智能技术的同时也要关注实际应用中的伦理道德,相信人工智能技术可以让世界变得更加美好!

浅谈人工智能时代下的工程伦理问题

浅谈人工智能时代下的工程伦理问题一、引言

近年来,随着大数据基础设施建设以及人工智能技术的发展,社会中涌现出许多新技术,给人们带来更便捷的生活。但与其共生的道德风险问题也日益显著。人工智能道德风险即人工智能技术带来的伦理结果的不确定性,其既有主观因素也有客观因素,具体表现有道德算法风险、道德决策风险、隐私数据泄露风险等。风险主要成因有技术主体、政治、经济、文化等社会因素。结合当下大数据驱动的人工智能算法特点,如何运用风险治理思想分析其背后的工程伦理问题对人工智能领域发展具有重要意义。

二、人工智能时代的当下

在1956年达特茅会议中AI这个概念被提出,经历数次低谷与发展浪潮,人工智能再次活跃在大众的视野中,并且以更完备的生态以及更强的活力积极改变我们的生活。在如今的人工智能浪潮中,深度学习因为其能够胜任更复杂、更庞大的场景而成为主流。

在AI的应用层面,随着大数据基础设施建设的日趋完备,人工智能孕育出许多产业,如:数据挖掘、人脸识别、语音识别、自动驾驶等。同时医疗卫生、交通运输、仓储物流、游戏等行业都已经或正在接受人工智能的优化。

2019年11月11日24时整,“双11”全天的物流订单量达到创纪录的12.92亿元,物流订单量迎来了“爆炸式”的增长。“双11”全天各邮政、快递企业共处理5.35亿快件,是二季度以来日常处理量的3倍,同比增长28.6%,再创历史新高。而在其背后做支撑的是一套完整的基于大数据的人工智能系统。

目前,百度、阿里、腾讯、谷歌等主流互联网公司正在大力投资人工智能相关产业与技术,而与此同时全球正有上千家公司全力押注人工智能,并且这个趋势依旧保持稳定增长的速度。

三、人工智能伦理问题日益凸显

显然,在当下这个人工智能技术飞速发展的时代,人工智能技术的广泛应用为人类带来了显而易见的好处。但技术的进步不但扩大了人类对于技术的恐慌,同时也放大了由于某些技术缺陷和忽略道德伦理问题而带来的负面影响。

3.1忽略伦理问题下产生的算法歧视问题

外卖作为当下快节奏生活的必需品,在其背后做支撑的是数以百万的外卖员和强大的人工智能系统。2020年9月8日,一篇名为《外卖骑手,困在系统里》的文章在互联网上被热议,文章指出:2016至2019年间,美团多次向配送站站长发送加速通知,3公里的送餐距离最长时限一再被缩短至38分钟;而根据相关数据显示,2019年中国全行业外卖订单单均配送时间较3年前减少了10分钟。外卖骑手在系统算法与数据的驱动下疲于奔命,逐渐变成高危职业——骑手为在算法规定的最长送餐时限内完成送餐任务无视交通规则,不断提高车速。

许多伦理问题都是由于实践主体缺乏必要的伦理意识造成的,而外卖平台算法使得外卖骑手被“困在系统里”显然是工程的决策者以及管理者没有考虑相关的伦理问题所导致的。外卖平台作为一项服务消费者、向社会提供就业岗位的工程,其目的与其他类型的工程类似,均为满足人类在某方面的需求,但工程在向社会提供服务的同时不应当忽略工程风险问题。

3.2从风险与安全角度分析外卖平台

工程风险的防范与安全分为工程的质量监理与安全、意外风险控制与安全和事故应急处置与安全三个方面,分析外卖平台的工程风险主要从意外风险控制和事故应急处置两方面展开。

3.2.1意外风险控制维度的工程风险

外卖平台作为服务大众的工程项目,其受众人数巨大——外卖市场规模超6500亿元,覆盖4.6亿消费者,工程一旦出现意外风险控制不当的情况则对其受众造成无法估量的损失。在基于大数据的人工智能算法的训练过程中,算法训练结果会随着数据重心的整体偏移,从而导致外卖骑手不得不加快派送的速度进而风险增加。因此,为避免人工智能系统追求极致地无限制缩短派送最长时限,工程师和程序设计者在程序设计之初应当添加阈值以保证外卖平台背后的外卖骑手能够在遵守交通规则的前提下及时、安全地完成任务。

3.2.2事故应急处置维度的工程风险

事故应急处理体现着工程负责人、相关利益反对工程的理解程度。应对工程事故,应当事先准备一套完整的事故应急预案,保证迅速、有序地开展应急与救援行动,降低人员伤亡和经济损失。外卖骑手因忽视交通规则造成伤亡的事件并非最近才发生——2017年上半年,上海市公安局交警总队数据显示,在上海,平均每2.5天就有1名外卖骑手伤亡。同年,深圳3个月内外卖骑手伤亡12人。2018年,成都交警7个月间查处骑手违法近万次,事故196件,伤亡155人次,平均每天就有1个骑手因违法伤亡。2018年9月,广州交警查处外卖骑手交通违法近2000宗,美团占一半,饿了么排第二。而外卖平台除口头告诫骑手之外并没有推出从根本处解决问题的措施,直到《人物》发表《外卖骑手,困在系统里》一文后外卖平台才相继推出多等5分钟的政策。

3.3从工程四要素角度分析外卖平台

工程包括技术要素、利益要素、责任要素、环境要素以及伦理要素,接下来将从工程四要素中的技术、利益与责任这三个方面来展开。

3.3.1技术维度的道德风险

基于算法和大数据的人工智能技术背后隐藏着风险。算法体现着工程师和程序设计者的思想,其政治立场和社会偏见都会不可避免的嵌入程序中。从大数据中诞生的人工智能系统通常会存在基于数据采样偏差带来的问题,而这类问题在后续的训练中不会被消除甚至可能被放大。因此,为消除算法与数据采用带来的偏见,工程师以及程序设计者在程序设计之初就应当消除主观偏见;同时在数据的处理方法中,应当极尽全力保证数据的准确,降低数据偏差带来的风险。

3.3.2利益维度的道德问题

人工智能存在威胁、侵犯人类利益的风险。从安全角度来说,人工智能应当对人类来说是安全的、可靠的、不作恶的。以外卖平台派单系统为例,外卖骑手在系统的算法歧视下被迫忽视交通规则,对骑手、对行人已经构成严重的安全隐患。因此,如何通过人工智能系统,在权衡各方利益、兼顾效率、保证安全的前提下实现利益最大化是人工智能系统需要解决的核心问题。

3.3.3责任维度的道德风险

人工智能在价值选择困境与责任承担困境中存在风险。外卖平台派单系统在消费者对于外卖的时间要求与外卖骑手在派送过程中的风险问题之间面临抉择,系统应当尽量满足消费者的需求而忽视外卖骑手的安全,还是应当在尽量保护骑手的安全的前提下提高派送效率?在人工智能系统作为自主行为主体的情况下,系统会逐渐压缩骑手的安全空间。而在发生事故之后的责任鉴定中,系统并没有能力为自己的决策承担其相应的责任。

四、总结

为避免人工智能出现无节制的追求极致从而导致技术、利益、责任等方面的道德风险,实现人类社会可持续发展的目标,人工智能的设计应当秉承着将人类健康、安全和福祉放在首位的原则。由外卖平台人工智能系统这一例所引发出来的思考,进一步提出以下建议:

1、工程设计之初应当强化工程负责人、管理者、工程师以及程序设计者的伦理意识。由于算法、工程体现着设计人员的思想,而相关人员对伦理方面的意识缺失必将导致缺乏伦理思想的工程存在缺陷。

2、强化工程相关人员的风险与安全意识。风险与安全始终是工程无法逃避的问题,针对风险可接受性进行完备分析与评估,并对一系列不可控意外风险制定相关预警机制与应急机制是控制风险、规避风险、妥当处理事故的唯一途径。

3、强化人类主导和监督能力。人类主导以及人为监督有助于人工智能系统不会走向极端,从而出现逻辑上无比正确却存在人类伦理问题的缺陷。

4、明确人工智能系统的责任归属。程序设计之初应当对程序设计者针对不同模块的设计明确责任归属,当下人工智能的发展远远没有达到成熟阶段,相应的人工智能系统也没有能力对其发展的不良后果负责,这个责任很自然的需要其背后的软件工程师、程序设计者、工程负责人以及管理者共同承担;人工智能系统在设计阶段明确责任归属有利于工程事故发生之后的责任归属划分;有利于在程序设计阶段强化工程师们的工程伦理意识。

从技术发展的角度来看,人工智能系统因其发展历史较短、技术成熟度低等原因远未达到可以完全信赖的地步。人工智能系统在设计中应考虑预防性安全措施来防范风险,减少不可接受的伤害。

人工智能的若干伦理问题思考

摘要:本文首先讨论了人工智能伦理的相关概念与发展,指出在当今人工智能技术高速发展的时代,对人工智能伦理的研究是很有必要的。其次对人工智能伦理研究的常见问题进行了分析,并在最后对人工智能的伦理问题的发展进行了讨论。

关键词:人工智能伦理人机环境交互

 

一、引言

人工智能(ArtificialIntelligence)一词起源于1956年的达特茅斯会议。AI一词一经提出,就引起了众多学者的关注与研究,人们致力于让机器像人一样具有智能,能够与人进行自然的人机交互。虽然总体目标基本一致,但是AI可以分为两个大的方向:一派提倡从上到下(top-down)的方法,即认知主义。这派学者提倡研究人类的策划、推理以及解决问题的能力。先赋予机器复杂的智力,再让他们去完成简单的行为。而另一派则是自下而上的,被称为涌现主义。即不包括任何抽象概念或推理过程,只需让机器人对所感知到的刺激做出反应即可[1]。他们这两派均取得了很大成就,尤其是近些年深度学习算法的提出与发展,给人类的生活带来了很大的帮助。

但是,与此同时,人工智能的迅速发展也给人的生活带来了一些困扰与不安,尤其是在奇点理论提出后,很多人质疑机器的迅速发展会给人类带来极大的危险,随之而来的很多机器事故与机器武器的产生更加印证了人们的这种印象。于是,关于机器伦理、机器道德的研究层出不穷。本文就将从人工智能的伦理问题入手,先行论述人工智能伦理及其相关概念,再讨论一些人工智能伦理的焦点问题:如人工智能能否取代人类、人工智能的责任问题。并在文章的最后给出笔者的一些看法。

二、人工智能伦理相关概念

1.伦理的概念

伦理一词,英文为ethics,一词源自于希腊文的“ethos”,其意义与拉丁文“mores”差不多,表示风俗、习惯的意思。西方的伦理学发展流派纷呈,比较经典的有叔本华的唯意志主义伦理流派、詹姆斯的实用主义伦理学流派、斯宾塞的进化论伦理学流派还有海德格尔的存在主义伦理学流派。其中存在主义是西方影响最广泛的伦理学流派,始终把自由作为其伦理学的核心,认为“自由是价值的唯一源泉”[2]。

在我国,伦理的概念要追溯到公元前6世纪,《周易》、《尚书》已出现单用的伦、理。前者即指人们的关系,“三纲五伦”、“伦理纲常”中的伦即人伦。而理则指条理和道理,指人们应遵循的行为准则。与西方相似,不同学派的伦理观差别很大,儒家强调仁、孝悌忠信与道德修养,墨家信奉“兼相爱,交相利”,而法家则重视法治高于教化,人性本恶,要靠法来相制约[2]。

总的来说,伦理是哲学的分支,是研究社会道德现象及其规律的科学。对其研究是很必要的。因为伦理不但可以建立起一种人与人之间的关系,并且可以通过一种潜在的价值观来对人的行为产生制约与影响。很难想象,没有伦理的概念,我们的社会会有什么人伦与秩序可言。

2.人工智能伦理

其实在人工智能伦理一词诞生以前,很多学者就对机器与人的关系进行过研究,并发表了自己的意见。早在1950年,维纳在《人有人的用途:控制论与社会》一书中就曾经担心自动化技术将会造成“人脑的贬值”[3]。20世纪70年代,德雷福斯曾经连续发表文章《炼金术与人工智能》以及《计算机不能做什么》[4],从生物、心理学的层次得出了人工智能必将失败的结论。而有关机器伦理(与人工智能伦理相似)的概念则源自《走向机器伦理》一文[5]。文中明确提出:机器伦理关注于机器对人类使用者和其他机器带来的行为结果。文章的作者之一安德森表示,随着机器的越来越智能化,其也应当承担一些社会责任,并具有伦理观念。这样可以帮助人类以及自身更好的进行智能决策。无独有偶,2008年英国计算机专家诺埃尔·夏基教授就曾经呼吁人类应该尽快制定机器(人)相关方面的道德伦理准则。目前国外对于人工智能伦理的研究相对较多,如2005年欧洲机器人研究网络(EURON)的《机器人伦理学路线图》、韩国工商能源部颁布的《机器人伦理宪章》、NASA对“机器人伦理学”所进行的资助等[6]。(注:本文认为人工智能伦理与机器(人)伦理本质上没有太大区别,本文中两者可以替换)。而且国外相关的文献也相对丰富,主要集中在机器人法律、安全与社会伦理问题方面。

国内方面相关研究起步较晚,研究不如国外系统与全面。但是近些年来,相关学者也将重点放在人工智能的伦理方面。相关文献有《机器人技术的伦理边界》[7]、《人权:机器人能够获得吗?》[8]、《我们要给机器人以“人权”吗?》[9]、《给机器人做规矩了,要赶紧了?》[10]、《人工智能与法律问题初探》[11]等等。值得一提的是,从以上文献可以看出,我国学者已经从单纯的技术伦理问题转向人机交互关系中的伦理研究,这无疑是很大的进步。

不过,遗憾的是,无论是在国内还是国外,现在仍然很少有成型的法律法规来对人工智能技术与产品进行约束,随着人们将注意力转向该方向,相信在不远的将来,有关政府部门会出台一套通用的人工智能伦理规范条例,来为整个行业作出表范。

三、人工智能是否会取代人类

有关人工智能与人的关系,很多人进行过质疑与讨论。1967年,《机器的神话》[12]作者就对机器工作提出了强烈的反对意见,认为机器的诞生使得人类丧失个性,从而使社会变得机械化。而近些年来,奇点理论的提出与宣传[13],更加使得人们担忧机器是否将会全面替代人类,该理论的核心思想即认为机器的智能很快就将超过人类。

笔者认为,人工智能不断进步,这是个不争的事实。机器的感觉,运动、计算机能都将会远远超过人类。这是机器的强项。但是不会从根本上冲击人类的岗位与职业。这是出于以下几方面的考虑:首先机器有自己的优势,人类也有自己的优势,且这个优势是机器在短期无法比拟与模仿的。人类具有思维能力,能够从小数据中迅速提炼归纳出规律,并且可以在资源有限的情况下进行非理性决策。人类拥有直觉能够将无关的事物相关化。人类还具有与机器不尽相同的内部处理方式,一些在人类看来轻而易举的事情,可能对于机器而言就要耗费巨大的资源。2012年,google训练机器从一千万张的图片自发的识别出猫。2016年,谷歌大脑团队训练机器,根据物体的材质不同,来自动调整抓握的力量。这对于一个小孩子来说,是很简单的任务,但在人工智能领域,确正好相反。也许正如莫桑维克悖论所阐述的,高级推理所需要的计算量不大,反倒是低级的感觉运动技能需要庞大的计算资源。

其次,目前人类和机器还没有达到同步对称的交互,仍然存在着交互的时间差。目前为止,仍然是人类占据主动,而且对机器产生不可逆的优势。皮埃罗·斯加鲁菲在《智能的本质》[14]一书中曾经提出:人们在杂乱无章中的大自然中建立规则和秩序,因为这样的环境中人类更容易生存和繁衍不息。而环境的结构化程度越高,制造在其中的机器就越容易,相反,环境的结构化程度越低,机器取代的可能性越小。由此可见,机器的产生与发展是建立在人们对其环境的了解与改造上的。反过来,机器的发展进一步促进了人们的改造与认知活动。这就如天平的两端,单纯的去掉任何一方都会导致天平的失衡。如果没有人类的指引与改造作用,机器只能停留在低端的机械重复工作层次。而机器在一个较低端层次工作的同时也会使得人们不断追求更高层次的结构化,从而使得机器向更高层次迈进。这就像一个迭代上升的过程,人-机器-人-机器,以此循环,人类在这段过程中总是处于领先的地位。所以机器可以取代人类的工作,而不是人类。

再次,人工智能的高速发展同时带来了机遇。诚然,技术的发展会带来一些负面影响,但是如果从全局来看,是利大于弊的。新技术的发展带来的机遇就是全方位的。乘法效应就是说明的这个道理:在高科技领域每增加一份工作,相应的在其它行业增加至少4份工作,相应的,传统制造业为1:1.4[14].我们应该看到,如今伴随着人工智能业的飞速发展,相关企业如雨后春笋般诞生,整体拉动了相关产业(服务业、金融业)的发展,带来了更多的就业机会。

而且,任何一项技术的发展都不是一蹴而的,而是循序渐进的过程。无论是最早期的类人猿的工具制造、还是后来的电力发展、再到现在的互联网时代,技术的发展与运用是需要时间来保证的。现在社会上有些人担心人工智能的发展会立即冲击自己的工作,实则是有些“杞人忧天”的意味。以史可以明鉴,历史上大的技术突破并没有对人类的工作产生毁灭性的打击。蒸汽机的诞生替代了传统的骡马、印刷机的诞生取代了传统的抄写员、农业自动化设施的产生替代了很多农民的工作,但这都没有致使大量的工人流离失所,相反,人们找到了原本属于人类的工作。新兴技术创造的工作机会要高于所替代的工作机会。所以,我们不必过分担心机器取代人类工作的问题。

四、谁来为事故负责

2016年7月,特斯拉无人驾驶汽车发生重大事故,造成了一名司机当场死亡。这件事故很快成为了新闻媒体的焦点。人们不仅仅关注这件事情本身所带来的影响,更加担心机器作为行为执行主体,发生事故后责任的承担机制。究竟是应该惩罚那些做出实际行为的机器(并不知道自己在做什么),还是那些设计或下达命令的人,或者两者兼而有之。如果机器应当受罚,那究竟如何处置呢?是应当像西部世界中将所有记忆全部清空,还是直接销毁呢?目前还没有相关法律对其进行规范与制约。

随着智能产品的逐渐普及,我们对它们的依赖也越来越深。在人机环境交互中,我们对其容忍度也逐渐增加。于是,当系统出现一些小错误时,我们往往将其归因于外界因素,无视这些微小错误的积累,我们总是希望其能自动修复,并恢复到正常的工作状态。遗憾的是,机器黑箱状态并没有呈现出其自身的工作状态,从而造成了人机交互中人的认知空白期。当机器不能自行修复时,往往会将主动权转交给人类,人类就被迫参与到循环中,而这时人们并不知道发生了什么,也不知道该怎样处理。据相关调查与研究,如果人们在时间与任务压力下,往往会产生认知负荷过大的情况,从而导致本可以避免的错误。如果恰巧这时关键部分出了差错,就会产生很大的危险。事后,人们往往会责怪有关人员的不作为,往往忽视机器一方的责任,这样做是有失偏颇的。也许正如佩罗所说:百分之60到80的错误可以归因于操作员的失误。但当我们回顾一次次错误之时,会发现操作员面临的往往是系统故障中未知甚至诡异的行为方式。我们过去的经验帮不上忙,我们只是事后诸葛亮[15]。

其实,笔者认为人工智能存在三种交互模式,即人在环内、人在环外与以上两者相结合。人在环内即控制,这个时候人的主动权较大,从而人们对整个系统产生了操纵感。人在环外即自动,这时候,人的主动权就完全归于机器。第三种情况就是人可以主动/被动进入系统中。目前大多数所谓的无人产品都会有主动模式/自动模式切换。其中被动模式并不可取,这就像之前讨论的那样,无论是时间还是空间上,被动模式对于系统都是不稳定的,很容易造成不必要的事故。

还有一种特殊情况,那就是事故是由设计者/操纵者蓄意操纵的,最典型的就是军事无人机这种武器,军方为了减少己方伤亡,试图以无人机代替有人机进行军事活动。无人机的产生将操作员与责任之间的距离越拉越远,而且随着无人机任务的愈加复杂,幕后操纵者也越来越多,每个人只是完成“事故”的一小部分。所以人们的责任被逐渐淡化,人们对这种“杀戮”变得心安理得。而且很多人也相信,无人机足够智能,与军人相比,能够尽可能减少对无辜平民的伤害。可具有讽刺意义的是,美国的无人机已经夺去了2500至4000人的性命。其中约1000位平民,且有200名儿童[14]。2012年,人权观察在一份报告中强调,完全自主性武器会增加对平民的伤害,不符合人道主义精神[16]。不过,目前对于军事智能武器伦理的研究仍然停留在理论层面,要想在实际军事战争中实践,还需要更加做出更多的努力。

综上可以看出,在一些复杂的人机环境系统中,事故的责任是很难界定的。每个人(机器)都是系统的一部分,完成了系统的一部分功能,但是整体却产生了不可挽回的错误。至于人工智能中人与机器究竟应该以何种方式共处,笔者将在下面一节中给出自己的一些观点。

五、笔者的一些思考

通过以上的讨论与分析,笔者认为,人工智能还远没有伦理的概念(至少是现在),有的只是相应的人对于伦理的概念,是人类将伦理的概念强加在机器身上。在潜意识中,人们总是将机器视之合作的人类,所以赋予机器很多原本不属于它的词汇,如机器智能、机器伦理、机器情感等。在笔者看来,这些词汇本身无可厚非,因为这反映出人们对机器很高的期望,期望其能够像人一样理解他人的想法,并能够与人类进行自然的交互。但是,现在的当务之急,是弄清楚人的伦理中可以进行结构化处理的部分,因为这样下一步才可以让机器学习,形成自己的伦理体系。而且伦理,正如第一部分讨论的,是由伦和理组成的,每一部分都有自己的含义,而“伦”,即人伦,更是人类在长期进化发展中所逐渐形成的,具有很大的文化依赖性。更重要的是,伦理是具有情景性的,在一个情景下的伦理是可以接受的,而换到另一种情景,就变得难以理解,所以,如何解决伦理的跨情景问题,也是需要考虑的问题。

而且值得一提的是,就人机环境交互而言,机指而不仅仅是机器,更不是单纯的计算机,而且还包括机制与机理。而环境不仅仅单指自然环境、社会环境,更要涉及到人的心理环境。单纯的关注某一个方面,总会做到以偏概全。人工智能技术的发展,不仅仅是技术的发展与进步,更加关键的是机制与机理的与时俱进。因为两者的发展是相辅相成的,技术发展过快,而机制并不完善,就会制约技术的发展。现在的人工智能伦理研究就有点这个意味。现在的人类智能的机理尚不清楚,更不要提机器的智能机理了。而且,目前机器大多数关注人的外在环境,即自然环境与社会环境,机器从传感器得到的环境数据来综合分析人所处的外在环境,但是却很难有相应的算法来分析人的内部心理环境,人的心理活动具有意向性,具有动机性,这也是目前机器所不具备的,也是不能理解的。所以对于人工智能的发展而言,机器的发展不仅仅是技术的发展,更是机制上的不断完善。研究出试图理解人的内隐行为的机器,则是进一步的目标。只有达到这个目标,人机环境交互才能达到更高的层次。

六、发展与展望

人工智能伦理研究是人工智能技术发展到一定程度的产物,它既包括人工智能的技术研究,也包括机器与人、机器与环境及人、机、环境之间关系的探索。与很多新兴学科一致,它的历史不长,但发展速度很快。尤其是近些年,依托着深度学习的兴起,以及一些大事件(AlphaGo战胜李世石)的产生,人们对人工智能本身,以及人工智能伦理研究的兴趣陡然上升,对其相关研究与著作也相对增多。但是,可以预期到的是,人工智能技术本身离我们设想的智能程度还相去甚远,且自发的将人的伦理迁移到机器中的想法本身实现难度就极大。而且如果回顾过去的话,人工智能总是在起伏中前进,怎样保证无论是在高峰还是低谷的周期中,政府的资助力度与人们的热情保持在同一水平线,这也是一个很难回避的问题。这些都需要目前的人工智能伦理专家做进一步的研究。

总之,人工智能伦理研究不仅仅要考虑机器技术的高速发展,更要考虑交互主体-人类的思维与认知方式,让机器与人类各司其职,互相促进,这才是人工智能伦理研究的前景与趋势。

 

参考文献:

[1][法]斯特凡·东希厄,徐寒易译.会做梦的机器人[J].环球科学.2017(4):48-49.

[2]毕彦华.何谓伦理学[M].中央编译出版社,2010.

[3][美]维纳,陈步译.人有人的用处:控制论与社会[M].北京大学出版社,2010.

[4][美]哈里亨德森,侯然译.人工智能-大脑的镜子[M].上海科学技术文献出版社,2011.

[5]M.Anderson,S.Anderson,C.Armen,TowardsMachineEthics:ImplementingTwoAction-BasedEthicalTheories[C].InM.Anderson,S.Anderson,C.Armen(Eds.),MachineEthics:AAAIFallSymposium,TechnicalReportFS-05-06.MenloPark,CA:AAAIPress,2005:1-7.

[6]王绍源,崔文芊.国外机器人伦理学的兴起及其问题域分析[J].未来与发展,2013,(06):48-52.

[7]迟萌.机器人技术的伦理边界机器人技术与应用[J].2009,(03).

[8]江晓原.人权:机器人能够获得吗?--从《机械公敌》想到的问题[N].中华读书报,2004-12-l.

[9]黄建民.我们要给机器人以"人权"吗?读书与评论[J].2009(06):55-58.

[10]姜潘.给机器人做规矩,要赶紧了[N].文汇报,2011-6-7.

[11]唐昊沫,舒心.人工智能与法律问题初探[J].哈尔滨学院学报,2007(01)

[12][美]刘易斯.芒福德,宋俊岭等译.机器的神话[M].北京:中国建筑工业出版社,2009.

[13][美]库兹韦尔,李庆诚,董振华,田源译.奇点降临.北京:机械工业出版社.2011.

[14][美]皮埃罗斯加鲁菲,任莉张建宇译.智能的本质[M].北京:人民邮电出版社,2017.

[15]JamesReason.Humanerror[M].:CambridgeUniversityPress.1990.

[16]杜严勇.关于机器人应用的伦理问题[J].2015,vol5(2):25-34.

摘自《科学与社会》2018.1

人工智能与国家政治安全

原标题:人工智能与国家政治安全

人工智能技术的蓬勃发展和广泛应用,给人类生产生活带来了极大便利,同时,也对国家主权、意识形态、执政环境、社会关系、治国理念等带来冲击,深度影响国家政治安全。充分认清人工智能对国家政治安全的挑战,研究应对之策,对于有效维护国家政治安全,意义重大。

人工智能影响政治安全的机理

作为一种颠覆性技术,人工智能进入政治领域后,既具有技术影响政治安全的一般规律,又体现出其不同于以往技术的鲜明特点。

从技术影响政治安全的一般机理来看,主要体现在三个方面。第一,技术进步不可避免地直接或间接服务于政治安全。政治安全是国家安全的根本,经济、社会、网络、军事等领域安全的维系,最终都需要以政治安全为前提条件。因此,包括技术在内的一切社会条件,首要的任务是为政治安全提供服务和保证。综观人类历史上的技术进步,往往被首先考虑用于维护国家安全特别是政治安全,尽管这些技术研发的初衷并非如此。人工智能亦然。第二,政治安全与技术进步相生相克、相生相长。马克思认为,先进技术进入政治领域后,有效提高了“社会控制和权力再生产”。同时,政治安全对技术进步的需求,反过来成为技术不断进步的推动力。但技术并非完美的政治工具。一旦技术利用不当、发生技术失控,或者技术自身缺陷所蕴含的风险爆发,政治安全可能被技术进步反噬。第三,技术进步倒逼政治发展转型,给政治安全带来新课题新挑战。从历史上看,技术进步对社会结构、社会关系、社会文化等带来的变化和冲击,从来不以人的意志为转移。当火枪火炮成为主战兵器时,继续用木盾藤牌来保卫政权的行为无疑是愚蠢的,迫切需要当政者转变思想观念,寻求能够有效维护政治安全的新模式新方法。当计算机网络技术逐渐普及时,西方国家政党纷纷利用互联网进行政治宣传和选举拉票。人工智能较之以往的技术,拥有前所未有的机器“主观能动性”优势,必将对政治安全理念、安全机制、安全路径等带来更大的改变。

从人工智能影响政治安全的独特机理来看,主要体现在两个方面。第一,算法和大数据将左右智能机器“认知”“判断”,继而影响政治行为体的抉择。人工智能的核心“三大件”是算法、算力和大数据。一方面,算法是否公正不偏袒、大数据是否真实完整未被删减篡改伪造污染,直接决定机器的研判结果,并影响人的判断和行为。另一方面,与传统的人口学变量的定量分析不同,大数据、云计算、机器学习等可以将数以亿计的政治行为体抽象成社会的“节点”,人工智能通过分析信息中节点的度数、介数和接近度,来揭示权力集聚规律、赢得政治威望的秘诀,这为执政安全提供了新的技术支撑和智慧渠道。第二,人工智能技术对经济、军事、社会、网络、信息等领域的影响向政治领域传导,间接冲击政治安全。作为一项赋能性技术,人工智能正在逐渐“改写”各领域的秩序规则,给各领域带来机遇和挑战。尽管以往的技术进步也是如此,但其影响的深度和广度远远不及人工智能。而且,以往各领域安全问题“错综复杂、交织并存”的程度,也远远不及人工智能时代高。其他领域的安全问题一旦发酵,极有可能冲击政治安全。

人工智能给政治安全带来新挑战

技术变革具有两面性,人工智能既是维护政治安全的新机遇,也是新挑战。

挑战之一:人工智能技术的普及应用,导致政治权力呈现出“去中心化”趋势。在人工智能时代,数据即代表着权力。掌握数据的主体既有国家权力机构,也有个人、企业团体、社会组织等非国家行为体。“互联网数据”结构的“多节点、无中心”设计,决定着处于线上社会任何位置的主体,均不可能比其他位置的主体位势高。人人都有“麦克风”“摄像机”,处处都是“舆论中心”“事发现场”,这一显著特征,弱化了传统的线下科层制国家管理结构和单向治理模式,政治话语权由政府这个传统的权力中心逐渐向社会层面弥散,国家治理难度大大增加,政治安全风险也大大增加。目前,这种风险已初露端倪。2019年9月,因有人线上传播“老师辱骂原住民学生是‘猴子’”的种族歧视谣言,印尼巴布亚省爆发严重骚乱,导致26人死亡、70余人受伤。

挑战之二:随着人工智能技术和数据垄断持续扩张,资本权力的扩张将危及国家权力边界。生产力的发展变化必将带来生产关系包括政治权力结构的调整。作为“第一生产力”的科学技术,其发展进步势必引起国家权力结构的调整。当人工智能技术广泛应用于经济社会各领域并引起变革时,将会推动国家治理结构与权力分配模式做出相应调整。从当前种种迹象来看,资本的权力依托技术和数据垄断持续扩张,将成为新时代国家治理结构调整的重大课题。一方面,人工智能技术研发门槛很高,依赖于大量的、长期的资本投入和技术积累,这导致社会各产业、各阶层、各人才群体间的技术研发能力、资源占有程度、社会影响力等方面极不平衡,以互联网商业巨头为代表的技术资本将占据明显优势。另一方面,人工智能技术强大的赋能作用,以及良好的经济社会应用前景,导致资本趋之若鹜。商业巨头实际上掌握了目前人工智能领域的大部分话语权,并正在逐步形成行业垄断。人工智能时代,巨头企业以强大资本为后盾,逐步垄断技术、控制数据,或将不可避免地在一定程度上逐渐分享传统意义上由国家所掌控的金融、信息等重要权力,进而可能插手政治事务。因此,国家是否有能力为资本权力的扩张设定合理的边界,是未来政治安全面临的重大挑战。

挑战之三:人工智能技术及其背后的数据和算法潜移默化引导公众舆论,进而影响人的政治判断和政治选择,间接把控政治走向。在人工智能时代,数据和算法就是新的权力。近年来围绕国家大选而展开的种种政治运作显示:拥有数据和技术能够从一定程度上影响政治议程。据有关媒体报道,2020年美国总统大选期间,有人利用网络社交平台的大量机器人账号,发布海量虚假信息,力图影响选民的认知、判断与选择。类似的情况,也曾出现在2016年的美国大选、2017年的英国大选和法国大选中。这些案例非常清晰地显示:只要拥有足够丰富的数据和准确的算法,技术企业就能够为竞争性选举施加针对性影响。当某种特定政治结果发生时,人们很难判断这是民众正常的利益诉求,还是被有目的地引导的结果。

挑战之四:人工智能技术可能被政治敌对势力用于实施渗透、颠覆、破坏、分裂活动。利用先进技术威胁他国政治安全,这样的例子屡见不鲜。计算机网络技术出现后,被西方国家用来进行网络窃密、网络攻击、网络勾联、传播政治谣言、意识形态渗透和进攻。人工智能时代,攻击一国人工智能系统或利用人工智能实施渗透、颠覆、破坏、分裂活动,带来的后果将比以往更为严重。

挑战之五:人工智能技术进步对主权国家参与国际竞争带来严峻挑战。人工智能是当前最尖端最前沿的技术之一,其核心技术多被美欧等发达国家所掌握。这些国家利用它提升生产自动化水平,提高劳动生产率,加快制造业回迁,将冲击发展中国家的传统比较优势,使后者在国际政治经济竞争格局和全球分工中处于更加不利的地位。通过发展军事智能化,进一步扩大对发展中国家的军事优势。国家之间一旦形成技术“代差”,综合实力差距将被进一步拉大。在这种情况下,技术强国对发展中国家实施政治讹诈和技术突袭的可能性增大。

多措并举,维护我国政治安全

政治安全事关我党生死存亡和国家长治久安,我们必须高度重视人工智能带来的政治安全挑战,多措并举,综合施策。

人工智能技术具有高度专业性和复杂性,企业、科研机构常常处于技术创新前沿,而国家政府则往往远离技术前沿,对技术的感知相对滞后,对技术的安全风险准备不足。为此,要强化风险意识,密切跟踪人工智能技术和应用的发展,运用系统思维,定期研判人工智能可能带来的政治风险,提高风险识别、防范和处置能力。要创新技术治理模式,构建政府主导,企业、研究机构、技术专家、公众等多方参与的人工智能治理体系。“治理”不同于“管理”,管理是政府单向的行为过程,治理则是一种开放的、多个利益攸关方参与的互动过程。通过多方互动,政府既可以跟踪掌握技术和应用的前沿动态、发展趋势,掌控治理主动权,又有助于企业、研究机构、专家、民众更好地了解政府关切,共商制定风险管控机制,推进治理工作的科学化民主化。

当前,我国在人工智能技术领域面临的最重大的安全威胁,是关键核心技术受制于人。从现在起到2030年,是我国抢抓机遇的关键期。要举全国之力,集全民之智,打造一批国家级人工智能研发平台,加强基础性、原创性、前瞻性技术研发,从智能芯片、基础算法、关键部件、高精度传感器等入手,加快核心技术突破。

没有规矩,不成方圆。针对技术应用风险,严格人工智能标准制定和行业监管,确保人工智能良性发展。紧跟技术发展变化,动态修订完善相关技术标准。加紧完善人工智能相关法律法规和伦理道德框架,对相关的民事与刑事责任确认、隐私和产权保护、机器伦理等问题予以明确,理顺设计者、使用者、监管者之间的权责关系。要建立健全人工智能监管体系,形成设计问责和应用监督并重的双层监管结构,实现对算法设计、产品开发、成果应用的全过程监管。积极促进行业自律,加大对数据滥用、算法陷阱、侵犯隐私、违背道德伦理、擅越权力边界等不良行为的惩戒力度。要积极主动参与人工智能国际议题设置,共同应对安全、伦理、法律等诸多挑战。抓住人工智能国际准则和配套法规刚刚起步之机,积极参与规则制定,及时宣示我国主张,努力掌握规则制定话语权和国际交往主动权。

针对外部安全风险,加强军事能力建设,为维护国家政治安全提供力量保证。要积极研究探索智能化战争理论,加快推进现代武器装备体系和人才队伍建设,强化智能化条件下部队训练演练,不断提升我军新时代军事斗争准备水平。

(作者:许春雷,系军事科学院博士研究生,现任河北省石家庄市鹿泉区人武部副部长)

(责编:杨虞波罗、初梓瑞)

分享让更多人看到

人工智能技术背景下的新闻业变革与坚守

随着智能手表等可穿戴智能设备、无人驾驶、阿尔法狗大胜李世石的人机围棋对战等被人们所熟知,人工智能浪潮已经席卷了公共服务、教育、医疗等多个行业。媒体行业当然也不甘落后,国内外已有不少媒体在人工智能+新闻方面做出了探索。可以说,这是媒体行业发展最好的时代,也是最坏的时代,外部环境瞬息万变,不断影响新闻业,媒体人始终谨小慎微,如履薄冰。人工智能会给新闻业带来多大的变革呢?究竟是颠覆还是辅助?新闻业应该如何应对变化?种种问题都值得新闻行业思索。

本文将溯源人工智能发展历史,介绍国内外在人工智能+新闻方面的进展,通过人工智能在新闻业应用的优劣分析思考人工智能与新闻业的结合对于传媒行业来说究竟是机遇还是挑战,新闻业如何在新技术冲击下实现进化。

一、人工智能概念及应用现状

人工智能(ArtificialIntelligence)的概念早在1956年就已被提出,“人工智能是关于知识的学科―――怎样表示知识以及怎样获得知识并使用知识的科学”,[1张妮、徐文尚、王文文:《人工智能技术发展及应用研究综述》,载《煤矿机械》第30卷第2期]美国斯坦福大学人工智能研究中心尼尔逊教授如此定义。美国麻省理工学院的温斯顿教授则认为“人工智能就是研究如何使计算机去做过去只有人才能做的智能工作。”[曾雪峰:《论人工智能的研究与发展》,载《现代商贸工业》2009年8月刊]本文将人工智能定义为“通过软硬件结合,用各种手段使其能够达到类人的智能,使机器能够做像人一样的处理事情”。

近半个世纪以来,人工智能技术全方位地向各个领域延伸,在新闻领域,人工智能也与新闻业产生了一系列的化学反应。本文所探讨的“人工智能+新闻”指的是人工智能技术在新闻写作、采访、编辑等新闻活动中的具体运用,人工智能给新闻业带来的变革我们称为媒体的智媒化。

二、人工智能在新闻生产上的应用与反思

(一)、人工智能在新闻业的应用

1、外媒AI+新闻:全方位、多环节应用

纵观国外人工智能在新闻业的应用,可以发现不少媒体都已经或多或少的涉足了AI界,AI+新闻的探索时间较长,探索结果也较为深入,当前人工智能已经全方位、多环节渗透到新闻领域中,下文将试图按照新闻生产流程来分析国外AI+新闻的相关应用。

(1)、线索收集、信源捕获

人工智能可以在新闻生产的前端为媒体提供信源。《华盛顿邮报》目前应用的聊天机器人Feels,在2016年总统大选期间就向使用用户收集相关线索,以此获取选民在选取前的政治倾向。Buzzfeed与之相似,它目前主要通过Facebook上的关注者借助Messenger为其提供新闻素材。在messenger上接受buzzbot的推送时,他还会告诉用户它在为某地发生的某事手机新闻素材,并询问用户是否关注这一新闻?是否在当地在现场?对这一事件有何态度?是否可以提供现场素材等等?这些问题会给出三个预设答案,用户只需选择进行反馈,最后,用户还可以选择一个表情来表达对这一新闻的态度。

(2)、机器人写作

当下,国外媒体中机器人写作已经成为相当广泛的现象,机器人写作的不少新闻已经让人难以分辨究竟是记者还是AI的大作了。美联社就利用算法自动撰写关于棒球比赛的相关报道,这一技术也在电子商务、房地产以及金融服务等领域得到应用。美联社采用的用来撰写新闻的机器人叫Wordsmith,早在2014年7月美联社就和科技公司AutomatedInsights合作,利用AI技术来报道商业领域的企业财报相关新闻。操作原理是将公司盈利状况相关的数据导入机器人平台,经过wordsmith为美联社量身定制的算法处理,wordsmith将这些数据信息与他信息比对参照,在几毫秒的时间里就可以写出一篇标准的带有美联社风格的的新闻稿件。记者在涉及大量数据信息的报道中差错率一般会有所提高,机器人新闻

就不需要担心这个问题。准确性的提升是一大改进,另一方面,从一季度300份到一季度3000份的生产能力也大大地提高了美联社的财报数量。

除此之外,美联社还宣布将在美国职棒小联盟的赛事报道中应用人工智能技术,他们专门聘请了一批自动化领域的专家来开发、管理和整合美国职棒小联盟的报道。美国职棒小联盟的官方统计数据服务商MLBAdvancedMedia和AutomatedInsights能够在数分钟之内为他们提供比赛数据,wordsmith则通过查看并分析海量结构化的数据,从中发掘出新闻点,例如,某队选手的赛场表现不如预期等,然后人工智能会自动生成可读性的内容。

机器人写新闻在财经、体育这种模式化的报道领域可以说是具有得天独厚的优势,此外,强调时效性的新闻方面机器人记者也大有用武之地。2014年美国加州曾发生一次4.4级的小地震,《洛杉矶时报》凭借机器人记者撰写的新闻稿成为最快报道该新闻的媒体。这要归功于《洛杉矶时报》的地震新闻自动生成系统,美国地质勘探局在勘测出地震消息的同时会给系统发送地震信息,随后机器人记者会自动将这些数据套入相应模板生成新闻报道,这一系统是由该报的记者兼程序员KenSchwenck开发的。

国外的不少媒体,机器人记者已经成为其新闻编辑室中的重要一员,不过目前机器人写作主要集中在对信息的收集整理而非内容创作上。机器对程式化的新闻资讯(例如灾害、体育、财经等动态信息)可以做到准确、及时地生成和发布,用时短且错误率低,这是机器处理得天独厚的优势。而且,此类报道一般不需要进行深入细致的调查,也不存在错综复杂的关系,因此,现阶段在各大媒体中应用的人工智能使得人类记者无需在简单、机械性的工作中耗费时间,得以将更多精力投入到更有创造力的内容创作上。

(3)、辅助编辑

新闻编辑工作上人工智能近年来也有所涉猎,2015年7月,纽约时报R&D实验室就设计了可以自动标记文章的机器人,在编辑工作中,它可以识别内容并分析,从而提供推荐使用的关键词、标签等,这使得新闻编辑室可以更加便捷地收集内容。

美国知名的互联网新闻博客Mashable则将关注点放在了科技公司与社交媒

体的相关新闻上。2016年2月,Mashable的执行董事BenMaher曾表示Mashable已经尝试利用人工智能技术发现新闻,他认为网站主页将不再有活力,现代用户需要媒体主动吸引。[3刺猬公社《在人工智能和新闻的结合上,国外媒体已经飞起来了?》]为此,Mashable启动了数据分析工具Velocity,它可以分析判断新闻的传播趋势和可能的传播爆点,此外,Velocity还可以帮助编辑们发现传播过程中的“饱和点”,当一则新闻的分享率达到95%时编辑将不再予以关注,否则编辑们则会考虑如何让新闻继续发酵,到达更多的用户。

(4)、资讯分发

内容生产上人工智能可以帮助媒体收集素材,获取信息,写作新闻,有了内容后更重要的则是传播出去,而如何找到用户的好奇点,将内容分发给适配用户实现精准传播则是人工智能带来的另一突破。

目前,《纽约时报》就采用了Blossomblot作为机器人编辑,它主要辅助编辑选择潜在的热文。纽约时报内部统计数据显示Blossom筛选出的文章点击量是普通文章的38倍。Blossom的主要原理就是通过分析Twitter等社交媒体上的文章数据,从而判断哪些新闻更具有传播潜力。随后将这些信息反馈给人工编辑。未来,Blossom还可以通过机器学习完成独立取标题、写摘要等工作。

来自美联社的战略经理FrancescoMarconi认为,人工智能赋予新闻机构创造无限内容的可能,并且可以根据读者的个性、心情、社会经济地位以及地理位置,向每位读者推荐适合他们的故事,让用户真正享受到“私人定制”资讯。[4腾讯网《人工智能会成为记者的好伙伴吗?》http://news.qq.com/a/20161111/032007.htm]在Marconi看来,人工智能将从根本上提高“个性化分发”的效率,而该领域的巨头Google、Facebook、Twitter早已深谙此道。从2013年以来,不少新闻机构就在人工智能方面投入了很多精力,比如借助Facebook的通讯软件messenger,华尔街日报等使用机器人bot进行新闻资讯的推送,实现了一定程度的自动化。

(5)、交互反馈

技术的变革使得传统新闻业中读者的身份变为用户,这极大地突出了用户的主动性,人工智能目前也在这一方面发力,通过人机对话等实现双向传播,增强

用户粘性。

数字商业新闻网站Quartz在2016年也在客户端里加入了人机对话推送资讯的功能。Quartz界面是一个对话窗口,会以聊天式的方式向不同读者推送新闻。读者如果想深入了解,可以在窗口下的选项继续追问获取更多细节。Quartz推送的内容人工编辑会进行选择编辑,但用户与Quartz的互动则由机器算法完成。

(6)、资讯服务

从机器人记者写作新闻、为媒体收集素材到从事辅助编辑工作再到交互反馈,可以说,人工智能基本上全方位、多环节地渗透到了国外媒体的新闻实践。除直接参与新闻生产流程外,人工智能还是新闻业的好帮手。2012年,《华盛顿邮报》就使用“TruthTeller”核实新闻的准确性;“truthteller”主要功能是核实新闻的准确性,它通过记录新闻报道的内容,即时与数据库比对,一旦发现问题就会发出警报,以此来保证新闻信息的真实性。

目前,不少科技公司在人工智能领域方面已取得不少进展,谷歌就将其人工智能技术应用在了新闻领域。2014年谷歌推出了一款基于大数据的预测系统─GoogleAlert。输入需要检测的关键词,这一系统会全天候检测出现这些关键词的网站,并将信息发送给用户。此外,他还可以将正在发生的事件结合背景与相关情况智能分析,预测事件可能带来的影响。也就是说。GoogleAlert在帮助记者收集新闻之外还可以判断新闻的发展趋势、后续价值等。

2、国内AI+新闻:试水与起步

国外AI+新闻发展已经如火如荼,相比之下国内人工智能与新闻业的结合相对还处于起步阶段,目前人工智能与新闻业的结合主要体现在机器人写作与智能化推荐方面。

(1)、写作机器人

与国外类似,机器人记者也是国内新闻业相对走在前面的应用。腾讯在2015年就在其财经频道的新闻写作中使用了人工智能,它的机器人记者名为Dreamwriter,当年8月份机器人记者就发布了一篇关于CPI的稿件,题名为《8月CPI同比上涨2.0%创12月新高》。稿件包括数据信息本身和相关行业人士的数据解读两部分。文章与普通记者写出来的并无太大差别,只是在最后注明了是由

Dreamwriter撰稿。此后,dreamwriter不断写作相关新闻,根据《中国新媒体趋势报告2016》数据显示,2016年三季度,腾讯财经机器人记者发布的新闻数量已经达到了4万篇。

新华社也于2016年11月18日推出了写稿机器人“快笔小新”。其操作十分简单,输入一个股票代码再点击一下鼠标即可生成一篇财报分析新闻。“快笔小新”只是一个电脑里的程序,尽管其写作的内容并不完善,但快速的出稿速度是极大的优势。目前,新华社的体育部门和《中国证券报》也采用了“快笔小新”。一直自诩是科技公司而非媒体的今日头条则在里约奥运会之际,推出了写作机器人“xiaomingbot”,这款机器人可以在数据库更新的两秒之内生成相应的新闻并发布;同时,它的系统内内置了较多可供选择的样式,这使其能够根据赛前预测与实际结果的差异选择相应的语气生成新闻。

目前,国内的人工智能相对停留在较为初级的阶段,已有的写作机器人主要参与体育新闻、财经新闻等报道,新闻题材上也主要是快讯、财报等。不过,虽然其写作的新闻在质量上没有显著改进,但机器人在新闻写作上的应用极大地提高了新闻数量,给了用户更大的选择空间,头条实验室的负责人李磊这样评价小明,“张晓明最大的意义在于,面对奥运会同时举行的上百场比赛的综合赛事,可以观察到每一场比赛报道,无论这场比赛多么冷门和不重要。在传统新闻理论中,某些冷门比赛乒乓球的小组赛的报道价值不大,但实际上依然有可观的阅读量。”[5刺猬公社金凯娜:《在人工智能和新闻的结合上,国内媒体到底做得怎么样了》]这恰恰符合了长尾理论,以前因劳动力不足或者缺乏关注度等原因被忽视的新闻资讯借助机器人记者得以被生产,属于小众的需求得以满足。

(2)、智能化推荐

有了更加丰富的内容,接下来更重要的就是让更多的人、更关心这一新闻的人知道。现在越来越多的新闻应用都采用了个性化推荐,这一领域最初得到大家广泛关注是因为今日头条的崛起,“你关心的,才是头条”这句广告语表明今日头条所侧重的是根据用户的个性需求为其私人订制新闻。其内在逻辑在于当用户长时间使用app浏览新闻后,后台会不断收集用户的阅读数据,如浏览栏目、停

留时间等等,从而为用户精准画像。同时,随着用户数量的增多,后台可以根据相似性为用户分群,进一步实现智能化推荐。

(3)、智能互动

如今,人工智能的应用使得一些内容提供者得以用聊新闻的方式为读者去繁就简,它使得同类新闻可以汇聚起来,通过自然语言处理技术对内容进行结构分析,然后通过信息特征学习等方法,将事件核心信息整理成一百字左右的聊天内容,高效满足读者基本的信息需要,随后读者可以根据其自身需要提出疑问从而获取深度解读等信息。

“聊”新闻主要在百度新闻app上有所应用,进入界面后,可以通过对话体形式读新闻,阅读更加直接。系统可以准确回答关于新闻内容的提问。在这个过程中,聊新闻可以略去媒体报道中80%的内容,其目的在于满足读者对信息基本的需求,互动环节则可以充分发挥读者主动性,引导读者进行“深阅读”。

(二)、反思人工智能在新闻业的应用:机遇与问题

1、机遇:人工智能解放并辅助新闻业

人工智能在新闻业的应用为其带来了发展新机遇,极大地解放了新闻人,正如《纽约》杂志撰稿人凯文・罗斯所言,机器人写作处理的是人类新闻从业者不愿耗时去做的、与大量数据相关的“体力活”,让新闻从业者从大量低附加值的重复性劳动中解脱出来,以更多的时间和精力去从事创造性更强的新闻工作。[张海霞:《机器人写作时代新闻从业者的应对》,载《新闻战线》2016年11月上,第111页]具体来说,人工智能的应用在以下几方面为新闻业提供了很好的辅助作用。

(1)、高效处理大数据

人工智能对数据具有更高的敏感度,它可以从海量数据中观察到人类不宜洞察的内在关联,从而生产处具有新闻价值的报道,自动挖掘具有传播潜力的新闻内容将有效扩展人类的观察视野。此外,冗杂的数据往往会牵扯记者大量的时间精力,而且对于体育新闻、财报等动态信息的写作通常有章可循,机器人记者几秒钟时间就可以写出一篇与人工作品无差的新闻,这将记者从大量繁杂重复性的工作中解放出来,将人力资源用在更有创造力的内容生产上。

(2)、新闻精准化、智能化、个性化

新闻业通过与人工智能的结合,媒体可以实现对用户的清晰画像,从而更加精准的分析用户,实现内容生产与份分发的定制化、个性化、对象化。以往千人一面、一点对多点的生产模式和传播模式都发生了巨大转变,“你看手机的同时手机也在看你”,人工智能技术使得个性化新闻时代到来,除此之外,人工智能还可以为用户进行场景化匹配,罗伯特・斯考伯、谢尔・伊斯雷尔在《即将到来的场景时代》写道:“移动互联网时代,场景(情境)的意义被极大地强化,移动传播是基于场景(情境)的服务,即对环境的感知及信息(服务)适配。”[罗伯特・斯考博、谢尔・伊斯雷尔.即将到来的场景时代[M].北京:北京联合出版社,2014.

]根据用户不同的时间段、不用的地理位置等人工智能可以判断用户阅读需求,如用户运动时,可穿戴设备可以为用户提供短小精悍的突发新闻新闻简讯等消息,等待时则可以阅读趣味性的内容等等。

(3)、角度客观且成本低廉

人工智能在生产新闻、收集素材、辅助编辑时只会依照算法程序等进行,除

非刻意的人工干预,否则其提供的内容都将是一种将结构化的数据进行文本形式的可视化表现,具有极强的客观性。而人工生产难免会受各种各样的限制从而影响其客观性。除此之外,人工智能作为一种软硬件结合的产物,如本质上是一套算法程序的机器人记者,可以不知疲倦、永不停歇的工作,使用成本较低。

2、问题:人工智能应用的局限

不过,目前人工智能在新闻业的应用已经出现了一些问题,以智能分发上为例,单纯依靠算法点击推荐阅读可能会带来阅读浅薄化甚至低俗化的后果,用户容易陷入信息茧房的处境,真是可能导致假新闻肆虐。综合来看,目前人工只能与新闻业的结合面临以下几个问题:

(1)、写作模式单调

就目前国内外人工智能在新闻写作方面的应用――机器人记者来看,我们可以发现其主要应用于体育、金融等数据繁多的新闻报道中,这些新闻只需对数据进行简单的分析加工形成模式化的报道,内容枯燥,模式单一,缺乏可读性。机器人记者只是在系统内设的模板上填充处理数据信息生成新闻报道,尽管客观公

正,但千篇一面的报道很难对读者有吸引力。他们的报道难以满足读者的高层次需求,只能提供基本的事实信息。

(2)、应用领域有限

当下写作机器人所涉猎的报道题材局限于快讯、财报等只需要简单的数据收集、信息整理的内容。它们无法完成新闻评论、现场报道、深度调查报道等题材的新闻写作。事件性新闻一般有较强的现场感,在基本的人物、时间、地点、事件等基本要素外,很多细节信息也是重要的内容,而这些机器人记者无法捕获。新闻业有这样的说法:七分采三分写。这表明了优秀的新闻报道不是“写”出来的,而是“采”出来的。机器人记者在这一领域恐怕难以施展身手。此外,深度报道这类需要深入挖掘信息,厘清事件来龙去脉、前因后果与错综复杂人物关系的报道也需要脑力完成。这些都建立在一定的社会经验与感情认知的基础上,机器人记者显然难以做到。新闻评论也是机器人记者的一大难点,评论所体现的是作者的立场、观点与价值取向,具有鲜明的主观性,而机器人作为一种辅助工具,其智能程度难以达到可以发挥主观能动性的地步。以上这些都表明人工智能在新闻写作领域应用受限较大,且突破难度大。最后,基于各个领域的差异性与专业性,机器人记者只能在少数专业领域报道中有用武之地,大部分的行业报道它难以胜任。

(3)、缺乏主动性

归根结底,人工智能在新闻行业的应用都是基于人类的设定,它缺乏主动性,新闻写作方面机器人记者不具备新闻敏感性,无法主动发现新闻,只能根据预设模板对特定内容报道。收集素材、辅助编辑等方面也是基于一定的指令,无法脱离人的指令独立运作,这表明人工智能目前尚处于一种依附状态。

(4)、新闻特殊性质需要人类把关

虽然人工智能与新闻业的结合已经为不少媒体节省了大量人力物力,记者编

辑也得以从繁杂无意义的初级工作中解放出来,但在新闻生产的最终环节,大多数情况下仍需要专业新闻人进行把关。新闻活动作为一种社会性工作,涉及政策、法律法规、伦理等多方面的问题,人工智能终究无法取代人脑,涉及价值判断等方面的把控还是需要人类把关。

三、人工智能技术背景下新闻业应对探索

加拿大传播巨擘麦克卢汉“媒介即讯息”的论断指出媒介技术给社会发展带来的影响,他认为任何一种新的媒介技术被广泛应用后,会给社会发展带来新的尺度,社会各个方面也将会适应这一尺度有所变化。也就是说,真正有价值的讯息不是传播内容,而是所使用的传播工具带来的变革。人工智能的应用更是印证了这一观点,作为一种新的媒介技术,人工智能将对社会变革产生极大的推动作用,新闻业的变化也是不可阻挡的。

人工智能给新闻业带来的新变局引发了众多媒体人的思考:记者的饭碗还能保得住么?人工智能究竟是新闻业的敌人还是伙伴呢?回答这一系列问题需要理性分析人工智能给新闻业带来的变化,厘清优劣,认清媒体人核心价值所在,实现人机共生。

(一)、厘清人机关系

人工智能在新闻业的应用曾多次引发业界人士的恐慌,不少人担心职业新闻人的饭碗将会被人工智能取代,这样的科技性恐慌似乎伴随着每一次重大技术的变革,早在上世纪60年代,一些公司开始使用计算机和机器人时就有一阵恐慌弥漫,但事实上,每一次关于技术的恐慌过后,技术的进步为社会创造的新的就业机会要远远多于它所替代掉的岗位。

人工智能与新闻业之间彼此纷繁复杂的关系可以用Neuberger和Nuernbergk所提出的“竞争、辅助和融合”三个维度来看待。职业新闻人应该认识到人工智能在新闻业的渗透都属于补充范畴,为新闻业提供更加多样丰富的可能性。因此,人工智能的出现不应该使新闻人妄自菲薄,而是应分清人类与人工智能的主客体关系,人工智能在新闻业的任何应用都是人为创造的产物,人机始终是附属关系,人工智能对新闻业是辅助作用而绝非取代新闻人。

(二)、新闻业态重塑

人工智能在新闻生产各个环节的应用极大地改变了新闻业态,这使得媒体的智能化进程不断加速,并将重构媒体的生产模式与呈现方式,推动了新闻人的转

型。新闻业对从业者的数量和质量要求将会产生较大变化,低层次的新闻记者需求将大量减少,职业新闻人将需要更专业的新闻技能。这些都要求新闻从业者重新认识自己的核心价值,充分提高自身的新闻专业素养和数据技术相关能力,努力在深度分析与价值判断等方面发挥优势,将职业发展方向转移到调研报道、深度新闻等方面,提供更优质的内容,实现自身转型。

(三)、新闻人更专注人

人工智能在新闻业的应用上一大突破在于写,但与新闻人相比,其局限也在于写。前文弊端方面已分析过机器人记者的稿件通常标准化、模板化,这使得读者感到重复生硬,缺乏“人味”。这恰恰是新闻人需要发挥其价值所在的领域,新闻记者要充分发挥人的主观能动性,在新闻写作中结合理性与感性思考,将关注点集中在人身上。新闻人应该在体察人情冷暖、发掘背后的故事方面付出更多努力,生产有人情味、有温度、有深度的新闻内容。在西方新闻业有第四权力的说法,新闻业是重要的社会公器,“铁肩担道义,妙手著文章”,要想写出富有感染力的新闻,记者必须要有人文主义情怀,深刻领悟人性与人情,关注大众命运。

(四)、新闻人技能提升

人工智能可以起到辅助编辑的作用,但媒体机构的编辑流程常常是相通的,校对文本、润色文字、内容把关、稿件编排等无法由人工智能统一完成,机器人写作的内容往往也需要经过人工编辑的审核才能发布,编辑的把关人地位越加重要。此外,自动化生产的新闻稿件所需要的编辑与传统编辑也有着不同的职能需要。传统编辑主要负责信息、语言把关调整,而机器人记者生产的新闻一般没有基础语法、信息错误等,编辑无需在校对上发挥太多精力,更重要的是润色内容,丰富语言,减少读者的刻板印象。因此,机器人记者的应用也对编辑的能力提出了更高的要求。

人工智能多为快速模板化写作,深度报道,新闻评论,调查报道等需要多方信息来源。涉及大量素材收集分析的题材更需要新闻人的智慧与专业能力。人工

智能在新闻写作方面的应用使得记者有更多的时间投入到现场报道、深度报道、

评论、软新闻等方面的写作中。记者要注重培养自己的综合素质,开阔知识视野,丰富知识结构,写出优质的新闻作品。

四、结论

人工智能已经在国外的媒体行业大显身手,国内的AI+新闻进程也渐渐起步,人工智能在新闻业的应用使新闻生产更加高效便捷,用户画像更加清楚,新闻传播效果更加优化,它对新闻业的内容生产、传播方式、反馈互动等带来了革命性的影响。不过,人工智能的应用也存在一些问题与不足之处,关于两者的结合,新闻业应认识到AI与新闻的关系,主动拥抱新变化。

其实,人工智能与记者恰如机器与人类的联姻。理想的合作状态应该是因为使用了这些技术和机器的帮助,人可以把他的工作做的更好,人可以成为更好的人。“好的婚姻不是1+1=2,而是0.5+0.5=1”。单独来看,人与机器都有各自的局限与劣势,但当两者共生协同发展时,就成了“1”,这个“1”,可以是一篇新稿件、可以是一个新客户端、可以是一个新编辑部,也可以是一个新的时代。 

(责编:尹峥、赵光霞)

分享让更多人看到

版权声明:本文内容由互联网用户自发贡献,该文观点仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌抄袭侵权/违法违规的内容,一经查实,本站将立刻删除。

上一篇

下一篇