博舍

人民日报刊文:防范伦理道德风险 保障人工智能健康发展 人工智能带来的伦理道德风险

人民日报刊文:防范伦理道德风险 保障人工智能健康发展

防范伦理道德风险

保障人工智能健康发展(学苑论衡)

李传兵

人工智能作为一种具有代表性的颠覆性技术,正在释放科技革命和产业变革积蓄的巨大能量,深刻改变着人类生产生活方式和思维方式。习近平总书记强调:“要整合多学科力量,加强人工智能相关法律、伦理、社会问题研究,建立健全保障人工智能健康发展的法律法规、制度体系、伦理道德。”保障人工智能健康发展,需要采取合理有效的举措,防范人工智能技术可能带来的伦理道德风险,让这一技术更好服务于经济社会发展。

人工智能发展存在伦理道德风险。在新一轮科技革命和产业变革中,人工智能是一项战略性技术,具有很强的“头雁效应”,在有力推动经济社会发展的同时,也带来一系列风险与挑战。其中,伦理道德风险是一个重要方面。实际上,伴随人工智能技术的发展,关于其可能诱发伦理道德风险的讨论从未停止。有人担忧,信息时代,人工智能创造物已不仅仅是技术化的工具,而是越来越具有类似于人类思维的能力,甚至在某些方面具有超越人类思维的能力。人工智能发展到一定程度,有可能威胁人类思维主体地位。也有观点认为,人工智能应用存在隐私泄露的伦理风险。人工智能应用需要以海量信息数据作支撑,正是由于大数据的使用、算力的提高和算法的突破,人工智能才得以快速发展、广泛应用,并呈现出深度学习、跨界融合、人机协同、群智开放、自主操控等特征。人工智能越“智能”,就越需要获取、存储、分析更多的信息数据。在这一过程中,涉及个人隐私的信息,如个人身份信息数据、网络行为轨迹数据以及对数据处理分析形成的偏好信息、预测信息等,往往以数据的形式被存储、复制、传播。获取和处理海量信息数据,不可避免会涉及个人隐私保护这一伦理问题。如果缺乏伦理道德规范,就有可能诱发隐私泄露的伦理道德风险。此外,随着人工智能自主性的提高,人工智能侵权责任中的因果关系、过错等要件的判断日趋复杂,人工智能应用的权利责任归属问题也被广泛关注和讨论。

增强人工智能伦理道德风险防控意识。人工智能之所以存在伦理道德风险,究其主要原因,一方面是这一技术还不够完善;另一方面是目前人工智能健康发展的伦理道德保障机制仍然不够健全,同快速发展的人工智能技术相比,与之相关的伦理道德规章制度发展相对滞后。解决这些问题,一项基础性工作是增强人工智能伦理道德风险防控意识。目前,在一些地方和领域,公众对人工智能可能诱发的伦理道德风险重视程度还不够高。增强人工智能伦理道德风险防控意识是一项系统工程,涉及科技研发、应用各环节。在科技研发环节,重在完善人工智能从业机构与伦理道德研究、教育、监督机构之间的长期沟通交流机制,不断提高科技从业人员的伦理道德水平,引导研发人员增强风险防控意识,严守科技伦理底线,强化伦理责任。在研发初始环节,尤须增强道德风险防控意识,预测和评估人工智能产品可能引发的道德危害,从设计源头进行规范。进而将这种伦理意识贯穿于研发全过程,防止人工智能被非法利用进而危害社会,确保科技研发活动始终在伦理道德的轨道上平稳运行。在应用环节,同样需要绷紧伦理道德风险防控这根弦,在全社会加强涉及人工智能的伦理道德教育,普及与人工智能相关的法律法规知识,引导社会公众以正确的价值观念看待和运用人工智能技术,在享受其带来的便利的同时,对其中的伦理道德风险始终保持高度警惕,推动全社会共同参与科技伦理治理。

依靠制度确保人工智能安全可控可靠。将人工智能可能诱发的伦理道德风险降到最低,保障人工智能健康发展,必须根据人工智能发展实际,针对其可能带来的伦理道德风险,不断完善指导和规范人工智能发展的伦理道德原则。在此基础上,建立健全相关制度体系,从而及时发现、有效解决人工智能技术发展中的各类伦理道德问题,确保人工智能安全可控可靠。2019年6月,国家新一代人工智能治理专业委员会发布《新一代人工智能治理原则——发展负责任的人工智能》,对促进新一代人工智能健康发展,加强人工智能法律、伦理、社会问题研究提出明确要求。依靠制度建设,防范和化解人工智能可能带来的伦理道德风险,需要相关从业人员大力弘扬社会主义核心价值观,在技术开发和应用过程中,严格遵守标准、流程等方面的规定,充分尊重和保护个人隐私,保障个人的知情权和选择权。不断加强人工智能的伦理道德监管,在相关法律法规中,进一步强化隐私权保护,充分保障公民在人工智能应用中的知情权和选择权。严格规范人工智能应用中个人信息的收集、存储、处理、使用等程序,严禁窃取、篡改、泄露和其他非法收集利用个人信息的行为,确保人工智能朝着对全人类、全社会及自然生态有益的方向发展,更好为经济社会发展和人民美好生活服务。

(作者为贵州大学马克思主义学院教授)

浅谈人工智能时代下的工程伦理问题

浅谈人工智能时代下的工程伦理问题一、引言

近年来,随着大数据基础设施建设以及人工智能技术的发展,社会中涌现出许多新技术,给人们带来更便捷的生活。但与其共生的道德风险问题也日益显著。人工智能道德风险即人工智能技术带来的伦理结果的不确定性,其既有主观因素也有客观因素,具体表现有道德算法风险、道德决策风险、隐私数据泄露风险等。风险主要成因有技术主体、政治、经济、文化等社会因素。结合当下大数据驱动的人工智能算法特点,如何运用风险治理思想分析其背后的工程伦理问题对人工智能领域发展具有重要意义。

二、人工智能时代的当下

在1956年达特茅会议中AI这个概念被提出,经历数次低谷与发展浪潮,人工智能再次活跃在大众的视野中,并且以更完备的生态以及更强的活力积极改变我们的生活。在如今的人工智能浪潮中,深度学习因为其能够胜任更复杂、更庞大的场景而成为主流。

在AI的应用层面,随着大数据基础设施建设的日趋完备,人工智能孕育出许多产业,如:数据挖掘、人脸识别、语音识别、自动驾驶等。同时医疗卫生、交通运输、仓储物流、游戏等行业都已经或正在接受人工智能的优化。

2019年11月11日24时整,“双11”全天的物流订单量达到创纪录的12.92亿元,物流订单量迎来了“爆炸式”的增长。“双11”全天各邮政、快递企业共处理5.35亿快件,是二季度以来日常处理量的3倍,同比增长28.6%,再创历史新高。而在其背后做支撑的是一套完整的基于大数据的人工智能系统。

目前,百度、阿里、腾讯、谷歌等主流互联网公司正在大力投资人工智能相关产业与技术,而与此同时全球正有上千家公司全力押注人工智能,并且这个趋势依旧保持稳定增长的速度。

三、人工智能伦理问题日益凸显

显然,在当下这个人工智能技术飞速发展的时代,人工智能技术的广泛应用为人类带来了显而易见的好处。但技术的进步不但扩大了人类对于技术的恐慌,同时也放大了由于某些技术缺陷和忽略道德伦理问题而带来的负面影响。

3.1忽略伦理问题下产生的算法歧视问题

外卖作为当下快节奏生活的必需品,在其背后做支撑的是数以百万的外卖员和强大的人工智能系统。2020年9月8日,一篇名为《外卖骑手,困在系统里》的文章在互联网上被热议,文章指出:2016至2019年间,美团多次向配送站站长发送加速通知,3公里的送餐距离最长时限一再被缩短至38分钟;而根据相关数据显示,2019年中国全行业外卖订单单均配送时间较3年前减少了10分钟。外卖骑手在系统算法与数据的驱动下疲于奔命,逐渐变成高危职业——骑手为在算法规定的最长送餐时限内完成送餐任务无视交通规则,不断提高车速。

许多伦理问题都是由于实践主体缺乏必要的伦理意识造成的,而外卖平台算法使得外卖骑手被“困在系统里”显然是工程的决策者以及管理者没有考虑相关的伦理问题所导致的。外卖平台作为一项服务消费者、向社会提供就业岗位的工程,其目的与其他类型的工程类似,均为满足人类在某方面的需求,但工程在向社会提供服务的同时不应当忽略工程风险问题。

3.2从风险与安全角度分析外卖平台

工程风险的防范与安全分为工程的质量监理与安全、意外风险控制与安全和事故应急处置与安全三个方面,分析外卖平台的工程风险主要从意外风险控制和事故应急处置两方面展开。

3.2.1意外风险控制维度的工程风险

外卖平台作为服务大众的工程项目,其受众人数巨大——外卖市场规模超6500亿元,覆盖4.6亿消费者,工程一旦出现意外风险控制不当的情况则对其受众造成无法估量的损失。在基于大数据的人工智能算法的训练过程中,算法训练结果会随着数据重心的整体偏移,从而导致外卖骑手不得不加快派送的速度进而风险增加。因此,为避免人工智能系统追求极致地无限制缩短派送最长时限,工程师和程序设计者在程序设计之初应当添加阈值以保证外卖平台背后的外卖骑手能够在遵守交通规则的前提下及时、安全地完成任务。

3.2.2事故应急处置维度的工程风险

事故应急处理体现着工程负责人、相关利益反对工程的理解程度。应对工程事故,应当事先准备一套完整的事故应急预案,保证迅速、有序地开展应急与救援行动,降低人员伤亡和经济损失。外卖骑手因忽视交通规则造成伤亡的事件并非最近才发生——2017年上半年,上海市公安局交警总队数据显示,在上海,平均每2.5天就有1名外卖骑手伤亡。同年,深圳3个月内外卖骑手伤亡12人。2018年,成都交警7个月间查处骑手违法近万次,事故196件,伤亡155人次,平均每天就有1个骑手因违法伤亡。2018年9月,广州交警查处外卖骑手交通违法近2000宗,美团占一半,饿了么排第二。而外卖平台除口头告诫骑手之外并没有推出从根本处解决问题的措施,直到《人物》发表《外卖骑手,困在系统里》一文后外卖平台才相继推出多等5分钟的政策。

3.3从工程四要素角度分析外卖平台

工程包括技术要素、利益要素、责任要素、环境要素以及伦理要素,接下来将从工程四要素中的技术、利益与责任这三个方面来展开。

3.3.1技术维度的道德风险

基于算法和大数据的人工智能技术背后隐藏着风险。算法体现着工程师和程序设计者的思想,其政治立场和社会偏见都会不可避免的嵌入程序中。从大数据中诞生的人工智能系统通常会存在基于数据采样偏差带来的问题,而这类问题在后续的训练中不会被消除甚至可能被放大。因此,为消除算法与数据采用带来的偏见,工程师以及程序设计者在程序设计之初就应当消除主观偏见;同时在数据的处理方法中,应当极尽全力保证数据的准确,降低数据偏差带来的风险。

3.3.2利益维度的道德问题

人工智能存在威胁、侵犯人类利益的风险。从安全角度来说,人工智能应当对人类来说是安全的、可靠的、不作恶的。以外卖平台派单系统为例,外卖骑手在系统的算法歧视下被迫忽视交通规则,对骑手、对行人已经构成严重的安全隐患。因此,如何通过人工智能系统,在权衡各方利益、兼顾效率、保证安全的前提下实现利益最大化是人工智能系统需要解决的核心问题。

3.3.3责任维度的道德风险

人工智能在价值选择困境与责任承担困境中存在风险。外卖平台派单系统在消费者对于外卖的时间要求与外卖骑手在派送过程中的风险问题之间面临抉择,系统应当尽量满足消费者的需求而忽视外卖骑手的安全,还是应当在尽量保护骑手的安全的前提下提高派送效率?在人工智能系统作为自主行为主体的情况下,系统会逐渐压缩骑手的安全空间。而在发生事故之后的责任鉴定中,系统并没有能力为自己的决策承担其相应的责任。

四、总结

为避免人工智能出现无节制的追求极致从而导致技术、利益、责任等方面的道德风险,实现人类社会可持续发展的目标,人工智能的设计应当秉承着将人类健康、安全和福祉放在首位的原则。由外卖平台人工智能系统这一例所引发出来的思考,进一步提出以下建议:

1、工程设计之初应当强化工程负责人、管理者、工程师以及程序设计者的伦理意识。由于算法、工程体现着设计人员的思想,而相关人员对伦理方面的意识缺失必将导致缺乏伦理思想的工程存在缺陷。

2、强化工程相关人员的风险与安全意识。风险与安全始终是工程无法逃避的问题,针对风险可接受性进行完备分析与评估,并对一系列不可控意外风险制定相关预警机制与应急机制是控制风险、规避风险、妥当处理事故的唯一途径。

3、强化人类主导和监督能力。人类主导以及人为监督有助于人工智能系统不会走向极端,从而出现逻辑上无比正确却存在人类伦理问题的缺陷。

4、明确人工智能系统的责任归属。程序设计之初应当对程序设计者针对不同模块的设计明确责任归属,当下人工智能的发展远远没有达到成熟阶段,相应的人工智能系统也没有能力对其发展的不良后果负责,这个责任很自然的需要其背后的软件工程师、程序设计者、工程负责人以及管理者共同承担;人工智能系统在设计阶段明确责任归属有利于工程事故发生之后的责任归属划分;有利于在程序设计阶段强化工程师们的工程伦理意识。

从技术发展的角度来看,人工智能系统因其发展历史较短、技术成熟度低等原因远未达到可以完全信赖的地步。人工智能系统在设计中应考虑预防性安全措施来防范风险,减少不可接受的伤害。

人工智能的道德风险及其治理

自20世纪50年代中期提出“人工智能”(artificialintelligence,简称AI)概念以来,经过60余年的发展,人工智能给人类生产生活带来“革命性变化”[1],经济、政治、文化、社会生活等领域都愈加看到人工智能的介入。伴随着人工智能价值的发挥,它也给人类带来了新的伦理、道德问题。如何在享有人工智能为人类发展带来福祉的过程中最大限度地消解其给人类带来的道德风险,成为学者们共同关注的问题。

一、人工智能及其矛盾表征

“人工智能”一词最早出现在1956年,是指用机器来模仿人类学习及其他方面的智能,之后受到全世界学者的共同关注。国内探讨人工智能问题最早的研究成果出现在1978年,陈步在《人工智能问题的哲学探讨》中以“智能”一词的哲学含义为起点探讨了人工智能的发展[2]。经过40余年的研究,目前学术界对“人工智能”的定义基本达成一致,人工智能是“人类制造出来的机器所呈现出的智能,与自然进化而来的人类智能相对应”[3]。

学者们以人工智能是否具有意识和自主性为标准将其划分为弱人工智能和强人工智能两大类。持弱人工智能观点的学者们认为:人类不可能制造出能真正推理和解决问题的智能机器,这些机器只不过看起来像是智能的,但是它们并不真正拥有智能,也不具有自主意识。持强人工智能观点的学者们认为:人类有可能制造出能真正推理和解决问题的智能机器,并且这样的机器被认为将是有知觉、有自我意识的。与人工智能强弱判断一致,学者们对人工智能未来发展趋势的判断也分为两派:主张强人工智能观点的学者认为人工智能在未来一定会获得意识,超越人类本身,达到“技术奇点”[4]256,那时,将预示着“人类时代的结束”,人类的前途和命运将被置于巨大的风险中[5]1;主张弱人工智能观点的学者坚信人工智能技术的工具性本质,无法真正替代人类,只能处于从属地位,依附于人类的存在和发展。基于对人工智能的理论分析,结合其现实发展,当前,我国人工智能尚处于弱人工智能阶段,但是,其对社会各领域却产生了深刻甚至是变革性的影响。

学者们普遍认同习近平同志关于“人工智能具有溢出带动性很强的‘头雁’效应”[6]的价值论断,认可人工智能对政治、经济、文化、生活等各方面的影响,人工智能已经悄然“飞入寻常百姓家”,改变着人类的日常生活方式。首先,加速智能经济时代的到来。人工智能以大数据、深度学习和云计算为条件开展活动:以大数据为基础来认识世界、以云计算为手段来计算世界、以深度学习为条件来创造世界。新认知、新方法、新决策可以创造新经济价值、创设新经济模式、创建新就业方式,推进增长动能转换,催生大量新产业、新业态、新模式[7],实现我国在新一轮科技革命中跨越式发展。其次,助力智能一体化社会的到来。基于“互联网+”的人工智能运用到社会领域中推进了社会一体化时代的到来,使得公共服务更加便捷、公共事务更加高效、公共道德更加优化。人工智能深度融入到教育、医疗卫生、交通等领域,形成创新型智能服务体系,克服了前智能化社会中碎片化、割据化、无监督的局限。再次,推动了国家治理体系和治理能力的现代化进程。促进人工智能在政府治理领域的深度应用,构建智慧政府和智慧城市,使“阳光行政”、一体化治理、协同共治成为可能,国家治理体系实现现代化转型。最后,强化理论性研究的基础地位。人工智能的深化发展,离不开基础理论的支撑,尤其是人工智能愈来愈呈现出多学科综合、高度复杂的特性,要求我们在理论、方法、工具等方面取得突破,强化基础理论的地位,勇闯人工智能科技前沿“无人区”[8]。因此,人工智能对于基础理论需求的发展现实,要求基础理论研究与应用研究的再平衡,强化了理论研究的基础地位。

虽然社会对于人工智能的发展达成价值共识,但是,人工智能渗入经济、政治、社会领域中引发的道德风险也同样受到学者们的共同关注。首先,人工智能运用中蕴含数据异化风险。其次,人工智能运用中引发人类自由意志危机。最后,使用人工智能带来的不平等加剧道德风险。

二、人工智能蕴含道德风险的具体表现

人工智能自产生之日起就是一个矛盾体,其价值与风险并存,尤其是它所产生的道德风险,更是受到学者们的极大关切。

(一)人工智能运用中的侵犯隐私风险

隐私权作为公民的一项基本权利,已为世界所公认。当前,人工智能及其产品纷纷进入寻常百姓家,智能清洁机器人、智能学习机等都给人们生活带来了便捷,改变着生活方式。但是,人-机交互中,人工智能也对个体隐私带来威胁。人工智能依赖大数据实现收集、存储和分析海量数据,包括个人的基本信息、身份信息、生物信息等,涉及隐私信息被侵犯的可能。人工智能依赖云计算实现数据分析的过程中,个体的信息被使用于大数据挖掘和计算,再次涉及隐私信息的安全问题。人工智能依赖深度学习实现决策的过程完全是建立在大数据运用的前提下,隐私隐患依然存在。人工智能使用过程是大数据、云计算、深度学习协同运行的过程,此过程存在直接侵犯隐私和二次侵犯隐私两种情况:直接侵犯隐私就是不经当事人同意直接使用其个人信息。例如,“2019年4月,一段通过把朱茵在《射雕英雄传》中扮演的角色‘黄蓉’的脸替换成杨幂的视频走红”[9]。这一行为虽然以娱乐为目的,但是其操作过程中却实实在在地侵犯了个人隐私。二次侵犯隐私是指信息使用方使用个体的网络浏览信息等,虽不是直接的个人信息但却是具有隐私性质的个人使用信息。例如,人们在网上购物后,浏览信息的痕迹会被后台记录,根据用户浏览信息,软件主动判断用户偏好,作为“精准”推送营销信息的重要依据。此后,消费者的偏好信息和购物数据被网购平台掌握并无偿使用,至于信息如何使用、使用到什么程度等问题网购平台则不会公开告知使用人,这就存在大量侵犯隐私的风险。

(二)人工智能运用中的侵犯人类意志自由风险

个体的意志自由是人与动物最本质的区别,人类的选择性是意志自由的最集中表达。但是人工智能的出现以数据的预测、规范的程序、提前的干涉代替了人的自由意志选择、人类试错的过程。以智能学习机器(人)为例,青少年学生通过信息输入将问题反馈给机器,机器能够迅速反应,直接输出答案,这一过程将人们的学习方式简化为“输入-输出”模式,使得学习进程便捷、简单、轻松,但是人类却失去了自我探索、自我纠错、自我反思的机会,而这恰恰是学习最重要的环节,恰恰是人类自由意志最完善的表达。

人工智能对人类自由意志侵犯的另一个表现是人工智能替换人类的主张。持强人工智能的学者们认为,从简单劳动到复杂工序创造,人工智能都展现出高超的技艺。在生产性和服务性的一些领域,部分工作已经交由人工智能负责;生物领域的专家正在仿照人类大脑神经元结构和语言能力,以期建造“智能大脑”,赋予人工智能“意识”,替代人类决策。

(三)人工智能运用中的机器依赖风险

随着人工智能“走进”政治、经济、社会等工作生活领域,它是获得新认知、创造新价值的源泉,是改变政府组织和结构的力量,是开启人们幸福生活的技术保障,人类惊叹于它的耀眼成果的同时产生了对人工智能的过度依赖,导致了人工智能独裁的现象。政治领域中,人们依赖人工智能进行决策和判决等行为,虽然提升了行政、司法等方面的效率。但是,对于人工智能的依赖,弱化了人的主动性。例如,智慧司法中产生了新的不公正等道德问题。经济领域中,人们依赖人工智能发现经济运行中的潜在问题而进行预测,有利于精准施策,但是却容易导致市场对产业的盲目追捧或漠视等问题。社会领域中,人们依赖人工智能展开服务、完成监督、进行操作,虽然将人们从琐碎的工作中解脱出来,但是,也导致人们更加依赖人工智能,将其视为不可或缺的助手。个体生活领域中,人们运用人工智能产品完成各项工作,当前智能导航软件成为人们外出的依靠正是人们依赖人工智能的确证,甚至,一些个体在与人工智能交互中建立了情感沟通。2013年美国发生的人与智能机器人“陷入爱河”事件①就是典型事例。因此,人工智能的运用和发展结果,“使物质力量具有理智生命,而人的生命则化为愚钝的物质力量”[10]580。

①法国女子Lily与机器人(InMoovator)共同生活,比较前两任男朋友她更喜欢与机器人男友相处,她认为机器人男友使她更有人身安全,生活更便捷,机器人男友对她更温柔、更忠诚。如今Lily和机器人男友已经同居并订婚,并打算在人类和机器人婚姻合法后结婚。参见:郭文静.法国女孩恋上3D打印机器人,宣布与机器人订婚[EB/OL].(2016-12-26)[2019-10].http://news.youth.cn/gj/201612/t20161226_8984015.htm.

(四)人工智能运用中的社会不平等风险

无论中国还是西方,平等自古以来都是伦理学家关注的焦点,平等都被看作个人心灵和社会秩序和谐的基础。但是,人工智能的进化,首先,加剧了区域间的不平等。我国不同区域间人工智能的发展和应用具有差异性,导致在智能领域的竞争力也各不相同。当前我国人工智能基础设施建设和社会经济效益产出等都主要集中于东部地区,而中部和西部地区明显落后,加剧了区域间高科技产品在生产力发展中的不平衡,形成“智能鸿沟”。其次,加剧行业间的不平等。目前,人工智能主要应用于制造业,重塑了企业生产线流程,并在销售、服务等部门也普遍使用,大幅提升企业生产率和竞争力,造成此类企业与其他企业发展和竞争间的不平等,拉大了企业之间的发展动力。最后,加剧劳动者之间的不平等。劳动者之间因智力、体力、教育等因素的差异,不平等问题早已有之,而人工智能的运用,更加拉大了劳动者之间的不平等。作为最新科技的产物,人工智能开辟了科技的全新领域,依靠以往的知识和技术,无法满足科技的需要,因此,拥有人工智能技术的劳动者,在新时代获得了较强的竞争力,掌握这一新技术资源的劳动者更是拥有了巨大的经济利益,而其他无法适应新技术革命的人,只能面临被淘汰,被抛入失业群体,沦为“无用阶级”[11]。

三、人工智能道德风险产生的原因

人工智能作为人类科技发展的产物,本身并无善恶之分。产生善恶之讨论,究其根本原因在于人类驾驭能力有限和运用方向的错误。

(一)人工智能的相关道德理念滞后

人工智能作为新生事物,无论是政府、企业还是个体都未形成使用人工智能的成熟理念。就政府层面而言,尽管政府强调人工智能的价值,但是从道德视角说明人工智能使用的论述鲜有出现。各级政府更多地把精力放在传统智能上而不是着眼于人工智能上,人工智能并不是政府现有工作中的重点问题。在为数不多的涉及人工智能的工作中,政府关注的是人工智能带来的工作便捷、经济效益等,人工智能的道德问题并未真正受到政府的关注。就企业层面而言,作为人工智能的设计、生产、维护者,企业更多关注的是其产品的质量带来的收益、技术的跟进等问题,而不是道德风险的防范问题。就使用人工智能的个人而言,是否方便生活是其关注人工智能和使用人工智能的核心问题,至于其使用过程中的道德问题并未引起较大的关注。

政府、企业和个人对人工智能利益的过分关注和对道德问题的忽视,与现行社会中流行的利益僭越道德、错误科技观的存在密不可分。其一,利益僭越道德。利益与道德本质上具有统一性,两者相辅相成共同构筑美好生活。技术主体之于人工智能的应然状态是道德范畴内的利益最大化,道德主体之于人工智能的实然状态是技术范畴内的利益最大化。然而,市场化背景下技术主体对利益的过度追求打破了利益与道德自身的平衡,利益僭越道德引发行为失范。其二,错误的科技观。围绕人工智能出现的错误科技观主要有三种形式:一是片面僵化地看待人工智能。当人工智能给自身或周围他人带来危害时立即远离甚至排斥这一技术;当人工智能带来便捷或利益时报之以极端肯定,缺乏辩证看待人工智能技术的科学道德观。二是将人工智能“拟人化”。以完全主观性的态度对待人工智能,忽视了其技术工具的本质,将其由“人-机共生性”的应然发展状态转变为“人-机共情”的实然状态。三是“替代性”假设的提出。基于人工智能的“类人性”特征,结合人工智能深化发展所产生的实际效应和生物学科对其“意识发生”的研究提出“替代性”假设,认为人工智能终将替代人类。

(二)人工智能运用中的顶层设计不完备

为推进人工智能发展,保持我国在人工智能等新技术革命中的后发优势,从2015年开始,国家通过顶层设计,制定和出台了一系列人工智能发展政策(见表1),有力地保障了人工智能的快速发展。但是,相较于人工智能的飞速发展,与其匹配的运行、保障、监督机制却发展缓慢。就人工智能的运行机制而言,顶层制度设计仍处在起步阶段。例如,在《国务院关于印发新一代人工智能发展规划的通知》中,提出了制定促进人工智能发展的法律法规和伦理规范;2019年6月,新一代人工智能治理专业委员会发布《新一代人工智能治理原则》。但这些仅是原则性意见或通知,没有成型的管理体制,也没有成型的管理架构,规范的人工智能管理难以实现。

表1(Tab.1)表12015年以来我国制定和出台的人工智能主要政策时间政策名称颁布单位2015年5月《中国制造2025》中华人民共和国国务院2016年3月《中华人民共和国国民经济和社会发展第十三个五年规划纲要》中华人民共和国国家发展和改革委员会2016年5月《“互联网+”人工智能三年行动实施方案》中华人民共和国国家发展改革委员会、科技部、工业和信息化部、中央网信办2016年8月《“十三五”国家科技创新规划》中华人民共和国国务院2016年11月《“十三五”国家战略性新兴产业发展规划》中华人民共和国国务院2017年3月《2017年国务院政府工作报告》中华人民共和国国务院2017年7月《国务院关于印发新一代人工智能发展规划的通知》中华人民共和国国务院2017年12月《促进新一代人工智能产业发展三年行动计划(2018—2020年)》中华人民共和国工业和信息化部2018年11月《新一代人工智能产业创新重点任务揭榜工作方案》中华人民共和国工业和信息化部2019年3月《关于促进人工智能和实体经济深度融合的指导意见》中共中央全面深化改革委员会2019年8月《国家新一代人工智能创新发展试验区建设工作指引》中华人民共和国科技部表12015年以来我国制定和出台的人工智能主要政策

就人工智能的监督机制而言,人工智能运用过程的监督涉及监督主体、监督制度、监督流程、信息反馈等因素,但现行的人工智能各使用环节都未解决监督问题。第一,在研发端,人工智能作为知识密集型技术要求参与主体的专业化,由少数人员参与研发,其他主体“自动”排除,导致这一环节监督的困难。第二,在生产环节,人工智能产品的质量监督代替了道德风险监督、利益需要代替了道义要求、低违规成本制约不了巨额利润的诱惑,使得生产企业忽略人工智能本身存在的道德风险,道德监督制度的不健全和式微导致生产环节道德监督的无效。第三,在使用端,相比人工智能存在的道德风险,人们更关注它的便捷性、高效性和实用性,对生活的实用价值代替了对生活的人文关怀。同时,人工智能使用环节的体制目前仍是我国体制机制建立的空白领域。主体意识和客观制度的共同缺位造成了人工智能使用中道德风险监督不足的局面。

就人工智能的保障机制而言,由于人工智能道德责任主体界限模糊而导致了现有道德保障机制失灵。现行的道德制度是以规范人与人之间的关系和行为为主体的制度,它确立了道德行为主体既是道德义务主体也是道德责任主体的根本原则。但是人工智能使道德行为主体延伸至机器,道德行为出现了人-机二元主体结构,围绕此问题学术界形成两种对立观点:第一,人工智能不具有道德主体性地位。部分学者从人脑的构成说明此问题,他们认为人脑中有某种给人脑以能力的特殊东西,这种东西是编程的硅芯片永远不能达到的。也有部分学者从人脑的特征说明此问题,他们认为虽然人工智能具备“类人性”,但是这些属性的存在是基于程序的输入而存在,并不是人脑所拥有的真正意义上的自主性。第二,人工智能具备道德主体地位。持此类观点的学者从两个不同层面论述了人工智能的道德主体性:首先,从人工道德智能体的动态发展过程看,经历了操作性道德、功能性道德阶段后,人工道德智能体一定能够达到可靠的道德智能体。那时,人工智能作为主体能够为其行为承担责任。其次,从“他者”视角赋予人工智能道德主体性地位。有学者认为,在当前的科学技术环境中,如果从他者的视角赋予人工智能所期望的责任,那么人工智能在行为过程中就将成为某种程度的道德能动者、责任承担者、道德实践者[12]。总体看来,当人工智能道德“到底由谁负责”的问题悬而未决、道德责任界定模糊时,人工智能的行为是由其自身负责还是由技术主体负责的追问毫无意义、所有现有的道德保障机制形同虚设。

(三)人工智能自身的“技术矛盾”

“技术的胜利,似乎是以道德的败坏为代价换来的”[13]776,技术所诱发的道德风险,始终纠缠着技术本身。相较于其他技术“是对人的体力的取代”,人工智能“是对人的‘体力+智力’的取代”,尤其是“深度学习”能力的赋予使得人工智能具有“相对主体地位”,必然“携带着”道德风险因素作用于人类社会;同时,人工智能自身也存在“技术黑箱”,促使其产生强标识性的新的道德风险。其一,人工智能直接“参与”人类社会道德关系[14]。技术发展史就是人类改造自然的能力不断提升的历史[15]86,工具性质决定了技术长期辅助人类劳动,仅作为外在因素“影响”人们的道德关系,并未改变“人-人”的道德范式。然而,人工智能模拟“人的智力”的能力实现技术与人的“耦合”,作为相对主体直接“参与”“人-人”的传统道德关系,形成“人-人工智能”相互间的道德关系。其二,算法“黑箱”导致的不确定性。人工智能依赖算法进行“深度学习”,但是算法本身的运作逻辑如何,即产生结果的原因我们无法明晰,完全依赖于人工智能的自主性,形成算法“黑箱”。当不透明性产生的不确定性后果延伸至人类社会,无形地增加了伦理风险[16],无人驾驶技术所导致的交通事故即是确证。同时,算法“黑箱”增加了人对人工智能发展不确定性的焦虑,随着科技的进步,人工智能未来将至何种阶段,导致何种影响,是形成与人类文明并存(甚至竞争)的机器文明,还是人类突破“黑箱”限制,完全掌控人工智能,成为当前人们对人工智能发展的哲学思考。

四、人工智能道德风险的治理路径

以道德风险产生的原因为依据,健全保障人工智能健康发展的制度规范、培育人工智能理念是治理人工智能道德风险的有效路径。

(一)培育正确的人工智能理念

人工智能体制机制建设、人工智能道德风险防范都需要人类有与之匹配的意识和能力,在意识与能力两者之中意识又是先行者。

第一,树立科学的人工智能认识论。人工智能能否具备意识是当前人工智能研究中的热点问题。马克思认为,意识是人脑的机能和属性。从意识起源来看,它的产生经历了一切物质所具有的反应特性到低等生物的刺激感应性再到高等动物的感觉和心理三个阶段。从意识的本质来看,意识是客观世界的主观映像。以马克思的意识理论观照人工智能,人工智能是由不同物质部件构成,具有一般物质的反应性。但是,人工智能却不是生物而是无机物,它不具备生物的刺激感,应更不具备意识的主观映像。所以,人工智能本质上是物而不是人。尽管当前生物领域专家正在模仿人类大脑神经元,建造人工智能大脑,但是这些努力只是从结构上仿照人类大脑,而意识的主观性却无法用数据或者仪器测量;同时,当前的智能机器人可以模仿一些人类的情感和自我意识,但是人类所拥有的活性逻辑思维能力,机器永远不可能具有,无论技术产生何种影响,作用于何种结果,都不是技术自身的力量,而取决于人如何使用技术[17]60。所以,人工智能本质上是一种高级的系统性技术或者技术系统,在算法、算力等领域具备超越人类的能力,但是,它本质依然是技术而不可能具备完全人类意识。因此,对于人工智能所具有的更为广阔的视野和更强的潜力,我们无须担忧,更无须恐惧人工智能未来是否替代人类,我们需要的是科学地对待人工智能,辩证地看待其社会效应,主动降低人工智能风险,将其限制于可控范围内,最大限度地增进人类利益。

第二,树立正确的主体意识。强化主体意识首先要正确认识人和人工智能的关系。人工智能是“人的产业劳动的产物,是转化为人的意志驾驭自然界的器官或者说在自然界实现人的意志的器官的自然物质”[18]198。人工智能本质上是人类创造的产物,是人在认识世界、改造世界过程中开发的人类能力的延伸。所以,在人与人工智能互动过程中,人是主体而人工智能是客体,在劳动中人工智能按人类的需要完成各项任务、实现自身价值。总之,强调人之为人的主体身份和地位,是解决交互性机器伦理的关键[19]。

强化主体意识也需要澄清人工智能发展中的错误观点。因为人工智能具有“类人”的特殊性,学者们在研究人与人工智能关系时形成了“崇拜论”和“威胁论”两种极端科技观。“崇拜论”将人工智能视为“万能神”,认为其价值中性的特征能够克服人类主观臆断等诸多不足,客观处理生产关系,做出中立性的选择和判断;同时,人工智能的风险可以依赖其自身的进一步进化而克服。因此,人工智能应不加限制地大力发展。“威胁论”则突出强调人工智能引发的各类风险进而宣称应暂停并取消人工智能。持“威胁论”的学者们将人工智能视为人类未来生存的潜在威胁,认为如果不加以节制,人类终将被机器所取代和统治。这两种观点,呈现出对人工智能发展的不同价值取向,前者积极,后者消极,但本质都是将人工智能置于人的对立面来考虑问题,没有把握好处理人和机器关系的度。

强化主体意识还需要强化主体的责任意识。人工智能时代,人们应该树立“谁使用谁负责”的责任意识。人工智能的使用者是其技术价值实现的主导,对于人工智能应用所产生的效应最具感受性,产生道德结果或产生失德后果,使用者都应该是第一责任人。同时,基于权利与义务对等原则,人工智能使用者是直接受益方,所以也应该是相应的责任担当方。只有这样,才能在人工智能发生道德风险时及时找出责任人,约束人工智能使用者良善使用并自觉规范自身行为。

(二)建构完善的人工智能体制机制

第一,首要任务是完善人工智能管理的顶层设计。在现有制度的基础上,设置完备的人工智能使用机制、运行机制和保障机制是治理其道德风险的基础和保障。首先,成立以中央牵头的上下贯通的人工智能管理机构。由中央统一领导,设置省、市、县上下连通的人工智能管理部门,协同管理人工智能的整体运行。其次,成立各级各层协同共治的人工智能运行机构。由各级各层人工智能管理部门牵头,形成政府、企业、社会有机协同的人工智能治理机制。再次,形成人工智能管理的“一把手”工程。把人工智能作为各级政府“一把手”工程,由其牵头负责人工智能的管理工作,由其担任人工智能运用的第一责任人。要使硬性的制度设置顺利运转,需要制定出台系统的人工智能道德规范体系。针对人工智能的发展,构建与之相应的道德规范体系,是治理道德风险的关键一招。最后,制定出台层级性人工智能道德规范。在国家层面,制定出台宏观的人工智能道德纲要,作为人工智能运用中道德的根本要求,作为其他各类各级人工智能道德规范的制定依据;在社会层面,基于人工智能与不同领域的结合,如医疗、教育、交通等,确定与国家道德原则精神相一致的不同领域道德规范;在个体层面,针对个体在人工智能领域可能涉及的道德问题制定规范个体行为的道德指标。

第二,要形成多元主体协同治理的主体运行机制。人工智能本身以互联网为基础保障了道德风险协同共治模式生成的技术支持,但是由可能转为现实还需要形成政府、企业、公民多元主体协同治理机制。科学家、工程师等科技工作者,是人工智能的设计和创造主体,掌握人工智能技术本体的特性、功能和潜在风险等完整数据,有责任在起始端控制风险发生概率,向公众及时普及人工智能技术知识并告之其风险可能性。政府是人工智能研发生产及政策决策主体,应当联合科技工作者和人文哲学专家对人工智能技术生产和应用中的潜在风险进行预测和评估,使监督贯穿人工智能发展全过程。哲学社会科学领域的专家学者应该突破“社会影响框架”限制,主动参与人工智能发展的理论研究和实践,为人工智能赋予伦理意义。媒体有责任积极反馈相应风险事件,客观报道人工智能的社会效应,促进技术知识的普及,杜绝以“哗众取宠”为目的的不实报道。公众是人工智能使用端主体,应该发挥参与者和监督者的作用,积极主动地参与人工智能技术的道德评估,确保人工智能健康发展。

第三,要形成有效的道德监督机制。首先,形成全过程道德监督机制,即在人工智能设计、研发、应用阶段强化技术主体的技术伦理考核因素,生成人工智能主体的伦理认知、伦理选择和伦理反思机制[20]194,将道德考量贯穿全过程。在人工智能设计阶段,主动进行道德研判,避免造成或者可能造成道德失范问题的设计和研发;在应用阶段,当存在潜在道德风险或者技术价值与其他价值相冲突时,能够基于道德价值规范自身行为,实施道德评估。技术主体在不同阶段,都应对人工智能的道德行为进行及时评估,当发现显性或隐性风险时,及时进行干预,不断升级和完善人工智能,使其发挥应有价值。其次,形成“德-得”相通的道德制约机制,防范人工智能道德风险。市场是利益交换和实现的基站,更是技术主体实现自身利益的伊甸园。然而,在利益至上的驱使下,技术主体的市场伦理失范现象客观存在,并且溢出市场领域进入社会生活领域,影响人工智能的良善使用。为了防止人工智能使用中利益僭越伦理现象的发生,要把“德-得”相通的道德制约机制引入人工智能应用领域。树立“有德”才能“有得”的思维模式,使技术主体能够自觉遵守道德规范,并主动外化为道德行为,抵制市场不道德行为,实现人工智能的市场价值,促进人工智能向善发展。

(三)完善人工智能自身伦理功能

当前,人工智能在人类社会各领域“相对主体地位”的角色已得到确证,且随着科技进步,人工智能自主性发挥的边界和能力将逐步扩大及提升,完善人工智能自身伦理,是防范和化解道德风险的关键。第一,强化人工智能伦理功能。在加强人工智能的伦理意识和理念等隐性设计伦理的基础上,我们还必须强化显性设计伦理。比如嵌入某种具有伦理功能的软件或硬件,发挥其“安全阀”的作用,从设计伊始加强人工智能伦理功能。当人工智能独立行事产生潜在的或即将发生道德风险时,相应程序能够及时介入,降低或消除道德风险的危害;当人与人工智能互动时,人工智能能够通过自身的伦理功能,帮助人们意识到技术中的道德意蕴,强调人的道德主体地位,助力人们进行道德反思,解决人们面临的道德困境。第二,持续推动技术创新,推进技术进步。面对人工智能自身存在的“算法黑箱”,除了培育正确的理念和构建完整的制度体系,促进技术的进步也是重要路径。技术本质是人的活动器官的延伸,持续推动技术创新和进步,使算法尽可能透明化,便于我们更好地认识算法过程,打破“算法黑箱”,使算法结果可理解、可追溯,转变因算法不透明所带来的不确定性结果,限制或消除由此产生的道德风险。

整体来看,人工智能作为新技术革命深化发展的成果,在经济、政治、社会等领域产生了巨大价值,但是在不同环节也出现了道德风险问题,影响着人类利益的实现。因此,在处理人工智能关系时,我们必须保持人在人机互动中的主体地位,重视人工智能道德风险,研判和预防风险的发生,发挥主动性,变消极为积极,构建人机共生关系,发掘人类与人工智能的潜力,产生聚合效应,实现人对未来生产生活方式的定义,达到人机和谐发展。

版权声明:本文内容由互联网用户自发贡献,该文观点仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌抄袭侵权/违法违规的内容,一经查实,本站将立刻删除。

上一篇

下一篇