博舍

人工智能迫切需要一个“伦理转向” 人工智能中的伦理道德

人工智能迫切需要一个“伦理转向”

原标题:人工智能迫切需要一个“伦理转向”

当前人工智能的发展主要受益于以深度学习为代表的机器学习技术,这让计算机可以从大量数据中自主学习与进化,从而作出比人类更高效、更精准、更廉价的预测与决策。正因如此,人工智能作为新的通用型技术,被认为将给经济和社会带来变革性影响,已被各国上升到国家战略和科技主权高度,成为不断升温的全球科技竞争的新焦点。

在应用层面,人工智能已经渗透到各行各业,算法帮我们过滤掉垃圾邮件,给我们推荐可能喜欢的歌曲,为我们翻译不同的语言文字,替我们驾驶汽车。新冠肺炎疫情暴发以来,人工智能在辅助医疗诊断与新药研发等方面崭露头角,无人物流配送、无人驾驶汽车等新模式助力非接触服务发展。总之,人工智能潜力巨大,可以成为一股向善的力量,不仅带来经济增长,增进社会福祉,还能促进可持续发展。

但与此同时,人工智能及其应用的负面影响与伦理问题也日益凸显,呼吁人们在技术及其产业化之外更加关注伦理视域。例如,人工智能模型训练及其应用离不开大量数据的支持,可能导致违法违规或过度收集、使用用户数据,加深人工智能与数据隐私保护之间的紧张关系;人脸识别技术在一些场景的应用也引发了国内外对该技术侵犯个人隐私的争议。人工智能技术也可能被不法分子滥用,例如用来从事网络犯罪,生产、传播假新闻,合成足以扰乱视听的虚假影像等。

随着算法歧视的不断发酵,人工智能参与决策的公平性问题也备受关注。有研究发现,很多商业化的人脸识别系统都存在种族、性别等偏见,这样的技术用于自动驾驶汽车,就可能导致黑人等深色皮肤的人更容易被自动驾驶汽车撞到。人工智能在招聘、广告投放、信贷、保险、医疗、教育、司法审判、犯罪量刑、公共服务等诸多方面的应用也伴随公平性争议。此外,人工智能的知识产权保护问题也日益浮现,目前人工智能已能够独立创造诗歌、小说、图片、视频等,知识产权制度将需要尽快回应人工智能创造物的保护问题。自动驾驶汽车、AI医疗产品等人工智能应用一旦发生事故,也面临谁来担责的难题。最后,人工智能的应用可能取代部分手工的、重复性的劳动,给劳动者就业带来一定冲击。

2020年被认为是人工智能监管元年,美欧采取的监管路径大相径庭。欧盟《人工智能白皮书》提出的“重监管”模式更多倚重事前的规制,考虑为技术开发与应用设置严苛条件;美国《人工智能应用监管指南》提出的“轻监管”模式更多倚重标准、指南等弹性手段,考虑为人工智能应用设置避风港、“监管沙箱”等。在全球科技竞争日趋激烈、数字经济日趋成为国家核心竞争力等背景下,考虑到我国科技行业发展实际,我国对人工智能需要创新治理,倚重敏捷监管、伦理治理、技术治理等多元手段来共同确保人工智能正向应用与向善发展。

首先,监管不仅需要对人工智能应用分级分类、以问题和风险防范为导向,而且需要具有敏捷性与适应性。人工智能技术的一个核心特征是快速发展迭代,制定强制性法律必然赶不上技术发展步伐,所以国外大都采取出台指南、伦理框架等“软法”。此外,自动驾驶汽车、智能医疗等人工智能应用的发展落地仍面临较多法规政策障碍,需要考虑修订阻碍性的法律法规,同时通过“数字沙箱”“安全港”“试点”等方式推动其试验与应用落地。

其次,采取伦理治理,把伦理原则转化为伦理实践。目前,国内外很多科技公司都出台了人工智能伦理原则,也在通过伦理审查委员会、伦理嵌入等方式落实其伦理原则。行业的这些伦理治理措施已在国内外获得较大共识,更能适应AI技术发展。

再次,以技术手段防范人工智能滥用。例如,深度合成作为一项人工智能应用,在影视制作、教育、医疗、娱乐等领域具有很大正向应用价值,但也可能被不法分子滥用来制造、传播虚假影像以从事欺诈欺骗活动。对此,行业内已在积极研发、部署内容鉴别与溯源技术,以对抗深度合成的滥用。面对复杂性与迭代速度不断增强的人工智能应用,技术治理将发挥越来越大的作用。

(作者:曹建峰,系腾讯研究院高级研究员)

(责编:赵超、吕骞)

分享让更多人看到

人工智能的道德代码与伦理嵌入

    人工智能和包括机器人在内的智能化自动系统的普遍应用,不仅仅是一场结果未知的开放性的科技创新,更将是人类文明史上影响甚为深远的社会伦理试验。诚如霍金所言,人工智能的短期影响由控制它的人决定,而长期影响则取决于人工智能是否完全为人所控制。

 

人工智能体的拟主体性与人工伦理智能体

 

    人工智能的伦理问题之所以受到前所未有的关注,关键原因在于其能实现某种可计算的感知、认知和行为,从而在功能上模拟人的智能和行动。在人工智能创立之初,英国科学家图灵、美国科学家明斯基等先驱的初衷是运用计算机制造能实现人类所有认知功能的通用人工智能或强人工智能。但科学家们不久就发现,要使机器像人一样理解语言和抽象概念,通过学习全面达到人类智能的水平,并非一日之功。迄今为止,应用日益广泛的各种人工智能和机器人尚属狭义人工智能或弱人工智能,只能简单地执行人交给它们的任务。

 

    一般地,人工智能及智能自动系统能根据人的设计自动地感知或认知环境(包括人)并执行某些行动,还可能具备一定的人机交互功能甚至可以与人“对话”,常常被看作具有一定自主性和交互性的实体。有鉴于此,人工智能学家引入了智能体(agents,又称智能主体)的概念来定义人工智能:对能够从环境中获取感知并执行行动的智能体的描述和构建。于是,可将各种人工智能系统称为人工智能体或智能体。从技术上讲,智能体的功能是智能算法赋予的:智能体运用智能算法对环境中的数据进行自动感知和认知,并使其映射到自动行为与决策之中,以达成人为其设定的目标和任务。可以说,智能体与智能算法实为一体两面,智能算法是智能体的功能内核,智能体是智能算法的具体体现。

 

    从智能体概念出发,使人工智能系统更为明晰地呈现为可以模拟和替代人类的理性行为,因可与人类相比拟乃至比肩的存在,故可视之为“拟主体”,或者说智能体具有某种“拟主体性”。如果仅将智能体看作一般的技术人造物,其研究进路与其他科技伦理类似,主要包括面向应用场景的描述性研究、凸显主体责任的责任伦理研究以及基于主体权利的权利伦理研究。但在人们赋予智能体以拟主体性的同时,会自然地联想到,不论智能体是否像主体那样具有道德意识,它们的行为可以看作是与主体伦理行为类似的拟伦理行为。进而可追问:能不能运用智能算法对人工智能体的拟伦理行为进行伦理设计,即用代码编写的算法使人所倡导的价值取向与伦理规范得以嵌入到各种智能体之中,令其成为遵守道德规范乃至具有自主伦理抉择能力的人工伦理智能体?

 

机器人三定律与嵌入式的机器伦理调节器

 

    其实,这一思路并不新鲜,早在70多年前,美国人阿西莫夫在对机器人三定律的科学幻想中,就提出了通过内置的“机器伦理调节器”使机器人成为服从道德律令的类似构想。在短篇科幻小说《转圈圈》(1942)中,阿西莫夫提出了按优先顺序排列的机器人三定律:第一定律,机器人不得伤害人类或坐视人类受到伤害;第二定律,在与第一定律不相冲突的情况下,机器人必须服从人类的命令;第三定律,在不违背第一与第二定律的前提下,机器人有自我保护的义务。此后,为了克服第一定律的局限性,他还提出了优先级更高的机器人第零定律:机器人不得危害人类整体或坐视人类整体受到危害。

 

    从内涵上讲,机器人定律是一种康德式的道德律令,更确切地讲是人为机器人确立的普遍道德法则,以确保其成为遵守绝对道德律令的群体。而更耐人寻味的是,机器人三定律是通过技术实现的。在《转圈圈》中,三定律是根深蒂固地嵌入到机器人的“正电子”大脑中的运行指令:每个定律一旦在特定场景中得到触发,都会在机器人大脑中自动产生相应的电位,最为优先的第一定律产生的电位最高;若不同法则之间发生冲突,则由它们的大脑中自动产生的不同电位相互消长以达成均衡。这表明,机器人定律并不全然是道德律令,也符合其技术实现背后的自然律。换言之,机器人定律所采取的方法论是自然主义的,它们是人以技术为尺度给机器人确立的行为法则,既体现道德法则又合乎自然规律。

 

    历史地看,这些富有电气化时代色彩的机器人伦理设计实际上是一种科技文化创新。自英国作家雪莱夫人创作《弗兰肯斯坦》(1818)到捷克的恰佩克发表《罗素姆万能机器人》(1921),不论是前者呈现的科学怪人的形象,还是后者昭示的机器人造反,都体现了人对其创造物可能招致毁灭性风险与失控的疑惧。机器人定律则为摆脱这种情结提供了可操作性的方案——通过工程上的伦理设计调节机器人的行为,使其成为可教化的道德的机器人——合伦理的创造物。但从自然主义的方法论来看,这一构想又似乎明显超前。在提出第零定律时,阿西莫夫也意识到,机器人可能无法理解人类整体及人性等抽象概念。或许是这些困难令他转而畅想,一旦机器人灵活自主到可以选择其行为,机器人定律将是人类理性地对待机器人或其他智能体的唯一方式。这似乎是在暗示,使人工智能体成为可以自主作出伦理抉择的人工伦理智能体的前提是其可与人的智能媲美。

 

走向可计算的机器伦理与智能体伦理嵌入

 

    回到人工智能的现实发展,随着无人机、自动驾驶、社会化机器人、致命性自律武器等应用的发展,涌现出大量人可能处于决策圈外的智能化自主认知、决策与执行系统,这迫使人们在实现强人工智能之前,就不得不考虑如何让人工智能体自主地做出恰当的伦理抉择,试图将人工智能体构造为人工伦理智能体。从技术人工物所扮演的伦理角色来看,包括一般的智能工具和智能辅助环境在内的大多数人工物自身往往不需要做出价值审度与道德决策,其所承担的只是操作性或简单的功能性的伦理角色:由人操作和控制的数据画像等智能工具,具有反映主体价值与伦理诉求的操作性道德;高速公路上的智能交通管理系统所涉及的决策一般不存在价值争议和伦理冲突,可以通过伦理设计植入简单的功能性道德。反观自动驾驶等涉及复杂的价值伦理权衡的人工智能应用,其所面对的挑战是:它们能否为人类所接受,在很大程度上取决于其能否从技术上嵌入复杂的功能性道德,将其构造为人工伦理智能体。

 

    让智能机器具有复杂的功能性道德,就是要构建一种可执行的机器伦理机制,使其能实时地自行做出伦理抉择。鉴于通用人工智能或强人工智能在技术上并未实现,要在智能体中嵌入其可执行的机器伦理,只能诉诸目前的智能机器可以操作和执行的技术方式——基于数据和逻辑的机器代码——就像机器人三定律所对应的电位一样,并由此将人类所倡导或可接受的伦理理论和规范转换为机器可以运算和执行的伦理算法和操作规程。机器伦理的理论预设是可以用数量、概率和逻辑等描述和计算各种价值与伦理范畴,进而用负载价值内涵的道德代码为智能机器编写伦理算法。论及伦理的可计算性,古典哲学家边沁和密尔早就探讨过快乐与痛苦的计算,而数量、概率、归纳逻辑和道义逻辑等都已是当代伦理研究的重要方法,机器伦理研究的新需求则力图将“可计算的伦理”的思想和方法付诸实践,如将效益论、道义论、生命伦理原则等转换为伦理算法和逻辑程序。不得不指出的是,用数量、概率和逻辑来表达和定义善、恶、权利、义务、公正等伦理范畴固然有失片面与偏颇,但目前只能通过这种代码转换才能使人的伦理变成程序化的机器伦理。

 

    在实践层面,机器伦理构建的具体策略有三:其一是自上而下,即在智能体中预设一套可操作的伦理规范,如自动驾驶汽车应将撞车对他人造成的伤害降到最低。其二是自下而上,即让智能体运用反向强化学习等机器学习技术研究人类相关现实和模拟场景中的行为,使其树立与人类相似的价值观并付诸行动,如让自动驾驶汽车研究人类的驾驶行为。其三是人机交互,即让智能体用自然语言解释其决策,使人类能把握其复杂的逻辑并及时纠正其中可能存在的问题。但这些策略都有其显见的困难:如何在量化和计算中准确和不走样地表达与定义伦理范畴?如何使智能体准确地理解自然语言并与人进行深度沟通?

 

    鉴于机器伦理在实践中的困难,人工智能体的伦理嵌入不能局限于智能体,而须将人的主导作用纳入其中。可行的人工伦理智能体或道德的智能机器的构造应该包括伦理调节器、伦理评估工具、人机接口和伦理督导者等四个环节。伦理调节器就是上述机器伦理程序和算法。伦理评估工具旨在对智能体是否应该以及是否恰当地代理了相关主体的伦理决策做出评估,并对机器伦理的道德理论(如效益论、道义论等)和伦理立场(如个性化立场、多数人立场、随机性选择等)等元伦理预设做出评价和选择。人机接口旨在使人与智能体广泛借助肢体语言、结构化语言、简单指令乃至神经传导信号加强相互沟通,使机器更有效地理解人的意图,并对人的行为做出更好的预判。伦理督导者则旨在全盘考量相关伦理冲突、责任担当和权利诉求,致力于厘清由人类操控不当或智能体自主抉择不当所造成的不良后果,进而追溯相关责任,寻求修正措施。

 

    对人类文明而言,人工智能将是一个好消息还是坏消息,最终取决于我们的伦理智慧。在中国推出新一代人工智能发展规划的今天,我们更要悉心体味孕育了巧夺天工精神和天工开物情怀的中国思想,审天人之性,度万物之势,以探求人机和谐、文明通达之道。

 

    (作者:段伟文,系中国社会科学院哲学所研究员)

 

浅谈人工智能时代下的工程伦理问题

浅谈人工智能时代下的工程伦理问题一、引言

近年来,随着大数据基础设施建设以及人工智能技术的发展,社会中涌现出许多新技术,给人们带来更便捷的生活。但与其共生的道德风险问题也日益显著。人工智能道德风险即人工智能技术带来的伦理结果的不确定性,其既有主观因素也有客观因素,具体表现有道德算法风险、道德决策风险、隐私数据泄露风险等。风险主要成因有技术主体、政治、经济、文化等社会因素。结合当下大数据驱动的人工智能算法特点,如何运用风险治理思想分析其背后的工程伦理问题对人工智能领域发展具有重要意义。

二、人工智能时代的当下

在1956年达特茅会议中AI这个概念被提出,经历数次低谷与发展浪潮,人工智能再次活跃在大众的视野中,并且以更完备的生态以及更强的活力积极改变我们的生活。在如今的人工智能浪潮中,深度学习因为其能够胜任更复杂、更庞大的场景而成为主流。

在AI的应用层面,随着大数据基础设施建设的日趋完备,人工智能孕育出许多产业,如:数据挖掘、人脸识别、语音识别、自动驾驶等。同时医疗卫生、交通运输、仓储物流、游戏等行业都已经或正在接受人工智能的优化。

2019年11月11日24时整,“双11”全天的物流订单量达到创纪录的12.92亿元,物流订单量迎来了“爆炸式”的增长。“双11”全天各邮政、快递企业共处理5.35亿快件,是二季度以来日常处理量的3倍,同比增长28.6%,再创历史新高。而在其背后做支撑的是一套完整的基于大数据的人工智能系统。

目前,百度、阿里、腾讯、谷歌等主流互联网公司正在大力投资人工智能相关产业与技术,而与此同时全球正有上千家公司全力押注人工智能,并且这个趋势依旧保持稳定增长的速度。

三、人工智能伦理问题日益凸显

显然,在当下这个人工智能技术飞速发展的时代,人工智能技术的广泛应用为人类带来了显而易见的好处。但技术的进步不但扩大了人类对于技术的恐慌,同时也放大了由于某些技术缺陷和忽略道德伦理问题而带来的负面影响。

3.1忽略伦理问题下产生的算法歧视问题

外卖作为当下快节奏生活的必需品,在其背后做支撑的是数以百万的外卖员和强大的人工智能系统。2020年9月8日,一篇名为《外卖骑手,困在系统里》的文章在互联网上被热议,文章指出:2016至2019年间,美团多次向配送站站长发送加速通知,3公里的送餐距离最长时限一再被缩短至38分钟;而根据相关数据显示,2019年中国全行业外卖订单单均配送时间较3年前减少了10分钟。外卖骑手在系统算法与数据的驱动下疲于奔命,逐渐变成高危职业——骑手为在算法规定的最长送餐时限内完成送餐任务无视交通规则,不断提高车速。

许多伦理问题都是由于实践主体缺乏必要的伦理意识造成的,而外卖平台算法使得外卖骑手被“困在系统里”显然是工程的决策者以及管理者没有考虑相关的伦理问题所导致的。外卖平台作为一项服务消费者、向社会提供就业岗位的工程,其目的与其他类型的工程类似,均为满足人类在某方面的需求,但工程在向社会提供服务的同时不应当忽略工程风险问题。

3.2从风险与安全角度分析外卖平台

工程风险的防范与安全分为工程的质量监理与安全、意外风险控制与安全和事故应急处置与安全三个方面,分析外卖平台的工程风险主要从意外风险控制和事故应急处置两方面展开。

3.2.1意外风险控制维度的工程风险

外卖平台作为服务大众的工程项目,其受众人数巨大——外卖市场规模超6500亿元,覆盖4.6亿消费者,工程一旦出现意外风险控制不当的情况则对其受众造成无法估量的损失。在基于大数据的人工智能算法的训练过程中,算法训练结果会随着数据重心的整体偏移,从而导致外卖骑手不得不加快派送的速度进而风险增加。因此,为避免人工智能系统追求极致地无限制缩短派送最长时限,工程师和程序设计者在程序设计之初应当添加阈值以保证外卖平台背后的外卖骑手能够在遵守交通规则的前提下及时、安全地完成任务。

3.2.2事故应急处置维度的工程风险

事故应急处理体现着工程负责人、相关利益反对工程的理解程度。应对工程事故,应当事先准备一套完整的事故应急预案,保证迅速、有序地开展应急与救援行动,降低人员伤亡和经济损失。外卖骑手因忽视交通规则造成伤亡的事件并非最近才发生——2017年上半年,上海市公安局交警总队数据显示,在上海,平均每2.5天就有1名外卖骑手伤亡。同年,深圳3个月内外卖骑手伤亡12人。2018年,成都交警7个月间查处骑手违法近万次,事故196件,伤亡155人次,平均每天就有1个骑手因违法伤亡。2018年9月,广州交警查处外卖骑手交通违法近2000宗,美团占一半,饿了么排第二。而外卖平台除口头告诫骑手之外并没有推出从根本处解决问题的措施,直到《人物》发表《外卖骑手,困在系统里》一文后外卖平台才相继推出多等5分钟的政策。

3.3从工程四要素角度分析外卖平台

工程包括技术要素、利益要素、责任要素、环境要素以及伦理要素,接下来将从工程四要素中的技术、利益与责任这三个方面来展开。

3.3.1技术维度的道德风险

基于算法和大数据的人工智能技术背后隐藏着风险。算法体现着工程师和程序设计者的思想,其政治立场和社会偏见都会不可避免的嵌入程序中。从大数据中诞生的人工智能系统通常会存在基于数据采样偏差带来的问题,而这类问题在后续的训练中不会被消除甚至可能被放大。因此,为消除算法与数据采用带来的偏见,工程师以及程序设计者在程序设计之初就应当消除主观偏见;同时在数据的处理方法中,应当极尽全力保证数据的准确,降低数据偏差带来的风险。

3.3.2利益维度的道德问题

人工智能存在威胁、侵犯人类利益的风险。从安全角度来说,人工智能应当对人类来说是安全的、可靠的、不作恶的。以外卖平台派单系统为例,外卖骑手在系统的算法歧视下被迫忽视交通规则,对骑手、对行人已经构成严重的安全隐患。因此,如何通过人工智能系统,在权衡各方利益、兼顾效率、保证安全的前提下实现利益最大化是人工智能系统需要解决的核心问题。

3.3.3责任维度的道德风险

人工智能在价值选择困境与责任承担困境中存在风险。外卖平台派单系统在消费者对于外卖的时间要求与外卖骑手在派送过程中的风险问题之间面临抉择,系统应当尽量满足消费者的需求而忽视外卖骑手的安全,还是应当在尽量保护骑手的安全的前提下提高派送效率?在人工智能系统作为自主行为主体的情况下,系统会逐渐压缩骑手的安全空间。而在发生事故之后的责任鉴定中,系统并没有能力为自己的决策承担其相应的责任。

四、总结

为避免人工智能出现无节制的追求极致从而导致技术、利益、责任等方面的道德风险,实现人类社会可持续发展的目标,人工智能的设计应当秉承着将人类健康、安全和福祉放在首位的原则。由外卖平台人工智能系统这一例所引发出来的思考,进一步提出以下建议:

1、工程设计之初应当强化工程负责人、管理者、工程师以及程序设计者的伦理意识。由于算法、工程体现着设计人员的思想,而相关人员对伦理方面的意识缺失必将导致缺乏伦理思想的工程存在缺陷。

2、强化工程相关人员的风险与安全意识。风险与安全始终是工程无法逃避的问题,针对风险可接受性进行完备分析与评估,并对一系列不可控意外风险制定相关预警机制与应急机制是控制风险、规避风险、妥当处理事故的唯一途径。

3、强化人类主导和监督能力。人类主导以及人为监督有助于人工智能系统不会走向极端,从而出现逻辑上无比正确却存在人类伦理问题的缺陷。

4、明确人工智能系统的责任归属。程序设计之初应当对程序设计者针对不同模块的设计明确责任归属,当下人工智能的发展远远没有达到成熟阶段,相应的人工智能系统也没有能力对其发展的不良后果负责,这个责任很自然的需要其背后的软件工程师、程序设计者、工程负责人以及管理者共同承担;人工智能系统在设计阶段明确责任归属有利于工程事故发生之后的责任归属划分;有利于在程序设计阶段强化工程师们的工程伦理意识。

从技术发展的角度来看,人工智能系统因其发展历史较短、技术成熟度低等原因远未达到可以完全信赖的地步。人工智能系统在设计中应考虑预防性安全措施来防范风险,减少不可接受的伤害。

刷脸泛滥,人工智能需要处理伦理道德问题的能力吗

在2021年全国两会期间,有关人工智能的建议一再被来自科技界的代表提及。显然,人工智能系统已经为社会带来了巨大好处,并且有潜力发挥更大的作用。

正如波特兰州立大学计算机科学教授梅拉妮·米歇尔在《AI3.0:思考人类的指南》一书中所说的那样,当下的人工智能技术对你可能一直在使用的许多服务都起到了核心作用,有些甚至你都没有意识到,如语音转录、GPS导航和出行规划、垃圾邮件过滤、语言翻译、信用卡欺诈警报、书籍和音乐推荐、计算机病毒防护以及建筑物能源利用优化等。

但在人工智能为我们的生活带来各种便利之余,人们也难免产生担忧和质疑:让人工智能来接管那些枯燥无聊、令人疲倦、有辱人格或者极其危险又工资低廉的工作真的能够造福社会吗?人工智能的研究与开发应在多大程度上受到监管?又应该由谁来监管?人们倾向于应该针对人工智能领域制定监管和道德规范,但尚未达成普遍共识的地方在于:是应该立即将重点放在能够解释人工智能系统推理过程的算法方面,还是关于数据的隐私方面,或是人工智能系统对恶意攻击的鲁棒性(指在异常和危险情况下系统生存的能力)方面,又或是关于人工智能系统的偏见以及关于超级智能潜在的风险方面?

电影《机器人与弗兰克》(2012)剧照。

对于即将到来的人工智能时代,人们的态度截然不同:有人认为人工智能实际上能够消除全球贫困,大规模减少疾病,并为地球上绝大多数人提供更好的教育。有人则对未来有一种相当悲观的预测:大批的工作被自动化技术接管导致的人类失业;由于人工智能监视而造成的对公民的隐私和权利的侵犯;不道德的自动化武器;由不透明和不可信的计算机程序做出的未经审查的决策;种族和性别偏见被放大;大众媒体被操纵;网络犯罪增多等。

那么,我们到底如何才能创造出一个真正能靠自己进行学习的人工智能系统——一个更值得信赖的系统,一个和人类一样,可以对其所面临的情况进行推理并对未来进行规划的系统呢?

以下内容经出版社授权节选自《AI3.0:思考人类的指南》,标题为摘编者所取。

原文作者丨[美]梅拉妮·米歇尔

摘编丨安也

《AI3.0:思考人类的指南》,[美]梅拉妮·米歇尔著,王飞跃、李玉珂、王晓、张慧译,湛庐文化丨四川科学技术出版社,2021年2月。

在考虑人工智能在我们社会中的作用时,我们很容易把注意力集中在不利的一面,但是,要知道,人工智能系统已经为社会带来了巨大好处,并且它们有潜力发挥更大的作用。当下的人工智能技术对你可能一直在使用的许多服务都起到了核心作用,有些甚至你都没有意识到,如语音转录、GPS导航和出行规划、垃圾邮件过滤、语言翻译、信用卡欺诈警报、书籍和音乐推荐、计算机病毒防护以及建筑物能源利用优化等。

如果你是摄影师、电影制作人、艺术家或音乐家,你可能正在使用人工智能系统来协助开展创作,例如用以帮助摄影师编辑照片、协助作曲家编曲的计算机程序。如果你是学生,你可能会从适合你自己学习风格的“智能教学系统”中受益。如果你是科学家,你很有可能已经使用了许多可用的人工智能工具中的一种来帮助你分析数据。

如果你是视力存在障碍的人,你可能会使用智能手机的计算机视觉应用程序来阅读手写的或印刷的文字,例如标牌、餐馆菜单或钞票上的文字。如果你是听力受损人士,如今你可以在YouTube上看到非常精准的字幕,在某些情况下,你甚至可以在一次演讲中获得实时的语音转录。这些只是当前人工智能工具正在改善人们生活的几个例子,许多其他的人工智能技术仍处于研究阶段,但也正渐渐成为主流。

电影《机器人与弗兰克》(2012)剧照。

在不久的将来,人工智能相关应用可能会在医疗保健领域得到广泛普及。我们将看到人工智能系统帮助医生诊断疾病并提出治疗建议、研发新的药物、监控家中老年人的健康和安全。科学建模和数据分析也将越来越依赖人工智能工具,例如,改善气候变化、人口增长和人口结构、生态和食品科学以及在22世纪我们的社会即将面临的其他重大问题的模型。对于DeepMind的联合创始人戴米斯·哈萨比斯来说,人工智能最重要的潜在好处是:

我们可能不得不清醒地认识到,由于这些问题可能太过复杂,即便由地球上最聪明的人来努力解决这些问题,单独的人类个体和科学家在有生之年都很难有足够的时间来取得足够的创新和进步……我的信念是,我们需要一些帮助,而我认为人工智能就是这一问题的解决方案。

我们都曾听说过,人工智能将会接手那些人类所讨厌的工作,如那些枯燥无聊、令人疲倦、有辱人格或者极其危险又工资低廉的工作。如果这种情况真的发生了,那将会真正有利于增加人类社会福祉。随后我将讨论这个问题的另一面:人工智能夺走了太多人类的工作。尽管还有许多工作超出了机器人目前的能力,但机器人已经被广泛地用于琐碎和重复的工厂任务了,随着人工智能的发展,越来越多的这类工作可能会被自动化的机器人取代。未来人工智能应用的具体实例包括:自动驾驶卡车和出租车,用于收割水果、扑灭大火、扫除地雷和清理环境等。除此之外,机器人可能会在太空探索中发挥出比目前更大的作用。

让人工智能来接管这些工作真的能够造福社会吗?我们可以回顾一下科技的发展历史,来从中得到一些启发。以下是人类曾经从事过但在很久以前就已经实现自动化了的一些工作的示例:洗衣工、人力车夫、电梯操作员和计算员。大多数人会认同:在以上这些例子中,使用机器代替人类做这些工作,确实让生活变得更美好了。有人可能会争辩说,如今的人工智能只是简单地延续了人类的进步路线,将那些必要的但却没人想做的工作逐渐实现自动化,从而改善人类的生活。

01

人工智能大权衡:

我们是该拥抱,还是谨慎?

吴恩达曾乐观地宣称:“人工智能是新‘电能’。”他进一步解释道:“正如100年前电能几乎改变了所有行业一样,今天我真的很难想到有哪个行业在未来几年内是不会被人工智能改变的。”有一个很有吸引力的类比:很快人工智能就会如电能一样,尽管看不到,但对电子设备来说却非常必要。电能与人工智能的一个主要的区别在于,电能在被广泛商业化之前就已经被充分认识,我们非常了解电能的功用,而对于如今许多人工智能系统的情况,我们却没有足够的认识。

电影《机器人与弗兰克》(2012)剧照。

这将带来所谓的人工智能大权衡(greatAItrade-off)。我们是应该拥抱人工智能系统,利用其能力来改善我们的生活,甚至帮助拯救生命,并且允许这些系统被更加广泛地使用呢,还是考虑当下人工智能存在难以预见的错误、易受偏见影响、易被黑客攻击以及缺少透明度等特点,应该更谨慎地使用人工智能来制定决策?对不同的人工智能应用,人类需要在多大程度上参与其中?为充分信任人工智能并使其自主工作,我们应该对人工智能系统提出哪些要求?尽管人工智能应用的部署越来越多,并且以之为基础的未来应用(如自动驾驶汽车)刚诞生就得到了吹捧,但这些问题仍在激烈讨论中。

皮尤研究中心(PewResearchCenter)的一项研究表明:人们在这些问题上普遍缺乏共识。2018年,皮尤的分析师征集了近千名相关人士的意见,其中包括技术先驱、创新者、研发人员、商业和政策领袖及活动家等,并要求他们回答如下问题:

你是否会认为,到2030年,先进的人工智能和相关技术系统很有可能会增强人类能力并为人类赋能?也就是说,那时,大多数人在大多数时候会比今天生活得更好?还是说,先进的人工智能和相关技术系统很有可能会削减人类的自治权和代理权,使得那时大多数人的状况并不会比当前更好呢?

受访者分为了两派:63%的人认为2030年人工智能的进步将使人类的状况变得更好,而37%的人则不这么认为。有人认为人工智能实际上能够消除全球贫困,大规模减少疾病,并为地球上绝大多数人提供更好的教育。有人则对未来有一种相当悲观的预测:大批的工作被自动化技术接管导致的人类失业;由于人工智能监视而造成的对公民的隐私和权利的侵犯;不道德的自动化武器;由不透明和不可信的计算机程序做出的未经审查的决策;种族和性别偏见被放大;大众媒体被操纵;网络犯罪增多等。一位受访者将未来的世界描述为:“真实,但与人类无关。”

机器智能引发了一系列棘手的伦理道德问题,与人工智能和大数据伦理相关的讨论已经可以写满好几本书了。为了说明这些问题的复杂性,我将对一个在当前已经引起人们大量关注的案例展开深入探讨:人脸识别。

02

谁来监管?人脸识别的伦理困境

电影《我,机器人》(2004)剧照。

人脸识别是使用文字来标注图像或视频中的人脸的任务。例如,Facebook将人脸识别算法应用到上传至其网站的每张照片上,尝试检测照片中的人脸并将其与已知的用户(至少是那些未禁用此项功能的用户)进行匹配。如果你在Facebook的平台上,并且某人发布了一张包含你的脸的照片,系统可能会询问你,是否要在照片中标记自己。Facebook人脸识别算法的准确性令人惊叹,但同时也令人害怕。不出所料,这种准确性源自对深度卷积神经网络的使用。该软件不仅可以对图像中位于中心位置的正脸进行人脸识别,而且可以对人群中的某一个人的脸进行识别。

人脸识别技术有许多潜在的好处,比如,帮助人们从照片集中检索图像;使视力受损的用户能够识别他们所遇到的人;通过扫描照片和视频中的人脸定位失踪儿童或逃犯,以及检测身份盗用等。我们也很容易想得到会有许多人认为这种应用程序具有侵犯性或威胁性。例如,亚马逊向警方推销了它的人脸识别系统(使用了一个奇怪的听起来像是反乌托邦式的名称“Rekognition”),该系统可以将安保相机拍摄的视频与一个已知罪犯或嫌疑人的数据库进行比对,但许多人为该系统可能造成的隐私侵犯问题感到担忧。

隐私问题是人脸识别技术应用中一个显而易见的问题。即便我不使用Facebook或任何其他具有人脸识别功能的社交媒体平台,我的照片也可能会在未经我允许的情况下被标记并随后在网上被自动识别,想一想提供收费人脸识别服务的FaceFirst公司。据《新科学家》(NewScientist)杂志报道:“FaceFirst正在面向零售商推出一套系统,据称这套系统可以通过识别每次购物的高价值客户来进行促销,而当多次被投诉的顾客进入任何一家门店时,该系统就会发出警报。”还有许多其他公司提供类似的服务。

失去隐私并不是唯一的风险,人们对于人脸识别还有一个更大的担忧,那就是可靠性:人脸识别系统会犯错。如果你的脸被错误匹配,你可能会被禁止进入一家商店、搭乘一架航班,或被错误地指控为一名罪犯。

更重要的是,目前的人脸识别系统已经被证明对有色人种进行识别时明显比对白人的识别错误率更高。强烈反对使用人脸识别技术来对公民权利进行执法的美国公民自由联盟,用535名国会议员的照片对亚马逊人脸识别产品Rekognition系统进行了测试(使用其默认设置),将这些议员的照片与因刑事指控而被捕的人员数据库进行了比较,他们发现,该系统错误地将535名国会议员中的28人与犯罪数据库中的人员匹配上了。在非洲裔美国人议员中,照片的识别错误率更是高达21%(非洲裔美国人只占美国国会议员的9%)。

美国公民自由联盟的测试和其他研究结果显示出了人脸识别系统的不可靠性和偏见的附加后果,因此,许多高科技公司宣布他们反对将人脸识别用于执法和监管。举例来说,人脸识别公司Kairos的首席执行官布莱恩·布拉肯(BrianBrackeen)就在一篇广为流传的文章中写道:

用于对嫌疑人身份进行识别的人脸识别技术,对有色人种造成了负面的影响。这是一个不容否认的事实……我和我的公司已经开始相信,将商业人脸识别系统应用在任何形式的执法或政府监管中都是错误的,它为道德败坏者的明知故犯打开了大门……我们应该追求一个未授权政府对公民进行分类、跟踪和控制的世界。

在微软公司网站上的一篇博客文章中,其总裁兼首席法律顾问布拉德·史密斯(BradSmith)呼吁国会规范人脸识别系统的使用:

人脸识别技术引发了一些与保障隐私和言论自由等基本人权有关的核心问题,这些问题增加了制造这些产品的科技公司的责任。我们认为,更加周密的政府监管,以及围绕其可接受的用途制定规范是必需的,而这将需要公共部门和私人机构共同采取行动。

谷歌紧随其后,宣布其不会通过人工智能云平台提供通用的人脸识别服务,直到他们能够确保这一技术的使用符合谷歌的原则和价值观,并能够避免滥用和有害的后果。这些公司的反应令人欣慰,但这又带来了另一个令人困扰的问题:人工智能的研究与开发应在多大程度上受到监管?又应该由谁来监管?

03

人工智能可以自我监管吗?

考虑到人工智能技术的风险,包括我在内的许多人工智能从业者,都赞成人工智能技术应该受到某种监管,但是监管不应该仅仅掌握在人工智能研究人员和相关公司的手里。围绕人工智能的问题,比如可信度、可解释性、偏见、易受攻击性和使用过程中出现的道德问题,与技术问题一样,都是牵涉社会和政治方面的问题。于是,围绕这些问题的讨论有必要接纳持有不同观点和具有不同背景的人们。简单地将监管的职责交给人工智能从业者,就像将其完全交给政府机构一样,都是不明智的。

有一个案例可以体现制定此类法规所面临的复杂性,欧盟议会在2018年颁布了一项关于人工智能的法规,有些人称之为“解释权”。这项法规要求,在“自动决策制定”的情况下,任何一个影响欧盟公民的决策都需要提供其中所涉及的与逻辑有关的有意义信息,并且这些信息需要使用清晰明了的语言,以简洁、透明、易懂和易于访问的形式来沟通和传达,这打开了有关解释问题的闸门。什么叫“有意义”或“与逻辑有关”的信息?这一法规是否禁止在制定对公民有所影响的决策时使用难以解释的深度学习方法?例如在贷款和人脸识别等方面。这种不确定性无疑将确保政策制定者和律师在很长一段时间内仍有取酬就业的机会。

表现主义科幻默片电影《大都会》(1927)》剧照。

我认为对人工智能的监管应该参照其他领域的技术监管,尤其是那些在生物和医学领域的技术,例如基因工程。在这些领域,像质量保证、技术的风险和收益分析这样的监管是通过政府机构、公司、非营利性组织和大学之间的合作而产生的。此外,现在已经建立了生物伦理学和医学伦理学领域,这些领域对技术的研发和应用方面的决策具有相当大的影响。人工智能领域的研究及其应用非常需要深思熟虑的考量和一定的道德基础。

这个基础已经开始形成。在美国,各州政府正在研究制定相关法规,例如用于人脸识别或自动驾驶汽车的法规。更重要的是,创建人工智能系统的大学和公司也需要进行自我监管。

许多非营利性的智库已经出现,并填补了这一空缺,这些智库通常由担忧人工智能的富有的科技公司企业家资助。这些组织,如“人类未来研究所”(FutureofHumanityInstitute)、“未来生命研究所”(FutureofLifeInstitute)和“存在风险研究中心”(CentrefortheStudyofExistentialRisk)经常举办研讨会、赞助研究,以及就人工智能的安全与道德问题这一主题编著教育材料,并给出一些政策建议。一个名为“人工智能合作伙伴关系”(PartnershiponAI)的伞状组织一直在努力将这类团体聚集在一起,打造一个讨论人工智能及其对人类和社会的影响的开放平台。

电影《她》(2013)剧照。

目前存在的一个障碍是:该领域在制定监管和道德规范的优先事项方面,尚未达成普遍共识。是应该立即将重点放在能够解释人工智能系统推理过程的算法方面,还是关于数据的隐私方面,或是人工智能系统对恶意攻击的鲁棒性方面,又或是关于人工智能系统的偏见以及关于超级智能潜在的风险方面?我个人的观点是,人们对超级智能可能带来的风险给予了太多关注,而对于深度学习缺乏可靠性和透明性,及其易受攻击性的关注则远远不够。

04

需要把处理伦理道德问题的能力,

赋予机器吗?

到目前为止,我的讨论集中于人类如何使用人工智能的道德问题,但是还有一个重要的问题:机器本身是否能够拥有自己的道德意识,并且足够完备以使它们能够独立做出道德决策而无须人类监管?如果我们要给予人脸识别系统、无人驾驶汽车、老年护理机器人甚至机器人士兵决策自主权,难道我们不需要把人类所拥有的处理伦理道德问题的能力赋予这些机器吗?

自从人们开始思考人工智能,就开始了关于“机器道德”问题的思考。也许,关于机器道德的最著名的讨论来自艾萨克·阿西莫夫(IsaacAsimov)的科幻小说,他在小说中提出了著名的“机器人三定律”:

第一定律:机器人不得伤害人类个体,或者对人类个体将遭受的危险袖手旁观;

第二定律:机器人必须服从人类给予它的命令,当该命令与第一定律冲突时例外;

第三定律:机器人在不违反第一、第二定律的情况下,要尽可能地保护自己。

这些定律已非常知名,但实际上,阿西莫夫提出机器人三定律的目的是证明这套定律会不可避免地失败。阿西莫夫在1942年首次提出这些定律时讲述了一个名为“逃跑”的故事:如果一个机器人遵循第二定律向危险物质移动,这时第三定律将会生效,机器人随即远离该物质;此时第二定律又重新开始生效。于是,机器人将被困在一个无尽的循环中,最终对机器人的人类主人造成了灾难性的后果。阿西莫夫的故事通常集中讨论把伦理规则编程置入机器人后可能引发的意外后果。阿西莫夫是有先见之明的:正如我们所看到的,不完整的规则和意外所引发的问题已经妨碍了所有基于规则的人工智能方法,道德推理也不例外。

科幻小说家亚瑟·克拉克(ArthurC.Clarke)在其1968年出版的《2001:太空漫游》中描写了一个类似的情节。人工智能计算机HAL被编程为始终对人类保持诚实,但同时又要对人类宇航员隐瞒他们的太空任务的真实目的。与阿西莫夫的笨拙的机器人不同,HAL饱受这种认知失调的心理痛苦的折磨:“他意识到隐瞒真相与保持忠诚之间的这种冲突正在慢慢地破坏他的心智。”结果是,这种计算机“神经症”使HAL变成了一名杀手。

电影《2001:太空漫游》(1968)剧照。

影射到现实生活中的机器道德,数学家诺伯特·维纳早在1960年就指出:“我们最好非常确信,给机器置入的目标正是我们真正想要的目标。”维纳的评论捕捉到了人工智能中所谓的价值一致性问题:人工智能程序员面临的挑战是,如何确保人工智能系统的价值观与人类保持一致。可是,人类的价值观又是什么?假设存在社会共享的普世价值有任何意义吗?

欢迎来到道德哲学的101课,我们将从每个道德哲学系学生最喜欢的思想实验——电车难题开始。假设你正在沿着一组轨道驾驶一辆加速行驶的有轨电车,就在正前方,你看到有5名工人站在轨道中间,你踩刹车却发现它们不起作用。幸运的是,有一条通向右边的轨道支线,你可以把电车开到支线上,以免撞到那5名工人,但不幸的是,在支线轨道中间也站着1名工人。这时候,你面临一个两难的选择:如果你什么都不做,电车就会直接撞到5名工人身上;如果你把电车开向右边,电车就会撞死1名工人。从道德上讲,你应该怎么做?

电车难题一直是20世纪大学道德课的一节主要内容。多数人认为,从道德上来说更可取的做法是:司机把电车开到支线上,杀死1名工人,救下另外5名工人。

后来,哲学家们发现:对本质上相同的困境选取一个不同的框架,就会导致人们给出相反的答案。事实证明,人类在关于道德困境的推理中,对困境的呈现方式是非常敏感的。最近,电车难题又作为媒体对自动驾驶汽车的报道的一部分而出现了。如何对一辆自动驾驶汽车进行编程使其能够处理这些问题,已经成为人工智能伦理讨论的一个中心议题。许多人工智能伦理思想家指出:电车问题本身,即驾驶员只有两个可怕的选择,是一个高度人为设计的场景,而在现实世界中,驾驶员永远不会遇到这样的场景;但是,电车问题已经成为我们应该如何为自动驾驶汽车编程,以让它们自己做出符合道德的决策这一问题的象征。

电影《巨人:福宾计划》(1976)剧照。

2016年,3位研究人员在数百人中进行了调研,给定类似电车问题的自动驾驶汽车可能面临的场景,并询问他们对不同行为的道德观念。最终,76%的参与者回答,自动驾驶汽车牺牲1名乘客比杀死10名行人,从道德上来说更可取。可是,当被问及是否会购买这样一辆被编程为会为了救下更多行人而选择牺牲其乘客的汽车时,绝大多数参与调查者的回答是否定的。

研究人员称:“我们发现在6项亚马逊土耳其机器人参与的研究中,参与者认同这种效益主义的自动驾驶汽车,即牺牲乘客以获取更大利益的自动驾驶汽车,并希望其他人会购买它们,但他们自己更愿意乘坐那些不惜一切代价保护乘客的自动驾驶汽车。”心理学家乔书亚·格林(JoshuaGreene)在他对这项研究的评论中指出:“在将我们的价值观置入机器之前,我们必须弄清楚如何让我们的价值观清晰且一致。”这似乎比我们想象的要更难。

一些人工智能伦理研究人员建议我们放弃直接对机器的道德规则进行编程的尝试,让机器通过观察人类的行为自行学习符合道德的价值观;然而,这种自学方法也存在我在上一章中所介绍的机器学习会面临的所有问题。

在我看来,在赋予计算机“道德智能”方面的进展不能与其他类型智能的进展分开,真正的挑战是创造出能够真正理解它们所面临的场景的机器。正如阿西莫夫的故事所阐明的:除非机器人能够理解不同场景下伤害的内涵,否则它无法可靠地执行避免伤害人类的命令。对道德进行推理要求人们认识到原因和结果的关系,想象可能的不同未来,了解其他人的信念和目标,并预测一个人处在各种情况下会采取的各种行动的可能结果。换句话说,可信任的道德理性的一个先决条件是通用的常识,而这,正如我们所见,即使在当今最好的人工智能系统中也是缺失的。

到目前为止,我们已经看到,在庞大的数据集上训练的DNN如何在特定任务上与人类的视觉能力相媲美;我们也看到了这些网络的一些弱点,包括它们对大量人类标记数据的依赖,以及它们以非人类的方式失败的倾向。我们如何才能创造出一个真正能靠自己进行学习的人工智能系统——一个更值得信赖的系统,一个和人类一样,可以对其所面临的情况进行推理并对未来进行规划的系统?

版权声明:本文内容由互联网用户自发贡献,该文观点仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌抄袭侵权/违法违规的内容,一经查实,本站将立刻删除。

上一篇

下一篇