博舍

新知丨吴童立:人工智能伦理规范是什么类型的规范——从《儒家机器人伦理》说开去 人工智能伦理守则是什么

新知丨吴童立:人工智能伦理规范是什么类型的规范——从《儒家机器人伦理》说开去

刘文试图回答两个彼此相关的问题:第一,与人工智能伦理的主流理论,即阿西莫夫三定律、康德式道义论、功利主义相比,为何儒家伦理原则更好且更适合作为机器人的伦理规范?第二,如何对儒家伦理法则进行诠释,使之成为一种可以被算法化的规则?

作者首先指出了三种主流理论所面临的困难。阿西莫夫机器人定律只是宽泛地给出了不伤害、服从命令、自我保护等原则,而没有给出更丰富的要素以对不同的道德情境进行辨识、区分和比较,故无法适用于很多道德选择的情况。尤其是在伤害无法避免的情形如电车难题中,机器人将陷于进退两难无法行动的困境。康德道义论应用于机器人,会遭遇一个元问题层面的悖论:康德理论要求行动者具有自发的能动性以成为“目的王国”的公民,但机器人本质上是人造的工具,这本身就违背了康德原则。功利主义的首要问题是人们不愿意让机器人把这个原则应用于自己,同时,这个原则在有些情形中显得过于激进,以至于对个人的权利造成侵害。基于这些分析,作者进一步提出了儒家机器人的原则:“忠”被诠释为机器人对自身功能性角色的恪守,“恕”对应着一种禁止性的“消极黄金法则”,“仁”则体现为帮助人类行善并禁止帮助人类作恶的道德命令。这种儒家式机器人会积极地完成自己角色设定内的功能,在此设定之外则通常选择不进行干涉,同时能够保证不作恶和不协助作恶。作者指出,它在道德决策中的表现会优于其他几种主流模型,例如,在电车情形和天桥情形中能够以绝大多数人认同的方式行动,在自动驾驶情形中则选择优先保护驾驶员。

可以清楚地看到,刘纪璐教授的讨论主要针对只有局部智能与人类相当的弱人工智能,她关注的是如何设计它们的行动准则以使其更好地服务人类且不造成意外的风险。这种关注隐含了一种我称之为“理想规则主义”的预设。刘文中引用的一段话概括了这个预设:“机器伦理的终极目标……是要创造一种机器,它自己遵循一套理想的道德准则;也就是说,机器是由这个原则或这些原则决定的,它决定了可能采取的行动。”这种观点可以分解为两个底层主张:第一,可以设计出一种通用的、普适的理性规则体系来处理所有道德情境;第二,只要严格地使用这种规则体系,就可以使得机器人避免道德风险。与之相对应,我们可以提出两个问题:第一,存在一种普适的人工智能道德规则体系吗?第二,即使这种体系在某种意义上可以被创造出来,它是处理人工智能道德问题的最佳方式吗?我们对两个问题的回答都是否定的。

刘文的立论主要基于两个广受关注的道德思想实验,即电车难题和自动驾驶选择难题。已经有不少研究指出,这些思想实验对道德情境的设置过于抽象和简化,可能导致忽略一些重要的因素。以人工驾驶为例,MIT媒体实验室制作的“道德机器”网站,就列出了13种可能场景供受访者考虑,其中涉及司机和路人的性别、年龄段、职业、社会身份或地位、是否特殊人群(如孕妇)、是否遵守交通规则、物种(人或动物)等要素。孙保学指出,自动驾驶难题中涉及的价值不仅是双方的生命,而是包含着多元价值维度,因此除了一些普遍原则,还应该依据情境引入特殊的价值要素(如违反交通规则者承担更多责任,孕妇和儿童享有优先权等)作为重要参量。如果把视角延伸到这种更丰富的情境中,儒家机器人的“优先保护司机”的功能主义法则就显得过于单薄和缺乏说服力。

电车难题的两种情形常常被视为分别属于功利主义和道义论的应用场景,但细究起来,其中要考虑的要素也很多。而且,如何对这些要素进行界定以判定它们适用于何种原则,也依然是充满争议的。例如,如果天桥上的胖子不算涉事者故不应该被牵扯进来,那么,电车支线轨道上的那个人应被算作涉事者吗?如果推胖子被视为制造了一个新的威胁因而算主动伤害,那么,电车转向支线轨道算不算主动伤害?根据什么原则来判定“把人当作工具”,又根据什么原则来判定“副作用”?情境的轻微变化也会导致对要素的不同判定。在汤姆森设计的环轨情形中,电车的支线与主线在另一端汇合为一个环轨,根据他的解释,杀死支线上的一个人就不再仅仅是避开5人产生的副作用,而成为救5人的必要手段——如果电车不是因为撞到那个人而停下来,它依然会通过环轨回头撞死5人。不难看到,由于没有考虑这些要素及其情境依赖的不同排序方式,儒家机器人不能有效区分电车情形和环轨情形。

这些理由都不是决定性的。刘纪璐教授可以综合考量多种因素在不同情境中的取舍和配比,通过添加次级法则对他的儒家机器人进行调整,其规则体系在原则上仍然可以得到辩护。我们必须对理想规则主义给予致命一击。这个论证的最严格的版本是哥德尔给出的。20世纪初,他曾判决性地证明了不完备性定理,即在任何一个丰富到足以包含算术的形式系统中,系统的一致性都不可能在这个系统自身之中得到证明。这种特性也可以延伸到语义系统中:“在语言A的内部不可能给出一个对于它自身的完全的认识论描述,因为A的句子的真理概念不能在A的内部得到定义。这个定理乃是包含算术的形式系统中不可判定命题的存在的真正根据。”至于道德的理想规则系统,尽管与这种形式系统不尽相同,但其真依然部分地依赖于系统的一致性,故无法避免地具有某种不可判定性。而且,道德规则系统的问题甚至更复杂,它还具有另一重真值来源,即人类的道德直觉和理性辩护。这些道德直觉丰富多元,而且时常彼此冲突或不一致。在电车难题中,这种冲突体现为,哲学家对选取哪种理由为主流的选择进行辩护产生了严重的分歧。在自动驾驶难题中,直觉的不一致表现地更为明显:人们普遍认为配备功利主义算法的自动驾驶汽车最符合道德,但并不想购买这种汽车。不能把这种现象简单地视为私心与道德感的斗争,或是源于某种类似意志薄弱的不彻底性,更恰当的方式是把它理解为两种关于正确性的不同标准的冲突。赵汀阳因此评论道:“严格地说,这是人的悖论,不是机器的悖论。机器只是遵循规则而已,问题在于我们不知道应该为自动汽车选定什么样的规则。”

面对纷繁复杂的情境和彼此冲突的直觉,人类本能地想要找到一种简单的、标准的规则体系。但是只要观察一下我们的日常生活,就会发现这种理想道德行为指南很少能够实现,如果回顾一下人类历史,还会发现这种想法有时甚至是危险的。人们或许会把这归结为诸如人类情感和理性的不一致,每个人有着独特的个体性或彼此差异的利益诉求等。人工智能的出现又一次激发了人类对理想规则体系的诉求。与人类不同,人工智能没有情感干扰、没有自我边界、没有利益诉求,能够绝对理性地遵从指令,用一个教科书式的规则体系对它进行规范似乎是理所当然的。但是,这个貌似无懈可击的推论中存在着一个未言明的预设,而我们认为这个预设是错误的。

按前文的分析,理想道德规则体系并不存在。而认可“人类可以不按照理想规则行动”的依据,除了上述事实之外,还在于对人类道德主体资格的认可——人们有权按照某一个可以得到辩护的道德直觉来行动,如果这一行动的理由和结果与共同体认可且得到充分辩护的某种准则不一致,行动主体应该承担道德责任。由此反观,认为“人工智能只能按照理想规则行动”的依据,恰恰在于人工智能没有这种道德主体资格。但是,缺乏情感、自我边界和利益诉求,并非没有主体资格的理由。这种观点背后的真正预设,正如琼森所言:人工智能只是纯粹的机器和工具。刘文虽在引论部分谈到了“人工道德主体”,但在论证过程中却并未涉及。我们在后文将指出,这一立场在理论上是无法得到有效辩护的,在实践上则难以处理人工智能引发的一系列社会问题。抛弃这一立场,则会从根本上改变我们对人工智能伦理规则的构想方式,以及对人类与人工智能关系的看法。

三、人工智能主体意味着什么

面对人工智能这一“新物种”,大多数人并没有做好心理准备。我们会把战胜人类顶级棋手的AlphaGo称做“阿尔法狗”,这种暗含贬低的称呼折射了人们对待人工智能的心态:一方面承认它在某方面智能上已经远超人类极限,另一方面则认为它不过是一个没有智慧和心灵的低等造物,一个机械装置,一个工具。在这里,人类的智能、自主意识、情感、道德等能力似乎被想象成一种难以探究的、甚至带有神秘色彩的东西。这些东西为人类所独有,人因此配享道德上的主体资格。但是,这种“独有性断言”真的完全成立吗?即使人工智能真的在这些方面与人类有重大差别,这能构成它们不是道德主体的有效理由吗?

一个最常见的说法来自对图灵测试的攻击。塞尔在《思想、大脑和程序》一文中提出了著名的“中文屋”思想实验,用来证明人工智能只是一堆程序,它根本没有“理解”自己在做什么,故没有真正的智能。假设密室里有一个人按照某个程序操作一些字符串,来对外面的人递进来的中文问题字条以中文字条进行回答,那么,尽管此人完全不懂中文,但外面的人会以为他懂得中文。把中文屋里的人换做人工智能,就可表明:即使通过了图灵测试,也并不代表具备了真正的理解和智能。我认为,这种观点既过高地估计了人类的“理解”,也过低地估计了人工智能的“计算”。

让我们对上述思想实验稍加改动:有一个英语国家的人被植入了一种大脑芯片,此芯片可以在极短的瞬间把英文翻译为中文(也可以把中文翻译成英文),这个人通过一段时间的练习可以熟练地与中国人交谈,由于芯片信息传递速度非常快,他也完全适应了这种交流方式,以至于常常意识不到自己是在通过芯片的“翻译”在和中国人谈话。这种技术在未来是完全有可能实现的,如果我们问那个人是否会说中文,他很有可能回答“是”,至少不像中文屋情形中那样非常确定地给出否定回答。人们经常认为理解伴随着的一种特殊的感觉和能力,这个思想实验则告诉我们,“理解的感觉”完全可以通过偶然的方式被建构出来,因此它不像人们想象的那么重要。这反过来就证明了,“理解”的核心特质是能够在相关情形中“使用”某种规则。这一点在下棋的情形中体现得更加明显:没有任何证据表明柯洁比AlphaGo对围棋的理解更加深刻。而且,塞尔的支持者也低估了人工智能使用规则所需要的“能力”的复杂程度。中文屋思想实验的误导之处在于它把这种能力简化为一个程序和几张纸条,但是这个程序至少包括了对词性区分的规则、对句法组织的规则、对句子属性区分的规则、同一个词在不同语境中的应用规则、中文日常知识的数据库,等等。使用这个程序,也不仅仅是输入一个字符串这么简单,而是涉及复杂的、多步骤的操作。丹尼尔·丹尼特因此总结道,我们总以为人类的理智能力来自于他们能理解,其实理解本身不是一种原因,而是一种效果,它从成堆的能力中涌现出来,是各种能力叠加生成的。对“理解”的这种分析和还原表明,我们没有自认为的那么“理解”,人工智能也不是想象中的那么“无理解”。看来,人类是时候放下对理解能力之独有性的傲慢偏见了。

另一种对人工智能主体资格的质疑,其理由是人工智能缺乏一些必要的心理成分,如情感和感受。这种观点认为,苦乐、爱恨、羞耻、自尊等情感和感受是人格和德性的基础,缺乏这些特质就构不成道德上的主体。这是一种典型地来自人类经验的立场:我们的确是在各种情感和感受中建构起自我的人格,辨识和塑造了自身的道德品质。但是,这并不表明它们就是主体性和道德的先天条件。康德已经给出了一个著名的反驳路径:主体性来自于为自身订立并遵守一种可普遍化法则的能力,它属于包括但不限于人类的任何理性存在者。情感主义的支持者也许会说,至少同情或移情应该被视为道德能力的一个基石,如果缺少了它,道德所必须的交互主体性和敏感性将会坍塌。同时,心理成分依赖于人类的生理结构,人工智能没有这样的结构也就不具有相应的情感和感受。我们对此的回应是,应该对“情感反应”和“情感体验”做出区分。人工智能的确不具备人类的情感体验,但这对主体性和道德资格都不是必须的。而且,设计者完全可以用一些规则设置来让人工智能做出与情感反应等价的行为,例如,把同情心定义为“己欲立而立人”或“己所不欲勿施于人”,把羞耻感定义为“对于被规定为错误的行为,每观察到一次则为其负值增加一个分值的权重标记”。

对人工智能主体资格最主要的反驳是,它缺乏真正的自主性。这类反驳主要集中在三个方面。第一,自主性要求一种内在状态,内在状态由欲望、信念和其他有意识的状态组成,以保证行动是出于主体的意图做出的。人们普遍认为人工智能缺乏这种内在意图。有论者进一步提出,意图应是自然生成的,而人工智能的所谓“意图”无非是设计者植入的东西。第二,自主性要求行动者对于自己的行动有所意识,因为只有有意识的行动才具有道德属性,才能够被赞扬或谴责。然而,人工智能被认为是不具有意识的。第三,自主性要求行动者具有自由意志,能够做出真正的选择被视为自主性的一个特征。定律可以限制但不能构成人类的自主性,但是对于人工智能来说,代码形式的定律构成并定义了它的全部行为,它没有超出定律的自由意志。

在我看来,这些观点貌似有理,实则独断。自主性的概念并未包含如此多的要求,它们主要来自于对人类经验的耦合。本文无意在形而上学层面讨论诸如“意识的本质”“自由意志是否存在”这类问题,我们的关注点在于阐明一种在直觉上有效、在经验中可行的对自主性的理解,以澄清何种行动者有资格被视为道德主体。首先,内在意图与内在心理状态的类比是模糊的甚至隐喻性的。有时候甚至连我们也说不清自己的欲望和信念来自哪里、如何形成,在康德主义者看来,它们不过是一种被给予之物。所谓内在的、自然生成的特性,更多地是基于一种未经充分辨析的经验性感受,其是否成立都很可疑,更谈不上是本质特征。自主性的实质是一种自治,正如弗洛里迪·卢西亚诺和杰夫·桑德斯所指出的,是在没有外部刺激的情况下可以自己调整内部状态或特征,从而不受他者(即人类)干预地控制自己的行为;进一步的要求是,通过改变自己的特征或内部状态来改进自身规则。面对一个这样的人工智能,我们很难拒绝承认它具有真正意义上的自主性。萨尔托指出,即使它的意图不是“原初的”,只要人们对他进行了“认知授权”,那么机器人按照规则自主产生的决策都可以视为出于自身意图的。其次,关于有意识地行动之要求——暂且不说意识极有可能是一种涌现出来的效应甚至幻觉,就连“有意识地行动”之定义本身也存在争议。以自动驾驶为例,如果人工智能可以提前对情况做出预判并且根据某个规则行动,有什么理由说它不是有意识地这样做呢?对于意识的经验性感觉的执念,再一次影响了人们对问题实质的把握。况且,意识对于道德责任也不见得是必须的,实用主义观点的支持者认为,具有稳固的、可观察的行为就足以支持我们对道德主体的责任要求。最后,自由意志与自主性、道德主体资格的强相关性也是相当可疑的。法兰克福已经出色地论证,道德责任并不依赖于一种基于可供取舍的可能性(alternativepossibilities)的自由意志观点。康德认为,自由意志不在于跳出规则,而恰恰在于遵从规则。在这个意义上,纳多甚至声称只有机器人才有真正的自由。

因此,一种能够独立地对情况进行判断,通过调整和使用规则做出决策的人工智能,具有一种真正意义上的自主性,应当被赋予道德主体的资格。人们或许仍然对此抱有疑虑。中文屋里的图灵机器人的刻板印象挥之不去,目前主流的深度学习机器人,只是用概率计算的方式把海量大数据与多层神经网络进行耦合,这看起来只是一个没有能动性的高级木偶。然而,近年来人工智能算法领域兴起的因果推理模式,为机器人具有真正的“智能”带来了曙光。加州大学洛杉矶分校计算机系的玻尔(JudeaPearl)教授和朱松莼教授是此领域的代表人物,玻尔的《因果性》一书在2011年获得了计算机图灵奖。根据朱松莼的介绍,不同于流行的“大数据、小任务”模式,这是一种“小数据、大任务”模式。前者的目标是通过大数据匹配来实现鹦鹉学舌式的精确模仿(被动学习),后者的目标则是让人工智能通过观察学习和因果推理,在复杂情况中自主地找到合理解决方案。任务的完成并不是像AlphaGo那样通过无数次的大数据训练实现的,而是通过动机—观察—推理—假设—验证这样的过程实现的。这种方法类似于人类解决问题的方法,是归纳学习(inductivelearning)和演绎学习(deductivelearning)的结合。沿着这个方向设计的人工智能,可以通过一个定义好的身体基本行动功能和一个包含价值函数与决策函数的模型空间,做出具有真正自主性的行动。

不难发现,这样的人工智能不是按照一个标准手册来行动,而是用常识和理性对特殊情形做出回应。关键是,如同人类行动一样,这种回应的方式不能被完全预测到——我们不能再把他们简单地视为机械工具了。对于这样的人工智能,丹尼尔·丹尼特建议人们最好使用“意向立场”(theintentionalstance)去理解和对待。意向立场通过诸如欲望和信念等认知状态去理解一个实体的行为,它代表了我们解释和预测可以采取有目的行动的复杂实体之行为的唯一可能视角。与物理立场和设计立场进行对比,有助于我们更清楚地理解这种视角。物理立场是通过以自然法则为说明框架的物理性质或条件来解释实体的行为,如用气压、温度、湿度等变量关系来解释为何下雨;设计立场则是通过装置的设计或功能来说明实体的行为,如用设计原理来说明手表为何能指示时间。这两种立场显然难以说明人工智能的自主行为,相反地,如果我们使用意向立场,把人工智能当作理性智能体来看待,就可以通过分析它所处的场域、身位和动机,来判断它所具有的欲望和信念,并大致预测它将决定采取何种行动来实现其目的。如果我们认识到更完善的自主能力是人工智能的发展趋势,就不得不承认唯有采取意向立场,才能更加准确地理解和预测它们的行为,才能最大程度地避免它们带来的各种问题。由于这种立场也是人类理解自身和其他高等动物的方式,它也就自然地赋予了人工智能一种“类人的”而非“拟人的”属性以及真正的主体资格。我将进一步阐明,这种视角会改变人类对自身与人工智能关系的理解方式,从而启发人们用一种新的伦理和行动规则来对人工智能进行设计。

四、从正确性规则到关系性规则

与人类共处于同一个世界,作为行动主体的人工智能会以何种方式、何种规则做出具有道德意义的判断呢?如前文所述,具有自主性的人工智能,其行动是由外来的数据、构成性的任务和内在的推理模型共同构成的。观察数据主要用于学习统计要素的相关性,推理模型构成了判断和决策的能力,而任务则不只是作为被给定的功能角色那么简单。引发人类偏好的任务,是生物进化和文化传承所塑造的一些值得追求的价值,以及它们与其他价值错综复杂的相互关系。不同的任务要求从环境中提取特定变量而忽视其他变量。这些都需要学习和推理,而不是通过简单的设定就能实现的。可见,即使对于用来“驱动”人工智能的价值函数来说,自下而上的观察学习也至关重要。道德是社群行为规范的一种,当人工智能进入人类的社群,它首先要观察社群的规范、理解社群的诉求、把握社群的内部和外部关系,这些是人工智能进行道德判断必不可少的训练。一个理想规范手册无法穷尽情况的复杂性,如同人类一样,人工智能的道德训练只能在大量的具体案例中,尤其是在互动中才能逐渐塑造出“道德品格”。这种品格包含了对情境的敏感性、对核心要素的辨别、对次级相关性的提取和权衡等,唯有据此做出的道德判断才能被认为是正当的、可靠的和相对安全的。

如此看来,电车难题也许并不是一个最具代表性的案例。它通过一种抽象过滤了若干要素,把细微而复杂的道德考量极端化为非此即彼的选择。尽管这种情形有出现的可能,但这绝不是日常和典型的道德情形。最近正在热播的剧集《都挺好》可以为我们提供一个更加常见的伦理情境。假设现在有一个人工智能保姆来照顾父亲苏大强,它该以何种方式处理遇到的日常问题呢?请注意,这里的人工智能不是一个只会被动地接受人类指令的服务工具,它可以自主地进行决策。为了在这个问题家庭中照顾好这个爱找麻烦的老人,人工智能需要知道哪些事物和行为对老人有好处、哪些应该被禁止,它还需要了解老人的脾气性格以找到最能够让他接受的服务方式,它也要了解雇主(老人子女)的要求和偏好,理解他们的家庭关系甚至清楚他们的财务状况。在如此复杂的情形中,不可能预先设计出一个最优解植入到机器人的数据库中,也不可能指望它一开始就把所有事情处理得当。人工智能与人类保姆一样,需要与这个家庭逐步磨合,通过一次次的互动来积累和调整自己的数据库,反向推理、学习和估算这个家庭成员的价值函数,从而成为一个良好的功能角色。

在这里,真正的学习是一个交互的过程,但人工智能的交互性方面往往被低估。香农的信息论认为,交流就是编码和解码,只要双方有一个共同的码本和一些共享的背景知识,就总是能够成功实现通讯。这种观念的影响一直持续到今天。大部分人仍然认为,码本和背景知识理所当然地可以被标准化,此为理想规则主义的来源之一。被忽略的是,背景知识不等于公共知识,更多情况下它是“本地知识”。如果交流双方没有共享同一个本地知识,就很难从对方的“编码”中准确地提取意义。例如,西方人不太理解中国电影《流浪地球》中人类带着地球逃离太阳系这一故事设置,中国人也常常抓不住西方笑话的“笑点”。要掌握这种本地知识,需要引入一种关系性视角:我们总是在一种(至少是想象的)关系中把握具体的“应当”。朱松莼总结道:“两个人之间至少要表达五个脑袋(minds):我知道的东西、你知道的东西、我知道你知道的东西、你知道我知道的东西、我们共同知道的东西。还有,对话的时候你的意图是什么等等诸多问题。”

关系在道德中的重要性早已耳熟能详。利奥波特则论证了伦理关系的可拓展性,他指出伦理所适用的“共同体”概念是逐步扩大的:最初只适用于主人,然后扩展到人类,未来还应该进一步扩展到“土地”——包括土壤、水、植物和动物。我们不知道伦理关系是否真的能拓展到土地上的一切,但它至少应该包含具有自主性的人工智能。笔者认为,应该区分两种不同的规则:正确性规则和关系性规则。前者是一些得到伦理辩护的正确行为准则,后者则是引导与共同体达成合理关系的那些机制性行动框架。诚然,人类需要对人工智能嵌入一些守则式的正确性规范,但从关系主义的视角来看,这些规范至多是次级规范。既然人工智能有资格作为道德主体,那么在这些规范之上还应该有一些更高层级的规范,即指导主体间互动方式的关系性规范。

我们无意穷举这类规范,在此仅展示一条作为示例:人工智能应当做那些其所处的共同体会给予正面反应的事情,避免做共同体会给予负面反应的事情。需要指出,其中的“正面反应”和“负面反应”都是动态的,因为社会规范就是人们在竞争与合作过程中达到的“准平衡态”。社群规范可以是多维的,其中的平衡也是动态的。事实上,刘文中提出的三条儒家规范,即忠(忠诚)、恕(互惠)、仁(人道)都带有强烈的关系性色彩。遗憾的是,作者对它们进行了一种标准规范式解读:“忠”被定义为忠于角色,行文中又对角色职责进行了类似于行为守则的明确规定;“恕”所表达的“己所不欲勿施于人”被解读为一个禁止行动的类别清单;“仁”则被简化为“做好事要请示人类”和“禁止协助作恶”。不难发现,这种解读把多元的、立体的、动态的关系扁平化和静态化了,作为关系主义之核心特征的语境论和交互性也就不复存在。儒家式伦理倾向于把个体看作是内在地归属于群体的(不同于西方文明“个体组成群体”的观念),从而强烈地要求用一种关系主义的方式理解伦理规范。因此,一种真正的儒家机器人需要嵌入的是这种关系性和结构性的规则。

在关系主义的视角下,一个自然的问题是:人与人工智能是什么关系?既然前文已经为人工智能的主体地位做出了辩护,那么,首先可以肯定的是,我们不主张一种工具性关系。除此以外,两个主体之间还可以有主奴关系、领导关系、伙伴关系、情侣关系等多种关系。我们建议,可以对这些类型的关系持有一种开放态度。正如人们之间的关系是在一种社会结构和生活场景下经过自然平衡而建立起来的,人工智能与人的关系也应在同样的过程中得到观察和发展。

不过,对于道德主体之间的关系,仍有一些必要的前提需要强调,其中最核心的就是为自己的行为负责。负责的首要条件就是能够接受惩罚。有人认为人工智能先天地缺乏对惩罚的敏感性,惩罚所具有的威慑、补偿、劝诫三大作用对它们都不成立,理由是人工智能既不会产生恐惧、愧疚这样的情感,也不具有赔偿能力。这种观点没有看到,惩罚的关键并不在于被惩罚者的主观体验,而在于对其后续行为产生的实际影响。只要内置了关系性规则的人工智能可以接受到公众的正面或负面反应并据此调整自己的行为,惩罚对它们就是具有客观效力的。至于补偿的能力,我们为什么不能给予人工智能以一定程度的产权呢?法学家乌戈·帕加罗创造性地提出了“数字特有产”的概念。他指出,古罗马的奴隶主一方面为了保证奴隶可以作为代理人进行自主交易,另一方面保证自己的利益不受奴隶行为的负面影响,而赋予奴隶或家子一定数额的独立财产,即“特有产”。受此启发,他建议通过数字账户的形式赋予人工智能以“数字特有产”,它可以是一种保险,也可以是主人私有产权的延伸(例如增加担保)。我认为,其中一部分还可以通过社会公共基金的形式来支付,其数额可用事故概率和补偿成本经过大数据测算来决定。一旦拥有了独立产权,人工智能就可以作为法律上的代理人自主行动(例如,与交易方签订合同),并有能力对自己的行动负责。这样,在未来世界人工智能将作为一种独特但真正意义上的社会成员,与人类共同参与到社会生活中去。

五、结语

自古希腊以来,自然物和人工物的区分成为人类认知的一个基础性分类框架,随着现代生物学的发展,它又与有机体和无机体的区分相结合,融入到人们对生命的理解中。这一分类学曾经彰显出人类执着而强烈的自我意识,也限定了人类认知事物的边界。而当我们站在即将到来的人工智能社会的十字路口时,更加细致的反思和分析告诉我们,这个边界并非如想象的那样清晰和坚固。现在还没有证据表明硅基的人工物不可能具有生命,更没有充分理由断言具有真正自主性的人工智能不能被赋予主体资格。我们应该以一种更加对等和开放的态度与这个新的“物种”相互认识,相互适应。尽管现在还难以想象人工智能具有情感体验和自我意识,但作为一个行动主体,它们与我们并无二致。如果用一种因果推理模型和关系主义规则来设计人工智能,它们与我们的“思维方式”也会大致相似。

但是,也不能由此断言人工智能与人类没有实质性差别。至少存在着三个真正的差异,可能会造成人工智能的行为和社会结构产生显著偏离。第一,人工智能可以通过联机成为一个“荣格式集体存在物”,它们的个体边界在原则上是可消除的。第二,人工智能具有一种“苏格拉底式的透明性”,对它们而言不存在人类那样的“认知”与“接受”之间的鸿沟,或者说,它们是先天地知行合一的。第三,人工智能原则上可以通过数据复制转移实现“不死”,生存也不是它们的首要需求。不难设想,根据这些特征形成的人工智能社会(假设独立于人类社会),很可能会演化出完全不同的社会结构。因此,如何与这样一类行动主体共处于同一个社会,仍是摆在人类面前的重大课题。一种乐观的看法把人工智能视为服务型机器,一种悲观的看法则把它们视为完全异于人类的怪物,二者都是偏颇的,更加理智的看法是把它们当作一个可交流但有差异的族类。与这个族类和谐共处无疑是一个巨大的挑战,但类似挑战在人类的历史和现实生活中都曾反复出现。无论人工智能社会将带来什么,都是人类必须要积极面对的。

轮值主编|陈乔见返回搜狐,查看更多

人工智能伦理问题的现状分析与对策

中国网/中国发展门户网讯  人工智能(AI)是第四次产业革命中的核心技术,得到了世界的高度重视。我国也围绕人工智能技术制定了一系列的发展规划和战略,大力推动了我国人工智能领域的发展。然而,人工智能技术在为经济发展与社会进步带来重大发展机遇的同时,也为伦理规范和社会法治带来了深刻挑战。2017年,国务院印发的《新一代人工智能发展规划》提出“分三步走”的战略目标,掀起了人工智能新热潮,并明确提出要“加强人工智能相关法律、伦理和社会问题研究,建立保障人工智能健康发展的法律法规和伦理道德框架”。2018年,习近平总书记在主持中共中央政治局就人工智能发展现状和趋势举行的集体学习时强调,要加强人工智能发展的潜在风险研判和防范,维护人民利益和国家安全,确保人工智能安全、可靠、可控。要整合多学科力量,加强人工智能相关法律、伦理、社会问题研究,建立健全保障人工智能健康发展的法律法规、制度体系、伦理道德。2019年,我国新一代人工智能发展规划推进办公室专门成立了新一代人工智能治理专业委员会,全面负责开展人工智能治理方面政策体系、法律法规和伦理规范研究和工作推进。《中华人民共和国国民经济和社会发展第十四个五年规划和2035年远景目标纲要》中专门强调要“探索建立无人驾驶、在线医疗、金融科技、智能配送等监管框架,完善相关法律法规和伦理审查规则”。这些均体现了我国对人工智能伦理及其治理的密切关注程度和积极推进决心,同时也突出了这一问题的重要性。

当前人工智能伦理问题

伦理是处理人与人之间关系、人与社会之间关系的道理和秩序规范。人类历史上,重大的科技发展往往带来生产力、生产关系及上层建筑的显著变化,成为划分时代的一项重要标准,也带来对社会伦理的深刻反思。人类社会于20世纪中后期进入信息时代后,信息技术伦理逐渐引起了广泛关注和研究,包括个人信息泄露、信息鸿沟、信息茧房、新型权力结构规制不足等。信息技术的高速变革发展,使得人类社会迅速迈向智能时代,其突出表现在带有认知、预测和决策功能的人工智能算法被日益广泛地应用在社会各个场景之中;前沿信息技术的综合运用,正逐渐发展形成一个万物可互联、万物可计算的新型硬件和数据资源网络,能够提供海量多源异构数据供人工智能算法分析处理;人工智能算法可直接控制物理设备,亦可为个人决策、群体决策乃至国家决策提供辅助支撑;人工智能可以运用于智慧家居、智慧交通、智慧医疗、智慧工厂、智慧农业、智慧金融等众多场景,还可能被用于武器和军事之中。然而,迈向智能时代的过程如此迅速,使得我们在传统的信息技术伦理秩序尚未建立完成的情况下,又迫切需要应对更加富有挑战性的人工智能伦理问题,积极构建智能社会的秩序。

计算机伦理学创始人 Moore将伦理智能体分为4类:伦理影响智能体(对社会和环境产生伦理影响);隐式伦理智能体(通过特定软硬件内置安全等隐含的伦理设计);显示伦理智能体(能根据情势的变化及其对伦理规范的理解采取合理行动);完全伦理智能体(像人一样具有自由意志并能对各种情况做出伦理决策)。当前人工智能发展尚处在弱人工智能阶段,但也对社会和环境产生了一定的伦理影响。人们正在探索为人工智能内置伦理规则,以及通过伦理推理等使人工智能技术的实现中也包含有对伦理规则的理解。近年来,越来越多的人呼吁要赋予人工智能机器一定的道德主体地位,但机器能否成为完全伦理智能体存在巨大的争议。尽管当前人工智能在一些场景下的功能或行为与人类接近,但实则并不具有“自由意志”。从经典社会规范理论来看,是否能够成为规范意义上的“主体”来承担责任,并不取决于其功能,而是以“自由意志”为核心来构建的。黑格尔的《法哲学原理》即以自由意志为起点展开。因此,当前阶段对人工智能伦理问题的分析和解决路径构建应主要围绕着前3类伦理智能体开展,即将人工智能定性为工具而非主体。

当前阶段,人工智能既承继了之前信息技术的伦理问题,又因为深度学习等一些人工智能算法的不透明性、难解释性、自适应性、运用广泛等特征而具有新的特点,可能在基本人权、社会秩序、国家安全等诸多方面带来一系列伦理风险。例如:人工智能系统的缺陷和价值设定问题可能带来公民生命权、健康权的威胁。2018年,Uber自动驾驶汽车在美国亚利桑那州发生的致命事故并非传感器出现故障,而是由于 Uber在设计系统时出于对乘客舒适度的考虑,对人工智能算法识别为树叶、塑料袋之类的障碍物做出予以忽略的决定。人工智能算法在目标示范、算法歧视、训练数据中的偏失可能带来或扩大社会中的歧视,侵害公民的平等权。人工智能的滥用可能威胁公民隐私权、个人信息权。深度学习等复杂的人工智能算法会导致算法黑箱问题,使决策不透明或难以解释,从而影响公民知情权、程序正当及公民监督权。信息精准推送、自动化假新闻撰写和智能化定向传播、深度伪造等人工智能技术的滥用和误用可能导致信息茧房、虚假信息泛滥等问题,以及可能影响人们对重要新闻的获取和对公共议题的民主参与度;虚假新闻的精准推送还可能加大影响人们对事实的认识和观点,进而可能煽动民意、操纵商业市场和影响政治及国家政策。剑桥分析公司利用 Facebook上的数据对用户进行政治偏好分析,并据此进行定向信息推送来影响美国大选,这就是典型实例。人工智能算法可能在更不易于被察觉和证明的情况下,利用算法歧视,或通过算法合谋形成横向垄断协议或轴辐协议等方式,破坏市场竞争环境。算法决策在社会各领域的运用可能引起权力结构的变化,算法凭借其可以处理海量数据的技术优势和无所不在的信息系统中的嵌入优势,对人们的权益和自由产生显著影响。例如,银行信贷中通过算法进行信用评价将影响公民是否能获得贷款,刑事司法中通过算法进行社会危害性评估将影响是否进行审前羁押等,都是突出的体现。人工智能在工作场景中的滥用可能影响劳动者权益,并且人工智能对劳动者的替代可能引发大规模结构性失业的危机,带来劳动权或就业机会方面的风险。由于人工智能在社会生产生活的各个环节日益广泛应用,人工智能系统的漏洞、设计缺陷等安全风险,可能引发个人信息等数据泄露、工业生产线停止、交通瘫痪等社会问题,威胁金融安全、社会安全和国家安全等。人工智能武器的滥用可能在世界范围内加剧不平等,威胁人类生命与世界和平……

人工智能伦理风险治理具有复杂性,尚未形成完善的理论架构和治理体系。人工智能伦理风险的成因具有多元性,包括人工智能算法的目标失范、算法及系统缺陷、受影响主体对人工智能的信任危机、监管机制和工具欠缺、责任机制不完善、受影响主体的防御措施薄弱等。人工智能技术和产业应用的飞速发展,难以充分刻画和分析其伦理风险及提供解决方案。这要求我们必须克服传统规范体系的滞后性,而采用“面向未来”的眼光和方法论,对人工智能的设计、研发、应用和使用中的规范框架进行积极思考和构建,并从确立伦理准则等软法开始,引领和规范人工智能研发应用。

关于人工智能的发展,我们既不能盲目乐观,也不能因噎废食,要深刻认识到它可以增加社会福祉的能力。因此,在人类社会步入智能时代之际,必须趁早从宏观上引导人工智能沿着科学的道路前行,对它进行伦理反思,识别其中的伦理风险及其成因,逐步构建科学有效的治理体系,使其更好地发挥积极价值。 

人工智能伦理准则、治理原则及进路

当前全球人工智能治理还处于初期探索阶段,正从形成人工智能伦理准则的基本共识出发,向可信评估、操作指南、行业标准、政策法规等落地实践逐步深入,并在加快构建人工智能国际治理框架体系。

伦理准则

近几年来,众多国家、地区、国际和国内组织、企业均纷纷发布了人工智能伦理准则或研究报告。据不完全统计,相关人工智能伦理准则已经超过40项。除文化、地区、领域等因素引起的差异之外,可以看到目前的人工智能伦理准则已形成了一定的社会共识。

近年来,中国相关机构和行业组织也非常积极活跃参与其中。例如:2018年1月,中国电子技术标准化研究院发布了《人工智能标准化白皮书(2018版)》,提出人类利益原则和责任原则作为人工智能伦理的两个基本原则;2019年5月,《人工智能北京共识》发布,针对人工智能的研发、使用、治理 3 个方面,提出了各个参与方应该遵循的有益于人类命运共同体构建和社会发展的15条原则;2019年6月,国家新一代人工智能治理专业委员会发布《新一代人工智能治理原则——发展负责任的人工智能》,提出了人工智能发展的8项原则,勾勒出了人工智能治理的框架和行动指南;2019年7月,上海市人工智能产业安全专家咨询委员会发布了《人工智能安全发展上海倡议》;2021年9月,中关村论坛上发布由国家新一代人工智能治理专业委员会制定的《新一代人工智能伦理规范》等。从发布内容上看,所有准则在以人为本、促进创新、保障安全、保护隐私、明晰责任等价值观上取得了高度共识,但仍有待继续加深理论研究和论证,进一步建立共识。

治理原则

美国、欧洲、日本等国家和地区在大力推动人工智能技术和产业发展的同时,高度重视人工智能的安全、健康发展,并将伦理治理纳入其人工智能战略,体现了发展与伦理安全并重的基本原则。

习近平总书记高度重视科技创新领域的法治建设问题,强调“要积极推进国家安全、科技创新、公共卫生、生物安全、生态文明、防范风险、涉外法治等重要领域立法以良法善治保障新业态新模式健康发展”。近年来,我国在应对新技术新业态的规制和监管方面,形成了“包容审慎”的总体政策。这项基本政策在2017年就已正式提出。在2020年1月1日起实施的《优化营商环境条例》第55条中更是专门规定了“包容审慎”监管原则:“政府及其有关部门应当按照鼓励创新的原则,对新技术、新产业、新业态、新模式等实行包容审慎监管,针对其性质、特点分类制定和实行相应的监管规则和标准,留足发展空间,同时确保质量和安全,不得简单化予以禁止或者不予监管。”这为当前人工智能伦理治理提供了基本原则和方法论。一方面,要注重观察,认识到新技术新事物往往有其积极的社会意义,亦有其发展完善的客观规律,应予以一定空间使其能够发展完善,并在其发展中的必要之处形成规制方法和措施。另一方面,要坚守底线,包括公民权利保护的底线、安全的底线等。对于已经形成高度社会共识、凝结在法律之中的重要权益、价值,在执法、司法过程中都要依法进行保护。这既是法律对相关技术研发者和使用者的明确要求,也是法律对于在智能时代保护公民权益、促进科技向善的郑重承诺。

治理进路

在人工智能治理整体路径选择方面,主要有两种理论:“对立论”和“系统论”。

“对立论”主要着眼于人工智能技术与人类权利和福祉之间的对立冲突,进而建立相应的审查和规制制度。在这一视角下,一些国家和机构重点关注了针对人工智能系统本身及开发应用中的一些伦理原则。例如,2020年《人工智能伦理罗马倡议》中提出7项主要原则——透明、包容、责任、公正、可靠、安全和隐私,欧盟委员会于2019年《可信赖人工智能的伦理指南》中提出人工智能系统全生命周期应遵守合法性、合伦理性和稳健性3项要求,都体现了这一进路。

“系统论”则强调人工智能技术与人类、其他人工代理、法律、非智能基础设施和社会规范之间的协调互动关系。人工智能伦理涉及一种社会技术系统,该系统在设计时必须注意其不是一项孤立的技术对象,而是需要考虑它将要在怎样的社会组织中运作。我们可以调整的不仅仅是人工智能系统,还有在系统中与之相互作用的其他要素;在了解人工智能运作特点的基础上,可以在整个系统内考虑各个要素如何进行最佳调配治理。当前在一些政策和法规中已有一定“系统论”进路的体现。例如,IEEE(电气与电子工程师协会)发布的《合伦理设计》11中提出的8项原则之一即为“资质”(competence),该原则提出系统创建者应明确对操作者的要求,并且操作者应遵守安全有效操作所需的知识和技能的原则,这体现了从对使用者要求的角度来弥补人工智能不足的系统论视角,对智能时代的教育和培训提出了新需求。我国国家新一代人工智能治理专业委员会2019年发布的《新一代人工智能治理原则——发展负责任的人工智能》中,不仅强调了人工智能系统本身应该符合怎样的伦理原则,而且从更系统的角度提出了“治理原则”,即人工智能发展相关各方应遵循的8项原则;除了和谐友好、尊重隐私、安全可控等侧重于人工智能开放和应用的原则外,还专门强调了要“改善管理方式”,“加强人工智能教育及科普,提升弱势群体适应性,努力消除数字鸿沟”,“推动国际组织、政府部门、科研机构、教育机构、企业、社会组织、公众在人工智能发展与治理中的协调互动”等重要原则,体现出包含教育改革、伦理规范、技术支撑、法律规制、国际合作等多维度治理的“系统论”思维和多元共治的思想,提供了更加综合的人工智能治理框架和行动指南。基于人工智能治理的特殊性和复杂性,我国应在习近平总书记提出的“打造共建共治共享的社会治理格局”的指导下,系统性地思考人工智能的治理维度,建设多元共治的人工智能综合治理体系。

我国人工智能伦理治理对策

人工智能伦理治理是社会治理的重要组成部分。我国应在“共建共治共享”治理理论的指导下,以“包容审慎”为监管原则,以“系统论”为治理进路,逐渐建设形成多元主体参与、多维度、综合性的治理体系。

教育改革

教育是人类知识代际传递和能力培养的重要途径。通过国务院、教育部出台的多项措施,以及联合国教科文组织发布的《教育中的人工智能:可持续发展的机遇与挑战》、《人工智能与教育的北京共识》13等报告可以看到,国内外均开始重视教育的发展改革在人工智能技术发展和应用中有着不可或缺的作用。为更好地支撑人工智能发展和治理,应从4个方面进行完善:普及人工智能等前沿技术知识,提高公众认知,使公众理性对待人工智能;在科技工作者中加强人工智能伦理教育和职业伦理培训;为劳动者提供持续的终身教育体系,应对人工智能可能引发的失业问题;研究青少年教育变革,打破工业化时代传承下来的知识化教育的局限性,回应人工智能时代对人才的需求。

伦理规范

我国《新一代人工智能发展规划》中提到,“开展人工智能行为科学和伦理等问题研究,建立伦理道德多层次判断结构及人机协作的伦理框架”。同时,还需制定人工智能产品研发设计人员及日后使用人员的道德规范和行为守则,从源头到下游进行约束和引导。当前有5项重点工作可以开展:针对人工智能的重点领域,研究细化的伦理准则,形成具有可操作性的规范和建议。在宣传教育层面进行适当引导,进一步推动人工智能伦理共识的形成。推动科研机构和企业对人工智能伦理风险的认知和实践。充分发挥国家层面伦理委员会的作用,通过制定国家层面的人工智能伦理准则和推进计划,定期针对新业态、新应用评估伦理风险,以及定期评选人工智能行业最佳实践等多种方式,促进先进伦理风险评估控制经验的推广。推动人工智能科研院所和企业建立伦理委员会,领导人工智能伦理风险评估、监控和实时应对,使人工智能伦理考量贯穿在人工智能设计、研发和应用的全流程之中。

技术支撑

通过改进技术而降低伦理风险,是人工智能伦理治理的重要维度。当前,在科研、市场、法律等驱动下,许多科研机构和企业均开展了联邦学习、隐私计算等活动,以更好地保护个人隐私的技术研发;同时,对加强安全性、可解释性、公平性的人工智能算法,以及数据集异常检测、训练样本评估等技术研究,也提出了很多不同领域的伦理智能体的模型结构。当然,还应完善专利制度,明确算法相关发明的可专利性,进一步激励技术创新,以支撑符合伦理要求的人工智能系统设计。

此外,一些重点领域的推荐性标准制定工作也不容忽视。在人工智能标准制定中,应强化对人工智能伦理准则的贯彻和支撑,注重对隐私保护、安全性、可用性、可解释性、可追溯性、可问责性、评估和监管支撑技术等方面的标准制定,鼓励企业提出和公布自己的企业标准,并积极参与相关国际标准的建立,促进我国相关专利技术纳入国际标准,帮助我国在国际人工智能伦理准则及相关标准制定中提升话语权,并为我国企业在国际竞争中奠定更好的竞争优势。

法律规制

法律规制层面需要逐步发展数字人权、明晰责任分配、建立监管体系、实现法治与技术治理有机结合。在当前阶段,应积极推动《个人信息保护法》《数据安全法》的有效实施,开展自动驾驶领域的立法工作;并对重点领域的算法监管制度加强研究,区分不同的场景,探讨人工智能伦理风险评估、算法审计、数据集缺陷检测、算法认证等措施适用的必要性和前提条件,为下一步的立法做好理论和制度建议准备。

国际合作

当前,人类社会正步入智能时代,世界范围内人工智能领域的规则秩序正处于形成期。欧盟聚焦于人工智能价值观进行了许多研究,期望通过立法等方式,将欧洲的人权传统转化为其在人工智能发展中的新优势。美国对人工智能标准也尤为重视,特朗普于2019年2月发布“美国人工智能计划”行政令,要求白宫科技政策办公室(OSTP)和美国国家标准与技术研究院(NIST)等政府机构制定标准,指导开发可靠、稳健、可信、安全、简洁和可协作的人工智能系统,并呼吁主导国际人工智能标准的制定。

我国在人工智能科技领域处于世界前列,需要更加积极主动地应对人工智能伦理问题带来的挑战,在人工智能发展中承担相应的伦理责任;积极开展国际交流,参与相关国际管理政策及标准的制定,把握科技发展话语权;在最具代表性和突破性的科技力量中占据发展的制高点,为实现人工智能的全球治理作出积极贡献。

(作者:张兆翔、谭铁牛,中国科学院自动化研究所;张吉豫中国人民大学法学院;《中国科学院院刊》供稿)

版权声明:本文内容由互联网用户自发贡献,该文观点仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌抄袭侵权/违法违规的内容,一经查实,本站将立刻删除。

上一篇

下一篇