专业视野|人工智能法律人格论之质疑
[摘要]:人工智能的发展为现行法律体系带来了诸多挑战,为此学界提出赋予智能机器人法律人格,由具有自我意志的智能机器人对自我行为独立承担责任,拟制法律人格说、工具性人格说、电子人格说和有限人格说是主要的几种论证路径。但人工智能的本质是作为人类的工具而存在,况且现行法律体系并非无法应对人工智能发展带来的挑战,基于人工智能与人类思想的差距,赋予法律人格的智能机器人也并不具有承担法律责任的现实性。
[关键词]:人工智能;法律人格;法律责任
一、问题的提出
人工智能(ArtificialIntelligence,简称AI),作为计算机学科的一个重要分支,由McCarthy于1956年在Dartmouth学会上正式提出,被人们称为当今世界三大尖端技术之一,并且日渐成为国际社会普遍关注的议题。人工智能引人注目之处即在于其“智能”,基于人类预先植入的算法而运行,但又具有自主学习、决策能力。无人驾驶汽车、智能医生等都是人工智能发展中取得的成果,这些人工智能产物具有高度的自我意识,可完全脱离人类,自主地与周围环境进行互动,自主决定为或不为一定行为。人工智能的发展,意味着人类不再是唯一高智能的生物,诚如著名科学家霍金所言:人工智能的真正风险不是它的恶意,而是它的能力。早在2015年,霍金就曾发出警告:超级聪明的人工智能可以非常容易地实现它的目标,但如果这些目标与人类的不一致,就会产生麻烦。人工智能发展的初衷是服务于人类,但其高智能性决定了人工智能不会像普通的生产工具一样,尽在人类的掌控之中。如2016年在深圳举办的国际高新技术成果交易会上,“小胖”机器人故障致人损伤案;2015年发生于德国大众汽车厂的机器人杀人案;2018年美国优步公司无人驾驶汽车致行人死亡案,都表明了人工智能在服务于人类的同时,也会对人类的生命、财产造成损害,而且这种损害是人类无法预测,无法掌控的。
较之科技的创新性,法律发展具有滞后性。面对人工智能的飞速发展,人工智能法律规制研究也进行得如火如荼。基于人工智能的自主性、社会性,不少学者提出应赋予人工智能法律上的主体地位,由其自主承担自己行为所带来的法律责任。但赋予人工智能法律上的主体地位是治愈其所带来的法律问题的良药,还是将现代法律发展推入了更深的泥潭?值得商榷。
二、人工智能法律人格肯定说的论证进路
肯定说即主张应当赋予人工智能法律人格,基于对其高智能的自主性以及能独立与周围环境进行互动的社会性,从功能主义和价值主义两个维度论证赋予人工智能法律人格的意义所在,主要有以下观点。
(一)拟制法律人格说
拟制法律人格说主要基于一种功能主义的立场,认为当前人工智能已经高度发展,并具有了独立影响他人权利义务的能力,如无人驾驶汽车、机器人医生等,而现有的法律体系不足以规制这一新兴事物。将此种相对应的义务或权利归诸他人在一般情况下难言合理,也不符合权利义务相一致的原理,而只能归于人工智能。其次,人工智能具有较强的自主学习能力,能通过学习进行具有独创性的创作,此种完全由人工智能通过自主学习创作而得的创作物之著作权应当归属于人工智能本身。为了适应人工智能技术的发展,解决涉及人工智能产物的权利归属纠纷和人工智能侵权纠纷,需要从人类权利优先的立场出发,运用法律拟制的立法技术,赋予人工智能独立的法律人格。拟制法律人格说通过法律拟制,赋予人工智能法律人格,以解决人工智能出现对现行法律体系带来的冲击,认为只有赋予了人工智能民事主体地位,才能让其享有民事权利和承担义务,从而由其独立承担相应的法律责任。
(二)工具性人格说
主张赋予人工智能工具性人格的学者认为赋予人工智能有限的工具性人格有其理论基础和现实需求。首先,伦理性并不是民事主体的必然要求,从“人可非人”到“非人可人”的历史演变阐释了民事主体只是社会需要的法律形式。抽象是一般法律人格的最本质特征,民法中的法律主体着眼于社会生活中抽象的“人”,而非仅指自然人,法人为例。人工智能能完成人类几乎所有的工作,因此其具备享有权利和承担义务的能力。再者,人工智能享有财产是其承担民事责任的现实需求,机器人基于雇主代理人的身份享有财产权,如法人一样,人工智能作为有意志的主体,更应当享有财产权。
(三)电子人格说
“电子人格”是2016年由欧盟委员会法律事务委员会提出的动议,建议赋予最先进的自动化机器人以“电子人”的身份,从而承认其法律上的民事主体地位。在人工智能主体地位的认定上,有些国家做出了更为大胆的尝试。结合法律主体的历史演变与法律主体的本体、能力及道德要素的法理基础,认为智能机器人已经具备了法律主体所要求的自主性和规范性,从而应当赋予其“电子人”的法律人格。美国在其《统一电子交易法》中将电子交易系统直接界定为“电子人”;沙特则赋予其“交往沟通能力”较强的“索菲娅”智能机器人以公民身份。
(四)有限人格说
人之所以为人,并不是因为他是一种有肉体和精神的生物,而是因为根据法律规则的观点,人展现了一种自我目的。因此,将没有生命体的智能机器人作为法律人是具有现实可能性的。超越程序设计与编制范围、基于独立意志进行活动的智能机器人,完全可以证明自我目的,具备法律人格的基础。又基于智能机器人承担责任的能力有限;智能机器人作为服务于人类利益的“工具性”存在;以及对于智能机器人高度发展后或将“主宰”人类的担忧,这类学者便认为在认可智能机器人道德性和法律人格的同时,机器人绝不可能获得完全的、不受限制的、与自然人平等的主体地位。
三、人工智能肯定说之批判
从持肯定说的学者的论证进路来看,认为应当赋予人工智能以法律人格的理由主要有以下几点:第一,人工智能的高度发展使得高智能的机器人已经具备独立意志,能独立地进行社会交往、自主学习和创作并能通过自我意志影响他人的权利义务。第二,随着时代的发展,法律主体的范围在不断扩大,正如历史上的奴隶解放、现代的法人法律人格拟制以及探讨中的动物法律人格等,人类不应当固守传统的人类伦理道德观念,决绝地否定人工智能获得法律主体资格的可行性,如许中缘教授认为“伦理性并不是民事主体的必然要求”,而刘宪权教授认为可以存在一种不同的“机器人道德”。第三,人工智能的出现,对现行的法律制度产生了冲击,如人工智能创作物的著作权归属问题,人工智能侵权问题等,是超出了现代法律规定的。为了适应科技的进步以及保障社会秩序的正常运行,以此为契机推动法律的发展,赋予人工智能法律人格,让这个高新科技的智能主体享有法律上的权利义务,自行承担所带来法律责任,以解决现行法律规定不足的窘境。尽管许多学者言之凿凿主张人工智能法律人格肯定说,但笔者仍认为应当持保守主义的观点,否定其法律人格。
(一)赋予人工智能法律人格的不必要性
1.人工智能
发展的目的是服务于人类
现代科学为了人类的生存发展作出的巨大贡献不容置疑,但我们必须承认,人类所做的一切皆是以人类利益为中心的,研发高智能机器人,只是为了让人类从更多的机械性工作中解放出来,投身于更多的思想工作以及幸福生活中去。无人驾驶汽车、机器人医生等,都是设计出来更好地为人类进行服务。即使在主张人工智能法律人格肯定说的学者当中,也无一否认这一点,如主张有限人格说的刘宪权教授之观点,在很长的一段时间内,机器人只能是自然人的“工具”,机器人的“工具”地位根深蒂固于人们的观念之中,以至于有些人很难以接受机器人主体地位的观点。但其自己也承认,即便未来有一天机器人真的能够成为“其他人”,法谚“法律面前人人平等”也不应适用于自然人与机器人之间。机器人限制性主体地位意味着当自然人利益与机器人利益产生冲突时,原则上应保障自然人利益,在绝大多数领域内,自然人与机器人之间不应存在法律意义上的平等。主张肯定说的“工具性人格说”更是从其概念上表明了智能机器人服务于人类的工具地位。由此可见,即使是主张赋予法律人格的学者们,也高度认可了人工智能由人类设计研发,旨在作为工具服务于人类利益的地位。在笔者看来,之所以主张赋予其法律人格,也仅仅是因为出现了除自然人以外的又一有自主意志的“物种”,对这种与人类高度相似性的肯定。
2.人工智能相关问题的现行法律规制并非无路可循
科技具有创新性,而法律具有滞后性,法律规范永远无法完美地契合社会生活中出现的所有问题。因此,在法律中会存在原则和规则以及法学理论,以供司法者在遇到现行法未明确规定的新情况时,通过法律方法的适用,实现个案正义。
目前人工智能相关问题探讨较多的有人工智能创作物的著作权归属问题以及其侵权责任承担问题。首先,就其创作物著作权归属问题来说,学界的观点有:第一,赋予人工智能法律主体地位,由其享有著作权;第二,通过领接权制度进行规制,认为人工智能创作物因投资人的“非创作性”投入而产生,投资人的利益应当成为相关法律制度的保护重心。第三,孳息说。认为人工智能创作物是一个“物生物”的过程,根据民法理论,应当认定为“知识财产孳息”,由人工智能的所有权人享有其权利。由此可见,赋予人工智能法律人格并非解决其创作物权利归属的必然方式,孳息说和领接权说孰更合理,有待学者的不断论证,但较之赋予人工智能法律人格,法律解释更能维护法律的稳定性。
其次,人工智能的侵权责任问题。同样,在这个问题上学界也在现有法律体系下提出了解决人工智能侵权责任问题的方法——产品责任制度。上文说到人工智能只是作为人类的工具而存在的一个高科技产品,只是被赋予了一定程度上的自主意志,但这种自主意志也是通过预先设定的算法而表现出来的,所以其最终还是体现了设计者、生产者等的主观意志。因此,笔者认为产品责任可以为人工智能侵权提供解决路径,并非赋予其法律人格不可。综上所述,人工智能相关问题并非无法在现有法律体系下进行,相反,若仅将解决这些问题之需作为赋予其法律人格的论据,显然太过激进。
(二)赋予人工智能法律人格的不可行性
1.人工智能与人类思想存在差距
让众多学者为人工智能法律人格据理力争的最主要之处,无非在于其高智能性,人类以外又一具有独立意志的“物种”,但这种智能与自然人的思想是存在差距的。首先,人工智能的自主意志是基于人类预先设定的算法而运作的,是一种机械化的流程,不具有人类这种复杂的道德情感。在这种情况下,人工智能在面临“电车难题”之类的问题时,仅会根据自己的价值衡量,采取损失较小的决策,而不会有更多的伦理道德上的考量。其次,有学者提出法人制度进行比较,笔者认为根本不具有可比拟性,法人虽然是法律拟制的法律主体,但其决策机构、执行机构全是由自然人进行的,与其说法律赋予法人以法律人格是为了保障其权利义务,不如说是为了限制法人背后实际操控的自然人以及保障相对人的权利。
2.人工智能承担责任的非现实性
权利义务具有相对性,在享有权利的同时必然需要承担对应的义务,而且须有对他人权利义务的认知,上文提到人工智能与自然人的思想是有差距的,必然导致其对他人权利义务认知的不足。如果通过赋予人工智能法律人格来由其承担所带来的法律责任,那么首先就必须解决人工智能的民事权利能力和民事行为能力问题。若承认其法律人格,民事权利能力自不待言,那么在智能机器人众多级别的智能水平下,如何对其行为能力进行划分呢,是否需要像自然人一样,划分出无民事行为能力、限制民事行为能力和完全民事行为能力呢?智能机器人通过自主学习智力得以发展后,又如何判定其行为能力呢?可见,赋予法律人格的方式只会带来更多的法律问题。
其次,承担责任的基础是拥有财产,那么人工智能是否具备独立享有财产的能力呢。人工智能具备赚钱的能力是毋庸置疑的,但也不可否认,人工智能的设计、生产投资费用都是相当高昂的,设计者、生产者一般将其作为营利的工具,而非像自然人母亲生孩子一样是无私的奉献,因此让其独立营利并享有财产是不现实的。此外,承担责任是一种法律上的责难,财产是人类生产生活的基础,所以人类为了保障自己生产生活的基础不被剥夺,故而约束自己的行为,不致对他人的权利造成损害。而对于智能机器人来说,财产不是生产生活的基本保障,其看待财产的方式和人类是不一样的,因此,就算其可以独立拥有财产,独立承担法律责任,也无法通过这样一种制度设计对其行为进行约束,法律便失去了其威慑功能。
再者,民事责任更多表现的是一种财产责任,但人工智能既然存在自我意志,那便不排除其实施违法犯罪行为的可能性,若其实施了违法犯罪行为,又如何对其施以刑罚呢?刑罚具有惩罚和矫正功能,对被告人处以刑罚意味着这些主体要承受社会、心理乃至身体上的不利后果。可是,所有这些对无法成为道德主体的机器人而言是毫无意义的。[①]刑罚种类中自由刑、死刑又根本达不到其应有的惩罚功能,智能机器人不会像人类一样对自由和生命有崇高的向往,也不会因社会的负面评价而感到羞愧。另一方面,刑罚还有一种对被害人的慰藉作用在其中,难以想象对一个机器人施以刑罚能让被害人感受到慰藉。
四、结论
人工智能作为科技发展的成果,其创新及为人类做出的贡献值得肯定,但对人工智能法律人格的肯定目前尚难给予认可。主张肯定说的学者们一边呼吁赋予其法律人格,一边又不断对其工具性地位、有限人格以及与人类的不平等地位进行强调,这完全违背了法律最基本的平等原则。人工智能的出现是为现行法律体制带来了挑战,但并非赋予其法律人格不可解决,赋予其法律人格只会为法律带来更多难以调和的问题,并且其承担法律责任具有诸多的不现实性。故笔者认为,我们应当持保守主义的观点,看清人工智能的工具性本质,在司法过程中为其相关问题寻求合理的解决路径。
参考文献
1.邹蕾,张先锋.人工智能及其发展应用[J].信息网络安全,2012(02):11-13.
2.赵万一.机器人的法律主体地位辨析——兼谈对机器人进行法律规制的基本要求[J].贵州民族大学学报(哲学社会科学版),2018(03):147-167.
3.黄志澄:《如何看待霍金对人工智能的警告》,载《中国青年报》2017年6月5日,第2版.
4.王艳慧.人工智能民事主体地位的论证进路及其批判[J].华东政法大学学报,2020,23(04):83-92.
5.杨清望,张磊.论人工智能的拟制法律人格[J].湖南科技大学学报(社会科学版),2018,21(06):91-97.DOI:10.13582/j.cnki.1672-7835.2018.06.013.
6.曹新明,夏传胜.抽象人格论与我国民事主体制度[J].法商研究(中南政法学院学报),2000(04):59-66.DOI:10.16390/j.cnki.issn1672-0393.2000.04.010.
7.参见许中缘:《论机器人的工具性法律人格》,载《法学评论》2018年第5期,第156-158页.
8.郭少飞.“电子人”法律主体论[J].东方法学,2018(03):38-49.DOI:10.19404/j.cnki.dffx.2018.03.005.
9.[德]拉德布鲁赫:《法哲学》,王朴译,法律出版社2005年版,第134页.
10.刘宪权.人工智能时代机器人行为道德伦理与刑法规制[J].比较法研究,2018(04):40-54.
11.解正山.对机器人“法律人格论”的质疑——兼论机器人致害民事责任[J].暨南学报(哲学社会科学版),2020,42(08):84-97.
单位:北京大成(成都)律师事务所 苟琳莉
来源:成都市律师协会网络与高新技术法律专业委员会
此文系作者个人观点,不代表成都市律师协会立场
人工智能的法律人格
黄博刘丽荣
摘要:随着人工智能时代的到来,智能机器人也逐渐走入我们的生活。其广泛运用于公、检、法系统的日常工作中,极大地提高国家公职人员的司法作风及办案效率。社会各界对人工智能是否具备法律人格的讨论日益热烈。本文基于对人工智能的法律人格的合理性及其本身存在的弊端问题展开分析。若将人工智能赋予法律人格,会导致责任划分困难、阻碍人工智能的发展,从而抑制研发者的积极性,也会与当前法律理念相矛盾的弊端出现。各界人士对人工智能的法律人格问题进行探讨,会促进社会主义法制建设,但仓促的赋予其法律人格,弊大于利。
关键词:人工智能;法律人格;弊端
中图分类号:D923.42文献标识码:A文章编号:2095-4379-(2018)32-0078-03
作者簡介:黄博(1998-),女,汉族,吉林长春人,长春财经学院,本科生,研究方向:法律;刘丽荣(1980-),女,汉族,吉林长春人,硕士研究生,长春财经学院,讲师,研究方向:宪法行政法学。
1956年的特茅斯会议标志着"人工智能"学术概念的诞生,从此开辟了利用智能机器代替人类从事脑力劳动的新纪元。此后,显著减轻脑力劳动和实现生产过程智能化成为可能。人工智能不但在社会、经济、文化等诸多方面产生不可或缺的作用,而且在法律层面也产生重要的影响。一、人工智能的概述
人工智能的概念从被提出至今,没有一个精准的定义。但学者普遍认为人工智能技术是研究、开发用于模拟、延伸和发展人类智能的理论方法、技术及应用系统的一门新技术学科。①美国麻省理工学院的维斯顿教授对人工智能的定义是:人工智能就是研究如何使计算机去做过去只有人才能做的智能的工作。若计算机去做以前人类去做的事,那么,人工智能人格问题也就此产生了。二、人工智能的法律人格
人工智能是否应被赋予法律人格,即未来人工智能是否可成为法律上的主体,我持有否定的态度。我认为这不但妨碍人工智能领域的发展,而且受损害者则是机器人的拥有者,进而使人工智能科研家们丧失对其制造商品的积极性。但凡事都具有两面性,在人工智能是否应被赋予”法律人格”的问题上,也同样具有它对人类的有益之处。
(一)将人工智能赋予“法律人格”的合理性
1.方便于人类,促进法律职业的改革
人工智能在法律上的作用也不容忽视,近年“智能律师”的出现给法律咨询者提供极大的方便,咨询者可以用最短的时间获取更多的有用信息,而且与一个小时要几百元的人工律师相比,简直是即经济又方便。若是给人工智能赋予法律人格,即机器人可具有等同律师的法律责任和义务,与律师“平起平坐”,例如法学界中“法小淘”的产生,它是中国第一个应用于法律行业的机器人,咨询者可通过简单的手机语言对话方式将实际案例描绘出来,法小淘能可快速的得出法律相关损害事实,赔偿依据及事实,并且可在30万律师中分析出3位于此案例相关的开庭律师。这对人类未来的法律发展无疑起到促进的作用,人们可以廉价且快速的使用人工智能通行法律咨询。
随着人工智能时代的到来,智能机器人已逐渐被引入到法院、检察院,参与到司法人员的工作中,可谓将法律相关工作引入一个改革时代。比如检察院的检务智能语言系统,该系统具备较强的语言识别功能,可以将不同的声音甚至方言信息转化为较为精准的电子文本,而且随着系统的不断升级,文字转换的准确率也不断地提升。针对智能语言系统开发的智能询问系统、会议系统,都经过智能语言试点逐批引入检察机关,此语言系统的发明,不但在很大程度上减轻检察人员的书写、记录的工作量,在案件繁琐量大时,也可以提高工作人员的工作效率。与此系统可以媲美的还有近年研发的案管机器人,它是现今检察院在整个司法办案活动中的一个非常重要的平台,其中有智能绩效考核、智能大数据应用等多个子系统多个应用平台。他不但能完成上述对海量的数据进行总结,还可以帮助案件处理人员提供准确的案件有关资料、案件相关人员,并对这些数据进行大数据采集,可以说便利了检察人员整个办案流程。案管智能系统除了对案件进行分析处理,还可对检察院各部门,甚至各检察官的工作进行监管,通过对各检察人员,部门录入相应的工作要求,例如办案数量、工作作风、司法技能等各工作指标,案管机器人会将工作人员、各部门日常工作情况记录下来,最后两者进行比较,通过生成业务报表的形式对每一位检察人员、检察部门生成各个的综合考核结果,从而形成了前所未有的良好监督管理机制,从很大程度上提高检察官的司法作风和工作质量。可见,智能系统被引入检察院,参与进检察工作的作用不容忽视。随着信息科技的不断发展,法律行业也随之进入大数据时代,那么将人工智能引入法院将成为大多数人关注的问题,在现实生活中法院代表着国家的权威,是为公民赢得公平的圣地,但仍存在一些“同案不同罪”,也会有少数贪污受贿的法官为了一举私利而作出显失公平的判决,这严重影响当事人的利益和国家的信誉。因此,将人工智能系统引入法院,将会促进法院对案件的公平审理。针对案件的处理,人工智能可在裁判文书网生成的大数据中找到相似案件的裁判情况,并分析出此案件应适用的规则、原则。这在很大程度上为法官分析案件提供了便利条件,也促进案件审理的公平正义。倘若法官审判案件的结果与数据分析得出结论相差巨大,系统会自动提示此法官是否对本次判决不做改动,若法官选择“确定不做改动”的情况时,系统会自动将该案件及审判结果移送给法官联合会议,并要求每位法官提出自己的看法,这避免“同案不同判”的情况发生。
2.方便通过法律手段加以规范和管制
若将人工智能赋予“法律人格”,不但在很大程度上促进法律职业的改革,而且会更加方便法律对人工智能的规划与管制。规范律师行为可适用《律师法》等行业道德规范等一切法律都将适用于人工机器人。这样,无论是像“法小淘”,“阿尔法狗”这样的人工机器人,还是提供语言咨询的手机“助理”,都将会被人类的法律规范。若人工智能违法,则会按照人类的法律对其进行管制。这样,则不用再担心人工智能的“肆无忌惮”从而威胁人类生活。赋予人工智能以法律人格给人类带来的利益是值得肯定的,但它所带来的弊端也不容忽视。(二)人工智能赋予“法律人格”的弊端
1942年伊萨克.阿莫夫在短篇小说《转圆圈》中提出机器人应遵守的三条法则“第一:一个机器人不得伤害一个人类也不能因不作为而允许一个人类被伤害;第二:一个机器人必须遵守人类施加给他的规则,除非一些规则与第一条规则相冲突;第三:一个机器人必须保护自己的存在,只要这种自我保护不与第一或第二条相冲突”。但发现,机器人无法同时遵守二、三两条规则,从而不断重复他先前的行为,形成“转圆圈”的状况。霍布斯说过:“自我保护是第一自然法则。”任何一个人类都不会发生这些怪异行为。因为人类是变通的,无论何时遇到危险其第一生理现象应是自我保护,只有这种强行的规则才会使机器人陷入到这个“转圆圈”当中。从此可见,机器人完全像人类一样遵守规则,没有独立自主辨别事物的能力显然是不能做到的。
1.造成损害责任划分困难
2016年,欧洲会议向欧盟委员会提出报告,为规范机器人的生产及市场的流通要制定相應的民事规范。也就是说,赋予机器一定的“法律人格”,即“电子人格”,这是对机器人独立与第三人交往的案例中所要遵守的法律,但报告中并没有提出明确的处罚方法,若是机器人违法,是像人类法律中规定的那样罚款?缴费?若机器人触犯到人类的生命安全,是予机器人一定的刑罚?还是判处死刑?还是由它的生产者、制造商或是它的使用者来承担应有的法律责任?我认为这都不是最合适、有效的方法。
首先机器本身没有生命,从何谈及“生命权”?而它所谓的“生命权“也是归他的拥有者所有的;作为一个机器人,不会有独立的个人财产,因此对它进行罚款也是不可能的。
其次,如果让人工智能的生产者、制造商对其的行为而担责,这虽然在一定程度上的确会促进生产商对机器人产品的质量严格把关,但如果真的将此规则写入法律,就等于鞭炮制造商要对因顾客不当使用鞭炮而伤害他人的行为承担责任;枪支的生产商可因谋杀而造成的损害被起诉。现是人工智能发展的初步阶段,因技术和经济的问题对人工机器人潜在危险性存在尚不明确的情况,对此有待探明。因此,其生产者、制造商一味对其产品统揽其责,可能造成机器人的高价,从而导致购买者的数量随之下降。
再次,换一种问责角度,让人工智能的消费者承担损害责任,消费者购买机器人后独立承担其风险,其法律问责与生产者、销售商都无关,是一种消费者风险自负方式。这种方式的优点在于促进人工智能的设计者对机器人的定价下调,也是大多数顾客可以承担得起对机器人的购买,促进商品经济的发展。但不可忽视的是会有一些人工智能的生产者和开发商因不需承担任何法律责任,而忽略产品的质量,从而给消费者带来不可估量的损失。
最后,如果责任由生产者和消费者双方分担,那么,又将涉及到归责比例问题。对于归责原则,依照我国目前法律体系来看,有过错责任制和严格责任制两种,而两种责任方式都要求生产商在设计人工智能的过程中尽可能各个环节都谨慎、考虑周全,制造者能够保障机器的质量、功能的健全,人工智能的所有者在转让他物权时有提醒义务,保障其能够正常使用的义务。但人工智能与我们日常使用的雨伞、背包不同,机器人更像我们使用的电子产品,例如手机、电脑等,简单的从外观很难辨别其好坏,也许在使用以后的某个时间节点出现问题,甚至有些问题究竟是因为消费者使用不当所造成的还是因为生产者在生产过程中的过错而造成的,难以分辨。综上,从责任界定角度来看,若想给予人工智能以法律人格目前难以实现。
2.阻碍人工智能的发展,抑制研发者的积极性
在当今科技发展如此迅速的社会,毫无疑问,人工智能给人类带来的好处远大于弊端。但倘若仓促的赋予人工智能以法律人格,不但不能有效的对人工智能领域起到很好的规范作用,还会抑制研发者对人工智能创新研发的积极性。因为人工智能法律人格的赋予,会将机器人的研发与市场销售都规定在义务范围内,这种规定的局限性在于没有把因机器人自身不可避免的缺陷和消费者使用不当的原因考虑在内。这会导致就算科技研发者有了新的创新思维,但因为智能主体拥有主体资格,惧怕于新产品的出现会导致新风险的产生,从而被追究法律责任,进而降低新产品的研发,这在一定程度上也阻碍了智能技术的发展。因此,法学界对此问题的充分讨论是有必要的,但盲目对人工智能赋予则是不正当行为。
3.与当前的法律理念相矛盾
弱人工智能是指例如在我们日常生活中随处可见的搜索引擎、自动驾驶、室内智能体温计等,多数是在某一领域有实用价值的人工智能;强人工智能是指具有类似人一样的自我意识和较高的创新思维,可完全支配自己的行为和思想,可达到"人类认知"水平,并在处理问题的速度上远高于人类;超强人工智能是指人工智能达到可以像人一样去思考问题,去社交,甚至可以利用以储备的知识完成自主的学习、去发掘新技术、新领域。而我国目前处于弱人工智能阶段,可以说是弱人工智能的初步发展阶段。从我国当前的法律领域来看,“独立认知能力”和“表意能力”是拥有法律主体资格的前提。机器人经不断的自主学习和深度学习,在一定程度上可超过人类的认知能力。例如,近几年研发的“法小淘”、“阿尔法围棋”等智能机器人。但单单用认知能力去衡量法律人格问题是不全面的,我国目前还处于弱人工智能阶段,现阶段的机器人还未达到完全拥有人类的思维,而是缺乏人类的情感和感性思想。因此,仓促的赋予人工智能以法律人格显然与我国立法原则相违背,存在一定的矛盾。三、结语
目前,人工智能还处于初步发展阶段,虽然现在其人格问题还没有在法律层面对人类构成太大的威胁,但未雨绸缪,人工智能是未来社会发展的必然结果,“强人工智能”在不久的将来定会走进我们的生活。因此,人工智能是否具有法律人格是我们应该面对的问题,我们应如何控制并合理分配对机器人潜在危险的预防;怎样制定法律规则既不与法律根本原则相违背又能达到规范机器人行为的目的,是立法者在目前需要解决的问题。
我认为,要从根本上解决对人工智能法律问责的问题,盲目的赋予其法律主体资格显然局限,我们应从以下三个方面对人工机器人进行法律上的防控:第一,在机器人发生危险时,应明确法律问责的主体,调整人工智能的生产者、销售商以及其拥有者之间责任划分的矛盾;第二,在有关人工智能的法律规则的制定中,要充分的保护人工智能科技研发者的利益,使其对新技术的开发具有积极性,进而促进我国人工智能技术早日向“强人工智能”发展。第三,立法者在法律制定的过程中,要注意其立法规则不能与传统的法律原则相违背,更不能与《宪法》发生抵触,违宪即无效。
法学界对人工智能问责的相关问题进行充分的讨论是一个好的趋势,但盲目的对其立法、设规显然局限,也不能解决实时性问题。因此,对人工智能法律人格应如何设定的问题,还要在我们未来的法律学习中继续摸索。[注释]
①赵梓含.人工智能与法律的未来[J].法治与社会,2018.2(上).[参考文献]
[1]杨焘.人工智能在司法领域运行的现状及完善对策研究[J].科技与法律,2018.
[2]昕航,武文芳.法律人工智能对检察类职业的挑战与应对[J].政治与法律,2017.
[3]郑戈.人工智能与法律的未来[J].时事观察,2017.
[4]詹可.人工智能法律问题研究[J].信息安全研究,2018.
编辑整理:法制博览杂志社编辑部官方网站:www.fzblzz.com
完美通过图灵测试的人工智能 是否应当被赋予法律人格
2014年6月举办的“2014图灵测试”大会上,一个伪装成13岁乌克兰少年名叫Eugene的聊天机器人首次通过了图灵测试,然而它通过了,我们却仍不认为它应当被赋予法律人格。
为什么?
因为不少学者认为它是钻了空子,把自己定义成13岁的孩子,以至于在“聊天”的过程中规避了对话内容谈论的深度和广度。
对方辩友可能觉得那它就不算“完美通过”,那不如我们再来看看图灵测试本身。
早在1980年,加州伯克利的约翰•希尔勒教授也对图灵测试提出了异议,并设想了一个叫“中文房间”的思想实验来反驳。
一个对中文一窍不通,只说英语的人关在一间只有一个开口的封闭房间中。房间里有一本用英文写成的手册,指示该如何处理收到的汉语讯息及如何以汉语相应地回复。房外的人不断向房间内递进用中文写成的问题。房内的人便按照手册的说明,查找到合适的指示,将相应的中文字符组合成对问题的解答,并将答案递出房间。
希尔勒的疑问是,我们是否可以认为,一个把所有词典烂熟于心、能够输出语句的机器人是拥有人类智能的?
机器人根据裁判的谈话内容,迅速在它的数据库中找到关联,按照正确的语法组织语言输出回答,但它其实未必真的“理解”它写出的语句含义。
人类智能是指人认识世界改造世界的本领和才能,而这一切都建立在思维的基础之上,机器人连理解都还做不到,谈何思维?
由二进制组成的数据库“大脑”无法get到人类语言的美。
再者,图灵测试规定的“30%误判”根据是什么?和25%、35%有多大区别?其实这点图灵本人也没有严格论证,30%只是他的一个预测值;
而且从测试谈话的时长角度来看,仅以分钟来掐算,是否过于短暂,还不足矣让机器人露出马脚。
且不说时光荏苒,图灵测试或许已经不是(唯一)判断机器是否拥有智能的黄金法则了。
退一万步说,就算机器人在文本聊天单项测试中获得了满分,就能够认为它拥有人格吗?
《机械姬》、《银翼杀手》里的机器人毕竟是人类幻想出来的,可以完美get到人们语言中的语气、情感,电影中这些高智商的机器人肯定可以pass掉图灵测试,讨论一下它们是否应该拥有人格或许可以辩论一二。
可我们不能就此说,所有仅仅能完美通过图灵测试的机器人就应该被赋予法律人格,毕竟它们连用“嘴”说、用“耳朵”听、用“大脑”思考、面对面和我们聊天的能力都没有,和人的区别还是很大。
什么是法律人格?
法律人格,是指“作为一个法律上的人的法律资格”。
对自然人来说,法律人格,代表了他的身份和能力。显然机器人只通过图灵测试还远远不够格被赋予法律人格。
最起码在中国不行,想想看现在的图灵测试还都基本停留在英文文本测试阶段,哪天换成中文出题试试,机器人大概分分钟就能被考倒。
比如问它:
▲用毒毒毒蛇毒蛇会不会被毒毒死?
▲请断句:人要是行,干行行一行,一行行行行行,行行行干哪行都行。要是不行,干一行不行行,一行不行行行不行,行行不行干哪行都不行。
对方正在输入:……
等待的结果可能是——对面机器人已放弃。
【闫坤如】人工智能机器具有道德主体地位吗?
人工智能先驱图灵(AlanTuring)在论文《计算机器与智能》中提出“机器是否能够思维?”的疑问,同时提出机器可能具有智能的特征。“一台没有肢体的机器所能执行的命令,必须像上述例子(做家庭作业)那样,具有一定的智能特征”〔1〕。强人工智能就是让机器实现人类智能,并且机器不仅仅是实现人类智能的工具,机器具有人类智能,那么计算机或者机器是否能够成为像人类一样的道德主体呢?这引发学者思考。我们通过学者对道德主体研究的嬗变以及对于道德主体标准的界定来分析。
一、道德主体的研究嬗变
1.道德主体从人到生命体的拓展
人工智能是否具有道德主体地位涉及到对道德主体研究的溯源。道德主体(Moralagent)法律术语译为“道德代理人”,指的是能够具有主观判断且能够承担法律责任的人。道德主体指的是具有自我意识,能够进行道德认知、能够进行推理并形成自我判断、能够进行道德选择与实施道德行为且承担道德责任的道德行为体。从这个意义来讲,只有具有理性思维能力的人类才具有道德主体地位。婴幼儿、精神病患者等理性有限的人群虽然具有某些基本的道德能力,但不能完全对自己的行为负责,不能称其为道德主体。康德(Kant)把道德看作是理性当事人之间的关系,因此,婴幼儿、精神病患者以及其它动物应排除在道德主体的范畴之外。动物伦理学家彼得·辛格(PeterSinger)反对这样的观点,辛格提倡动物解放,认为动物具有与人同样的主体地位;在费因伯格(JoelFeinburg)看来,动物与人都是生物进化的结果,动物具有人类的意识与欲望,应该享有人类主体一样的生存权与自主权,应该赋予动物与人类一样的道德主体地位。植物因为不具备动机、意识、冲动等,所以植物不可能具有人类权益与道德身份。环境伦理学之父罗尔斯顿(HolmesRolston)主张自然内在价值的合理性,环境包括动物、植物在内都具有道德主体地位。自然界的自然属性中包含的一切生命体都具有道德主体地位。
2.道德主体从生命体到技术人工物的转变
1992年,拉图尔(BrunoLatour)提出技术人工物可以执行人类道德,且执行道德规则的方式与人类相似,技术人工物可以看作道德主体。比如,人工设计的道路减速带作为一种道德媒介执行道德规则,对汽车驾驶员的道德行为产生影响,从而避免车辆超速驾驶,这样,调节主体行为的技术人工物具有潜在的道德主体地位。2004年,维贝克(Pe-ter-paulVerbeek)提出“道德物化(materializationof morality)”的观点,所谓“道德物化”指的是把抽象的道德理念通过恰当的设计,在人工物的结构和功能中得以体现,从而对人的行为产生道德意义上的引导和规范作用。维贝克承认了技术人工物具有道德主体地位,人工物与人一样成为道德主体。技术不能简单地被看成是人与世界中介的工具,人工物在人与世界的关系中发挥着主动性作用。技术的调节具有道德维度,技术物是道德承载者。技术人工物等技术装置也显示出道德意蕴,应该把客体的道德维度以及客体对主体道德的调节都纳入道德范畴。阿特胡斯(HansAchterhuis)主张“将装置道德化”,比如,验票闸门规范逃票行为,人工物的行为影响人类行为主体的道德自主性,可以看作是道德主体。人工物不是道德中立的,它们可以引导人类的道德行为以及影响人类的道德结果,技术人工物可以通过使人类行为合乎道德来促进或加强道德。例如,如果一辆汽车在驾驶员不系安全带的情况下发出警告,它就会触发驾驶员的“系安全带”这一个道德行为。在这个意义上来讲,技术人工物具有道德主体地位。
3.道德主体从人工物到智能人工物的转变
机器是否具有道德主体地位涉及到机器与人的区别问题,2006年约翰逊(DeborahG.Johnson)在《计算机系统:道德实体非道德主体》〔2〕一文中围绕意向性展开对于道德主体的讨论。意向性是人区别于机器的根本特征之一,即使机器与人具有同样的行为,但机器不具有意向性,人具有意向性。如果智能机器不具有意向性,那么人工系统能否成为道德主体呢?1978年,斯洛曼(AaronSloman)在《哲学中的计算机革命———哲学、科学与心灵模式》〔3〕一书中论述了“未来机器人能够思考和具有感知力”的可能性场景,因此,应该把机器纳入道德主体的范畴,关注机器的伦理地位。丹尼尔森(Pe-terDenielson)在其著作《人工道德:虚拟游戏的道德机器人》〔4〕和霍尔(JoshStorrshall)在其著作《超越AI:让机器产生良知》〔5〕都承认智能机器具有道德主体地位,关注设计道德机器。科林·艾伦(ColinAllen)、瓦纳(GaryVarner)与泽欣尔(JasonZinser)在文章《未来的人工道德主体原型》〔6〕引入“人工道德主体(ArtificialMoralagents,简称AMAs)”这个术语,直接承认了技术人工物的道德主体地位。机器与人对比是独立的道德主体,机器能够自我推理与自我决策,能够触犯人类的利益,就如同一个人可以触犯到另外一个人利益一样。因此,可以把机器作为道德主体来看待。人工智能专家福斯特(HeinzvonFoerster)认为现有的机器人不仅仅是伦理规则的被动中转者,还在现有道德生态中与其他施事者互动,应该把智能机器作为道德主体来规范。智能机器这种高度进化的技术人工物具有自主行为和智能信息处理能力的,可以称为之道德智能主体。按照这种观点,道德主体的类别除了人类之外,还包括自主机器人和软件主体。
纵观学者对于道德主体的研究,经历了从具有自由意志的人类到生命体、然后到不具有生命体征的人工物最后到智能人工物的研究范畴的转变过程。
二、智能机器的道德主体标准分析
按照博施特罗姆(NickBostrom)和尤德科夫斯基(EliezerYudkowsky)的观点:“制造会思考的机器的可能性可能引发一系列的伦理问题,这些问题既与确保机器不伤害人类有关,也与其他道德上关联的存在者有关,也与机器本身的道德地位有关。〔7〕”机器是不是具有道德主体地位,这涉及到对于道德主体标准的界定。
瓦拉赫(WendellWallach)与科林·艾伦在《道德机器:如何让机器人明辨是非》〔8〕一书中专门花一章的笔墨讨论机器的道德主体地位问题,他们认为应该对道德主体进行不同层次的划分,他们提出三种不同类型的道德主体:操作性道德(operational morality)、功能性道德(functionalmorality)与完全道德主体(fullmoralagency)。所谓操作性道德指的是工程师意识到自身的价值观对于设计的影响以及他们对他人价值的敏感度。就像装有防止儿童使用的安全设置的枪支,这种机器虽然缺乏自主性与敏感性,但在设计中包含了美国国家专业工程师学会(NationalSocietyofProfessionalEngineers,简称NSPE)道德准则以及其他的行业规范所包含的价值理念。功能性道德指的是能够评估自身行为的道德意义的智能系统,这种机器是具有伦理敏感性的机器。完全道德主体指的是具有自主决策系统及其情感交互能力的机器系统。
在笛卡尔看来,机器智能的想法在形而上学上是荒谬的,因为心灵与身体是不同的物质,机器是实物,是人类身体的延伸,在空间与时间上有广延性,心灵则是有意识的精神原子。具有实物的机器不能具有心灵的智能特征。按照人工智能先驱钮厄尔(AllenNewell)与西蒙(HerbertSimon)的观点,计算机程序是一系列的形式化符号,人工智能的符号进路趋向于把机器学习当成是对一套预先确定的概念重新组合的过程,除非工程师有意去设计系统,否则,计算机智能就是建立在一个没有欲望、动机与目标的逻辑平台上,不可能具有操作性道德和功能性道德,更不可能具有完全的道德主体地位,这种观点遭到机器伦理学家的反对。例如,阿萨罗(PeterAsaro)在智能机器伦理中提到三点:“首先,如何设计机器人的行为伦理;其次,人类如何在人工智能伦理中承担责任;再次,从理论上讲,机器人能成为完全的道德主体吗?”〔9〕阿萨罗的第三点涉及到对于机器的道德主体地位的思考。如果技术人工物想成为道德主体,需要满足以下两个条件:首先,技术人工物必须具有道德身份;第二,技术人工物具有道德判断,具有道德选择、行为以及承担责任的能力。按照阿萨罗的观点,理性人具有道德主体地位,人工物只是具有道德调节作用,还不具有完全的道德主体地位。泰勒(PaulTailor)认为道德主体的必备条件要满足以下五点:“第一,判断道德上正确或错误的能力;第二,权衡赞成和反对某些选择的道德理据的能力;第三,依据这种权衡的结果做出决定的能力;第四,拥有实现这些决定所需的意志和能力;第五,为自己那些未能履行义务的行为做出解释的能力等等。”〔10〕按照泰勒对于道德主体的界定,机器不具有道德主体地位。塞尔(JohnSearle)设计著名的“中文屋(ChineseRoom)”思想实验,显示计算机可以在没有理解与智能的情况下通过“图灵测试”。荷兰特温特理工大学的布瑞(PhilipBrey)提出“准道德主体(quasi-morala-gents)”概念,他认为智能机器是准道德主体,作为道德主体应该符合以下三个特征:“有能力根据对与错进行推理、判断和行动的生物;对自己的行为应当遵守道德规范;对自己的行为负责,对自己的后果负责。”〔11〕这三个特征共同构成了道德主体的界定标准。只有理性的人才有能力进行道德推理,只有理性的人才有道德行为,只有理性的人才有道德责任感。不能分辨是非的成年人通常不被认为具有道德主体能力,智能机器可能具有道德决策能力,但大多数智能主体不具备道德思考的能力,因此,智能机器只能算“准道德主体”,不具有完全道德主体地位。塞拉斯(JohnSullins)提出人工道德主体的必要条件是机器具有自主性、意向性与责任。如果机器具有人类一样的自主性、意向性,并且能够像人类一样承担责任,就具有道德主体地位。
从上述道德主体的界定标准来看,只有具有理性思维决策能力、能够独立的承担责任的理性主体才具有道德主体地位,而现在人工智能的发展只处于弱人工智能阶段,人类还不能设计出具有人类情感、具有独立意识、选择自由以及能够独立承担责任的机器。所以,机器不具有道德主体地位。这种思路是以人是唯一道德主体的思路来分析的,但目前学者对于道德主体的研究已经从人类拓展到动物甚至是技术人工物,对于道德主体应该具有新的界定与发展。
弗洛里迪(LucianoFloridi)与桑德斯(Sanders)直接承认智能机器的道德主体地位,进一步给出了人工道德主体的标准。按照弗洛里迪与桑德斯的观点人工道德主体应该具有交互性(interactivity)、自主性(autonomy)与适应性(adaptability)的特征。弗洛里迪与桑德斯提出对于所有X,X是一个道德主体,当且仅当X具有以下内容属性:“第一,X及其环境能够相互作用(交互性)属性;第二,X能够在没有与外部世界交互的刺激的情况下改变其状态(自主性);第三X能够改变其转换规则(属性)‘适应性’;第四,X能够起作用,例如道德上对世界的重大影响。”〔12〕机器如果在没有刺激的情况下具有改变状态的能力、具有改变“转换规则”的能力,就可能具有道德主体地位。按照这种说法,强人工智能机器符合这些条件,因此可以称之为人工道德主体。弗洛里迪与桑德斯认为道德主体的概念并不一定表现出人类主体的自由意志、精神状态或责任,机器可能具有道德主体地位。
通过以上分析,关于道德主体的标准是不一致的,关于机器是否具有道德主体地位也有不同意见,考虑到机器具有自主学习能力、可能具有自我意识、自由意志、人类情感与人类智能,因此,必须在智能机器的设计之初嵌入道德,设计者不能袖手旁观,应该关注机器的道德模型的构建,“赋予机器人伦理原则或者促进机器人解决可能预见的伦理困境,在机器人自主做决定的时候,提高他们的道德考量比重。”〔13〕
三、人工道德主体模型的构建
瓦拉赫与艾伦提出“道德图灵测试”,关注机器设计中的道德嵌入,他们提出“道德图灵测试”的两种进路,即“自上而下进路(top-downapproach)”与“自下而上进路(bottom-upapproach)”,所谓自上而下进路就是把德性论(virtuetheory)、义务论(deontologicaltheory)、功利主义(utilitariantheory)、正义论(justiceasfairnesstheory)等伦理学理论的伦理标准、规范与原则嵌入到人工智能体的设计中,在此基础上,构建人工道德主体模型。阿西莫夫三定律是“自上而下”道德主体模型的模板,“任何讨论‘自上而下’式的机器人道德设计不能不谈阿西莫夫三定律。”〔14〕“自下而上进路”立足于创造一种环境能够让智能机器摸索自我判断的行为模式,比如,像“电车难题”思想实验就是根据不同的情境做出不同的道德选择。“自下而上进路”与“自上而下进路”的道德主体模型构建都坚持道德上“善”的行为标准,不同之处在于“自上而下进路”关注普遍性伦理学理论基础上的道德构建,而“自下而上进路”获得道德的方法是把规范化的价值当作机器隐含的内容。
弗洛里迪与桑德斯在承认机器的道德主体地位的基础上,提出人工道德主体构建的前提是区分道德问题与责任问题。人类能够避免“责任+道德行为=规定行为”和“没有责任就没有道德行为,所以就没有规定行为”的二分法。没有责任,只有道德行动的能力也是道德主体,环境与动物也可以具有道德主体地位,智能机器聪明、自主、能够独立于人类之外执行与道德相关的行为,因此存在“善的人工智能”与“恶的人工智能”的区别。所以道德主体构建要区分人类、智能机器、动物以及环境,这种道德主体的构建方式称之为人工智能的“分布式道德(distributedmorality)”。
美国计算机学家迈克尔·安德森(MichaelAn-derson)、哲学家苏珊·安德森(SusanAnderson)夫妇与克里斯·阿尔曼(ChrisArman)从经典伦理学理论提出道德主体构建模型,他们认为机器伦理不同于计算机伦理,机器伦理关注的是机器对人类用户及其他机器的行为,因此,必须为机器添加道德维度,为了给机器增加道德维度,需要可操作的道德理论与道德原则,在此基础上,他们给出两个道德主体模型:基于边沁(Bentham)的功利主义的伦理主体模型和基于罗斯(Ross)义务论直觉主义伦理学的伦理主体模型。行为功利主义道德主体模型基于边沁的道德算术构建比人类规范的模型,把伦理原则编程为算术,让机器像人一样遵循行为功利主义理论。直觉主义者罗斯满足于将决策权交给决策者的直觉,但罗斯的理论强调表面责任,他认为没有义务是绝对的,也没有给出义务的明确等级,因此,在罗斯的理论下,如何做出道德决策是不清楚的。安德森夫妇与阿尔曼立足于为机器伦理奠定理论基础,他们基于行动的道德理论开发计算机系统,他们结合行为功利主义与义务论直觉主义的理论构建机器学习决策程序,他们的计算机模型克服了罗斯模型的不确定性,使用一种学习算法来调整对责任的判断,既考虑了表面责任,也考虑了过去对涉及这些责任的类似或不相似案例的直觉。
为了构建人工智能的道德主体模型,哲学家与伦理学家积极尝试,致力于在机器中嵌入人类“善”的道德。不同于悲观主义者认为人工智能将不可避免地制造出拥有巨大力量、行为不道德的机器人的观点。乐观主义者坚持用伦理学方法来排除恶意机器人的产生以及发挥作用。例如,鲍尔斯(ThomasPowers)在《康德机器的前景》〔15〕中意欲制造出康德式机器(Kantianmachine)确保机器人行为符合道德规范;阿寇达斯(KonstantineArkoudas)和布林斯乔德(SelmerBringsjord)在《机械化道义逻辑向伦理机器人迈进〔16〕中论证了道义逻辑应用于制造道德机器的可能性;格劳(ChristopherGrau)在论文《“机器人”中没有“我”:机器人功利主义者和功利主义机器人》〔17〕中讨论了功利主义模式下的机器人,格劳运用逻辑学理论或者伦理学理论在人工智能的设计之初嵌入人类道德。“理性机器嵌入了道德元素,如程序规则的行为,可能构成人工道德主体所需的理性。”〔18〕智能机器设计者应该在设计之初保持设计理性,对所设计的智能机器可能存在的伦理问题提前预判与评估,虽然有的学者反对智能机器具有意向性或者具有道德主体地位但均未否认技术物具有道德调节作用,也不否认技术可以通过设计改变人类的道德行为。
总之,智能机器具有不确定性,不管智能机器是否具有人类的道德主体地位,都应该对人工智能可能带来的危害做出防范,人类在智能机器设计之初把“善”的理念嵌入到人工智能中,使得人工智能操作系统不仅要遵守法律,还要遵守社会的道德规范,减少智能机器危害人类的可能性,发挥其对人类进步以及社会发展的作用。
参考文献
〔1〕TuringAM.ComputingMachineryandIntelligence[J].Mind,1950,59(236):433-460.
〔2〕JohnsonDG.Computersystem:Moralentitiesbutnotmoralagents[J].EthicsandInformationTechnology,2006:195-204.
〔3〕SlomanA.TheComputerRevolutioninPhilosophy:Philosophy,ScienceandModelsofMind[J].TheBritishJournalforthePhilos-ophyofScience,1978:1-14.
〔4〕DanielsonP.ArtificialMorality:VirtuousRobotsforVirtualGames[M].Routledge,1992.
〔5〕HallJS.BeyondAI:CreatingtheConscienceoftheMachine[J].I-sis,2008,99(4):872.
〔6〕AllenC,VarnerG,ZinserJ.Prolegomenatoanyfutureartificialmor-alagent[J].JournalofExperimental&TheoreticalArtificialIntelli-gence.2000,12(3):251–261.
〔7〕BostromN,YudkowskyE.TheEthicsofArtificialIntelligence[C]//FrankishK,RamseyW.CambridgeHandbookofArtificialIntelli-gence.NewYork:CambridgeUniversityPress,2014:316-334.
〔8〕WallachW,AllenC.MoralMachines:TeachingRobotsRightfrom Wrong[M].Oxford:OxfordUniversityPress,Inc.2008:91.
〔9〕AsaroPM.WhatShouldWeWantFromaRobotEthics?[J].IRIEIntRevInfEthics,2006,6(12):9-16.
〔10〕TaylorP.RespectofNature:ATheoryofEnvironmentalEthics[M].Princeton:PrincetonUniversityPress,1986:14.
〔11〕BreyP.FromMoralAgentstoMoralFactors:TheStructuralEthics Approach[J].MoralStatusofTechnicalArtifacts,2014(17):125-142.
〔12〕FloridiL,SandersJW.OntheMoralityofArtificialAgents[J].Minds&Machines,2004,14(3):349-379.
〔13〕AndersonM,AndersonS.MachineEthics[M].Cambridge:Cam-bridgeUniversityPress,2011:1.
〔14〕WallachW,AllenC.MoralMachines:TeachingRobotsRightfrom Wrong[M].Oxford:OxfordUniversityPress,2008:91.
〔15〕PowersTM.ProspectsforaKantianMachine[J].IEEEIntelli-gentSystems,2006,21(4):46-51.
〔16〕ArkoudasK,BringsjordS,BelloP.Towardethicalrobotsviamech-anizeddeonticlogic[EB/OL]//M.Anderson,S.L.Anderson&C.Armen(Eds.).AssociationfortheAdvancementofArtificialIn-telligenceFallSymposium(Vol.FS-05-06).MenloPark,Cali-fornia:TheAAAIPress.Retrievedfromhttp://www.aaai.org/Li-brary/Symposia/Fall/fs05-06.2005.
〔17〕GrauC.Thereisno'I'in'Robot':RoboticUtilitariansandUtilitar-ianRobots[C]//MachineEthics:PapersfromtheAaaiFallSympo-siumMenloPark,2006:52-55.
〔18〕AndersonM,AndersonSL.MachineEthics:CreatinganEthical IntelligentAgent[J].AIMagazine,2007,28(4):15-26.
(原载《自然辩证法研究》2019年05期)