博舍

人工智能刑事责任主体文献综述 人工智能的责任主体包括什么内容和方式

人工智能刑事责任主体文献综述

近年来,人工智能技术对人类的生活和生产产生了较大的影响,人工智能的话题引发了人们的密切关注,同时也在国家层面受到高度重视。2014年欧盟发布了《欧盟机器人研发计划》,2016年美国发布了《国家人工智能研究与发展策略规划》,2017年法国发布了《人工智能战略》。2017年7月国务院发布《新一代人工智能发展规划》,将人工智能的发展上升为我国的国家战略。时代的需要孕育着可能,大数据、深度学习和神经网络技术等如雨后春笋般发展起来。在学科分布上,众多学科在原来研究的基础上新增人工智能的元素。

刑法学的研究也是如此,人工智能刑事责任主体的探讨近两年来火热发展。在法律的框架下研究人工智能的问题时,人工智能往往被分为弱人工智能与强人工智能两种类型。对于弱人工智能,学界观点一致认为弱人工智能产品不具有辨认能力和控制能力,仅能在设计和编制的程序范围内实施行为,实现人类设计和编制程序的目的。弱人工智能产品的工具属性决定了其不可能作为犯罪主体而承担刑事责任,故不是本文探讨的对象。强人工智能与弱人工智能的本质区别在于是否具有独立意志,以及是否能够在设计和编制的程序范围外自主决策并实施相应行为。强人工智能具有自主意识,具备辨认和控制能力。对于强人工智能否成为刑事责任的主体则存在激烈的争论,对此存在肯定说、否定说和折衷说等不同的观点,但主要是肯定说与否定说之争。国内外学者对其研究众多,但是相关的系统性梳理却较少。为了充实该方面研究的素材和以便更加客观全面的对人工智能刑事责任问题进行深入研究,本文围绕强人工智能刑事责任主体设立的必要性、承担刑事责任的可能性、刑罚处罚设置的可行性与科学性等方面系统的梳理了关于强人工智能刑事责任主体的研究成果,并从以上角度进行了分类整理与评价,最后依据现有的研究成果对未来研究方向进行了展望,指出人工智能时代刑法应秉持的立场定位,具有较强的现实意义。

二、文献综述

2

通过梳理国内外有关强人工智能刑事责任主体的研究,发现刑法学者们大多从强人工智能刑事责任主体设立的必要性、承担刑事责任的可能性、刑罚处罚设置的可行性与科学性等方面展开说理和探究。

(一)强人工智能刑事责任主体设立的必要性之对立

强人工智能刑事责任主体的设立是否必要,是展开强人工智能刑事责任主体研究的逻辑起点,是肯定论者与否定论者的第一次正面交锋,也是两派学者对于该问题的不同世界观的最初体现。

1.强人工智能刑事责任主体设立必要性之肯定

刘宪权教授在对强人工智能时代刑事责任的规制具有必要性的论述时提出了两点理由:其一,作为法学研究者应该相信霍金等科学家的论断,认为人工智能会毁灭人类,而不是相信李彦宏等经营者的说法,认为人工智能不可能威胁到人类的安全。应秉持宁可信其有,不可信其无的立场。其二,面对强人工智能的出现可能会给人类带来威胁,我们需要未雨绸缪,防患于未然。[1]

陈叙言在论及承认人工智能刑事责任主体地位之必要性时指出,承认人工智能刑事责任主体地位是基于功利主义的考量,是以保护人类自身利益为目的。刑法学者应该对强人工智能的到来抱有忧患意识,理论研究和立法都应具有一定的前瞻性。[2]

王耀彬认为现行刑法主体概念对于人工智能法律主体规制的缺位,无形中增加了人们对于智能风险的恐惧。当下,各部门法在人工智能领域的探索已显雏形,刑事法的规制却略显保守。类人型人工智能实体与自然人的相似程度比动物、单位更高,包含法律设定主体的本质要素——理性,并具备侵犯法益的可能性,从而增强了赋予其刑事责任主体地位的必要性。[3]

2.强人工智能刑事责任主体设立必要性之否定

黄云波认为,不论是库茨维尔的奇点理论,还是霍金关于人工智能发展完全将是人类末日的警告,都还只是一种假想与猜测。对人工智能未来情境的预见,专家较之常人并没有太大优势,大家都只能是盲人摸象或信口开河。[4]

周铭川认为,强人工智能犯罪的刑事责任问题是一种假设性命题,现阶段来探讨它能否被证明为真没有多大意义,正如无法通过逻辑推理去证明任何一个宗教命题的真伪一样。[5]

(二)强人工智能承担刑事责任的可能性之纷争

对于未来性的命题,在未经科学研究充分证实的情况下,刑法学者对于该可能出现的新事物的探讨都只是基于自身的世界观出发来考虑问题。无论是对强人工智能刑事责任主体设立的必要性持肯定的态度还是否定的态度,两派所提出的理由都不能完全的使对方信服。因而,对于强人工智能刑事责任主体的论证,肯定论者与否定论者更多的是把争论的重心放在强人工智能承担刑事责任的可能性上。

1.强人工智能成为犯罪主体可能性之肯定

GabrielHallevy认为,“只要符合刑法的所有相关要求,一种新型的主体可以被添加到现有的刑法大家庭中,除了人类个体和法人之外。”[6]此处“符合刑法所有的相关要求”指的是符合犯罪的构成要件,通说认为强人工智能可以实施构成要件该当性的行为,在没有违法阻却事由的前提下,凭借其自身的刑事责任能力承担刑事责任。承担刑事责任的基础是责任主体的意志自由,具体表现为责任主体具有辨认能力和控制能力,而辨认能力和控制能力的基础是思维能力。[7]

刘宪权教授指出,自然人的辨认能力和控制能力来源于生命,受到年龄等因素的影响,而强人工智能产品的辨认能力和控制能力则来源于程序和算法。[8]科技的发展是呈爆炸式的,随着深度学习技术、神经网络技术、类脑智能技术等的发展,出现能够在自主意识和意志的支配下独立作出决策并实施行为的强智能机器人并非天方夜谭。并进一步指出,强智能机器人比单位更接近自然人,域外有关的立法例对我们承认强智能机器人的刑事责任主体具有一定的借鉴意义。[9]

陈叙言认为,不应过多的关注自然人与人工智能的不同点,将自然人人的属性与人工智能机器的属性相比较时,应重视两者之间的共同点。人工智能能够理解自身行为的意义,做出适法的行为。[10]

孙占利认为,从当前的法律来看,自主意识是智能机器人取得法律人格的主观条件,能够进行独立的意思表示并进而形成社会关系是客观条件。是否属于社会关系是由人来作概念上的设定,意思表示能力对现在的智能机器人而言已无技术障碍。完全用人类的自主意识作为强人工智能意识判断标准的科学性和合理性是值得商榷的。[11]

卢勤忠认为,尽管人的智能以意识、思维、感觉和知觉等为基础条件,但智能机器人实现分析判断、推理等能力并不一定需要具有和人一样的主客观条件,其意识以及意志自由的表现形式也可能与人类有所差异。应当明确强人工智能机器人在刑事责任与刑罚根据上与人存在差异,需要对刑法理论做出符合强人工智能机器人特征的重新解读。[12]

王耀彬在论及类人型人工智能实体成为刑事主体的可能性时提出如下理由:认识上的理性能力与在实践中的自主行为能力是法律主体的必备要素,而类人型人工智能实体依靠编程与系统具备这两项能力,也为其刑事责任主体的塑造提供了必要条件。类人型人工智能实体具备刑法上的认知与意志控制能力。[13]

2.强人工智能成为犯罪主体可能性之否定

叶良芳指出,尽管具有自主决定能力的人工智能,在某种程度上具有与人类相似的辨认和控制自身引发的客观状态的能力,但是这并不是刑法将人工智能拟制为犯罪主体的充分条件。人工智能不具备独立于人类的权利和价值,在善恶观和伦理观上不具备与人类相当的认知水平,将人工智能拟制为犯罪主体的设想不具有合理性。[14]

时方认为,意志自由是认定刑事主体地位的关键要素,包括认识要素与意志要素,强人工智能与法人虽然都不具有人类肉体与意识的生理构造,但法人特殊的运作机理符合刑事主体地位认定的实质要求,强人工智能并不具备。强人工智能运行机理与人的意志自由进行形式匹配过于机械,强人工智能不具有理解并遵从法规范的能力,其行为属性判断无客观标准。[15]

储陈城认为强人工智能独立承担刑事责任不具有理论自洽性,理由是:要承认AI的“行为”满足刑法上的行为的要素,就必须要在AI自身当中找到和人类意思完全相当的意思;AI不具备与人类等同评价的自由意思;对AI施加刑罚不具备可行性。[16]

王志祥认为,虽然强人工智能机器人拥有独立的意志以及辨认能力、控制能力,但同样也不能成为犯罪主体,不承担刑事责任。将强人工智能机器人作为犯罪主体的观点忽视了自然人与智能机器人的区别,缺乏相应的刑罚措施且无法实现刑罚的机能。[17]

周铭川认为,由于电子机械运动与人的生理运动之间存在不可逾越的鸿沟,从金属和塑料和指示电极开与关的程序组合中无法产生人的意识。在对人类意识的本质及生成机制缺乏透彻理解的情况下,无论是符号主义还是联结主义,都不可能模拟出人的意识。即使假设强人工智能已经到来,考虑对其增设刑罚种类也意义不大。[18]

(三)强人工智能刑罚处罚设置的可行性与科学性之审视

在承认强人工智能刑事责任主体设立具有必要性和承担刑事责任的可能性的前提下,再来探究对强人工智能犯罪如何施加刑罚处罚的问题。

1.强人工智能刑罚体系重构之提倡与根据

刘宪权教授认为,如果强智能机器人在自主意识和意志的支配下独立作出决策并实施了严重危害社会的行为,应将其作为刑事责任主体,对于无法通过现行刑法中的刑罚种类对其进行处罚的问题的解决路径则应该是重构我国的刑罚体系,增设能够适用于强智能机器人的刑罚处罚方式,比如删除数据、修改程序和永久销毁。[19]

黄云波认为,我们研究人工智能的刑事责任主体地位,目的在于保护人类免受人工智能的侵害,即为了社会防卫。鉴于此,我们应当借鉴刑事近代学派所主张的社会防卫论,创立以人工智能等科技风险为对象的“科技社会防卫论”与“科技责任论”,将人工智能作为独立的责任主体,对具有实施危害社会行为的人工智能施以技术危险消除。[20]

卢勤忠认为,在强人工智能机器人承受刑罚的基础上,预防主义刑罚目的论成为主流观点。在强人工智能时代的刑罚功能上,对强人工智能机器人适用刑罚能够实现刑罚的威慑功能和教育改造功能。删除数据、修改程序和永久销毁契合强人工智能机器人的特征,能够实现刑罚的功能与目的。[21]

王耀彬认为,类人型人工智能实体的刑罚体系设计困难并不意味着设计上的否定,没有任何事物是一成不变的,我们的刑罚体系也应如此。智能时代背景下对于刑罚体系的改造不可或缺,也是预防类人型人工智能实体犯罪的必行举措。当然,针对刑罚体系的改造应当遵循罪刑法定、罪刑相适应、以刑罚目的为导向等原则。[22]

2.强人工智能刑罚处罚设置之质疑与理由

周铭川认为,如果假设智能机器人不再是主人的财产,而是与人类完全平等的新人类,则必然要同时假设其在本能、直觉、技能、情感、欲望等方面完全与人类相同,则对其适用与人类完全相同的生命刑、自由刑、财产刑甚至剥夺政治权利刑,就完全合乎逻辑,因此也没有必要提出所谓删除数据、修改程序、永久销毁等所谓新的刑罚种类。进而,如果假设人工智能已经发展到所谓超人工智能阶段,则由于超人工智能具有远远超过人类的能力,到时将存在由超人工智能统治人类并为人类立法甚至消灭人类的问题,提出为超人工智能增设新的刑罚种类也意义不大。[23]

皮勇认为,如果未来人工智能系统不受人类控制、自主进化,极可能不具备成立犯罪的主观条件,不能适用刑法规定的刑事责任和刑罚相关规定;不受人类控制的未来人工智能系统不可能接受刑法的规制,也就无从适用刑罚处罚,其制造的危机需要以其他直接、有效的技术手段应对。[24]

时方认为,从刑罚惩治与安抚功能、刑罚预防功能、刑罚矫正功能来看,肯定论者所提出的设想难以实现以上功能。一是,刑罚的威慑力是实现预防犯罪目的的重要基础,但机器人缺乏感知喜怒哀乐的能力,因而刑罚对于缺乏趋利避害本性的机器人不能发挥威慑效应。二是,刑罚只能施加于具有意志自由的主体,因为不通过主观恶性判断其社会危险性及再犯可能性,教育改造目标将无从谈起。[25]

赵秉志认为,即使承认智能机器人能够独立承担刑事责任,但是对于智能机器人适用刑罚的合理性与必要性问题仍需进一步探讨。肯定论者将智能机器人等同于活生生的自然人,但是,在确定其刑事责任的实现形式时,却又承认了其作为机器的本质属性,因此相当于又否定了其作为人的资格。[26]

三、结论与建议

3

(一)结论

近年来,刑法学者们对人工智能的研究大多从强人工智能刑事责任主体设立的必要性、承担刑事责任的可能性、刑罚处罚设置的可行性与科学性等角度展开。通过总结学者们的研究观点,得出以下结论:

1.推理思路与价值选择导致两派立场上的鸿沟

肯定论者与否定论者在阐释强人工智能刑事责任主体设立是否必要时,往往是从自身对于该问题的价值判断出发作出的价值选择。对于该问题的阐释更多的是停留在“立场选择”而不是方法与过程的论证。肯定论者通过假设结果的发生来说明强人工智能刑事责任主体设立的必要性,进而在该一假定的前提下探究主体设立的可能性与刑罚重构的可行性,体现的是一种“由果索因”的逻辑思路。相反,否定论者更多的体现“由因导果”的推理思路,从根本上否定产生结果的原因,不接受没有被证明的“原因”,认为现阶段研究强人工智能刑事责任主体的设立没有合理的依据也无必要性。

2.自由意志的产生与机能是两派争论的焦点

强人工智能承担刑事责任的前提是能够成为刑事责任的主体,根据人类现有的刑法理论知识与刑事立法例,自主意识、自由意志则顺理成章地成为强人工智能必备的要素。肯定论者在论述强人工智能自主意识的产生时,做出了与人类意识产生方式不同的解释,在意志的机能上又做出同人脑具有类似机能的解释。否定论者立足于既存人类知识的基础上,指出强人工智能无法像人类一样产生出意识,也不具备人脑如此复杂的思维机能。前者实质上是从矛盾的特殊性与普遍性的两个角度分析问题,既认为强人工智能与人类存在不同之处,也强调两者之间存在共性;后者是立足于矛盾的特殊性分析问题,看到强人工智能与人类的不同点。但肯定论者面临一个巨大的难题,即在论证强人工智能自主意识的产生时,绕不过哲学上关于唯物论与认识论的先验结论:“究竟什么是思维和意识,它们从哪里来的,那么就会发现,它们都是人脑的产物,而人本身是自然界的产物,是在自己所处的环境中并且和这个环境一起发展起来的。”[27]“实践是人的有意识的生命活动”,“有意识的生命活动把人同动物的生命活动直接区别开来。”[28]

3.强人工智能受到人类社会的管控是施加刑罚的前提

即便强人工智能能够成为刑事责任的主体,如果不能对其施加有效的刑罚措施,则将其纳入刑法范围内进行规制也没有任何意义。因此,对强人工智能科处刑罚的前提是受到人类社会的管控。肯定论者一边假设人类将不再有能力去规制强智能机器人的行为,人工智能可能毁灭人类,另一边又主张通过刑事立法对强人工智能的犯罪行为科处刑罚,逻辑上难以自洽。

4.强人工智能呈现出的特征是刑罚设置科学性的基础性条件

正所谓“对症下药”,既要使患者得到好的疗效,而且该“药”的社会口碑也要良好。就如同我们现在的司法活动一样,强调法律效果和社会效果的统一。对症下药的前提是要清楚病因和症结所在,在病因不明的情况下给出的药方难言是科学的,甚至是非常危险的。对强人工智能设置刑罚处罚也是如此,在对强人工智能自身呈现出来的特征缺乏充足的了解和掌握的情况下,来谈刑罚种类的设置,仅仅是一种“为了设置而设置”。虽然肯定论者假设的情况具有一定的可能性与可行性,但是也不能完全排除否定论者所提出的情形。我们大致可以假设以下三种情形:若强人工智能与人类运作机理相同,则适用与自然人相同的刑罚种类;若强人工智能与人类运作机理不同,因强人工智能自身的特殊性则可设置相应的刑罚种类,比如肯定论所主张的删除数据、修改程序等;若强人工智能与人类运作机理既有共性也有特殊性,则应综合设置刑罚的种类。

(二)建议

1.人工智能时代刑法应秉持的立场

正如埃里克·希尔根多夫所指出,“数字化革命尤其是人工智能的广泛应用不仅引发了人类工作生活的巨大变革,也对法律职业以及刑法学工作产生了跨时代的影响。鲍纳塔尔案、阿沙芬堡案、自动驾驶的悖论问题和“Tay”案已经预示着人工智能并不是百分之百的安全,人类在未来遭受其损害的概率会显著提升。即使如此,法律的演进仍应谨慎、适度,尝试以现有的法律教义学方法解决人工智能所带来的新的法律问题”,“具有自我学习能力的系统对法律构成了特别的挑战。在民法上应扩大严格责任,在刑法上可考虑引入新的危险犯构成要件。当然前提是从实证角度对风险情势进行更强有力的解释。”[29]本文认为,不应随便突破或者否定现存的法律框架和刑法理论,“在讨论智能主体是否具备刑法中的主体资格问题时,仍需要回归到规范刑法学层面,尝试探讨智能主体的刑事责任能力等规范要素。尽管其可能不是最好的办法,但它目前是适当的权宜之计”。[30]对风险形势在未经科学实证研究的前提下,我们更不应该让刑法“打头阵”。若人工智能的研究“完全指向技术的促进,刑法则不加干涉。单纯强调风险防范,则刑法将严密法网”。[31]

同时,“我们不应将立法条件和研究条件混为一谈。即使立法条件不成熟,只要存在现实问题或预见到问题的现实发生可能性,就应当积极投入研究。”[32]在刑法上进行理论上的前瞻性探讨和研究无可厚非,也是必要的。但是法律的本质、内容和发展方向是由特定的社会物质生活条件和生产方式决定的。在现阶段讨论强人工智能刑事立法既缺乏实践基础,也与当下中国刑事立法的趋势不相符合。

2.人工智能时代刑法学者应具备的研究方法

刑法学者对于人工智能刑事责任主体相关研究的论证过度集中于刑法理论方面,跨学科、跨领域的研究成果亦较少,这受制于刑法学者的个人的知识结构、认识能力和认识水平。而人工智能是一门极富挑战性的科学,从事这项工作的人必须懂得计算机知识,心理学和哲学。就学科范畴而言,人工智能是一门边沿学科,属于自然科学、社会科学、技术科学三向交叉学科。“智能主体的首要特征是技术问题,其次是与之高度关联的智能程度问题。在考察智能主体的法律资格及其行为能力时,也需要立足于智能技术这一首要因素,围绕智能程度这一关键问题,展开相应的讨论,否则有可能偏离问题的实质。”[33]

笔者无意让刑法学研究者承担如此多领域与学科的研究负担,这也不现实,但是最基本的应该了解和掌握这些学科的一般性原理和结论。在对强人工智能进行刑法上的规制时,绕不过对些学科现有知识的辩证否定,乃至对传统认知的颠覆。刑法学者未来应加强跨学科视角的研究,为其立场与结论提供充分的论证。因为人类在改造客观世界的同时,也改造着自己的主观世界,提高自己判断和推理能力,从而推动认识的不断深化。

脚注:

[1]刘宪权:《人工智能时代的刑事责任演变:昨天、今天、明天》,《法学》2019年第1期。

[2]陈叙言:《人工智能刑事责任主体问题之初探》,《社会科学》2019年第3期。

[3]王耀彬:《类人型人工智能实体的刑事责任主体资格审视》,《西安交通大学学报》2019年第1期。

[4]黄云波:《论人工智能时代的刑法规制》,《人民法治》2018年第6期。

[5]周铭川:《强人工智能刑事责任之否定》,《上海政法学院学报》2019年第2期。

[6]GabrielHallevy,Whenrobotskill:artificialintelligenceundercriminallaw,p.21.

[7]刘宪权主编:《人工智能:刑法的时代挑战》,上海人民出版社2018年版,第11页。

[8]刘宪权:《人工智能时代的“内忧”“外患”与刑事责任》,《东方法学》2018年第1期。

[9]刘宪权:《人工智能时代的刑事责任演变:昨天、今天、明天》,《法学》2019年第1期。

[10]陈叙言:《人工智能刑事责任主体问题之初探》,《社会科学》2019年第3期。

[11]孙占利:《智能机器人法律人格问题论析》,《东方法学》2018年第3期。

[12]卢勤忠,何鑫:《强人工智能时代的刑事责任与刑罚理论》,《华南师范大学学报》2018年第6期。

[13]王耀彬:《类人型人工智能实体的刑事责任主体资格审视》,《西安交通大学学报》2019年第1期。

[14]叶良芳,马路瑶:《风险社会视阈下人工智能犯罪的刑法应对》,《浙江学刊》2018年第6期。

[15]时方:《人工智能刑事主体地位之否定》,《法律科学》2018年第6期。

[16]储陈城:《人工智能可否成为刑事责任主体》,《检察日报》2018年4月19日,第3版。

[17]王志祥,张圆国:《人工智能时代刑事风险的刑法应对》,《上海政法学院学报》2019年第2期。

[18]周铭川:《强人工智能刑事责任之否定》,《上海政法学院学报》2019年第2期。

[19]刘宪权:《人工智能时代我国刑法体系重构的法理基础》,《法律科学》2018年第4期。

[20]黄云波:《论人工智能时代的刑事责任主体:误区、立场、类型》,《中国应用法学》2019年第2期。

[21]卢勤忠,何鑫:《强人工智能时代的刑事责任与刑罚理论》,《华南师范大学学报》2018年第6期。

[22]王耀彬:《类人型人工智能实体的刑事责任主体资格审视》,《西安交通大学学报》2019年第1期。

[23]周铭川:《强人工智能刑事责任之否定》,《上海政法学院学报》2019年第2期。

[24]皮勇:《人工智能刑事法治的基本问题》,《比较法研究》2018年第5期。

[25]时方:《人工智能刑事主体地位之否定》,《法律科学》2018年第6期。

[26]赵秉志,詹奇玮:《现实挑战与未来展望:关于人工智能的刑法学思考》,《暨南学报(哲学社会科学版)》2019年1月,总第240期。

[27]恩格斯:《反杜林论》,《马克思恩格斯文集》第9卷,人民出版社2009年版,第38—39页。

[28]马克思:《1844年经济学哲学手稿》,《马克思恩格斯文集》第1卷,人民出版社2009年版,第162页。

[29][德]埃里克·希尔根多夫:《自动系统、人工智能和机器人——一个刑法角度的定位》,黄笑岩译,《法治现代研究》2019年第1期。

[30]王燕玲:《人工智能时代的刑法问题与应对思路》,《政治与法律》2019年第1期。

[31]储陈城:《人工智能时代刑法的立场和功能》,《中国刑事法杂志》2018年第6期。

[32]孙占利:《智能机器人法律人格问题论析》,《东方法学》2018年第3期。

[33]王燕玲:《人工智能时代的刑法问题与应对思路》,《政治与法律》2019年第1期。返回搜狐,查看更多

人工智能时代的社会责任思考

人类即将要进入的人工智能时代是一个什么样的生活场景呢?

简单地讲,人工智能将会成为我们日常生活不可或缺的一部分。人工智能就像互联网、就像水和电一样渗透到生活和工作的每一个方面。当然也要渗透到社会责任工作的每个方面。据有关专家研究,人工智能将会使社会责任履行变得更加容易和高效,比如区块链技术跟供应链结合起来就会让供应链社会责任履行变得更加透明,并且履责的行为和绩效将被记录并不可更改。

在带来巨大好处的时候,这也会存在潜在的风险和不利影响。而且这种潜在的风险和不利影响,如果不加以管理,可能完全超出我们的想象。如刚刚离世的著名学者史蒂芬•霍金曾说:“人工智能的崛起可能是人类文明的终结”。这说明人工智能的发展对我们人类的影响将会非同一般。人工智能的影响究竟几何?有的专家认为人工智能的发展要么让人类永生,要么让人类灭亡。可以说,人类每一次技术的飞跃,都会带来人类的大发展,同时也给人类自身带来巨大的风险和问题。这也说明要重视人工智能影响的管理,将成为摆在社会责任业界的新课题。

人工智能发展的三阶段

从技术发展层面来讲,人工智能发展一般可分为弱人工智能、通用人工智能和超级人工智能三个阶段。弱人工智能还无法达到人类的智力水平,即人工智能在人类的控制下在特定领域使用,解决特定问题。但弱人工智能同样影响巨大。比如人工智能在工业上大规模使用,将会导致工作岗位被机器人取代。如果像有的专家预测的那样,将来95%的工作岗位都会被人工智能取代。如果大部分人在大部分时间都没有工作,这个社会是一个怎样的状态,显然我们自己还没准备好。再如,在军事化用途上,将人工智能用于生产更高效的无人机杀人武器,追求的是不再需要人来指出攻击目标即可自动判定目标并执行攻击。

在通用人工智能阶段,人工智能将从狭窄的、特定领域的智能迈向更通用的智能,这个时候这些机器能在没有编码特定领域知识的情况下解决不同种类的问题,甚至能像人一样做出判断和决策。比如,谷歌Alphabet旗下的子公司DeepMind开发的AlphabetZero作为围棋弈者从零开始,面对的只是一张空白棋盘和游戏规则,通过自学使自己的游戏技能得以提高,而不是通过输入人类的对弈棋谱来训练自己。这代表着人类在建造真正智能化机器方面向前迈进了一步,因为即使在没有大量训练数据的情况下,机器也能根据规则和目的需要找出解决困难问题的方法。这在某种程度上似乎具备了所谓的“自觉意识”。有的专家认为,即使没有像人一样的自觉意识,但人类也面临将这个世界的管理权让渡给人工智能。随着人工智能的进化,他们终将认识到人类是这个世界的负担,最后理性的结果或许是清除行尸走肉的人类。一份最近的专家调查显示,可能是2040-2050年左右,有50%的概率实现人类水平的通用智能。

从技术发展的终极层面来讲,如果人的思维也是从无思维的物质开始生成的,人的意识又是从思维开始的,那么从纯理论上来讲,人工智能零部件也是无思维的物质,而这些无思维的物质最终也可能会像人一样有思维,进而也可能会像人一样具有自我意识。从而最终可能成为像人一样的一个智能物种。这就是所谓的超级人工智能时代。这个时候人类面临的挑战就更加不可预测了。因为有的专家预计,这种超级的人工智能有可能反叛人类,而跟人类来竞争、来较劲,甚至发生超级智能和人类之间的战争。这种超级智能甚至能思考人类存在于地球的必要性和合理性。

综上所述,无论是弱人工智能,还是通用智能以及超级人工智能,其潜在的风险巨大。作为发展这种人工智能主体的人来讲有责任管理好潜在风险和负面影响。在弱人工智能阶段,人工智能的各相关方是责任主体。这样看来,涉及到人工智能的各个相关方的社会责任问题。人工智能研发者、相关产品和服务的生产者、销售和服务者,也包括使用者以及政府监管部门等各相关方都肩负着重要的社会责任,防范人工智能的风险和负面作用。

应遵循的九项原则

首先,要遵循有益于人类的原则。树立人工智能要服务于人们美好生活的理念和意识。也就是人工智能的研究与开发要着眼于有益的智能方向去做。

第二,研发人工智能要遵循透明度原则。特别是研究的目的、目标和功能要向相关方和社会公开公布,以便接受社会责任监督,防止人工智能的研发走偏方向。

第三,利益相关方原则。要加强相关方之间的交流和信任,尊重回应利益相关方的利益和所求。比如研发者与政策制定部门要加强交流,适时出台相关的政策和要求,对人工智能的研发加以引导和规范;在利用大数据时要尊重相关方的合法权益和隐私,还要做到责权利相匹配。

第四,担责原则。人工智能的研发和生产者是人工智能的权益人,更重要的是其责任人,对人工智能的滥用要承担责任。确保人工智能的质量,一是要避免明显的安全缺陷;二是发生人工智能故障或者损害时,应当可以查明原因。这样一方面防止意外发生,另一方面,也能促进业界共享,防止类似的错误或者损害发生。

第五,道德伦理原则。人工智能的开发者要赋予人工智能以与人类相同的价值观。这样人工智能的目的和行为是在可以控制的范围。

第六,审慎原则。对于在要开发的人工智能的潜在风险和负面影响不能有效评估的情况下,要采取谨慎的态度,不能冒昧地推进。

第七,尊重人权的原则。人工智能的设计和运作应尊重人权,要符合人类尊严,权利,自由和文化多样性的理念。

第八,共享的原则。人工智能技术应该尽可能地使更多人受益,要尽量让更多人更广泛的共享,造福全人类。

第九,双主体责任原则。在通用人工智能以及超级人工智能阶段,除了人工智能相关方承担相应的社会责任外,人工智能系统本身作为一个智能体也应作为责任主体加以规范。

陈永伟:关于人工智能的主体、责任和算法监管,我的一些思考

陈永伟:关于人工智能的主体、责任和算法监管,我的一些思考如何对人工智能进行有效治理?一,根据是否进行决策来判定是否是主体;二是根据成本收益来划分责任;三是用新规制理论和机制设计的思想来对算法进行监管。

图片来源:视觉中国

(作者陈永伟,为《比较》研究部主管。本文根据作者2019年3月19日在工信部赛迪研究院组织的“人工智能伦理与法律”内部研讨会上的发言整理而成。)

近年来,人工智能技术发展迅猛,已经迅速从科幻走进了现实,这给生产生活带来了很多的便利,但与此同时也带来了很多新的问题。在这种背景下,如何对人工智能进行有效治理,就成为了人们不得不应对的挑战。

关于对人工智能的治理,涉及到的问题很多。这里我不想全面展开,只想挑选其中的几点谈一下我自己的一些不成熟思考。

第一点是人工智能的主体问题。随着技术的发展,机器正变得越来越像人,甚至可以单独地完成一些过去只有人类才能完成的行为。例如,现在的人工智能已经可以作画,也可以写诗。这种情况下,人工智能的地位应该是怎么样,究竟是一个人,还是一个工具,抑或是一个机器奴隶,就变得很重要。如果我们认定人工智能也是一个和人一样的主体,那就应该让其独立享有对应的权利、承担对应的责任;反之,则不能赋予其对应权责。

个人认为,关于这一问题,还是应该放在具体的环境下来进行具体的看待,要看在具体的情况下,究竟是人还是机器做了最终的决策。例如,现在算法合谋的问题引起了很多人的重视,但其实算法合谋这个名词只是一个大框,里面包括信使合谋(合谋各方用算法来传递信息)、轴幅合谋(算法作为一个协调者,帮助各方进行合谋,就好像车辐围着车轴一样)、预测者合谋(各方未必有主观合谋意愿,但都使用了同一种算法,算法所指引的最优行为都一致)、自主机器合谋(各方各自开发算法,算法可以不同,但只要给出的目标相同,它们所指引的最优行为也会类似,从而产生合谋效果)等好多类。虽然这几类合谋都用到了人工智能,但其实在信使合谋和轴幅合谋里,人工智能只是被用来作为合谋的工具,因此在这种情况下它们当然不应该被视为是主体。而在后面的两种合谋里,人工智能本身就是做决策的,因此它们在一定意义上就可以被视为是主体。

第二点是人工智能的责任问题。我想,这个问题要分为两个层次来思考:

第一个层次是和主体问题对应的。正如前面指出的,在很多时候,人工智能扮演的只是一个工具的角色,自己并不进行决策,因此它当然不应该承担相应的责任。这就好像,无论是人用刀杀人,或者用刀切菜,要负责的都是人,而不是刀一样。明白了这点,我们其实可以把很多看似与人工智能相关的责任问题刨除掉,因为他们其实是人的问题。

第二个层次是,当人工智能是一种决策主体时,它应该对于某个结果负有怎样的责任。当然,我们这里说人工智能负责,只是一个简化的说法。事实上,它当然无法自己为自己的行为负责,而是作为一种产品,让生产它的人负责。

那么,在机器做出一种行为时,它(确切说是它的生产者)要为其负多大的责任呢?例如,如果人工智能对人造成了伤害,它要承担什么责任?我想,这个答案是动态的,在各个时代、各种情况下答案不同,我们在思考这个问题时,应该用成本收益分析的思路去思考。法律经济学上有个经典的例子:在铁路普及前后,美国的侵权法发生了很大的改变。在这之前,交通工具在遇到行人时,是需要让行人先通过的,否则如果发生了交通事故,责任都要由交通工具的使用者承担。而在铁路普及后,这个规则就发生了很大的变化,行人被要求让火车,如果行人不遵守这个规则,那么他就需要承担自己行为的后果。

为什么会有这个变化呢?原因是如果还墨守成规,那么铁路在运营中就需要时刻注意避让行人,效率就很低。而在规则改变后,整个社会运行的效率就提升了。我想,在考虑人工智能应该承担多大责任时,我们也应该采用类似的观念,用成本收益的思路去思考问题,而不应该简单套用一些老的原则。

第三点是对人工智能,或者说对算法的监管。我参加过不少关于人工智能的会,里面谈到对算法的监管,思路都大同小异,例如几乎所有人都主张算法要透明,算法要共享。

对于这一点,我是持保留态度的。事实上,在我个人看来,通过算法透明去监管算法的做法其实既不科学,也无道理。一方面,现在的算法都很难读懂,不要说大多数主张透明的学者看不懂,即使一些专业的程序员也要花上很长时间才能看明白。在这种情况下,即使我们不说通过透明去监管算法是不可能的,它至少也是不经济的。另一方面,现在的算法已经是各个企业的核心竞争力,你贸然要求它透明,就是对别人知识产权的不尊重,是没有道理的。

那么,难道我们就对算法没有办法了吗?当然不是!但其中的思路一定要变。在经济学上,规制理论有新旧之分。旧规制理论假设规制要在完全信息下进行,主张对行为进行直接干预,但新规制理论则强调不完全信息,主张通过构建相应的约束条件去引导人们的行为。打个比方,如果你要让人帮你好好换一个灯泡,一种思路是,你在一边仔细盯着,然后看他哪个动作不对就马上纠正。这就是旧规制主义的思路,显然,它的成本很高,而且不一定能把事情办好。另一种思路呢,则是进行机制设计,让安灯泡的人自觉努力工作。例如,你告诉换灯泡的人,“你若安好,便是晴天;你若安不好,我就打死你”。你放心,只要那个安灯泡的人答应了给你换灯泡,那么他一定会尽他的努力来做好,因为他会害怕可能的惩罚。从这个意义上讲,这时安灯泡的人和你的目标是一致的,或者说,他的目标是和你的目标激励相容的。

在我看来,监管算法在很大程度上类似于换灯泡。你不知道人是怎么思考的,但你通过构建合理的激励合约,就可以引导它努力工作;同样,你也可以不知道机器是怎么思考的,但也可以通过构建合理的激励合约,将它们的行为引向正确的方向。从某种意义上讲,其实人的思维从本质上也是一种算法,但这种算法要远比机器的算法更复杂、更随机,而相比之下,机器算法事实上更类似于经济学理论中假设的“理性人”。既然新规制理论的方法对人都能管用,那么它对机器也可能会管用!

总结一下,我想表达的意见是三点:一,根据是否进行决策来判定是否是主体;二是根据成本收益来划分责任;三是用新规制理论和机制设计的思想来对算法进行监管。一点浅见,希望对大家有用。

(文章仅代表个人观点。责编邮箱:yanguihua@jiemian.com)

来源:界面新闻

广告等商务合作,请点击这里

未经正式授权严禁转载本文,侵权必究。

版权声明:本文内容由互联网用户自发贡献,该文观点仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌抄袭侵权/违法违规的内容,一经查实,本站将立刻删除。

上一篇

下一篇