明晔 何万里|论人工智能的刑责承担问题
原创明晔何万里上海市法学会东方法学收录于合集#上海法学研究756个
明晔
西安工程大学人文社会科学学院硕士研究生
何万里
西安工程大学人文社会科学学院副教授
要目
一、研究人工智能刑责承担的重要性
二、人工智能技术和人类自我意志的相似与不同
三、从刑法的发展历程看人工智能的地位
四、对于人工智能技术的规制
刑法学界对于人工智能的刑责承担问题,分为应赋予其主体地位和不应赋予其主体地位两种观点。但是部分学者碍于人工智能的理论知识和法律知识之间的隔阂,难以从技术层面去分析人工智能的主体地位,通过从技术层面和法律的发展两个方向分析研究,讨论人工智能的刑责承担问题。
人工智能技术方兴未艾,21世纪是人工智能技术的世纪。党的十八大以来人工智能技术发展势不可挡,新一轮科技革命和产业革命的窗口已经开启。人工智能技术发展不仅给科技、经济、政治带来了新挑战、新机遇,更在法律层面产生了许多值得钻研的问题。特别是在人工智能的刑责承担方面,刑法学界掀起了空前的讨论热潮。刑法学者们将人工智能分为了弱人工智能和强人工智能两个不同的层次。一种观点认为人工智能在可以预见的很长一段时间内,会一直处于弱人工智能阶段。因而,人工智能仍然摆脱不了人的意志的影响,会一直成为为满足人类自身利益,专精于某一领域的具有一定自身判断能力的专家系统。其本质是人类为了满足自身的需要和利益而使用的某种工具。强人工智能更是仅存在于想象中的虚幻之物,赋予其刑法主体地位更会使立法显得虚无缥缈。在这种模式下人工智能完全不具有人的属性,更谈不上刑法上的主体地位。所以由人工智能所造成的犯罪行为的罪责应该由使用人工智能的特定的行为人承担。另一种观点则截然不同,这部分学者认为人工智能必然会步入强人工智能阶段。这时的人工智能已经摆脱了对人类的依赖,有了自己独立自主的意识,在自主意识和意志的支配下去做出或不做出某种行为。这时的人工智能与现在刑法上所定义的主体的属性几乎完全一致。所以,应该赋予人工智能在刑法上的主体地位,人工智能自己所实行的犯罪行为的后果应该由自己承担。由此可见,目前刑法学界对于人工智能刑责的承担问题主要还是从法律的角度出发去看待人工智能技术问题,在已有的法律框架内讨论人工智能的刑事责任,对于技术的涉猎也只是浅尝辄止,并未能很好地将人工智能技术的发展与刑法的发展相结合起来。造成了关于人工智能的刑责承担问题的讨论天马行空的表象。本文拟从人工智能技术发展的层面出发,结合刑法的发展去讨论人工智能的刑责承担问题。
一、研究人工智能刑责承担的重要性
在人工智能刑法主体地位持否定观点的学者们看来,现在讨论人工智能在刑法上的主体地位仍然为时尚早。现阶段的人工智能完全展现不出来人类所特有的智慧。因而现在就将赋予人工智能在刑法上的主体地位提上日程未免显得操之过急,甚至于在某些领域的研究出现了违反人们常识和反智的情形。
但是,人工智能技术的独特之处在于,其不是简单的经过某种技术的堆砌或者迭代所产生的新技术。而是一门包罗万象的学科,与之前发展的各种计算机技术的融合度特别高。假如把人工智能技术比作海洋,那这个全新的海洋里面所蕴含的是计算机行业几十年发展的精华。包括:深度学习、数据挖掘、大数据、云计算、复杂神经网络、链路分析、分布式存储、物联网、数学建模等等,可以说是包罗万象。因此人工智能技术所带来的收益与风险和以往的技术革新也是不可同日而语的。谁也不能预料到科幻作家弗诺·文奇(VernorSteffenVinge)笔下所写的人工智能技术的奇点何时到来。一旦人工智能技术达到强人工智能阶段,人工智能可能因为自己的喜怒哀乐,或出于维护自己或者他人甚至于其他人工智能的利益去实行一些犯罪行为。同时这个实行了犯罪行为的人工智能的算法可能随着互联网传遍了世界。更有赖于P2P技术和分布式存储技术的加持,其广播在全球互联网的算法更是不可能完全清除。日后如有其他的人工智能主动下载或者被动接受了此算法必然导致此前犯罪行为的重复出现。这种犯罪行为的可复制性、重复犯罪的顽固性、犯罪主体的广泛性和预防犯罪的复杂性,是现阶段刑法学界所不能预见的。国家制定、诉求、裁量、执行和监督刑罚想要达到的目的是每个人利益的最大化,预防国民犯罪和使犯罪的国民得到应有的惩罚。在上述情形中,存在一个刑法无法规制的主体在肆无忌惮的实行犯罪行为,而且这种犯罪是极易被大规模复制而发生的。这无异于现代的人类生活在法律甚至道德出现之前茹毛饮血的原始社会。一切的规则都将被打破,已经成型的社会架构将会被颠覆,我们所熟知的法律范式也将不复存在。待到进入强人工智能时代再开展类似的研究必然导致“科林格里奇困境(Collingridge’sDilemma)”所以,开展人工智能刑责承担问题的法律研究十分迫切。
二、人工智能技术和人类自我意志的相似与不同
刑法学界对于人工智能技术的认知,大部分还停留在人工智能技术是一种极特殊的算法程序黑箱。将人们所掌握的数据输入进去,可以得到一个在既有的算法框架下的最优解。而这个算法黑箱里面的逻辑是通过人工智能无数次的训练得来的,人工智能在无数次的训练中是被动地接受了人们给其输入的既定事实。从而使这个算法黑箱在今后遇到相似的情况下自然而然地输出了相对特定的结果。在这个逻辑中,虽然人工智能最后输出的结果是不可预估的,但是其输出的范围仍然在程序预先设定好的范围内,并且是按照研发者或者使用者的意志进行的。所以,人工智能仅仅是一项工具而已。其仍然在开发者或者使用者的掌控之中。笔者认为,此种观点将人工智能逻辑的来源过于简单化,对人工智能技术的认识不深,彻底否定了人工智能的自主性和独立性,难免有“人类中心主义”之嫌。
人工智能的发展
现代人工智能技术真正起源于1960年马文·明斯基所写的那篇著名的论文——《通向人工智能的步骤》。其后诞生了人类历史上第一个对话机器人伊莉莎,其最基本的逻辑就是扫描某个关键词,并在自己的数据库中匹配与关键词相对应的合适词汇,将这些词汇组合成一段通顺的语句后再将这段语句输出。这个程序毫无智能可言,甚至都达不到逻辑自洽的地步。之后就是人们所熟知的机器人深蓝,它在1997年击败了当时的国际象棋世界冠军加里·基莫维奇·卡斯帕罗夫。而深蓝也不是真正意义上的人工智能,其最核心的技术思路是穷举,即计算出所有棋子下一步移动的所有可能性,并将最优解输出出来。可以说,这个阶段深蓝的胜利,完全是计算机计算能力的胜利。计算机的计算速度与能力高于人脑很多,通过这种穷举的方式计算出所有的可能性并最终打败了卡斯帕罗夫。这个时期的人工智能有了目前人工智能技术的雏形即选择最优解。然而我们现在的人工智能已经完全抛弃了以往的简单的扫描词语然后输出,或者是用看起来无穷无尽的运算能力去“暴力”解决一切问题的思路。计算机学家通过仿生学的原理,模仿人类的逻辑将思维、感知和行动有机地统一。现在的人工智能不仅仅是一个专家系统、一个解决问题的工具,更是一种思维、一种类人的智能。
人工智能的独立性
1.人工智能系统与人类智能系统的结构相对应
人类如何去认识世界,提出问题并解决问题,形成自己的价值观、人生观、世界观是人类智能的关键之所在。人类智能在刑法上的表述就是人类如何依靠自己的思维和意志支配自己的做出或者不做出某些特定的行为。那么人类智能是如何产生的,或者说人类智能为何如此的与众不同,有如此高的辨识度。艾弗拉姆·诺姆·乔姆斯基博士(AvramNoamChomsky)曾有一段著名的论述:“几乎可以肯定,在五万年之前,一小群人获得了一种能力,能将两种概念合并成为第三种概念同时又不会无限制的破坏原有的概念。”由此可见,人类的符号系统即语言和文字,在人类智能的发展过程中起到了不可或缺的作用。但是人类的智能并不仅仅是由符号系统所构成的。当老师给学生布置了一道数学题时,老师通过符号系统传达给学生特定的信息,学生通过视觉和听觉系统捕获到了这些信息,并通过早已储存在自己大脑中的符号系统通过类似于查字典的方式,将捕获的这些抽象化的信息在自己的大脑中一一对应的具象化成自己可以理解的内容,进而解决这道数学问题。人类是通过长期地、不断地学习各种理论知识,并且在社会生活中的反复的实践这些理论知识,同时将在实践中获得的经验不断总结,才得到的人类智能。在这个过程中人类始终以道德和法律为自己行为的指导和框架。相对应的,在目前的人工智能技术中,人工智能也有自己独特的符号系统——二进制。通过数学建模并用二进制的语言将这个数学模型存储在人工智能的存储系统中,使得人工智能可以理解人类社会中的各项规则和运行方式。当然,这个过程还离不开大量的训练和机器学习。通过将人类社会中的各种数据制作封装成数据集的方式,来对人工智能进行大量的训练,调整算法中的特征值和约束条件,使得输出的结果最大可能的符合人类定义的最优解。在这种方式中,人工智能在没有通过大量的数据进行训练时犹如一个呱呱坠地的孩童。其硬件设施已经完备,但是其还不存在应该被称之为“智能”的东西,因其还没有完成特定的学习。在此人工智能的存储系统中,还没有自己、行为的范式,无法依靠自己的认识和意志支配自己的躯体去完成一定的任务,做出特定的行为。而其在有了算法的加持并进行了大量的学习训练之后,在存储系统中就会产生一定的逻辑结构,与其说是逻辑结构,不如说是学习到的大量的人类社会经验并在其中标记了特征值,通过特征值对这些社会经验进行归纳分类,在自己的存储系统中构建了特定的知识体系。每当人工智能的符号系统接受到来自I/O设备输入的信息流后,就会激活这个符号系统去查找与这个信息流最相近的特征值,并将这个特征值对应的结果通过做出某种相对特定行为的方式向外界表达出来。当前这种人工智能的技术路线已经相对成熟并且在可以预见的将来,人工智能依然会沿着这条道路走下去。在这种式下,人工智能负责处理信息的硬件系统与人类负责处理信息的器官在功能上是相当。人类智慧的增长在于广泛地学习知识,在自己的脑海中形成固有的知识体系。人工智能的“智能”的增长在于使用大量的数据进行训练,在存储系统中形成固有的思维体系,解决各种问题。特别需要提到的是,在训练过程中算法的约束条件正好对应着人类社会中的法律和道德。法律、道德指导人类的各种社会活动,而约束条件则要求人工智能应该做什么行为或者不应该做什么行为。所以,人工智能无论是从硬件的功能、思维方式还是其智能的获取方法与人类相比都是大致相当的。
2.人工智能与人类做出决定的方式相对应
美国著名法学家奥利弗·温德尔·霍姆斯(OliverWendellHolmes,Jr.)有云:“法律的生命不在于逻辑,而在于经验。”如果法律的判决是依据严格的逻辑推理,过分地强调逻辑的严谨性和科学性,忽视不断变化的社会经验的作用。将会使法律严重脱离经验世界而日渐封闭,其活力日渐枯萎,最后蜕化成为社会发展的桎梏。霍姆斯的话强调了经验在法律体系中的重要作用,这是因为人们在日常的社会生活中所作出或者不做出某些行为,绝大多数的理论依据是自己的生活经验和习惯。根据自己当下所面临的情况或者问题,在自己的大脑中归纳演绎,自然而然的得出了相应的结论。这个结论绝不会是非常严谨科学的逻辑推理,它的诞生更类似于概率问题,因为不能保证人类在相同情况下都会做出完全一致的决定。这也是人类智能的一大特点,在自己特定的知识框架下所做出行为的相对不确定性。而在21世纪一开始,计算机学家们就意识到,以往以纯逻辑的理论推导为基础的人工智能的实现方式所输出的结果,往往不尽如人意。这种结论上的大相径庭其原因在于忽视了经验主义的作用,纯逻辑的推导结果很多都脱离实际。所以现在的人工智能所作出某种决定的依据是数学方法中的统计概率。人工智能经过大量数据训练得知人类在此种情况下最有可能的解决方式,并模仿这种解决方式作出相应的行为。这种技术路线完全模仿了人类做出决定的方式,使人工智能真正的按照人类的行为方式去行事。
3.人工智能的刑法地位
人工智能通过模仿人类的符号系统、思维方式和做出决定的逻辑完全展现出了其与人类智能的相当性。人工智能所作出的一切行为都已经脱离了它的使用者的意志,而是完全拥有类似于人类的自主意识的行为。仅就这点来看,人工智能完全依靠自己的意志支配自己的行为,可以成为刑法上的主体,单独的承担刑事责任。
人工智能的依附性
帕特里克·温斯顿(PatrickWinston)曾表示人工智能技术的关键不在于算法,而在于建模。人工智能技术的关键是将人类生活中繁杂而具象化的各项工作进行必要的拆分,在抽象概括的基础上将各项工作一一映射为计算机系统中的各种模型。这个建模的工作是整个人工智能中最基础最核心的部分,通过数学建模人工智能得以理解人类社会的各项规则和人类的各种行为。所以研发者给人工智能构建了什么样的模型,直接决定了人工智能对整个社会规则,特别是法律的理解方式。也直接决定了人工智能将要按什么样的方式去作出自己的行为。所以人工智能从诞生之初起就与研发者有着密不可分的联系。
其次,上文提所及的人工智能的思维和意志的由来离不开大量数据的训练。而这些数据的来源、这些数据里面所包含信息好坏的甄别。还有对这些数据进行训练集和测试集的划分。还有最重要的数据集的标注工作,所谓标注就是按照人类的定义对这些数据进行解释,并将带有解释的数据集输入到人工智能系统中进行训练。就像孩童在幼儿园时,老师教授什么是苹果什么是香蕉。这样在孩童的大脑中就有了苹果和香蕉的概念,自然而然地就知道了苹果和香蕉是不属于同一类型的物质。通过这种方式,人工智能得以了解这些数据在人类社会中的含义。以上的工作都不离开研发者自身的意思表示。
最后,人工智能是否达成了我们需要的目标,需要靠交叉验证的方式来进行。简单的概括就是从对人工智能进行训练的数据集中分出测试集和训练集。通过这两个集合交叉对比的方式,看看人工智能的准确率有多少。而测试集的划分,相当于研发者告诉人工智能什么样的行为是对的、合适的,而什么样的行为是错误的、应该避免的。
人类独立的思维和意志是经过了长期的社会生活所形成的,其中包括了人类的伦理、道德、政治、法律、宗教和家庭教养等等,这些在成长中经历的事件和学习到的知识不以任何人的意志为转移。但是,无论人工智能开发的哪个阶段,都离不开研发者的意志对人工智能进行指引。从数学模型的构建、数据集的划分到行为正确与否的判断都包含了研发者的主观意志,研发者将自己的内在的意志转换成了研发人工智能的行为,在这个研发过程中,特别是在对人工智能的有效性进行判断时,必须依靠研发者的自身的价值观进行判断。虽然,人工智能的开发完成后,可以视作完全脱离了研发者的主体在刑法上独立存在,但是人工智能思维的成长却与人类很不相同。人工智能没有经历完整的社会生活,对于人类社会的认识仅仅通过短期的机器学习的方式所获得。并且人工智能所能够接触到的数据以及这些数据在人类社会中的含义,都是经过了研发者的筛选加工而成。人工智能最重要的行为准则——约束条件也是研发者所赋予。所以其内在的价值观,其行为方式的构建完全可以向前追溯到研发者的行为。假如在研发时,研发者故意或者过失的将故意杀人作为人工智能解决纠纷的最后手段添加进了数据集中,并且人工智能进行了杀人行为,这时候,虽然人工智能是个独立的个体,但是也很难否认研发者在其中所起到的主要作用。虽然进行训练时人工智能还不是刑法的主体,不存在两个主体通谋的行为。但是此时的人工智能确确实实地贯彻了研发者的思维,并将这种思维外化于行。从这方面来看,我们将人工智能作为刑法上的个体,单独定罪处罚又没有起到刑法应有的惩戒和预防效果。
三、从刑法的发展历程看人工智能的地位
最初的刑法可以追溯到公元前1785年的古巴比伦,国王汉谟拉比颁布了汉谟拉比法典,而后的古希腊和《圣经》中也有关于犯罪及其刑罚的规定。近代西方刑法的变革则是文艺复兴时期,在启蒙主义思想的指导下进行的。何勤华教授认为:“近代以后的刑法,在启蒙主义思想的指导下,通过观念的更新和周密的制度设计,成了市民社会公民自由和权利的保障,这是人类社会一个巨大的历史性变革。”由此可见刑法是市民社会的法,是保障公民权利和自由的法,不管将来社会出现了任何的新事物和新的社会关系。刑法的本质和目的不会改变,分析这些事务和社会关系都要从刑法的产生、本质和目的出发,人工智能也不例外。
刑法的本质
“……由此可见,是有一个根本理性存在着。法就是这个根本理性和各种存在物之间的关系,同时也是存在物彼此之间的关系。”孟德斯鸠认为存在一种东西贯穿于整个社会现象,是社会现象的本质。而刑法是社会现象的一种其本质孟德斯鸠称为“法律精神。”法律精神受多重因素的制约,政治、经济、文化、习俗、道德、自然气候等等都可能塑造不同的法律精神。而法律精神贯穿于刑法的始终,要对刑法有准确性的把握,必须首先了解一个社会的风土人情,通过现象看本质。人工智能在其研发之初,研发者已经将这些法律精神所包含的东西以数据集的形式输入到了人工智能的存储系统中,并进行了反复多次训练。并且,人工智能的存储系统比人类的记忆力要强得多,只要硬件不被损毁,这些知识可以永久存续。所以,人工智能对于法律精神的掌握可以说是十分牢固,由此带来的其对刑法的认识也十分深刻。对于刑法想要达到的目的和刑法对自己行为的约束的理解应与常人无异。法国学者雷蒙·阿隆(RaymondAron)对于法律精神有着更深刻的认识,“人们一旦掌握了决定事件总的进程的深刻原因后,未来就成为可理解的了。一旦把多样性置于为数不多的类型或概念之中,那么多样性也就成为可知的了。”这表明,一个正常人类一旦理解了法律精神,那么这个人对自己当前的行为在刑法上所产生的后果应该有充分的认知。而人工智能可以很轻松地理解法律精神,并且人工智能也拥有完整的逻辑思维能力去预见自己的行为在刑法上的后果。仅就此而言人工智能是可以独立承担刑事责任。
犯罪的原因
陈兴良教授对于康德所提出的人最重要的价值——自由是这样剖析的:“人的本性是一种‘非社会的社会性’,即一方面人具有社会性,希望生活在社会中,以利于发展他的自然禀赋;但另一方面人又具有非社会性,因为他有很强的感性倾向,要作为个体而生活,以便能按照自己的意愿来行事。”这是最基本的人性,也是人最渴望的自由。而刑法诞生的目的就是为了维护个人的自由。需要看到的是,刑法并不是社会中的个人积极主动追求的结果,而是每个人在社会的发展当中不断妥协的产物。人的“社会性”是为了谋求自己更好的发展和进步,人类从起源时就是群居动物,一个人的力量在当时面对未知的大自然时是渺小的,只有群居生活才能保护自己的生命安全。而现在的人类,在社会这个大集体中,只有认清自己在社会产业分工中的地位,认真完成所分配到的任务才能在社会这个集体中生存下去。人的“非社会性”则会不断地撕裂个人与社会的关系,加剧社会的阶层冲突,使个人不遗余力地占据本属于集体的生产资料。这会严重破坏其他人的利益,阻碍他人的发展与进步,严重者就会导致犯罪。每个人为了自己的利益最大化,保护自己的既得利益,合理分配将来能够获得的利益,在社会生活中不断磨合、妥协因而产生了刑法。而切萨雷·龙勃罗梭(CesareLombroso)更是提出了“天生犯罪人”的概念,强调社会中的罪犯有大约40%的人是因其天生的生理结构所导致的犯罪。龙勃罗梭认为犯罪是由遗传的基因所导致的,所以有些人就是天生的犯罪人。但是并不是所有的犯罪人都是天生的,还有一些犯罪人是在社会生活中经历了某种刺激与伤害。杰里米·边沁(JeremyBentham)的功利主义法学则认为人是具有趋利避害性的生物。当一个人犯罪所获得的快乐大于他因犯罪所受到的惩罚时,犯罪行为就是不可避免的。而对于人工智能而言,假如其犯罪行为是因为硬件上的缺陷所导致的,人工智能的研发者则负有不可推卸的责任。人工智能的研发者将人工智能交付给使用者时即视为对人工智能正常运作,完成使用者所交付的任务,并保障使用者和不特定第三人的生命、财产安全做出了承诺。一旦因为硬件的缺陷导致了犯罪行为,根据龙勃罗梭的理论,正处于犯罪进程中的人的意志与理性将变得不再可靠此时的人工智能更不可能是处于自己的意志的支配下而实行的犯罪行为,我们完全可以依据产品缺陷的归责原则,追究研发者的刑事责任。而对于人工智能的犯罪动机是为了追求自己利益的最大化,或单纯的逞一时之快则是很难去查明的。惠子曾对庄子说过:“子非鱼,安知鱼之乐?”这说明,人工智能所实行的犯罪行为是为了自己的快感还是为了自己的利益,或者是为了使用者、研发者的利益都是很难从其行为的客观表现分析判断出来的。我们所讲的个人快感、社会中的利益都是非常抽象化的概念,无法通过数字的形式去量化地表达出来。因此我们只能通过分析谁是最终受益者的方式去应对。假如是人工智能实行自身纯获益的犯罪行为,既然研发者和使用者在这项犯罪活动中没有收益,我们就可以认为研发者和使用者并没有积极主动地追求犯罪结果发生的主观意志,因此只能单独地对人工智能定罪处罚。而是否存在放任犯罪结果发生的问题,如果不能够提出客观完整的证据链,那么就应该按照疑罪从无的原则,认定研发者和使用者与此犯罪行为无关。对于研发者和使用者从人工智能的犯罪行为中获益的情形,我们可以借鉴适用民法中的过错推定原则。人工智能的研发者和使用者对于人工智能的主观意志和使用过程中存在的风险应有充分的预见性,刑法也应当严厉打击研发者和使用者利用人工智能从事犯罪活动并从中获得收益的行为。一旦他们从人工智能的某个犯罪行为中获得了收益,我们就可以认定为他们直接或者间接地参与了犯罪活动,这时的举证责任倒置,由研发者和使用者证明自己没有参与犯罪活动。因为这时对于研发者和使用者提出了更高的要求,公安机关或者有资质鉴定人工智能相关产品的机构应在必要时予以充分协助。
当前刑法对人工智能的规制难题
我们目前的刑法已经形成了相当完善的体系。但是,法律必然存在滞后性,现有的刑法对于人工智能这种新兴事物还是存在着许许多多难以有效规制的地方。
1.犯意不得定罪处罚
“无行为则无犯罪”这是一条流传甚广的法律格言,它表明了行为对于犯罪成立的决定意义。但是人工智能犯罪却呈现出别样的特点。我们常讨论的人工智能是特定的人工智能体,但是人工智能体仅仅是人工智能算法的承载对象而已,人工智能体所具体作出的行为是由人工智能算法控制的,这个算法才是整个人工智能的核心。可以说一旦出现犯罪行为,该犯罪行为是由算法导致的而不是这个算法的载体所导致的。假设这个算法包括了目前所有的犯罪手段与方法,就目前的刑法体系而言,其仅仅是停留在犯意阶段。当前刑法这样的规定对于人类犯罪而言是完全合理有效的,因为特定个人的智能不能脱离其肉体单独存在。限制或者消灭其肉体,其犯罪的意志也随之消灭或受限制。但是对于人工智能的算法而言,其可以和任何一个载体相结合,可以使任何一个载体实行犯罪行为而算法本身却不会被刑法所处罚,而且一旦此算法接入了互联网,后果是灾难性的。任何一个算法的载体都有可能成为这个算法实施犯罪行为的工具。而通过接入互联网这种手段,这个算法的传播可以非常迅速,其传播的范围也会十分广泛。因为这个算法在传播的过程中不会有任何其他因素的影响,所以这个算法所代表的犯罪意志十分完好地传递给了下一个载体,而下一个载体再次实施犯罪行为可以说是必然的。在目前的刑法体系中,算法这个犯意不能成为定罪处罚的对象,也就导致了治标不治本的现象的发生。任何一个人工智能体触犯了刑法,我们可以剥夺它的自由甚至生命。人工智能的生命可以是其硬件的完整性也可以是其算法的完整性。但是只要算法还在,这个人工智能的思维和意志就没有磨灭,它再犯的可能性几乎是百分之百。对算法载体的处罚也就起不到任何打击犯罪的效果。因为其犯罪意志本就不依赖于载体而存在。刑法固然有其谦抑性的存在,但是在这种情况下过分地追求刑法的谦抑性,造成的后果将会贻害无穷。
2.刑事责任能力的模糊性
抛开“四要件”和“三阶层”理论孰优孰劣的争论,无论是“四要件”理论中的主体资格的辨别,还是“三阶层”理论有责性的判断刑事责任能力都占据着重要的地位。对于年龄所带来的刑事责任能力的不圆满状态我们可以轻松地判断,但是对精神病人的刑事责任能力的判断却是一个极为复杂的问题。“在主张精神病人责任能力的认定是一个法律判断的同时,却又不能提供一套具有可操作性的认定方案,这可能导致法官对精神病人责任能力的认定无从下手,最后或沦于直觉判断,或盲从于司法精神病专家的鉴定意见。”可以明确看到的是,虽然刑事责任能力在犯罪构成中占据着如此重要的地位,但是学界对其判断仍然没有严格统一的标准。对于刑法中的精神疾病的定义为:由于精神障碍所引起的精神异常状态。现阶段刑法框架下定义的精神疾病和刑事责任年龄对于人工智能刑事责任能力的判断完全不具有可操作性。我国新修订的刑法修正案(十一)中重新规定了刑事责任年龄的标准。“已满12周岁不满14周岁的人,犯故意杀人、故意伤害罪,致人死亡或者以特别残忍手段致人重伤造成严重残疾,情节恶劣,经最高人民检察院核准追诉的,应当负刑事责任。”这表明刑事责任年龄并不是固定的,而是随着社会的发展和广大青少年的认知水准而变化。我国的刑事责任年龄是经过了长期的实践和讨论得来的。刑法修正案(十一)的颁布也意味着我国的刑事责任年龄从静态的“一刀切”向着动态的判断,并且极特殊情况下提请最高人民检察院核准得更为人性化的方向迈进。而对于人工智能的刑事责任年龄,则很难用准确的数字去把握。我们通常理解,人类达到刑事责任年龄后就可以清晰地认识到自己的行为可能产生的危害后果,因而可以承担刑事责任。但是,人工智能是经过大量的数据训练后获得的“智能”,而这些数据的内容直接影响着人工智能的判断能力,假如这些数据全部是人类未满12周岁孩童所产生的数据,那么是否应当认为经过这些数据训练后的人工智能未达到刑事责任年龄。在更为复杂的情况下,这些数据中部分是达到了刑事责任年龄的人类产生的,部分是未达到刑事责任年龄的人类产生的,对于此时人工智能的刑事责任年龄又该如何判断。同样的,对于已经完成了训练的人工智能,如何去判断其智力是否有缺陷,是否属于刑法所定义的精神疾病状态?以现有的技术手段来看,不管是从医学层面还是法律层面,都完全不能够进行判断。在我们将人工智能作为刑法上的主体,对其定罪处罚的时,这种问题就会凸显出来,导致许多学者反对人工智能的刑法主体地位。因为这会彻底颠覆我们现在既有的刑法体系,打破我们对嫌疑人定罪处罚的许多原则。但是,刑法就是为了维护绝大多数人的利益而存在的,遇到可能严重侵犯多数人利益的情况,刑法就有义不容辞的规制义务。
四、对于人工智能技术的规制
“预防性犯罪化立法为了保障社会安全,以严重刑事犯罪的风险为依据,秉承事先预防优于事后处置的理念,将具有产生严重刑事犯罪风险的行为作为独立的犯罪予以规定。如此一来,便在具有严重社会危害性的犯罪之前设置了一个缓冲预防带。这有利于对风险社会背景下具有严重社会危害性的犯罪行为进行预防,有利于实现刑法保护社会的机能,体现了刑法立法对风险社会背景下日益积聚的刑事风险挑战的积极应对。”对于人工智能这种可能有极大危害性的技术而言,预防性犯罪立法是最好的规制方法。因此应着重考虑刑法的一般预防目的,应辩证地看待人工智能技术所带来的挑战。人工智能既有其人类性的一面,也有其工具性的一面。简单地将人工智能技术归为刑法中的个体或者人类所使用的工具,都是不合时宜的。
首先,对于人工智能技术从其研发开始,就应该对研发者的行为通过法律予以规范,对数据集的选择、数据的标注工作应该制定相应的法律,用法律的强制力杜绝研发者通过数据研发专门的犯罪人工智能。在其研发过程中使用的数据应交由相关部分核查备份,一旦数据集中出现违反法律规定的数据,应当迅速叫停研发行为。
其次,人工智能的研发应在物理隔离的实验室中进行,对于研发过程中必要的使用互联网的行为,可以通过本地镜像的方式下载互联网上所需的信息,坚决禁止研发中的人工智能直接接入互联网的行为,严防有瑕疵的人工智能算法通过互联网广泛传播造成不应有的损失。
最后,应该设立人工智能学术道德委员会,对于研发完成的人工智能经过学术评估合格后才可投入使用。对于故意研发可能破坏现有法律的人工智能的行为采用一票否决制,严禁研发者再次从事人工智能的研发活动。
对于特殊预防可以借鉴商法中人合性的概念。正是因为研发者、使用者和人工智能本身之间存在独特关系,所以将他们三者捆绑起来,把人工智能的研发者、使用者和人工智能本身视为一个命运共同体,需要采取双罚制,既要对人工智能本身定罪处罚,也要对研发者、使用者定罪处罚。只有这样才能更好地防止研发者、使用者滥用人工智能的独立地位,来进行为自己牟利的违法犯罪活动。人工智能实行了犯罪行为,就应该作为刑法上的主体,对其所犯的罪行按照刑法的规定进行相应的处罚。彻底删除其存储的数据和与之相关的一切信息,特别是互联网上其残留的数据。对于研发者和使用者则充分考虑其主观意思,如若故意使人工智能犯罪则认为其将人工智能当作工具,按照故意犯罪定罪处罚即可。过失犯亦可按照过失犯罪定罪处罚。
人工智能作为人类历史发展过程中的产物是社会关系的一种,必然要受到刑法的规制。对于人工智能的刑法规制问题,应该把握其本质,刑法是人类社会的法,是为了全人类的共同利益所制定的。而人工智能技术也应当是为了全人类的共同福祉而开发应用的技术。所以我们对人工智能技术的规制应当着眼于人类社会的利益,在不损害人工智能技术发展的前提下将人工智能这把技术的“双刃剑”转化为新时期技术革命的“胜利之剑”。
原标题:《明晔何万里|论人工智能的刑责承担问题》
阅读原文
马皑 宋业臻|人工智能犯罪风险评估“算法歧视”现象及其规制路径
智慧法治学术共同体2021年征文一等奖
马皑
中国政法大学社会学院教授,博士生导师
宋业臻
青岛认知人工智能研究院研究员
要目
一、人工智能犯罪风险评估领域的“算法歧视”陷阱
二、人工智能犯罪风险评估中“算法歧视”的成因
三、人工智能犯罪风险评估中“算法歧视”的规制
结语
随着人工智能技术的不断发展,犯罪风险评估工具逐渐开始了智能化的演进。域外司法实践中使用的智能化犯罪风险评估工具并没有解决“算法歧视”的问题。“算法歧视”的成因是复杂的、多层次的。结合传统算法规制的分析框架,从问题建构维度和模型设计维度,能够对人工智能犯罪风险评估“算法歧视”的成因进行深入分析,并据此对算法规制的算法公开、个人数据赋权、研发过程规制与审核,进行特定场景下的路径探索,为走出人工智能犯罪风险评估所面临的“算法歧视”困境提供理论支撑。
中央网络安全和信息化委员会印发《“十四五”国家信息化规划》指出:“信息化进入加快数字化发展、建设数字中国的新阶段。”中共中央、国务院印发《法治政府建设实施纲要(2021—2025年)》明确提出“健全法治政府建设科技保障体系,全面建设数字法治政府”的新要求。为了响应国家数字化发展的号召,刑事司法领域主动与大数据、人工智能领域协作,开展了一系列国家重点研发计划,如“犯罪嫌疑人特征精确刻画与精准识别”“职务犯罪智能评估、预防”等一系列以人工智能犯罪风险评估为主题的跨学科科研项目,并取得了一系列初步科研成果。在人工智能犯罪风险评估领域,域外人工智能犯罪风险评估科技成果在进入社会应用阶段之后,引发了大量关于“算法歧视”的社会争议,甚至激化了社会矛盾。如何借鉴域外经验教训,在促进我国人工智能犯罪风险评估领域发展的同时,从“算法的场景性”角度切入,探索人工智能犯罪风险评估场景下的算法规制路径,走出“科林格里奇困境(Collingridge’sDilemma)”,成为了我国人工智能犯罪风险评估领域发展的一项紧迫任务。
一、人工智能犯罪风险评估领域的“算法歧视”陷阱
人工智能犯罪风险评估一方面指的是依靠计算机视觉、语音识别、情感计算、复杂系统等前沿人工智能技术对犯罪行为、犯罪心理现象进行更加复杂的经验分析,形成新的犯罪行为成因推断与风险预测理论;另一方面指的是依靠人工智能复杂算法提升传统犯罪风险评估工具的统计分析能力,形成升级迭代的犯罪风险评估工具。目前,国内外人工智能犯罪风险评估主要在犯罪风险评估工具迭代升级方向上发力,形成了一些技术成果,但是由于技术尚未完全成熟,导致人工智能犯罪风险评估存在规模化应用的不确定性。
域外人工智能犯罪风险评估的“算法歧视”现象
人工智能犯罪风险评估领域的“算法歧视”现象,最早出现在人工智能风险评估工具取得广泛社会应用的美国佛罗里达州。美国普利策奖得主非盈利性新闻机构ProPublica调研了佛罗里达州布劳沃德县的重新犯罪风险评估情况,将被逮捕的一万余人的风险评估结论与实际发生的重新犯罪率进行比较,并于2016年5月23日公开声称应用于美国司法实践中的犯罪风险评估系统COMPASS存在种族歧视,“系统在正确预测白人或者黑人的重新犯罪率方面是正确的,但是黑人比白人被评估为高风险结论的概率高两倍”。随后,2016年6月8日,COMPASS的研发机构Northpointe书面回应称:“佛罗里达州布劳沃德县的审前样本不存在种族歧视现象,ProPublica未考虑黑人和白人在重新犯罪上的分类统计数据,评估工具《一般重新犯罪风险评估量表(GRRS)》和《暴力犯罪的重新犯罪风险评估量表(VRRS)》对黑人和白人具有等同效用,误认为存在种族歧视现象是因为混淆了‘未重新犯罪但是被评估为存在风险的概率’与‘被评估为有风险(风险较高)但是未重新犯罪的概率’而导致出现对‘算法偏见’的错误认知。”麻省理工科技评论在2017年跟踪报道了这一争议,将“算法偏见”问题正式提上了社会公众关注的议程。
我国人工智能技术应用中的“算法歧视”现象
由于人工智能犯罪风险评估科技成果尚未在我国取得实践场景的广泛应用,我国法学界尚未充分关注人工智能犯罪风险评估的“算法歧视”问题。不过由于人工智能技术在商业、社会等领域取得了较广泛的应用,法学界对商业与社会领域中“算法歧视”现象已有较为广泛的讨论。李成指出:我国法学界使用“算法歧视”来统摄人工智能的“公正性论题”,“综观相关研究,算法歧视概念框架实际纳入了两类构型相似但性质迥异的歧视”,一种是“反垄断语境下的价格歧视”,另一种是“平等权语境下的身份歧视”。毫无疑问,人工智能算法的歧视与偏见会对我国的社会秩序构成极大的挑战,尤其是在司法实践中的应用如果不能得到合理有效的控制,将会对我国法律的一些基本原则构成挑战。丁晓东将这些挑战总结为“算法黑箱对知情权与自主决策的挑战”“对个体隐私与自由的威胁”“算法歧视与偏见”三大类。关于形成这些挑战的成因,李晓辉将其中“算法黑箱”的成因归为商业秘密的保护,即盈利性实体为了获取商业竞争力而完全不公开报告关于自身智能算法的计算表征与决策方式。
同时,“传统算法规制路径面临的困境根本原因在于忽视算法的场景性,算法可能由于运用算法的主体不同、针对的对象不同、涉及的问题不同而具有不同的性质”。具体到刑事司法领域的人工智能技术应用场景,李训虎认为,“我国刑事司法领域中的人工智能应用的法理难题在于:智能辅助办案系统会加剧已有偏见”,进一步具体到犯罪风险评估领域,人工智能应用的法理难题可以被归纳为“智能化风险评估工具的使用会造成对特定群体的歧视”。
二、人工智能犯罪风险评估中“算法歧视”的成因
造成“算法歧视”现象的成因是复杂的,目前较为全面的分析框架是“四维度歧视嵌入路径”分析法,具体包括:“问题构建维度、数据理解维度、特征选择维度和个人信息维度”。其中,“数据理解维度”主要指的是“样本代表性”方面的问题,“个人信息维度”主要指的是个人信息泄露或开发者的非规范化使用导致的采样偏差从而引发算法研发的歧视问题,“数据理解维度”和“个人信息维度”属于模型设计研发的一个必要环节,同时,“特征选择维度”是算法模型设计研发的另一个必要环节,可以被统称为模型设计维度。以下将从问题建构维度和模型设计维度分析具体到人工智能犯罪风险评估场景,对“算法歧视”的产生原因进行分析。
问题建构维度:犯罪风险评估理论的固有局限性
当前国际主流的犯罪风险评估理论与工具,已经进行了五代革新升级,但是,多轮迭代升级并未解决理论层面的固有局限。
第一代犯罪风险评估理论与工具出现在1920年代,其目的是服务于“罪犯康复治疗”,由专业人员进行临床的半结构化评估,工具中不包括验证与决策的统计机制。第一代犯罪风险评估工具由于其评价方式过于主观,并且几乎没有预测功能而逐渐衰落。
第二代犯罪风险评估理论与工具将统计学中的回归模型纳入风险预测环节,对评估工具进行了优化,工具的预测效度有所提升。第一代到第二代犯罪风险评估理论与工具的演进,其底层价值观方面有着根本性的变化,从“半个性化的治疗”(Semi-PersonalizedTreatment)转向了纯粹的预测,体现了“新刑罚”(NewPenology)的变化——“由康复治疗转向更加行政化的人口管理,几乎完全依靠(使犯罪人)丧失行为能力来降低重新犯罪风险”。第二代犯罪风险评估工具的推广及其底层价值观的变迁,使得在20世纪70年代之后,被认为存在一定程度重新犯罪风险的罪犯均受到监禁,美国的监禁率大幅度提升,但是大幅度的监禁也带来了被监禁人群的“棘轮效应”(RatcheingEffect)、监禁边际回报率逐年降低和个体层面的重新犯罪率不降反升等社会问题出现。第二代犯罪风险评估理论更多地是从犯罪行为史、年龄等静态因素进行犯罪风险预测,严重地依赖历史数据对未来进行预测,很容易将社会结构性歧视引入评估模型,造成更严重的社会不公平。
第三代犯罪风险评估工具为了解决第二代犯罪风险评估工具过于依赖静态因素、历史数据的问题,进一步引入了“犯罪(犯因性)需求”(CriminogenicNeeds)等更加侧重于强调心理特征的动态因素。
第四代犯罪风险评估理论则是在第三代的基础上,进一步将动态因素扩展到智力、自尊心等因素上,第三代与第四代犯罪风险评估形成了一个一体化的“混合风险/需求模型”(HybridRisk/NeedModel)。
第五代犯罪风险评估理论将人工智能、机器学习等新技术引入了犯罪风险评估工具的研发中。第五代犯罪风险评估理论与工具中又包括两种研究路径,一种是在欧美第四代犯罪风险评估工具的基础上,将机器学习甚至深度学习等智能模型替换掉传统的线性回归模型,是“计算模型的复杂化”;另一种是我国犯罪心理学与人工智能技术的深度融合,开发出理论、技术、应用多层次整合的犯罪风险评估工具。第五代犯罪风险评估理论与工具中“计算模型的复杂化”分支,解决了第四代犯罪风险评估工具线性回归模型计算过程过于简单,应用于实践中误差率高、系统抗噪声性不强的问题。而多层次整合的犯罪风险评估工具由中国心理学会法律心理学专业委员会、中国政法大学犯罪心理学研究中心进行理论研究与架构设计,由青岛认知人工智能研究院进行系统整合与系统开发,自2018年开始在全国12家监狱进行了为期两年系统试运行与效果验证,试验参与者超过2000人,积累数据量大于400万条,2019年该试验项目与技术装备进入中国科学技术协会《2019前沿科技成果推介手册》。
回顾五代犯罪风险评估理论与工具的发展,其核心问题是如何通过已知的数据和信息推断犯罪行为未来的发生概率,采用的主要方法是对比已经发生犯罪行为的个体与未发生犯罪行为的个体在年龄、行为史、心理特征等静态、动态因素上的差异性,故当代犯罪风险评估工具也被称为“精算风险评估”(ActuarialRiskAssessment)。但是上述五代犯罪风险评估工具由于理论假设与根本方法论并未改变,故均存在过分依赖数据统计的局限性,主要体现在模型建立的过程中“统计系统会重现数据中的歧视模式与历史偏见模式”。
总而言之,在人工智能犯罪风险评估工具的问题构建阶段,由于犯罪风险评估理论依赖历史数据固有的局限性,导致“算法歧视”现象被自然地构建进理论设计中。
模型设计维度:算法可解释性的错误聚焦
在模型设计维度,人工智能犯罪风险评估工具大量使用了目前主流的人工智能深度学习模型,由此形成的人工智能犯罪风险评估工具在应用过程中主要表现为:输入被评估者的个人信息,直接输出犯罪风险预测等级或者指标的“端到端”(EndtoEnd)式的风险预测模型。而人工智能深度学习模型目前面临严重的“算法黑箱性”质疑,由此“端到端”的犯罪风险评估与预测技术,也同样面临着对深度学习技术本身的“算法黑箱性”质疑。为了解决深度学习技术的“算法黑箱性”问题,人工智能领域提出了算法可解释性的研究方向,但是算法可解释性如果聚焦方向有偏差,则无法解决人工智能犯罪风险评估工具的“算法歧视”问题。下面主要从算法可解释性能够在何种程度上解决“算法黑箱性”的问题和人工智能犯罪风险评估能否利用算法可解释性规避“算法歧视”两个层面详细阐述。
第一层面:算法可解释性能够在何种程度上解决“算法黑箱性”的问题?
首先,算法可解释性从何而来?算法可解释性主要为了回应对人工智能深度学习技术本身的质疑与对技术应用的质疑。
对技术本身质疑的主要问题是:其一,深度学习技术所采用的深度神经网络模型是高度复杂的模型,模型中存在大量的自由参数,如在图像识别领域取得了巨大成功的AlexNet模型,其中包含了超过6200万个自由参数,导致了在学习与预测任务中出现了很多不可预期的结果;其二,使用一些“对抗性实例”(AdversarialExample)就会破坏深度神经网络的识别与预测的准确率。通俗而言,只需要对输入数据进行一些人类几乎感知不到的细微调整,就会发现模型输出发生巨大的变化,尤其是对一些类似于白噪声的毫无实际意义的输入数据,模型却判定其符合预测标准的置信度接近百分之百,这意味着深度神经网络模型在任务判别与信息计算方面与人类感知加工信息的方式完全不同。
对技术应用质疑的主要问题是:其一,道德与伦理方面,应当确保智能化犯罪风险评估工具不会对人口中的亚群体产生损害性的影响。其二,与知识有关(KnowledgeRelatedConsideration)的方面,工具的用户并非计算机专家,因此用户自身不可能自己开发基于算法的解决方案,也几乎不能够理解算法是如何开发的,尤其是复杂统计和深度学习技术,用户距离理解技术还有较大距离。其三,方法可靠性(MethodologicalSoundness)方面,当前,世界各地已经陆续颁布了相关规范性文件,如《欧洲一般数据保护条例》(EuropeanGeneralDataProtection)授予最终用户可以要求提升处理信息透明性的权利。这些方面均是将人工智能技术的透明性、可解释性与“信任”概念关联起来,既希望一个解决方案能够服务社会,又不会对社会公众产生伤害。
其次,算法可解释性是什么?算法可解释性指的是“使用人类可理解的术语提供解释的能力”,“可解释的术语”与“解释”是两个关键因素。在理想的情况下,“解释”应当以“逻辑决策规则”的形式出现,即“如果……那么……”形式的规则,或者能够很容易被转化为逻辑决策规则的形式;“可解释的术语”则与专业领域知识密切相关,比如人工智能计算机视觉中可以用于解释的术语是人类视觉的相关概念(图像中的颜色块、图像中客体的材料、图像的纹理)。
简言之,算法可解释性包括两个重点:一方面要分析存在黑箱性问题的算法是如何进行计算的,以人类可以理解的方式阐明其计算规则;另一方面要结合具体应用场景,从场景相关专业知识角度分析为什么要这样计算、这样计算是否具有科学性和合理性。
最后,目前的算法可解释性研究已经解决了哪些问题,还未解决哪些问题?算法可解释性研究目前已经解决以下三方面问题:其一,被动与主动维度(Passive-ActiveApproach),根据是否需要改变网络结构或者优化流程,不需要对网络结构与流程改变,直接从已经训练好的深度神经网络出发,从中抽取计算与决策规则的研究,被称为被动解释;需要在训练网络之前进行一些改变,如增加一些额外网络结构或者改变训练过程的研究,被称为主动解释。其二,生成解释的类型(theType/FormatofProducedExplanation),由于不同的解释路径生成的解释是不同的,它们的清晰度也不同,具体类型如:显著性映射解释(SaliencyMap),强调输入信息的重点区域的解释,需要人为加入更多主观经验进行判断才能获得清晰的解释;再如:逻辑规则解释(LogicRules),无需进行更多的人为参与;隐藏层语义解释(HiddenSemantic),将神经网络各个层次拆分开进行解释,样例解释与概念归因(ConceptAttribution)解释等。其三,局部与整体(LocalandGlobal)解释,局部解释侧重于理解单个预测的方式,整体解释侧重于理解模型整体的决策方式,目前较为常见的是从局部解释开始,自下而上归纳出整体解释。
目前,算法可解释性研究能够解决存在黑箱性问题的算法是如何进行计算的问题,能够以人类可以理解的方式阐明其计算规则,但是并未能结合具体应用场景,从场景相关知识角度分析为什么要这样计算。
第二层面:人工智能犯罪风险评估能否利用算法可解释性规避“算法歧视”?算法可解释性能否解决人工智能犯罪风险评估的“算法歧视”问题,取决于犯罪风险评估与人工智能技术的结合方式。犯罪风险评估属于犯罪心理学的经典问题,故犯罪风险评估与人工智能技术的结合方式类似于心理学与人工智能技术结合的方式。
目前,心理学与人工智能技术主要存在三种结合方式:其一,保留传统的心理学路径,使用传统心理测量工具的输入输出数据,但是将传统心理学常用的线性模型替换为了人工智能统计机器学习、深度学习等复杂计算模型。其二,保留传统的人工智能机器学习路径,从音视频、文本、网络行为等粗糙原始数据中提取与心理相关的特征。其三,明确地采用数据驱动的方法,将传统心理测评工具替代,建立新的关联关系,同时根据是否需要手动提取数据特征而分为需要认为定义如何进行信号转换和输入数据特征提取规则的“特征工程”(FeatureEngineering)路径和直接使用复杂模型进行原始数据特征提取的“表示学习”(RepresentationLearning)路径。
上述三种结合方式均涉及使用黑箱性算法,故算法可解释性具备解决人工智能犯罪风险评估“算法黑箱性”问题的前提条件,但是解决“算法黑箱性”问题不等同与解决“算法歧视”问题。解决“算法黑箱性”可以采用可视化方法、逻辑方法等来说明算法对输入数据的加工分析过程,即算法如何计算加工相关数据。而解决“算法歧视”问题需要进一步从科学理论角度阐明输入数据为什么能够与输出数据形成关联,以及输入数据是否已经潜在地含有歧视信息的样本。故目前学术界聚焦的算法可解释性研究虽然具备从“算法黑箱性”角度为解决“算法歧视”问题提供支持路径的条件,但是仍然尚未解决人工智能犯罪风险评估的“算法歧视”问题。
三、人工智能犯罪风险评估中“算法歧视”的规制
人工智能犯罪风险评估“算法歧视”问题来自于“算法黑箱”,“算法黑箱是算法规制的出发点”,故应当在算法规制领域探讨“算法歧视”问题。人工智能犯罪风险评估“算法歧视”问题的解决又属于算法规制领域中的“场景化规制”问题,应当“根据不同的场景类型采用不同的规制方式,以实现负责任的算法为目标”。在算法规制的方式中,目前常见的规制建议包括算法公开、赋予数据主体解释权、代码审核、开发行为规范等,已经在实践中其他场景化算法规制领域实施的包括:中国人民银行发布的《关于规范金融机构资产管理业务的指导意见》与国家网信办发布的《区块链信息服务管理规定》中涉及的算法备案制度等。具体到人工智能犯罪风险评估的场景化算法规制问题上,算法公开、赋予数据主体解释权的问题主要转化为应当公开或者向相关用户提供哪些解释内容?代码审核、开发行为规范的问题转化为应当规范哪些、审核哪些研发或开发行为?
因犯罪风险评估的特殊性,对人工智能犯罪风险评估“算法歧视”的规制亦具有一定的特殊性,具体表现为:在评估对象方面,犯罪风险评估指涉的犯罪行为范畴比刑法学指涉的犯罪行为范畴更窄,在我国犯罪风险评估实践中主要指的是故意杀人、故意伤害、抢劫等暴力犯罪行为以及强奸、猥亵等性犯罪行为;在评估后产生的效应方面,犯罪风险评估结论可能造成对被评估人的人身权利限制程度的差异,尤其是侦查阶段变更强制措施时的犯罪风险评估与服刑阶段施加监管强度确认时的犯罪风险评估;在评估依据方面,我国犯罪风险评估的理论基础来自于我国犯罪学、犯罪心理学的理论成果,在犯罪行为界定、风险等级界定、风险因子集合方面,与国外犯罪学、犯罪心理学的犯罪行为界定、风险等级界定、风险因子集合存在一定差异。所以,对我国人工智能犯罪风险评估算法进行算法规制,要从具有根本性的理论基础、模型和方法角度进行分析并提出规制建议,从问题建构和模型设计两个角度提供公开信息或解释内容,同时,从研发过程角度进行规范和审核。
人工智能犯罪风险评估的问题构建维度
在人工智能犯罪风险评估的问题构建维度,应当从犯罪学和犯罪心理学的角度分析并公开或解释:在问题构建所使用的理论基础方面,是否可能由于基础理论存在歧视风险而导致人工智能犯罪风险评估出现“算法歧视”问题?如果存在基础理论通过问题构建维度导致“算法歧视”问题,那么造成“算法歧视”的风险靶点在哪里?如何针对风险靶点解决“算法歧视”问题?
首先,在问题建构维度,人工智能犯罪风险评估的基础理论带有“算法歧视”的基因,导致基于此研发出的人工智能犯罪风险评估工具带有“算法歧视”的风险。目前,国内外常用的犯罪风险评估工具,如《中国罪犯心理评估个性分测验(COPA-PI)》等,均是以人格特质理论为基础进行问题建构,其基本假设是个体内的行为倾向差异性小于个体间的行为倾向差异性,依靠对个体特质的测量能够描述出个体的行为倾向。由于基础层面的人格理论存在局限性,造成了应用层面的犯罪风险评估存在局限性。人格特质理论的局限性主要表现为米歇尔(Mischel)曾经对人格理论效度的质疑,认为人格特质不具有较高效度,从而在预测人类行为上存在缺陷。奥尔波特(Allport)对此回应称:“对于情境主义者来说,我承认,我们的特质理论不可能像以前那样简单了,我们现在所面临的挑战是(如何)解开构成一个人的复杂(行为)倾向的网络,无论在不同的情境下被以不同的方式激活时,它(行为倾向)看起来有多么矛盾”。
其次,造成人工智能犯罪风险评估“算法歧视”的风险靶点主要包括以下两个方面。
一方面,人格特质理论的测量方式与统计建模方式。传统的人格特质理论主要依靠自我报告法进行数据收集,并建立简单的等级或者分数衡量个体在每种特质上的得分。这种测量方式与统计建模方式与日常生活中具有高度可变性的实践现象存在冲突,过度简化了现实的复杂性。弗里森(Fleeson)等通过在实验室控制环境下,招募了183名观察者对97个实验参与者进行行为观察与评价,根据观测数据,发现就行为变化程度而言,个体内差异性有时甚至高于个体间差异性,采用传统的自我报告法与统计建模法几乎不能根据个体特质准确预测个体行为。但是将行为倾向构建为一个概率密度函数,则可以使用人格特质进行行为倾向预测,并由此提出了“全面特质理论”(WTT:WholeTraitTheory)。
另一方面,人格特质理论主要对人格特质与稳定的行为倾向进行描述,构建出了层次化、系统化的描述体系,但是缺乏对“这些特质从何而来”“为什么在相似的情境下,有相似特质的人会出现相似的行为倾向”等问题的回答,即缺乏对人格特质的成因以及其与行为倾向之间的因果关系的解释。行为预测的经典理论“列文公式”指出:“个体行为是由个体的心理状态与个体所处的外部环境共同决定的。”但是人格特质理论主要是从个体心理状态出发,将个体稳定的心理特征作为主要研究对象来预测行为倾向,忽视了个体所处的外部环境,由于理论关注点的缺位,人格特质理论始终无法达到较强的行为预测效度。
最后,针对人工智能犯罪风险评估“算法歧视”的理论基础中的两个风险靶点,应当公开关于人工智能犯罪风险评估问题建构维度相关信息,并赋予利益相关用户对上述信息的解释申请权。
人工智能犯罪风险评估的模型设计维度
在人工智能犯罪风险评估的模型设计维度,应当结合我国人工智能犯罪风险评估常用的计算模型公开或解释:人工智能犯罪风险评估是基于风险预测还是因果推断的计算方式来进行模型设计。
在美国犯罪风险评估的COMPASS系统出现疑似“算法歧视”现象之后,人工智能机器学习领域针对其公开的风险预测模型设计方式,曾提出了如何从技术上对智能化犯罪风险评估工具进行变革的提议:“精算风险评估工具中的统计系统会重现数据中的歧视模式与历史偏见模式,如果机器学习的目的仅仅是为了预测个人未来是否会犯罪,那么很难打破司法系统本身的‘医源性效应’(IatrogenicEffectsoftheCriminalJusticeSystem)”,“机器学习的目的不应当仅仅是预测,而是形成一种因果模型,用于帮助人来理解社会”。简言之,犯罪风险评估工具在与机器学习、深度学习等人工智能技术融合之后,应当更加侧重于强调辅助人类进行因果关系的计算与推断。
当代深度学习技术创始人之一、图灵奖得主朱迪亚·珀尔(JudeaPearl)提出机器学习进入应用领域有“适应性”“可解释性”与“因果关系”(推理)三大障碍,目前已经基本上跨过了第一个障碍,在第二个障碍上也取得了一些进展,但是仍然需要努力跨过“因果关系”(推理)的障碍。因果关系在本质上包括三个层次,基本层次是“关联”(Association),中间层次是“干预”(Intervention),最高层次是“反事实”(Counter-Factual),“关联”层次是纯粹的统计问题,一般采用相关性或者回归模型即可确定,“干预”则不能从直接的输入输出关联分析中得到,需要进行更深入的因果计算,“反事实”则是人类独有的思考方式,对不存在的现象进行纯粹的智能加工与分析。在因果计算与推理技术方面,问题的难点在于“在什么环境下,采用什么方式,能够基于观察数据来得出因果关系结构”,这一难点也被称为“从非实验数据中发现因果关系的方法”。针对这一问题,目前的前沿进展包括使用“独立因素分析”(IndependentComponentAnalysis)、使用“贝叶斯网络模型”等技术进行因果关系的计算与推断。
针对人工智能犯罪风险评估“算法歧视”在模型设计层面的问题,应当公开人工智能犯罪风险评估在模型设计层面采用了怎样的计算模型,属于风险预测性质的模型还是因果推断性质的模型,并赋予利益相关用户对上述信息的解释申请权。
人工智能犯罪风险评估的研发过程
从规范与审核的角度来看,规范或者审核的重点并非已经完成开发的算法或者技术成果,而是应当结合我国人工智能犯罪风险评估研发机制与研发实践,从更前置的研发过程规范并审核:犯罪学、犯罪心理学的科学理论与应用技术的融合方式,科学理论向应用技术的转化机制以及验证性评价方式。
首先,如何规范或审核科学理论与应用技术的融合方式?在人工智能犯罪风险评估的研发实践中,经常出现跨学科协作混乱,科学理论与应用技术难以有机融合的局限性。以当前人工智能技术与科学研究前沿实践的融合方式来看,人工智能技术应当与具体的专业研究密切融合,并为专业领域的复杂问题提供辅助支撑是最佳实践方式。以结构生物学研究为例,诺贝尔奖得主克里斯蒂安·安费森(ChristianAnfinsen)早在1972年就指出“蛋白质的氨基酸序列能够完全决定其3D结构”,在药物研发等研究中,蛋白质的功能研究是重点研究的科学问题,蛋白质的功能主要由结构决定。但是传统上依靠实验方法确定蛋白质的结构,时间成本与经济成本均较高。为了解决这一问题,DeepMind研发了AlphaFold人工智能系统,并在2021年进行了迭代升级,升级后的AlphaFold2在国际蛋白质结构预测竞赛(CASP)上实现了精确的蛋白质3D结构预测,堪比高成本的冷冻电子显微镜与磁共振成像等实验技术所得到的结果。简言之,AlphaFold的使用将人工智能技术与具体专业深度融合,针对传统科研中成本较高、难以大规模普及的技术难点着重发力,提升了传统研究的工作效率,是人工智能技术与科学理论、具体专业结合的最佳实践范例之一。具体到人工智能犯罪风险评估领域,科学问题应当以犯罪心理学为视角提出,由多个学科提供支撑。
例如,犯罪心理学常常对同一种犯罪行为存在多种“竞争性解释”,由此造成的问题是如何在竞争性理论中选择犯罪风险评估工具的心理学理论依据?全球领先的“大范围首先”理论的创始人、中国科学院院士陈霖指出借助当前的脑认知成像技术,“定位各个脑区的认知功能及其相互联系,揭示认知功能在大脑的神经表达”,能够为从竞争性理论中寻求依据提供“生物学约束”。简言之,以脑认知成像等生物信息证据为标准,为理论选取提供客观支撑,能够在跨学科协作中解决犯罪心理学存在的“竞争性解释”问题。
再如,犯罪风险评估研究的目的是预测犯罪行为倾向与解释犯罪行为倾向的成因,但是由于实践中的犯罪成因非常复杂、地区与群体等差异性极大,故常常出现“可重复危机”(ReplicationCrisis),由此造成的问题是如何克服这种因复杂性形成的“可重复性危机”?为了应对心理学研究中的“可重复性危机”,马库斯·穆那弗(MarcusR.Munafo)等在《自然》杂志上提出了“三角测量”的应对方案,面对同一个问题,从多种不同的假设出发,综合分析不同假设路径延伸出的解释理论,采用不同的角度获得的证据支撑研究假设,而“强有力的理论是从多条证据线索中综合产生的”。杰克·霍夫曼(JakeM.Hofmman)等在《科学》杂志上提出了复杂社会系统的预测与解释的方法论,强调“必须在复杂的社会系统中,明确(社会)理论在精确预测中的局限性,为预测和解释的对象设定期望”。
其次,如何规范或审核科学理论向应用技术的转化机制?犯罪风险评估理论很难转化为具体的人工智能技术成果。为了解决这一问题,在犯罪风险评估理论与方法转化为计算机系统前,需要完成理论的形式化转化与计算模型、算法的专门设计。犯罪风险评估理论属于社会科学领域的理论体系,更多侧重于搭建“因果规范性网络”,但是在数理的形式化描述和计算模型方面的建构不足。设计智能化犯罪风险评估工具的难点也在于如何将偏重社会科学色彩的理论,转化为计算机可读取、可分析、可计算的数据与模型。借鉴人工智能领域的培养体系,搭建起理论到计算的关键桥梁主要是离散数学理论,在离散数学理论的指导下将理论转化为算法与模型,才能为后续的智能系统开发建立基础。
最后,如何规范或审核验证性评价方式?当人工智能科技成果未经过早期阶段较为充分的社会应用效应研究与验证时,很容易产生不可挽回的社会损失,避免“科林格里奇陷阱”的一个重要措施是进行充分的早期应用效应研究与验证。在我国实践中,功能实现与效果验证一般由负责系统开发的产业机构实施,但是目前产业机构与研究机构均缺乏“人工智能的社会系统分析”,即使用人工智能技术会对应用领域相关的人群产生哪些持续性影响方面的研究。域外为了避免技术广泛应用后出现的不良后果,已经启动相关研究,例如美国伊利诺伊州曾采用人工智能技术生成枪击事件的犯罪风险评估“热力图”预测最可能实施枪击行为的人,但是社会分析表明这一技术“增加了一些人成为警察袭击目标的风险,但是未能降低枪击案件的犯罪风险”。凯特·克劳福德(KateCrawford)等在《自然》上提出应当进行“人工智能的社会分析”研究,“不同的学科与政府部门应当合作调研社区、公共服务等信息,并分析这些差异如何塑造了人工智能训练数据的差异性”;在此基础上应当进一步着重分析“人们在什么时间、什么情况下会更容易受到某种人工智能技术的影响”,并从哲学、法律、人类学等多个学科、多种角度剖析这些技术的应用会带来什么样的社会后果。对应到我国的人工智能犯罪风险评估研究实践中,目前国家已经发布多个国家重点研发计划专项进行系统研发,在国家重点研发计划的应用示范环节,应当增加对所研发的智能化犯罪风险评估系统的应用效应分析,在试点单位对其可能产生的政治、法律、经济、社会、文化等多方面后果进行系统分析与推演,确保新型技术的应用不会走入“算法歧视”陷阱和“科林格里奇困境”。
结语
我国人工智能犯罪风险评估工具的研发已经取得初步进展,为了避免人工智能犯罪风险评估掉入“算法歧视”的陷阱,需要在技术已经出现初步的实践成果与示范,尚未达到规模化应用之前,及时探索人工智能犯罪风险评估的算法规制路径。对我国人工智能犯罪风险评估进行算法规制,应当结合我国犯罪学、犯罪心理学理论,以及犯罪行为、犯罪风险、犯罪风险因子集合等方面的独特性,针对我国人工智能犯罪风险评估理论基础构建的科学性,以及模型设计在风险预测或成因解释方面的侧重性,采用公开或者解释的方法进行算法规制。同时,由于人工智能犯罪风险评估结论很可能影响被评估人的人身权利受限程度,未来应当从更早期的研发阶段、以更加严格的标准审核人工智能犯罪风险评估研发过程与研发机制,从而提升我国人工智能犯罪风险评估的科学性与公正性。
原文链接
刊文推介||人工智能犯罪风险评估“算法歧视”现象及其规制路径《江淮论坛》简介
《江淮论坛》是安徽省社会科学院主管主办的社会科学综合性学术期刊,创刊于1958年,现为国际交流期刊,中国人文社会科学核心期刊,中文社会科学引文索引(CSSCI)来源期刊,全国中文核心期刊。
原标题:《马皑宋业臻|人工智能犯罪风险评估“算法歧视”现象及其规制路径》
阅读原文
涉人工智能犯罪的类型及刑法应对策略
点击上方↑“上海市法学会"关注我们
作者刘宪权系华东政法大学法律学院教授、博导;作者房慧颖系华东政法大学刑法学博士研究生。
内容摘要
在人工智能时代,我们应秉持前瞻性的刑法理念。前瞻性的刑法理念不同于缺乏可靠科学依据的科幻小说,也不能列入“过度刑法化”倾向的范畴之中。我们可以将涉人工智能犯罪划分为现行刑法规定能够规制的、现行刑法规定规制不足的以及现行刑法规定无法规制的涉人工智能犯罪三种类型。针对三种犯罪类型,我们应当分别采取不同的刑法应对策略:完善相关司法解释,将财产犯罪中的“当场性”解释为行为人的行为及其延伸与被害人在同一时空;调整相关犯罪的构成要件,在交通肇事罪等过失犯罪的构成要件中增加智能机器人的设计者或生产者这一主体;完善刑法规定,增设滥用人工智能产品罪和人工智能产品事故罪等新罪名。
关键词:涉人工智能犯罪刑法理念前瞻性思考犯罪类型刑法应对
自1956年达特茅斯会议以来,人工智能技术在半个世纪的时间内取得了突飞猛进的发展,其影响力渗透到人类社会生活的方方面面。人工智能技术在提高人们生活质量的同时,更成为促进社会发展、提升综合国力的重要力量。正如习近平总书记在2018年10月中共中央政治局第九次集体学习时所指出的,“加快发展新一代人工智能是事关我国能否抓住新一轮科技革命和产业变革机遇的战略问题。但我们也应看到,人工智能技术的发展也带来了一系列的社会问题和法律问题,冲击着我们现有的法律体系。2017年9月22日,浙江省绍兴市公安局破获“全国首例利用AI犯罪案”,这是我国首例利用人工智能技术侵犯公民个人信息的犯罪。由此可见,“加强人工智能发展的潜在风险研判和防范,加强人工智能相关法律、伦理、社会问题研究,建立健全保障人工智能健康发展的法律法规、制度体系、伦理道德”,具有重要且深远的价值和意义。
根据人工智能技术的发展程度,我们可以把人工智能时代划分为普通机器人时代、弱人工智能时代和强人工智能时代。其中,普通机器人和弱智能机器人的区分标准在于机器人是否具有深度学习的能力,弱智能机器人和强智能机器人的区分标准在于机器人是否能够在自主意识和意志的支配下,超出设计和编制的程序实施行为。目前,具有深度学习能力的智能机器人已经在诸多领域取得了“卓越”成就,如AlphaGo战胜围棋国手,“智医助理”高分通过医师执业资格考试,人工智能法律机器人在案件咨询比赛中完胜人类律师……毫无疑问,我们现在已经进入了弱人工智能时代。在弱人工智能时代,智能机器人在设计和编制的程序范围内实施行为,不具有独立的意志,其行为体现的是人类的意志。如果人类利用智能机器人实施犯罪行为,抑或是人类在正常使用智能机器人的过程中出现严重危害社会的后果,都会涉及刑事责任的认定和分配问题。为了保障人工智能技术的健康发展、防范相关风险,我们的刑法理念以及刑事立法和司法体系应当适时作出相应的调整和更新,这是人工智能这个“最好的时代”抑或“最坏的时代”不可回避的诉求。
一
人工智能时代应秉持刑法新理念
人工智能时代为人们的生活带来无与伦比的便利,也带来前所未有的风险。应当看到,现有的刑法规定难以妥善解决人工智能时代层出不穷的新问题。为了更好地发挥刑法的保护机能,促进人工智能技术的健康发展和社会的稳定繁荣,我们需要树立前瞻性的刑法理念,建立和完善适应人工智能时代要求的刑事立法和司法体系。
(一)人工智能时代需要革新刑法理念
1986年德国学者乌尔里希·贝克出版了《风险社会》一书,自此“风险”一词成为诠释社会变化发展的关键词。在《辞海》中,“风险”被解释为“人们在生产建设和日常生活中遭遇能导致人身伤亡、财产受损及其他经济损失的自然灾害、意外事件和其他不测事件的可能性。”不可否认,人工智能技术为人类的社会生活带来了极大的便利,“美国亚马逊超级仓库内,无数机器人正在货架间疯狂奔跑;欧洲快餐店内,机器人端着汉堡和薯条7x24小时来去自如;而在南非矿井下,电脑正操作精密仪器,向幽暗处进发……”但是风险实际上与红利成正比,人工智能技术为人类社会带来的刑事风险也在急剧增加。笔者认为,我们可以将现阶段(即弱人工智能时代)涉人工智能刑事风险分为两类:其一为行为人在正常利用智能机器人时产生的刑事风险;其二为行为人利用智能机器人实施犯罪行为的刑事风险。
行为人在正常利用智能机器人时产生严重危害社会结果的情况屡见不鲜。例如,2018年美国亚利桑那州发生了一起Uber无人车撞死行人的事故。时隔不久,一辆开启了Auto-pilot模式的特斯拉汽车撞上高速路旁的隔离带,车主不幸丧生,并引发两车追尾。早在2016年,邯郸一辆处于“定速”状态的特斯拉自动驾驶汽车未能按照程序设定躲避障碍物,从而撞上前车,车主不幸身亡。再如,购物平台通过对消费者购买商品的品种、数量、频率等各种数据的分析整合,为消费者提供个性化服务。这在提升用户购物体验、为用户带来便利的同时,背后也隐藏着侵犯公民个人信息的风险。再如,手术机器人可以运用微创方法,实施复杂的外科手术。但是在英国首例机器人心瓣恢复手术中,机器人把病人的心脏放错位置,并戳穿大动脉,最终导致病人在术后一周死亡。又如,2015年,大众汽车厂的一名工作人员在安装机器人的过程中,被机器人抓住胸部继而压到金属板上,最终这名工作人员不治身亡。此类事例不胜枚举,笔者不再一一赘述。
行为人利用智能机器人实施犯罪行为的情况也层出不穷。例如,犯罪分子利用无人机和红外照相机寻找大麻农场,并操纵无人机实施盗窃大麻的行为。也有犯罪分子给无人机装上手枪、扩音器等装置,在几百甚至几千米外操纵无人机对行人进行抢劫。再如,在“全国首例利用AI犯罪案”中,“犯罪分子利用具有深度学习能力的智能机器人,识别图片验证码,轻松绕过互联网公司设置的账户登录安全装置,给网络诈骗等黑色产业提供犯罪工具。”又如,军事领域的人工智能技术可以帮助完成扫雷等任务,维护人类安全,但是其一旦被恐怖分子利用,则会导致我们设置的各种安全防范措施均告无效等难以想象的恶果。
刑法必须敏感地应对时代变化。面对人工智能技术带来的各式各样的刑事风险,现行刑法规定难以从容应对,我们理应顺应时代需求,树立刑法新理念,调整立法和司法体系。有学者认为,对智能机器人刑事责任和刑事主体地位的探讨纯属无稽之谈,智能机器人本质上只是人类处理某一类具体事务的辅助工具。笔者认为,虽然现阶段的智能机器人仍属于弱智能机器人,只能在人类设计和编制的程序范围内实施行为,体现的是人类的意志而非自身的意志,不具有刑事责任主体地位。利用智能机器人实施犯罪行为时,仍然只能追究利用者的刑事责任,而不可能追究被利用的智能机器人的刑事责任。但我们并不能因此认为,其与普通犯罪对象和犯罪工具无异,从而认为智能机器人的出现对行为人刑事责任的认定并无任何影响。事实上,无论智能机器人作为犯罪对象,还是作为犯罪工具,都有可能对刑事责任的认定产生影响。其一,智能机器人作为犯罪对象时,会对行为人刑事责任的认定产生影响。应当看到,早在普通机器人时代,被赋予部分人脑功能(识别功能等)的普通机器人的出现就会对刑事责任的认定产生影响。以ATM机为例,2008年4月18日最高人民检察院《关于拾得他人信用卡并在自动柜员机(ATM机)上使用的行为如何定性问题的批复》,拾得他人信用卡并在自动柜员机上使用的行为,属于刑法第196条第一款第三项规定的“冒用他人信用卡”的情形,构成犯罪的,以信用卡诈骗罪追究刑事责任。2009年12月3日最高人民法院、最高人民检察院《关于办理妨害信用卡管理刑事案件具体应用法律若干问题的解释》第5条也作了类似的规定。有学者认为,机器是不能被骗的,即机器因为没有意识而不会陷入认识错误,更不会基于认识错误处分财产。在ATM机上冒用他人信用卡的行为应被认定为盗窃罪。而笔者认为,最高检及两高的司法解释将在ATM机上冒用他人信用卡的行为认定为诈骗类犯罪而非盗窃类犯罪,主要原因在于,经过编程后的ATM机,实际上是作为业务人员代表金融机构处理相关金融业务,既然金融机构的业务人员可以成为诈骗罪的对象,经过电脑编程后的ATM机当然也可以成为诈骗罪的对象。换言之,经过电脑编程后的ATM机不同于一般的机械性机器,其具有人脑的识别功能,在作为犯罪对象时,可能会对刑事责任的认定产生影响。当然,笔者同时还认为,ATM机虽然具有部分人脑的识别功能,但因其不具有人的其他功能,所以充其量也只能算作是“机器人”而不能理解为是人。我们将ATM机称之为“机器人”其实还有更深层次的考虑,即如果行为人利用ATM机的识别功能上的认识错误获取钱财的,其行为的性质属于诈骗类的犯罪,刑法将冒用他人信用卡的行为纳入信用卡诈骗罪即为实例;而如果行为人利用ATM机的机械故障获取钱财的,其行为的性质则当然属于盗窃类的犯罪,因为“机械故障”中不存在“人的认识错误”问题。可见,经电脑编程后的ATM机在作为犯罪对象时也会对行为人行为的刑事责任产生影响。当人类从普通机器人时代进入弱人工智能时代,智能机器人具有了深度学习能力,相当于具有了更多的人脑功能,其对行为人所要承担的刑事责任的认定毫无疑问会产生更大的影响。其二,智能机器人在作为犯罪工具时,也会对行为人刑事责任的认定产生影响。当智能机器人作为人类实施犯罪行为的工具时,研发者或使用者之间的刑事责任分配可能会随着智能机器人“智能”的增长而有所不同。例如,对于普通汽车而言,在汽车本身不存在安全隐患,仅因驾驶员违反交通运输管理法规进行驾驶导致发生重大交通事故而构成交通肇事罪的情况下,普通汽车的设计者无需承担刑事责任,而应由普通汽车的使用者(即驾驶员)承担全部刑事责任。对于全自动驾驶汽车而言,汽车的行驶方式、路径全部都由自动驾驶程序控制,车上仅有乘车人而无驾驶员,对于程序本身存在问题(包含全自动驾驶汽车违反交通运输管理法规等)而导致发生重大交通事故的情况,可能就需要由全自动驾驶汽车的设计者承担全部刑事责任。由此可见,在人工智能时代,人工智能技术带来的风险急剧增加,智能机器人会对行为人刑事责任的认定或分担产生影响,不能完全等同于普通的“工具”。
根据“库兹韦尔定律”,技术的力量正以指数级的速度迅速向外扩充。人类正处于加速变化的风口浪尖上,这超过了我们历史上的任何时刻。早在2015年,霍金等人就在公开信中警示人们要防范人工智能技术带来的潜在风险,在进行人工智能技术研究的同时必须采取相应的防范措施。法律在很大程度上是国家为了有意识地达到某一特定目的而制定的。刑法理念及刑事立法和司法体系也应该顺应时代潮流进行调整,以发挥刑法作为“社会最后一道防线”对于社会稳定健康发展的保障作用。人类社会的发展经历了原始社会、农业社会、工业社会、信息社会,现在已经迈入了智能社会。每一种社会形态中的刑法理念和体系都是不同的,这是刑法顺应社会发展潮流的体现。当前我们所处的弱人工智能时代,具有深度学习能力的智能机器人在社会生活的各个方面都发挥着重要作用,已经并将持续对社会形态的发展和演变产生影响。正因如此,我们应当适时调整和革新刑法理念,以达到保障人工智能技术健康发展、防控和治理人工智能技术带来的刑事风险的目的,最终实现维护人类整体利益、促进社会发展进步的目标。这也是在人工智能时代革新刑法理念的意义所在。
(二)人工智能时代应秉持前瞻性的刑法理念
在人工智能时代,我们应树立前瞻性的刑法理念。人工智能时代的刑法规定所立足的技术背景和社会条件都处于急速的变化发展之中。我们必须提前预想到人工智能时代可能发生的刑事风险,并提前想好应对策略。只有未雨绸缪,方可临危不乱。正如2018年11月全国人大常委会委员长会议组成人员进行专题学习时,栗战书委员长所指出的,“人工智能是影响面广的颠覆性技术,其双刃剑效应尤为明显,必须未雨绸缪,加强前瞻预防和约束引导,有效应对技术不确定性带来的新挑战,确保其安全、可靠、可控。”在此,笔者有必要澄清以下两个误区。
误区之一:前瞻性的刑法理念与缺乏可靠的科学依据支撑的科幻小说无异。笔者认为,树立前瞻性刑法理念的目的是解决技术的飞速发展与刑事立法相对滞后之间的矛盾,即为了防止出现刑法无法妥善处置具有严重社会危害性行为的尴尬局面。应当看到,这种尴尬局面在我们初步进入弱人工智能时代的今天已经屡次发生。例如,全自动汽车事故接二连三地发生,已经并将可能继续危害到公共安全、公民的人身和财产安全,但我们目前却并未建立行之有效的法律体系对这些风险进行良好的规制。“我们今天正处于一种大变革的时期,过去的许多行为其传统意义正在蜕变或消失,与此相随不知不觉中行为又被涂抹上新时代的若干色彩;一些过去见所未见、闻所未闻的光怪陆离的新事物也四处滋生。”在此背景下,用以指导刑事立法与刑事司法的刑法理念,毫无疑问也将面临着一个是否需要调整以及如何调整的问题。刑法理念属于意识形态的范畴,其本身是主观的,但是人们最终选择什么样的刑法理念,天然地受制于人们所处的特定时代。笔者建议在人工智能时代树立前瞻性的刑法理念,并非是脱离技术的实际发展水平,凭借主观想象,设立未来的刑事立法和司法体系,而是在洞察和明悉时代背景与技术发展状况的前提下,破解人工智能时代刑罚应对的难题。同时,我们也要防患于未然,在正确理念的指导下,促使科技“向善”,将人工智能技术可能带来的风险降至最低。
误区之二:前瞻性的刑法理念体现了“过度刑法化”的趋势。关于社会治理,学界存在“过度刑法化”的批判,有学者认为过度刑法化是对刑法“谦抑和沉稳品格”的背弃,势必造成刑罚谴责功能的退化,引起社会治理的巨大风险。依笔者之见,前瞻性的刑法理念与过度刑法化趋势是毫不相干的两个事物。两者之间不存在逻辑上的联系。过度刑法化导致的结果是能够采用道德上的谴责、行政或者民事手段规制的具有社会危害性的行为,刑事立法者仍将其规定为犯罪行为。这种因为风险无处不在,所以刑法无处不在的做法,是过度刑法化的主要体现。而前瞻性的刑法理念则不等同于盲目扩大犯罪圈,也不会导致刑罚的泛化使用。前瞻性的刑法理念可以为涉人工智能犯罪的刑法规制预留必要的解释空间和缓冲空间,避免刑法的修改过于频繁。我们应该吸取网络犯罪刑法规制中的相关教训,避免在涉人工智能犯罪规制时再犯类似的错误。“在网络犯罪立法中经常出现这样的情况,当一国的立法经过复杂而冗长的立法程序将某种网络行为纳入本国法律进行规制时,却惊奇地发现该种行为在网络上已经趋于销声匿迹了,代之而起的是新型的、法律尚未关注的行为,法律生效后很快就实质性失效的情况在网络中更易发生。”前瞻性的立法理念可以避免我们重蹈前述网络犯罪立法的覆辙。在应对涉人工智能犯罪时,践行前瞻性的刑法理念,就是我们既需要立足于人工智能技术的发展现状和已经产生的风险,又需要预见到未来人工智能技术的发展趋势和将会产生的风险,从而根据现状适度调整刑法规定,并为应对未来可能发生的刑事风险预留足够空间,使得刑法规定既能应对当前风险,又能适应未来发展,从而增强和延长刑法条文之生命力。同时,需要说明的是,正如在网络时代,传统犯罪大量向网络犯罪转移,随着人工智能技术的发展,许多传统犯罪可能会失去生存的空间,即传统犯罪可能会向涉人工智能犯罪转移,因此,在人工智能时代树立前瞻性的刑法理念并不必然导致犯罪圈的扩大,与过度刑法化趋势更是毫无关联。
二
涉人工智能犯罪的类型划分
正如网络犯罪的本质是犯罪,涉人工智能犯罪的本质也依然是犯罪。涉人工智能犯罪只不过是人工智能时代产生的新样态的犯罪,是人工智能时代的新事物。新旧事物之间的关系从来都是“藕断丝连”而非“一刀两断”的。对于涉人工智能犯罪的研究仍需要以现行刑法规定为切入点和立足点。笔者认为,根据现行刑法规定对涉人工智能犯罪的规制能力,我们可以将涉人工智能犯罪划分为现行刑法规定能够规制的涉人工智能犯罪、现行刑法规定规制不足的涉人工智能犯罪和现行刑法规定无法规制的涉人工智能犯罪三种类型。
(一)现行刑法规定能够规制的涉人工智能犯罪
现行刑法规定能够规制的涉人工智能犯罪,指的是现行刑法条文完全可以规制或者仅需用司法解释明确刑法条文适用范围和方式的涉人工智能犯罪。在处理涉人工智能犯罪时,我们既不能仅将智能机器人当作简单的工具而认为其对犯罪行为的定罪量刑没有任何影响,也不能陷入“工具决定论”的误区而认为利用智能机器人犯罪的行为都比传统犯罪行为的社会危害性更严重。我们仍然应当具体问题具体分析。应该看到,当智能机器人成为犯罪行为的“臂膀”或“羽翼”时,确实会给传统犯罪的实施带来诸多的便捷,但是,从本质上看,智能机器人的存在其实并没有改变传统犯罪的行为方式和结构,因此,我们仍然可以运用现行刑法的规定对之加以规制。即使现行刑法规定得过于笼统或模糊,我们也完全可以通过司法解释加以明确,对此类犯罪行为予以精确、全面评价。
例如,在“全国首例利用AI犯罪案”中,犯罪分子利用智能机器人的深度学习能力,通过编程和训练,让智能机器人掌握有效识别图片验证码的技能。这项技能可以帮助犯罪分子获取用户登陆各个网站的账号和密码。究其本质,这是非法获取公民个人信息的行为,属于刑法第253条之一第三款——“窃取或者以其他方法非法获取公民个人信息”的规制范围,理应按照侵犯公民个人信息罪定罪。又如,杀手机器人的出现,一度引起人们的恐慌。它的可怕之处在于其可以识别各种伪装,精准地搜寻到打击对象并一击即中。这种致命性的自主武器成本低,却威力巨大。但探究其工作机制,我们可以发现,用杀手机器人夺取人的性命,与用刀、枪、棍棒等夺取人的性命并无本质上的不同,都是非法剥夺他人生命的行为,按照故意杀人罪定罪量刑即可。或许会有人提出,如果行为人意图针对的打击目标与杀手机器人最终打击的对象不一致,即杀手机器人实施的行为与行为人预想的行为存在偏差,应当如何处理?笔者认为,这种情况可以用事实认识错误的理论解决。正如行为人放狗咬人,本来希望狗咬死甲,但狗却咬死了乙,狗的“错误”不影响对行为人行为的定性,对行为人仍应以故意杀人罪(既遂)来认定。杀手机器人作为完全受行为人设计和编制的程序控制的个体,其在执行杀人指令时,与上文中所说的狗并无本质区别,因此其所犯的“错误”也不应影响对行为人行为性质的认定。再如,行为人给无人机装上手枪、扩音器等装置,在犯罪现场以外的地方操纵无人机上的装置对被害人进行威胁,要求其交出随身携带的财物,否则就将对被害人的头部进行射击。根据2005年6月8日最高人民法院《关于审理抢劫、抢夺刑事案件适用法律若干问题的意见》,抢劫罪表现为行为人劫取财物一般应在同一时间、同一地点,具有“当场性”。在无人机抢劫的场景中,行为人并未在犯罪现场,其行为似乎不具备成立抢劫罪所要求的“当场性”要件,但应当看到,“当场性”要件的存在,代表着行为人的行为对被害人的人身权利和财产权利能够造成实质危害或者紧迫威胁。利用传统手段进行抢劫时,如果行为人不在犯罪现场,很难达到这个程度。无人机的出现,使得行为人所在的位置和行为实施的位置存在空间上的分离;更有甚者,如果行为人预先设定好抢劫的程序,让无人机自主执行,行为人设定抢劫程序的时间和无人机对被害人进行抢劫的时间也会出现时间上的分离。但这种时空上的分离并未使得犯罪现场中被害人的人身权利和财产权利受到损害的程度或可能性有丝毫减小。换言之,利用无人机进行抢劫虽然出现了行为人行为实施的时空和被害人遭遇抢劫的时空出现了分离,但行为的社会危害性程度并未减小,仍然侵犯了被害人的人身权利和财产权利,仍应按照抢劫罪对行为人进行定罪量刑。
(二)现行刑法规定规制不足的涉人工智能犯罪
现行刑法规定规制不足的涉人工智能犯罪,指的是传统犯罪在人工智能背景下出现了新特点,而现行刑法无法有力应对的犯罪类型。如果把传统犯罪行为比作“走兽”,人工智能技术为其增添“羽翼”之后,“走兽”变成了“飞禽”,虽然其根本属性并未发生改变,但其行为模式发生了巨大变化,我们原来规制“走兽”的刑法规定无法有力规制“飞禽”。在当下的弱人工智能时代,智能机器人的行为受人类设计和编制的程序控制,体现人类的意志和意识,是人类身体和智力的延伸。跟传统犯罪工具相比,由于其不仅是人类身体的延伸,还是人类智力的延伸,因此其“智能”性有时会导致人类原有行为模式的变化。众所周知,围棋机器人(包括AlphaGo、AlphaGoZero等)战胜了世界围棋冠军。围棋机器人是在人类设计和编制的程序支配下实施行为的,但是为其设计和编制程序的研发者本身并不可能战胜世界围棋冠军,而围棋机器人凭借其深度学习能力和快速反应速度可以做到。换言之,围棋机器人的行为来源于人类设计和编制的程序,但可能会超出人类在这一领域的本来能力。这一特征同样出现于全自动汽车、智能医生等身上。由于智能机器人延伸了人类的身体和大脑,其所实施的行为也在一定程度上替代了人类。刑法规定的“行为”有广义与狭义之分,广义上的行为指“人的意思可以支配的具有社会意义的身体的外部态度(动静)”;狭义上的行为指“危害行为”,即由行为人意志支配之下违反刑法规定的危害社会的客观活动。无论采广义说还是狭义说,刑法上的行为都必须是行为人在自主意识和意志支配之下进行的客观活动。“无行为即无犯罪”,行为是对行为人进行定罪和处罚的基础和决定性要件。而智能机器人在一定程度上替代了人类的行为,理论上,也就应该分担一部分本应由人类承担的刑事责任。这就导致了原本以人类承担全部刑事责任为前提构建的刑法体系在处理部分涉人工智能犯罪时力有不逮。
例如,在过去,对于汽车行驶过程中引发的交通肇事(假设驾驶员负事故全部或主要责任),如果是汽车本身质量问题导致的,则应当由汽车的设计者或生产者承担有关产品质量的责任;如果是在驾车过程中违反交通规则导致的,则应当由驾驶员承担交通肇事的责任。目前的自动驾驶汽车,在行车过程中也需要驾驶员的参与,所以我们仍可按照上述的责任分配模式来进行处理。但是当自动驾驶发展到全自动驾驶阶段,即不存在驾驶员,全自动汽车的行驶完全在设计和编制的程序控制之下进行。对于全自动汽车行驶过程中引发的交通事故,如果是全自动汽车本身质量问题导致的,我们仍可按照原有模式,让全自动汽车的设计者或生产者承担有关产品质量的责任;但对于全自动汽车行驶过程中违反交通规则导致事故发生的情况,由于不存在驾驶员,所以我们无法按照原有模式,让驾驶员承担交通肇事的责任。而由于全自动汽车仍属于弱智能机器人的一种,即其只能在设计和编制的程序控制和支配下实施行为,不具备自主意识和意志,不能作为刑事责任主体,不能承担刑事责任。因此本应由驾驶员承担的交通肇事的刑事责任无法转移归全自动汽车承担。在这种情况下,是否可以将本应由驾驶员承担的交通肇事的刑事责任转移归全自动汽车的设计者或使用者承担?如果让全自动汽车的设计者或使用者承担,那么他们承担的是产品质量事故还是交通事故的刑事责任?目前刑法及相关法律法规尚未有明确规定。与之相类似的是智能医生导致的医疗事故的责任承担问题。笔者在此不再赘述。又如,在证券、期货交易市场中,有行为人利用智能机器人超乎常人的反应速度实施操控市场的行为,最典型的便是“幌骗”和“塞单”行为,即申报大量订单后迅速撤销,从中牟取利益。该行为违背了证券、期货市场的“三公”原则,本质上是行为人利用技术优势操控证券、期货市场的行为。根据刑法第182条“操纵证券、期货市场罪”的规定,操纵证券、期货市场的行为是指行为人利用自己手中掌握的资源优势操纵证券、期货交易价格或者交易量。而“资源优势”指的是资金优势、持股优势、持仓优势、信息优势,并不包括技术优势。因此,运用现行刑法中的操纵证券、期货市场罪很难规制利用技术优势操纵证券、期货市场的行为。
(三)现行刑法规定无法规制的涉人工智能犯罪
现行刑法规定无法规制的涉人工智能犯罪,指的是由于人工智能时代的特殊性而出现的在人工智能时代之前难以想象也无需探讨的严重危害社会的行为。这类行为无法用现行刑法规定进行规制,主要存在两种情况:
第一,现行刑法中规定的罪名的构成要件没有涵括人工智能时代的新型行为方式。例如,目前,随着人工智能技术的发展以及人工智能技术与生命科学、神经科学的结合,科学家研发出了人工智能假肢,可以帮助广大的残疾人群体解决肢体残缺带来的麻烦和痛苦。如果行为人损毁与人体配合良好的人工智能假肢,可能会给人工智能假肢的使用者带来巨大的肉体和精神上的痛苦。因此,我们如果仅仅将人工智能假肢作为使用者的财物对待,并进而认为损毁人工智能假肢的行为只是毁坏财物似乎是不妥当的;而如果将人工智能假肢作为使用者身体的一部分对待,则对于损毁人工智能假肢行为的定性似乎会有向侵犯人身健康等角度转化的可能。根据现行刑法中故意伤害罪的规定,只有当行为人故意伤害被害人的躯体并达到轻伤程度时才能构成本罪,损毁人工智能假肢的行为显然不能被认定为本罪。同时随着科技的发展,人工智能假肢越来越廉价,如果单纯按人工智能假肢的价格计算,其价格甚至可能达不到构成故意毁坏财物罪的数额标准,也即现行刑法对行为人损毁他人的人工智能假肢的行为根本无法规制。
第二,现行刑法中缺乏与人工智能时代的新型行为方式相对应的罪名。例如,微软研发的聊天机器人Tay(微软将其设定为19岁的少女),其设计原理是从对话交互中学习。一些不良网民利用Tay的这一学习机制,刻意引导她模仿偏激言论。于是仅在上线一天之后,Tay就因发表种族歧视等言论而被微软公司紧急关闭。微软研发聊天机器人的本意是为用户带来乐趣,但由于受到他人的恶意利用,Tay变成了散布种族歧视言论的“机器”。根据我国刑法的规定,发表煽动分裂国家、颠覆国家政权、暴力抗拒法律实施的言论或者发表煽动民族仇恨、民族歧视的言论等都有可能构成犯罪。试想,如果行为人刻意诱导具有聊天功能的智能机器人发表上述言论,是否可以构成相应的故意犯罪?另外,智能机器人的设计者在为智能机器人设计和编制程序时,并没有设置相应的反制功能(即指智能机器人能够自动抵御不当言论的功能),是否需要承担过失犯罪的刑事责任?如果需要,则相关前置法应如何构建与完善?又如,在2018年俄罗斯世界杯期间,莫斯科的一个酒店提供“机器人妓女”服务,利用智能机器人向游客提供特殊服务。由于这项服务经过政府特别许可,因此是合法的。荷兰政府也拟于2050年之前推出“机器人妓女”项目。应当看到,在俄罗斯和荷兰等国,卖淫行为可以因经政府许可而具有合法性。但是在我国卖淫行为是违法的。如果在我国推出“机器人妓女”项目,相关人员是否会涉嫌组织、容留、介绍卖淫等犯罪?如果答案是肯定的,那么在“机器人妓女”提供的特殊服务与传统意义上的卖淫行为存在本质不同的情况下,将这种行为认定为组织、容留、介绍卖淫等犯罪,是否属于类推解释并为罪刑法定原则所禁止?如果答案是否定的,则“机器人妓女”提供服务的行为是否完全不会妨害我国的社会管理秩序,即其本质上不具有严重的社会危害性?以上问题,根据现行刑法规定,我们根本无法得出确定的答案。
综上,笔者认为,随着人工智能技术的发展,会出现更多的类似问题需要得到解答,因此我们亟需完善现行刑法规定,以适应人工智能时代发展的需求。
三
涉人工智能犯罪的刑法应对策略
如上文所述,我们可以将涉人工智能犯罪划分为现行刑法规定能够规制的涉人工智能犯罪、现行刑法规定规制不足的涉人工智能犯罪与现行刑法规定无法规制的涉人工智能犯罪。针对三种不同的犯罪类型,笔者认为,应当分别采取完善相关司法解释、调整相关犯罪的构成要件及设立新罪名的刑法应对策略。
(一)完善相关司法解释
针对现行刑法规定能够规制的涉人工智能犯罪,可能会存在规定过于模糊的问题,我们需要完善相关司法解释,从而对此类犯罪予以全面、准确评价。例如,对于财产犯罪中涉及到的“当场性”问题,需要结合人工智能时代的特点予以进一步明确。根据2005年6月8日最高人民法院《关于审理抢劫、抢夺刑事案件适用法律若干问题的意见》,抢劫罪中的“当场性”表现为行为人劫取财物一般应在同一时间、同一地点。按照通常理解,“同一时间”“同一地点”应指行为人与被害人同时出现于同一时空中,但是在人工智能时代,由于行为人可以操控智能机器人(如无人机)对被害人进行人身威胁甚至是直接的打击,更有甚者,行为人只要为智能机器人设置好相应的程序,智能机器人就可以自主选择抢劫对象、抢劫时间和抢劫地点,实际的抢劫过程无需行为人参与。以非法占有为目的,实施暴力威胁的情况下,抢劫罪和敲诈勒索的界限之一在于威胁的方式不同。敲诈勒索罪中的威胁可由行为人直接向被害人口头或书面提出,也可以通过第三人间接提出;抢劫罪中的威胁只能由行为人当场向被害人提出。结合上述行为人利用智能机器人实施抢劫的案例,我们可以发现,如果把智能机器人按照程序设定或者行为人的操控对被害人作出的威胁理解为“通过第三人间接提出”,则上述行为应被认定为敲诈勒索罪而非抢劫罪。但事实上,抢劫罪和敲诈勒索罪的上述界限存在的主要原因是,敲诈勒索罪中的暴力威胁不具有当场发生的可能性,而抢劫罪中的暴力威胁具有当场发生的可能性。反观上述案例,利用智能机器人抢劫的场景中,智能机器人(如无人机)上面装配着手枪等装置,随时可以对被害人实施暴力,因此可以说,本案中的暴力威胁具有当场发生的可能性,以敲诈勒索罪认定显然不合法理和常理,而应以抢劫罪来认定。这就需要我们通过司法解释来明确“当场性”在人工智能时代的具体含义。在人工智能时代,“当场性”成立所要求的“同一时间”“同一地点”显然不应是行为人与被害人在同一时空中,而是行为人的行为(包括行为的延伸)与被害人在同一时空中,至于抢劫行为的启动形式在所不论。抢劫行为可能是由行为人直接对被害人实施的(此时行为人与被害人在同一时空中),也可以是行为人操控的智能机器人对被害人实施的(此时行为人与被害人在同一时间但未在同一空间),甚至可以是智能机器人在行为人设计和编制的程序操控下对被害人实施的(此时行为人与被害人既未在同一空间,也未在同一时间)。但无论如何,在利用智能机器人抢劫的场景中,被害人的人身安全和财产安全受到了实际的威胁或实际的侵害,且都是由行为人的行为或者行为的延伸所直接导致的。
(二)调整相关犯罪的构成要件
针对现行刑法规定规制不足的涉人工智能犯罪,我们需要调整相关犯罪的构成要件,将更新之后的行为方式纳入刑法条文的调整范围之内。例如,对于全自动汽车引发的交通事故,在由汽车本身存在质量问题导致事故发生的情况下,应由汽车的设计者或生产者承担有关产品质量事故的责任。但是在由全自动汽车违反交通法规引发交通事故的情况下,应由谁承担责任,法律并未给出答案。根据刑法第133条“交通肇事罪”的规定,本罪的主体是从事交通运输的人员或者非交通运输人员。其中,非交通运输人员是指没有合法手续,却从事正常交通运输的人员。应当看到,在传统的交通肇事罪的构成要件中,能够承担交通肇事刑事责任的是从事交通运输的人员(包括有合法手续的人员和无合法手续的人员)。而在人工智能时代,全自动汽车在行驶过程中,似乎并不存在从事正常交通运输的人员。全自动汽车是在设计和编制的程序控制之下从事交通运输的,汽车上只有乘客而无驾驶员,在乘客没有违反操作规则干预全自动汽车正常行驶的情况下,乘客对交通事故的产生没有任何原因力,不应承担任何责任。全自动汽车是在设计和编制的程序控制之下在道路上行驶的,其之所以违反交通规则,也是在程序支配之下进行的。退一步讲,即使全自动汽车程序发生了紊乱,导致全自动汽车违反交通规则,其根本原因也可以追溯到程序设计和编制中发生的错误或疏忽。由此可见,将全自动汽车违反交通规则造成交通事故的过失犯罪的刑事责任归于全自动汽车的设计者或生产者似乎不应有疑义。但是应当看到,过失犯罪的成立取决于三点:一是违反注意义务;二是对危害结果的预见可能性;三是危害结果发生。毫无疑问,对于全自动汽车造成交通事故的危害结果,无人汽车的设计者或生产者是有预见可能性的。问题的关键在于全自动汽车的设计者或生产者是否有保证全自动汽车遵守交通规则从而避免交通事故发生的注意义务。“根据危险控制原则,未能控制危险的发生,是行为人归责的基础。具体地说,控制危险是行为人的义务,如果行为人有能力避免危险的发生,却未履行控制的义务,以致发生危险的,就应该对此承担刑事责任。”全自动汽车的设计者或生产者在设计和编制程序时,通常是有能力为全自动汽车设置相应程序,从而使其遵守交通规则的,如果其未设置相应程序,使得全自动汽车在行驶过程中违反交通规则引发交通事故,理应承担过失犯罪的刑事责任。在弱人工智能时代,应构建和完善相应的前置性法律法规,明确全自动汽车的设计者或生产者的注意义务,否则对其追究过失犯罪的刑事责任时将缺乏依据。对于智能医生在进行医疗活动时导致的医疗事故的责任承担,与全自动汽车造成交通事故时责任承担的原理类似,在此不再赘述。笔者建议,在人工智能时代,应完善相应的前置性法律法规,明确智能机器人的设计者或生产者的注意义务,在其违反注意义务而使得智能机器人在运行过程中造成严重的社会危害时,可以追究智能机器人的设计者或生产者的过失犯罪的刑事责任,具体路径有如下两种:第一,在如交通肇事罪等过失犯罪的构成要件中增加智能机器人的设计者或生产者这一主体。具体理由笔者已在上文论述,在此不再赘述。第二,扩大传统意义上的承担产品事故责任的范围。将智能机器人的设计者或生产者纳入交通肇事罪的主体之中这一路径的合理之处在于,全自动汽车在交通运输过程中发生交通事故的原因是基于违反交通规则,而不是直接基于全自动汽车产品质量;其不合理之处则在于,全自动汽车的设计者或生产者并未直接参与交通运输活动,而直接参与交通运输活动的是全自动汽车。但是,全自动汽车上因为没有驾驶员,其违反交通规则导致的交通事故又是基于全自动汽车的设计者或生产者在设置程序时存在瑕疵。换言之,构成交通肇事罪这一过失犯罪的前提是违反了“遵守交通法规”这一注意义务,而全自动汽车的设计者或生产者并未直接违反这一注意义务,而只是在设置程序时违反了程序质量的注意义务。因为程序是控制全自动汽车上路行驶必不可少的组成部分,也应被作为产品看待,全自动汽车因违反交通规则而引发的交通事故就变成了由于产品(程序)瑕疵而引发的产品质量事故。如果全自动汽车的设计者或生产者因此而承担相应的产品事故责任,实际上就必然要扩大传统意义上的产品事故责任的范围。为此,刑法似乎应增加相应罪名(笔者将在下文中作详细说明)。当然,“法律不强人所难”,囿于人工智能技术发展阶段与水平的限制,完全可能存在智能机器人的设计者或生产者无法消除的人工智能安全风险的情形。在这种情况下,我们应将智能机器人在运行过程中造成的严重危害社会的结果作为意外事件处理,不应追究智能机器人的设计者或生产者的刑事责任。
针对现行刑法中规定的罪名的构成要件没有涵括人工智能时代的新型行为方式的情况,我们应当完善现有的刑法条文,在其中增加适应人工智能时代特点的新型行为方式。例如,在证券、期货交易市场中,行为人利用技术优势操控证券、期货市场,而技术优势并不属于刑法第182条“操纵证券、期货市场罪”所规定的资金优势、持股优势、持仓优势或者信息优势这四种优势,因此应当采用修正案的方式,在刑法第182条之中增加利用技术优势操纵证券、期货交易价格或者证券、期货交易量这种行为方式,完善操纵证券、期货市场罪的行为方式,适应人工智能时代的需求。
(三)设立新的罪名
针对当前弱人工智能时代出现的新的严重危害社会的行为,我们需要设立新的罪名加以规制。人工智能时代出现的新的严重危害社会的行为可以分为两类:一是行为人滥用智能机器人的深度学习能力,通过对从事正常合法行为的机器人进行训练,使之具备实施严重危害社会的行为的能力;二是智能机器人的设计者或生产者在为智能机器人设计和编制程序时,未履行相应的注意义务,导致使用者在使用智能机器人的过程中发生严重危害社会的结果。
笔者建议,针对第一种情形,应增设滥用人工智能产品罪;针对第二种情形,应增设人工智能产品事故罪。应当看到,在构成滥用人工智能产品罪或者人工智能产品事故罪的同时,仍有可能构成其他犯罪。例如,在“微软聊天机器人Tay案”中,行为人通过对智能机器人Tay进行教唆,使其发表不当言论,有可能构成煽动类型的犯罪(如煽动颠覆国家政权罪、煽动分裂国家罪、煽动民族仇恨、民族歧视罪等),但同时又可以构成滥用人工智能产品罪;在全自动汽车违反交通规则引发交通事故的情况下,全自动汽车的设计者或生产者可能构成交通肇事罪,也可能构成人工智能产品事故罪。笔者认为,出现上述可能适用不同法条的现象是不可避免的。原因在于,在人工智能时代,技术的发展日新月异、一日千里,而刑事立法需要具有相对稳定性,即社会的发展是无限的,而立法者的智慧是有限的,在设立新的涉人工智能犯罪的罪名时,立法者只能尽量出于对一般犯罪的考虑来设定条文,如果立法者对各种具体情况考虑得面面俱到,将会导致刑法条文过于庞杂。对于上述可能适用不同法条的问题,我们应尽量通过刑法条文的完善加以解决;如果涉及到法条竞合的,就应遵循特别法条优于普通法条、重法优于轻法的法条竞合处理原则。其中,滥用人工智能产品罪和人工智能产品事故罪属于普通法条。滥用人工智能产品罪侧重于处罚行为人故意利用智能机器人实施犯罪的行为,而人工智能产品事故罪侧重于处罚行为人由于过失导致严重危害社会结果发生的行为。可见,设置上述两个罪名是适当的前瞻性立法,是平衡人工智能技术发展速度和刑法条文稳定性之后作出的恰当选择。未来当人工智能技术发展到更加成熟的阶段,可以通过司法解释对之作出更为具体的规定。
结语
关于刑法理念和应对策略的探讨,并非形而上的坐而论道,而是由人们身处的社会发展阶段和生产力发展水平所决定的。在目前的弱人工智能时代,智能机器人只能作为人类身体和大脑的延伸,在设计和编制的程序范围内实施行为,实现人类的意志和意识。就目前的人工智能技术发展水平而言,我国现行刑法规定可以规制大部分涉人工智能犯罪,但是需要针对条文规定过于模糊的地方,通过司法解释予以明确,或者通过调整部分犯罪的构成要件,将人工智能时代出现的新型行为方式予以包涵。对于人工智能时代出现的特有的新型犯罪,需要践行人工智能时代刑法的前瞻性理念,增设滥用人工智能产品罪和人工智能产品事故罪等罪名,实现技术飞速发展和刑法条文相对稳定性之间的平衡。
上海市法学会欢迎您的投稿
fxhgzh@vip.163.com
来源:《上海法学研究》集刊2019年第3卷,《人工智能刑事法律理论研究——上海市法学会刑法学研究会文集》
责任编辑:胡鹏沈怡亿
长按二维码
关注我们
我在这里等你哟!
期待您支持在看
论未成年人犯罪的特点原因及对策
霍林郭勒市人民法院刑事庭副庭长陶曼
未成年人犯罪的字面含义是未成年人实施的犯罪行为,我国法律所称未成年人刑事案件,仅指被告人实施被指控的犯罪时已满14周岁的案件。这是因为我国《刑法》第17条前两款规定了“已满16周岁的人犯罪,应当负刑事责任。已满14周岁不满16周岁的人,犯故意杀人、故意伤害致人重伤或死亡、强奸、抢劫、贩卖毒品、放火、爆炸、投毒罪的,应当负刑事责任”,据此,我国的刑事责任年龄是14周岁,未满14周岁的未成年人犯罪不需要承担刑事责任。2016年5月,最高人民法院对2013-2015年各级法院审结生效的100件校园暴力刑事案件进行了梳理,校园暴力犯罪案件涉及的罪名相对集中。针对人身的暴力伤害比例最高,其中,故意伤害罪占57%,故意杀人罪占6%,寻衅滋事罪占10%;性侵、侵财犯罪各占12%,聚众斗殴罪与绑架罪分别占2%、1%,已满十六不满十八周岁的高中生及职高身份的未成年被告人占比较高。这些针对人身的校园暴力行为由于其行为实行主体的特殊性——多为未成年人、犯罪情节的严重性、犯罪手段的恶劣性,加上媒体对案件有关情况的报道、网络对于相关涉案视频的传播,大大提升了社会公众对于未成年人犯罪的关切程度,随之而来的是要求降低刑事责任年龄、对此类行为严惩不贷的呼吁与诉求。这些呼吁与诉求反映出的是社会公众对于当前青少年犯罪问题多发的担忧,以及对此类问题事前预防不足、监管缺位和事后处理不当的愤怒。然而,相比于14周岁以上的犯罪少年,未达到刑事责任年龄的触法少年所实施的刑事违法行为,往往具有更大的社会危害性,其对社会公德和法治价值观的冲击更加震撼。本文将犯罪少年的犯罪行为和触法少年的触法行为统称为未成年人犯罪,从未成年人犯罪的几种常见类型入手,探讨未成年犯罪的成因及预防。
一、未成年人违法犯罪的特征
(一)犯罪主体的低龄化。
未成年人罪犯平均年龄也出现了提前化和低龄化趋势。随着社会物质生活日益丰富多样,食品营养成分的提高,青少年的发育也提前,再加上频繁接受不良文化影响等原因。由于发育年龄提前和20世纪90年代以来未成年人违法犯罪的初始年龄比20世纪70年代提前了2至3岁。近年来,不满14周岁的未成年人实施杀人、强奸、抢劫等严重危害社会的犯罪行为日益增多。
(二)犯罪手段的特点
1.凶残化和智能化。所谓凶残化是指未成年人在作案时,不计后果、残无人道,在犯罪过程中,对被害人没有丝毫同情怜悯之心,有的残害被害人肢体,有的为消灭证据而灭口。所谓智能化,一是指未成年人在犯罪中使用的工具越来越先进。例如在通讯工具上使用手机、对讲机等,在代步工具上使用摩托车甚至小轿车。二是实施高科技犯罪未成年人越来越多的采用一些现代化的技术和手段进行犯罪,例如网络犯罪等。三是未成年人反侦察能力不断增强,实施犯罪之前精心部署,作案后伪造现场,毁灭、转移证据。
2.成人化、专业化。包括有预谋、作案前经过精心策划和充分准备、作案后处理作案现场、掩盖犯罪痕迹等,部分加害人还具备一定的反侦察“技巧”。此次统计的26起案例中,共12起案例符合上述特征。这些案例有的是预谋犯罪,如2016年发生在杭州一工厂职工宿舍的11岁男孩杀害7岁男童案,加害者因被受害者指认“偷钱”而怀恨在心,经过数次踩点观察,选择只有受害人独自在家的时机,以肚子疼着急上厕所为借口,骗开门实施报复。
有8起案例存在抛尸、藏尸等情节。2019年发生大连的13岁男孩杀害10岁女童案中,加害者蔡某在作案后将女童尸体丢弃到小区绿化林,还多次前往受害者家中打探情况。还有一些案件,加害者为掩饰犯罪行为散布谣言误导舆论。2015年湖南衡阳12岁女孩投毒杀害两姐妹案,加害人作案后居然慌称“两受害者是捡垃圾吃导致中毒”。部分案例中,加害者的冷静甚至令办案民警都感到吃惊。安徽枞阳一不满14周岁男生章某偷窃独居老太2000元钱,因担心事情败露索性将老人灭口,案件发生后章某照常上课,甚至在民警了解情况时还“若无其事地询问作业题目”。
3.冲动犯罪占大多数。这类案件占比超过七成,犯罪诱因多属生活琐事,如口角冲突、不服管教、寻求刺激等,这表明低龄未成年人犯罪心理多处于一种不成熟状态,其往往会在好奇、害怕、愤怒等强烈而短暂、爆发式的情绪状态驱使下而实施犯罪。从其对自我行为的认知看,他们并不知晓自身及监护人将面临何种法律责任。比如四川曾发生一起案例,13岁女孩开门撞晕3岁女童,因怕赔钱将其扔粪池致死。个别案件中,法律规定使得低龄未成年人无所顾忌,甚至认为法律是其犯罪的“免死金牌”。
(三)犯罪多为暴力型犯罪。
从犯罪类型来说,暴力犯罪、财产犯罪和性犯罪是未成年人犯罪的主要形式。并且暴力犯罪日益突出,不断向着严重化达到方向发展。公安部通过对20世纪80年代以来未成年人犯罪的研究发现,暴力倾向明显。未成年人因其生理发展迅速,在发育时期便可以获得充足的营养来满足身体发展的需要,通常具有比较健硕的体格。但是,因为他们心理发展缓慢,心智发展得不够成熟,这就导致了他们发展不够成熟的心智驾驭不了他们的身体,再加上外界因素的诱导,比如游戏中的暴力现象,他们往往会产生一些暴力的念头,这在他们犯罪中体现为暴力型犯罪。
此外,在多起弑亲惨剧中,施暴者普遍有法律意识淡薄、反应冷漠等情感特征。湖南沅江少年弑母案中,涉案12岁男孩称“我又没杀别人,我杀的是我妈妈”;衡阳少年锤杀父母案中,涉事男孩嫌弃母亲是智障,并因母亲总在父亲面前批评自己而心生怨恨,表示“我恨我妈,早就想把她给卖了”。这些内容经媒体曝光后,往往对社会伦理道德底线冲击较大。
(四)农村犯罪率比城市犯罪率高。
大量的事实和统计证明我国农村未成年人犯罪率要比城市的未成年人犯罪率高。自从改革开放以来,我国放开了人口流动的限制。农村大量的青壮劳动力都来到大城市谋生,他们为城市建设做出了大量贡献。同时,我们不可忽视的一个事实就是,劳动力的迁移,给中国农村带来了大量的留守儿童。留守儿童,在缺乏父母关爱的环境下成长,容易具有人格社会化的缺陷。其次,从小缺乏父母对他们的管教,他们对自己的言行举止毫不在意,对有些违反道德甚至触碰法律底线的行为浑然不知。他们对管教对法律,对制度,缺乏敬畏之心,这也是他们成为犯罪主体的原因。
(五)未成年人犯罪经历由轻到重的发展过程。
多数未成年人违法犯罪行为都经历了由不良行为到违法犯罪逐渐演变的过程,最初的“小偷小摸”如果得不到及时干预,可能会发展成为严重的暴力犯罪。例如湖南邵东三少年弑师案中,三人多次合伙偷窃,因偷窃校园商店时被发现,害怕老师报警将其杀害。暨南大学少年及家事法研究中心教授张鸿巍指出,一些涉嫌犯罪的低龄未成年人由于未达刑事责任年龄被阻挡于刑事司法体系之外,可能很大程度上掩饰了现实中真正存在的未成年人犯罪实况。18岁前的低总量,往往可能会在18岁以后的统计中出现报复性的急剧增长。
(六)犯罪行为具有模仿性。
在有的青少年犯罪案件中,他们的犯罪手段极为成熟老练。之所以这样,很大部分是从电影、录像、电子游戏和黄色刊物中模仿出来的,还有的是由成年犯、累犯的传授、教唆而来的。
二、未成年人违法犯罪的原因分析
(一)自身因素
未成年人犯罪的发生除了家庭、学校和社会的外因以外,还有其自身生理发育和扭曲心理的作用。未成年人特别是进入青春期的青少年,由于生理机能的迅速发育,会产生旺盛的精力和高涨的情绪,而心理水平却发展不到相对应的水平。未成年人由于缺乏足够的调节能力和控制能力,再加上逆反心理、好胜心理、物质心理和性心理的扭曲,在外界不当因素的影响下,往往会将过剩的精力用到犯罪活动中。遵纪守法是未成年人应尽的法律义务。预防未成年人犯罪,更主要的是要他们自觉学法、知法、守法,树立正确的人生观、世界观、价值观,注重心理健康发展,增强自觉抵制犯罪的法律意识。
(二)其他原因
"人之初,性本善"。按照性善论的观点,未成年人本应是最纯真、最干净的,其走上违法犯罪的道路是家庭、学校、社会和自身综合作用的结果。
1、家庭监护
父母是孩子的第一任老师。家庭是未成年人认识世界,了解社会的起点。原生家庭对未成年人的人格发展起着原发性的作用。"李天一案"是家庭教育失败的典型代表,当其母亲梦鸽一再为儿子辩护的时候,却从不反思正是自己的娇宠放纵造成李天一的目空一切、玩世不恭。此外,家庭的残缺,会使未成年人疏于管理和教育;父母不睦,会使未成年人形成孤独、自卑的性格;教育方式的粗暴,会激起未成年人的反叛心理;缺乏感情沟通,会使未成年人心理问题能不到慰藉;父母的不良作为,更是直接给未成年人提供了反面教材。
"子不教,父之过"。预防未成年人犯罪,家庭教育首当其冲。首先要为孩子营造一个和谐的家庭生活环境,夫妻关系和睦,成员相处融洽;其次要加强自身道德素养建设,以身作则;最后要注重孩子的身心健康,多与孩子相互沟通,一旦发现孩子受到不良风气影响要及时制止,把违法犯罪的念头扼杀在摇篮里。
2、学校教育
学校是未成年人成长的导向标。然而,学校在教书的同时往往忽视了育人的重要性。从当年轰动全网的“黑丝教主”曹小小事件,再到《少年的你》的热播,校园欺凌一直受到社会的广泛关注。正是由于学校对学业成绩的刻意追求,而疏忽了对学生的道德教育,只教书不育人,使得学生产生抵触情绪和反抗心理。同时,学校法治教育的缺失,也使学校自身吃到苦果。从2016年湖南杀师案到2020年西安杀师案,一起起案件使人们震惊之余,更要反思学校在案件中的角色。
因此,预防未成年人犯罪,学校需要发挥主要作用。首先要加强学生的思想道德建设,特别是要加强对差生的积极引导和及时预防,确保从根本上消灭犯罪;其次学校教育应因材施教,动之以情,晓以法理;最后学校要加强学生素质教育,多种方式开展法治教育,是学生知法守法,树立对法律的敬畏和信仰。
3、社会监管
社会环境的影响是未成年人犯罪的催化剂。从前些年的拜金主义、享乐主义,到如今诸多网络平台的歪风邪气,使本来就没有得到良好家庭环境和学校教育引导的未成年人的心理和思想更加歪曲。“15岁少年性侵7岁女童杀人案”的背后是网络色情信息的传播。随着互联网的发达,色情信息的传播很难得到彻底的监管,由色情信息引发的未成年人猥亵、强奸、凶杀类犯罪不胜枚举。此外,如同“14岁少女与男友抢劫杀人案”,未成年人与不法的社会人士的接触,容易沾染上社会的恶习。社会对于未成年人监管的缺失,法治宣传不完善、不到位,给未成年人犯罪带来无穷的后患。
加强对未成年人法治教育是全社会共同的责任。首先要加强对文娱场所的监管,阻断污染源;其次要为未成年人提供提供干净的社会环境,丰富课余生活;最后要通过完善相关法律法规,加强立法对未成年人权益的保护。
三、预防未成年人违法犯罪的对策
(一)未成年人从自身方面提高自我控制能力
作为生理和心理处于健全发展关键时期的青春期,这一时期的未成年人存在对自我的认识和对外部的认知能力不够,意志力不够坚定、容易情绪化、思想不成熟等特征。所以未成年人可以从以下几方面提高自我控制能力:
1、端正自身的学习态度,不仅积极接受来自学校、家庭和社会的良好教育,主要是道德和法律知识,消除各种负面思想对自身的影响,还要积极投身到各种有益的实践中,强化对犯罪活动的理解。
2、增强自我调节和自我控制能力。培养自律能力,避免情绪化和冲动性的言语和肢体行为。通过培养一门运动的习惯或者一种兴趣爱好来锻炼自己的意志力,是一种不错的选择。还要学会在日常学习生活中运用法律法规和道德规范理性的约束自身的言行举止。
3、提高自我认识能力和对外部的认知能力。通过阅读等多种方式提高认知能力,明辨是非,能够抵制诱惑。要塑造正确的三观,做到对事物进行合理的价值判断,坚守法律的底线。
(二)从家庭方面进行预防
从道德上来讲,子不教,父之过。父母作为孩子的第一任老师,家庭是未成年人成长的重要环境。作为家庭中的重要成员的父母有责任管理好和教育好自己的孩子。从法律上来讲,依据我国未成年人保护法的相关规定,父母作为孩子的第一监护人理应正确履行监护职责,教育好未成年人。首先,父母需要在尝试了解子女自身的基础上关心子女的需要,不仅是物质生活方面的需要,更重要的给予他们精神方面的满足。其次,学会尊重子女和平等地跟子女进行有效的沟通。这样遇到问题时,给予子女的建议和劝告才会被听取,才能给予他们正确的指引,教导他们学会担当与责任。最后,父母还要在生活的方方面面中以身作则,据心理学家研究,父母对孩子的心理和言行举止具有重要影响。父母在家庭生活中应当和谐相处,拒绝各种暴力,为子女营造和谐的家庭气氛。学习各种知识,提高自身修养和法律、道德水平,对子女进行言传身教。
(三)从学校方面进行预防
人的一生所要接受的教育主要来自家庭。学校和社会,如果说家庭教育是第一顺位的,那么学校教育则是最重要的。未成年人呆在学校的时间比较长,学校教育对他们的影响也是重要且深远的。一方面,学校要摒弃分数至上主义,重视素质教育。特别要加强对心理教育、思想教育的重视。心理教育有利于教育未成年人了解自我心理状况,克服心理障碍。另一方面通过开展讲座、参观看守所等方式普及相关法律知识,提升他们的价值认知,避免青少年出现错误的思想,积极引导他们遵守国家法律。而且,这样可以强化青少年对犯罪活动的了解也让他们意识到未成年人并不是处于“法外之地”,如果未成年人触犯法律,也会受到法律的处罚,让他们形成对法律的敬畏。
(四)从社会方面预防
面对未成年人犯罪,家庭预防和学校预防是基础,最重要的还是需要社会预防。
1、重视新媒体的作用。由于新媒体具有具体和形象的内容,具有强大的艺术渲染力和感染力,未成年人容易受其影响。因此,要重视新媒体对青少年犯罪预防的作用,特别是当今热门的短视频app便是新媒体的代表。首先,规范处理各种app,借助app强大的信息传播功能,向未成年人宣传法律知识,提高他们的法律意识。其次,下架各种涉黄涉赌的不良app,针对娱乐类型app,应加强监管,并对不规范的app进行处罚和整改。
2、净化互联网环境。当前网络环境充斥着参差不齐的网络信息,因此政府部门和互联网公司应该联手,比如建立相关的专门监督机构、限制未成年人的上网时长、限制未成年人上网浏览的信息类型、降低网络游戏的暴力程度等方式为未成年人上网打造一个绿色健康的互联网环境。
3、整改学校周边的不良场所。学校周边的不良场所以网咖和各种文化娱乐场所为主,对这些场所进行治理,避免社会的不良风气侵蚀未成年人的思想,有利于预防未成年人犯罪。
梁启超先生在少年中国说曾说:“少年强则国强,少年独立则国独立,少年自由则国自由,少年进步者则国进步。”未成年人作为祖国的花朵,承载着社会和民族的希望。如何预防未成年人犯罪和保护未成年人的健康成长是社会治理中的重中之重。由于未成年人犯罪的原因不是单一性而是综合性的,因此需要家庭,学校和社会各的力量界联合起来,把未成年人犯罪的预防和原因对应起来,有原因,有对策,这样才能更好地守护未成年人的成长。
人工智能犯罪的理论与立法问题初探
随着人工智能技术的发展和完善,其智能水平和社会意义也愈发彰显。美国国家科学技术委员会、美国网络和信息技术研发小组委员会2016年10月公布的《美国国家人工智能研究和发展战略计划》指出,AI系统在专业任务上的表现经常胜于人类。AI首次超越人类表现的主要里程碑包括:国际象棋(1997年)、Trivia(2011年)、Atari游戏(2013年)、图像识别(2015年)、语音识别(2015年)和Go(即AlphaGo围棋,2016年)。人工智能的社会应用也愈发广泛,如在医疗领域、人工智能软件特别是包含机器学习的软件、其提供了无需基于规则编程的数据学习的能力、可以简化将微量元素从初始化到市场化的过程{5}。目前其应用领域包括博弈、自动推理与定理证明、专家系统、自然语言理解、模拟人的性能、规划与机器人、AI语言和环境、机器学习、神经网络与遗传算法、AI与哲学等{6}。我国也正在逐步推广和应用人工智能,其普及和发展已经在相当程度上改变着社会的发展和人们的认知。
但是,人工智能的发展也伴随着莫大的风险。如美国自动驾驶汽车特斯拉频频出事故:2016年5月间,在佛罗里达的一条高速公路上,一辆开启了Autopilot模式的特斯拉发生了车祸,致驾驶员死亡;2016年6月至8月间,特斯拉的自动驾驶汽车也屡屡发生车祸造成车主与其他人员伤亡。2016年9月,央视《法治在线》栏目曝光了特斯拉自动驾驶在中国出现首例死亡事故,特斯拉处于“定速”的状态,并未能识别躲闪而撞上前车。而2015年7月英国《金融时报》报道的大众机器人“杀人事件”中,大众承包商的一名工作人员不幸身亡,事发时其正与同事一起安装机器人,但机器人却突然抓住他的胸部,然后把他重重地压向一块金属板,最终导致这名工作人员因伤重不治身亡。新技术经常引起公众的焦虑,但人工智能进步带来的影响尤为显著{7}。就人工智能的风险,2015年霍金等签发公开信,警告称在进行人工智能研究的同时必须相应地采取防范措施,避免人工智能给人类社会造成潜在伤害。公开信指出:在短期内,人工智能技术将让数百万人失业。在长期内,人工智能可能潜在地让机器的智商远远超过人类,做出违背编程的举动。而在社会层面,如何从法律特别是刑法角度思考和回应上述风险也正是需要思考的问题。
2.人工智能的刑法命题
风险社会的发展变迁是现代刑法所必须面对的社会现实。自德国学者乌尔里希•贝克1986年出版《风险社会》一书以来,“风险”成为理解和诠释社会变迁的一个关键性概念,“风险社会”随之也成为解释世界的全新范式{8}。在这一过程中,风险社会的到来无疑对于刑法理论与实践产生了巨大的影响。由于风险的增大和嬗变,风险社会中公共管理的基本方略发生了重大变化,根除风险几乎已经不可能,如何防控和分配风险成为社会管理的新命题,刑事立法与实践的导向也因此发生重大变化。据此,有学者提出通过制度规范适应变动的社会是现代社会的法律传统{9}。而在风险社会的逻辑支配下,一种新的刑事法律体系和一种新的刑法理论应当而且必须建立{10}。有学者已将人工智能的风险延展至风险社会的范式下予以研究:认为人工智能的首要问题是安全问题,可以置于风险社会理论的研究范畴之中。进而指出人工智能时代的社会风险具有以下特点:一是风险的共生性;二是风险的时代性;三是风险的全球性{11}。
纵观世界各国,关于人工智能法律及相关规则体系的探索正在进行之中。决策者和学者正在越来越多地关注法律和道德秩序如何适应愈来愈多的机器、机器人和人工智能设备的问题{12}。立法者、法院和监管者都需要思考人工智能是否有任何特殊性以至于需要新的规则,以及如何以合适的方式介入人工智能新问题{13}。即需要回应这样一个全新命题——现有的法律条文是否可以应付人工智能带来的全新和技术复杂的挑战?2016年5月,欧盟议会法律事务委员会发布《就机器人民事法律规则向欧盟委员会提出立法建议的报告草案》(DraftReportwithRecommendationstotheCommissiononCivilLawRulesonRobotics);同年10月,发布研究成果《欧盟机器人民事法律规则》(EuropeanCivilLawRulesinRobotics)。2016年12月,电气和电子工程师学会(IEEE)发布《合伦理设计:利用人工智能和自主系统最大化人类福祉的愿景》(IEEEEthicallyAlignedDesignDocumentElevatestheImportanceofEthicsintheDevelopmentofArtificialIntelligenceandAutonomousSystems),具体包括8大主题,即一般原则、将价值观嵌入自主智能系统、指导伦理研究和设计的方法论、通用人工智能和超级人工智能的安全与福祉、个人数据与个人访问控制、自主武器系统、经济和人道主义问题以及法律。在(人工智能)自动驾驶领域,2016年3月23日,联合国关于道路交通管理的《维也纳道路交通公约》获得修正;美国道路交通安全管理局(NHTSA)于2013年发布《自动驾驶汽车的基本政策》;德国立法机构2016年对《德国道路交通条例》所规定的“驾驶员在车辆行驶过程中全程保持警惕”“驾驶员的手不能离开方向盘”等条文启动立法修正{14}。但是迄今为止,关于人工智能犯罪的立法还处在探索阶段。
与此同时,人工智能犯罪却已成为必须面对的现实问题。2016年荷兰人JeffryvanderGoot编写了一个Twitter木马程序,借此对当地的时尚秀发出死亡威胁。该木马是一段算法随机混入Jeffry个人Twitter状态。Jeffry坚称他无意威胁任何人,也不能预判木马会做什么。最终他没有受到任何指控,仅是在警方的要求下撤下了该木马。同年,在全球领先的信息安全系列活动BlackHat(黑帽大会)上,美国国防高级研究计划局让自动化系统相互对抗,找到对手代码中的漏洞并利用它们。如果相互对抗的自动化系统指向涉及国家安全等重要领域的计算机信息系统,那么无疑会转化成相关的计算机犯罪。而且,我国也出现了人工智能相关犯罪案件。在“全国首例利用AI犯罪案”中“他们通过运用人工智能机器深度学习技术训练机器,可以让机器如AlphaGo一样自主操作识别,有效识别图片验证码,轻松绕过互联网公司设置的账户登录安全策略,给网络诈骗、‘黑客’攻击等网络黑产提供犯罪工具。”在我国引入和学习人工智能的过程中也不可避免地遇到人工智能犯罪问题,然而对其如何理解和解决目前还缺乏相关的研究。
笔者认为进行人工智能犯罪问题研究的必要性有以下3点:第一,信息网络犯罪本就存在较大的犯罪黑数(即未被查证的犯罪数量),“全国首例利用AI犯罪案”仅是首例被发现的人工智能犯罪案件,很可能不是首例发生的人工智能犯罪案件,而且随着我国人工智能技术和实践的发展,相关案件肯定会愈来愈多,确有必要早关注、早研究、早治理。第二,人工智能犯罪不仅在内容上不同于传统犯罪和一般的信息网络犯罪,而且由于介入了人工智能的判断与行为,在主体等问题认定上为既有刑法理论提出了全新的难题,也必须予以深入研究和探讨。第三,在全球网络化的今天,跨国家、跨法域犯罪十分普遍,人工智能犯罪往往和计算机信息系统和互联网关联,完全可以由他国主体对我国主体予以实施,如果国内刑法理论与立法缺乏必要的准备与实践,那么很可能导致无法对他国主体利用人工智能实施的犯罪(如前述利用自动化系统相互对抗)予以规制,从而无法实现我国《刑法》第八条所规定的保护原则。由此,及时、果断地进行人工智能犯罪研究具有重要的理论和实践价值。
二、人工智能犯罪的理论难题
人工智能犯罪由于人工智能的介入使得其中各个要素之间的关系更为复杂,也对既有的刑法理论产生较大的冲击,特别是对于既有的刑事主体理论提出新的挑战,进而延展至罪过理论和行为理论。
1.主体难题:人工智能的刑法地位
人工智能的主体难题是其刑法命题的根本所在。随着人工智能的发展,其智能的发展程度和独立性也愈发突显。虽然人工智能不免受预设程序的要求与目的影响,但是并不意味着人工智能不具有相当程度的独立性。如“微软聊天机器人Tay散布种族主义、性别歧视和攻击同性恋言论”案件中,Tay是微软2016年在Twitter上推出的聊天机器人,仅上线一天,Tay就开始有一些种族歧视之类的偏激言论,微软不得不紧急关闭了Tay的Twitter账号。Tay的设计原理是从对话交互中进行学习。于是一些网友开始和Tay说一些偏激的言论,刻意引导她模仿。该案也被称为“2016年人工智能的10大失败案例”之一。以我国语境为参照,发表特定言论可以构成犯罪(如散布危害国家安全、恐怖主义、诽谤他人等言论),如果他人诱导人工智能散布相关言论该如何认定?特别是该人工智能是基于自身的“学习”并“发表”以上言论该如何认定和处理?
在传统刑法领域,只有自然人才是刑法规制的主体。行为是生物的基本特征,在某种意义上可以把行为与生命相提并论,没有行为也就没有生命。刑法中的行为,虽然是一种犯罪的行为,应当受到刑罚处罚,但它仍然具有人的一般行为的特征{15}。刑事古典学派与刑事近代学派虽然观点上大相径庭,但是其思考起点并无二致,如龙布罗梭的“犯罪认定型说”(生来犯罪人论)虽否认人具有自由意志,但认为犯罪人比起其他非犯罪人较为退化、原始和野蛮,此现象成为隔代遗传或祖型重现{16}。即便是后来的刑法理论也一直秉持自然人作为刑法的首要甚至唯一规制对象这一前提,如“新社会防卫论”则在尊重人的价值与权利的前提下考虑犯罪人的复归,将人视为社会防卫的目的{17}。而刑法的规制主体如果是机器人,那么这将面临两个基本的问题:其一,刑法要能保证道德主体的权利;其二,机器人应该遵守刑法上的义务{18}。而现阶段人工智能显然不具备自然人的特征,在其世界里只有“0”和“1”构成的信息及其处理,不仅在实施犯罪的前提与依据上存在障碍,在事后的处罚层面也面临无从下手的问题。就此而言,人工智能并不能作为传统体系的适格主体进入刑法视野。但同时,如Tay基于自身“学习”而后发表偏激言论的行为却又在相当程度上脱离于设计者的意思,该如何对其主体性予以看待仍有待思考和研究。
2.罪过难题:人工智能犯罪的主观方面
人工智能的一些独立判断和决定也带来了罪过认定的难题。随着人工智能的发展,机器人逐渐能够从周围环境的刺激中学习,并从自己的行为中获得知识和技能,进而使机器人会越来越难以被它们的用户和设计师预测。国外学者进而指出,我们必须确定机器人的意图,因为其可能影响对机器人惩罚的正确性,所以应首先分析刑法(而不是民法)领域的原则、规则和概念{19}。如在“JeffryvanderGoot案”中,他所编写的木马程序脱离于本人的预判和控制,对于木马“独立”发动的攻击行为的主观方面该如何予以考量?再如BBC地平线系列纪录片《寻找人工智能》(BBCHorizon:TheHuntforAI(2012))所报道的针刺机器人,机器人会根据自己的判断是否会刺伤人的手指,对于其行为的主观方面该如何认定?人工智能所带来的主观方面认定的难题已经成为现实。
这里需要说明“Tay案”与“JeffryvanderGoot案”的区别:Tay案完全基于人工智能的自主学习而发表偏激言论,不存在教唆或就发表偏激言论的相关指令,其行为系人工智能自身学习而后实施,故关注重点在于人工智能的主体性;“JeffryvanderGoot案”和针刺机器人系自然人赋予人工智能就侵害行为一定的决定权,而人工智能自行决定是否实施侵害,因而重点在犯罪的主观方面。
一直以来,只有自然人的主观罪过才进入刑法的视野。现代刑法的主观罪过理论确立了人的主体性以及自由、平等及相关权利,(自然)人成为主体与客体两分的二元世界的主导,(自然)人的独立意志成为权利、义务、责任包括处罚的前提基础。构成这一思想的核心是主张尊重理性的观点。人根据自己的理性,能决定自己的行为{20}。如费尔巴哈的心理强制说认为,人具有追求快乐、逃避痛苦的本能。为了防止犯罪,必须抑制行为人的感性的冲动,即科处作为害恶的刑罚,并使人们预先知道因犯罪而受刑的痛苦大于因犯罪所能得到的快乐,才能抑制其心理上萌生犯罪的意念{21}。其后,费尔巴哈的观点虽经扬弃,但是人的自由意志一直作为刑法罪过理论的重要基石。如有学者指出,意志自由,这里主要是指相对意志自由是罪过心理的基础,而罪过心理是一个犯罪构成的问题。因此,建立在意志自由之上的可归责性应当是犯罪构成的题中之义{22}。黑格尔甚至还将自由意志纳入了法益侵害的层面予以理解:当人侵犯了具体意志的存在,侵犯了人的自由意志,违背了抽象法的时候,人就构成了犯罪{23}。而人工智能的“意志”又和传统刑法理论中的意志自由有所区别,既包括意志主体方面,也包括意志依据方面。人工智能的“意志”并非来源于天赋人权,而是来源于预设的程序和指令,但是其可以根据预设的程序和指令自行决定一定的行动,并可能导致一定的社会后果,二者的前提和讨论范围均不一致。所以前述理论并不能够为人工智能基于独立判断和决定所实施侵害的主观方面认定问题提供有效的阐释依据。
而且这一问题还有必要结合人工智能的不同形态予以研究。人工智能可以分为强人工智能和弱人工智能。强人工智能的观点认为未来能够真正制造出能进行推理和解决问题的智能机器,这种智能机器像人一样有知觉和意识。而弱人工智能的观点认为,智能机器只是看起来像是智能的,它的智能只是表面的、非实质性的,不会像人类一样真正拥有智能和意识{24}。虽然目前这一争论尚无最终的定论,但是两个层面的人工智能已经出现:第一个层面是比较低级的人工智能,即只是在特定领域、特定用途的智能化,人工智能不具备独立的判断与决定能力;第二层面是比较高级的人工智能,人工智能具备一定独立的判断与决定能力。如果说前者的人工智能犯罪主观方面问题可以借助传统的计算机犯罪范式予以阐释,后者的人工智能犯罪主观方面问题则需要进行新的研究和探讨。
3.行为难题:人工智能犯罪的客观方面
人工智能犯罪也为犯罪客观方面的认定提出新的命题。从行为层面,人工智能犯罪可能涉及以下2种类型:第1种类型为人工智能本就应用于社会之中,由于人工智能出现问题或者其他原因产生危害社会的后果。如前文所述的特斯拉自动驾驶导致交通事故等严重后果的情形。在这种情形中人工智能本身用途无害,但是客观上造成了法益侵害,这也是学界已经关注和研究的情形。如有学者对其再予展开,认为机器人致人损害有两种情形:一是侵权人对智能系统进行非法控制而造成的损害。例如,黑客、病毒等人为因素侵入互联网,进而控制人类家庭的儿童看护机器人、助老机器人、护士机器人或其他智能系统,由此导致危及人类的后果。二是智能系统自身的产品瑕疵而造成的损害{11}。第2种类型为人工智能被直接用于犯罪。如在“全国首例利用AI犯罪案”中,其通过人工智能将OCR文本识别技术用于非法获取个人信息,人工智能被直接用于犯罪目的。
在传统意义上,刑法中的行为只能是人的行为。如有学者指出,刑法上的行为,是指行为主体实施的客观上侵犯法益的身体活动。首先,行为是人的身体活动,包括消极活动与积极活动。其次,行为上必须是客观上侵犯法益的行为,这是行为的实质要素{25}。并以此区别犯罪行为与天灾等造成现实侵害的事件,从而明确刑法所规制的行为界限。然而人工智能犯罪中的行为却正是在两者之间:第一,人工智能的“行为”并非自然人所直接发出的,有些甚至并非自然人所直接指令其发出的(如“JeffryvanderGoot案”),人工智能的“行为”在归因于自然人的过程中存在一定障碍。第二,人工智能的“行为”又与自然人有一定的关联,自然人纵然不直接指令人工智能实施一定的“行为”,但是至少会对人工智能的模式和范式做出设定。由此,如何认定自然人行为与人工智能“行为”的性质与界限是刑法理论必须思考的问题。
前述人工智能犯罪可能涉及的两种情形更深化了这一问题:就第1种情形而言,自然人并非积极追求人工智能所造成的危害后果,甚至自然人所设定的人工智能运行规则是有益于社会的,那么对人工智能本身的“行为”可否追责?比如自动驾驶的特斯拉汽车交通肇事,在犯罪层面该如何认定“交通肇事行为”?其与自然人相关行为的关系如何,自然人的行为是否涉及监督过失等问题?就第2种情形而言,人工智能被用于犯罪目的,然而人工智能的“行为”不符合前述传统理论的行为标准,那么是否应当、可以直接归因与归责于自然人?比如“全国首例利用AI犯罪案”中,虽然在侵犯计算机信息系统安全的整体框架下可以直接追究自然人的刑事责任,但如果其中自然人并未直接以行为的方式侵入计算机信息系统,从行为外观上更像是制造侵入计算机信息系统的工具,是被制造的“工具”自行识别验证码和侵入计算机信息系统。如果该案中的情形尚可通过对实行行为扩大解释予以解决,那么“JeffryvanderGoot案”中人工智能基于其判断所实施的“行为”又该如何和相关自然人相区别?这些问题尚需要细致的探讨和研究。
三、人工智能犯罪的刑法理论立场
刑法理论具有时代性,其总需要与特定历史发展阶段的犯罪治理相适应。就人工智能犯罪相关的理论而言也不例外,也需要基于人工智能犯罪发展乃至社会发展的阶段来构建和展开。在现阶段人工智能的发展已经在相当程度上挑战着既有传统理论,但同时人工智能的独立性仍然较为有限,基于此,应在发展和适用传统理论的基础上推动人工智能犯罪主体问题的解决,进而推动罪过、行为等方面问题的解决。
1.当下路径:坚持以自然人为中心
关于人工智能刑法立场的讨论应基于人工智能发展现状以及人工智能犯罪的现状。前文已述人工智能有弱人工智能与强人工智能的划分,目前的人工智能总体而言还属于弱人工智能的阶段。有学者认为,与人类主体的社会和文化属性不同,AI的本质属性是自然性和机械性。AI复制和强化了大脑思维的物质基础和局部功能,它只是执行人类指令而并不考虑社会意义、社会责任和社会后果,也就不能形成主体真正的实践活动和社会属性{26}。虽然这样的论述有否定人工智能未来智能性发展之嫌,但是总体而言现阶段人工智能的发展仍未能全面突破这样的论断。即人工智能的发展目前整体上仍处于弱智能(WeakAI)阶段,对其界定仍然是以机器——物来定义的{27}。
刑法理论和实践的发展要与社会发展的阶段相适应,人工智能犯罪领域也不例外。比如根据(人工智能)现有技术不能提供可能的充分安全保障或可以被要求的安全措施,那么能否普遍适用关于损害的赔偿责任尚不能肯定{28}。而在现阶段,不同于其他产品和发明,人工智能没有人的完全控制,不能完全规划和掌握相关的风险{29}。从主体承担责任的前提来讲,相关实体必须至少有能力认识到自己行为的道德后果,并且能够独立行动{30}。也有学者从其物理形态(机器人)来解读人工智能(体),认为机器人不是具有生命的自然人,也区别于具有自己独立意志并作为自然人集合体的法人,将其作为拟制之人以享有法律主体资格,在法理上尚有商榷之处。模拟和扩展“人类智能”机器人虽具有相当智性,但不具备人之心性和灵性,与具有“人类智慧”的自然人和自然人集合体是不能简单等同的{11}。在主体层面,如果要使人工智能成为独立的责任主体,需要人工智能的高度发展与完整责任主体的转型发展,在现阶段条件尚不够成熟。所以有学者指出,德国关于经济企业可罚性的深入讨论已经非常清楚地表明,目前的刑罚体系并不适合非人类的对象{31}。基于以自然人为中心的刑法立场,对于既有理论予以发展和延伸,才是当下人工智能犯罪的应然路径。具体而言,可从以下方面发展既有理论:
第一,间接故意理论。传统上,我国刑法学界对于间接故意的理解是从认识因素和意志因素两方面入手:在认识因素上,是“明知会发生危害社会的结果”;在意志因素上,则表现为“放任”的心理{32}。间接故意是介于故意与过失之间的罪过形态,在性质上间接故意与直接故意同属于故意的范畴,但是其在认识因素与意志因素层面又不同于直接故意。对于“JeffryvanderGoot案”和“针刺机器人案”,对其中自然人的主观方面可以通过间接故意进行有效评价——行为人对于人工智能是否造成损害结果持放任态度,既不积极追求,但是也不反对,符合间接故意的认识内容和意志内容。而且,这样也不会对既有罪过理论产生过大的冲击。传统意义上,间接故意的行为是自然人实施的,只不过行为人对自己行为的后果持放任态度,而在以上思路中自然人的行为指向的是人工智能,对人工智能行动的后果持放任态度,客观上扩展了间接故意的辐射范围,使之适用于人工智能犯罪。也有学者指出,间接故意犯罪的存在范围在以往的著作中向来是不明确的{33}。本身间接故意作为一种中间形态,也是为了解决介于直接故意与过失之间罪过形态的思路,发展间接故意理论以解决人工智能犯罪的理论难题具有适当性。
第二,监督过失的理论。过失理论经历了旧过失论、新过失论、新新过失论的争论,并加入被允许的危险与信赖原则、监督过失等内容,形成了丰富的理论体系。其中与人工智能犯罪关系最密切的为监督过失理论。监督过失就是有义务监督被监督人在行动时不发生错误的责任,其具体内容为事前的指示、提示、指挥、命令,行动中的监督或事后的检查{34}。监督过失责任并不是让监督者承担被监督者的责任,不是代位责任,而是让监督者承担自己因监督过失而必须承担的责任,监督过失责任与其他责任形式一样,具有直接性{35}。基于此,可以直接对负有监督义务的自然人予以处罚。但是在传统意义上,无论监督者还是被监督者均需为自然人。监督过失还分为广义与狭义之分,广义的监督过失还包括管理过失。所谓管理过失,是指由于管理者没有建立相应的安全管理体制或者建立的安全管理体制不完备,或者对自己管理、支配范围内的危险源管理不善而直接导致危害结果发生的情况,如管理者没有制订健全有效的安全管理制度,没有尽职尽责地配置、维护好各种设备,没有做好统筹的人事安排,或者对自己管领支配力范围内的事务管理不当等{36}。如果从不涉及自然人主体的角度似乎管理过失更适用于人工智能犯罪,不过笔者认为监督过失是对一定主体对象的监督,而管理过失则是对于管理制度或危险物品疏忽的行为。从自然人和与其相关的人工智能关系来看,理解为监督关系更为恰当。比如特斯拉人工智能驾驶汽车,车主对于汽车并没有实际的管理和控制,汽车的运行系人工智能所控制,其罪过层面理解为监督过失更为妥当。所以对于监督过失理论予以发展,使其被监督者从自然人扩展到人工智能对象更为妥当。
第三,直接因果关系理论。因果关系理论是犯罪客观方面之中非常重要和内容丰富的理论范畴。因果关系的一个重要分类就是直接因果关系与间接因果关系。没有介入其他原因,只有一个因果环节的,就是直接因果关系;介入了其他原因,有两个以上因果环节的,就是间接因果关系{37}。而人工智能犯罪往往是自然人作用于人工智能,人工智能又基于其行动导致一定的危害后果。这又可以分为两种情形讨论:第1种情形,人工智能程序本身设定了固定的运算结果。比如“全国首例利用AI犯罪案”中,“快啊”打码平台所运用的人工智能本身指向识别验证码以实现非法登陆。第2种情形,人工智能程序本身仅设定了或然的运算结果。如前文所述“JeffryvanderGoot案”和“针刺机器人”。但无论哪种情形,在自然人行为与危害结果之间均介入了人工智能运算,从形式上看不是简单的直接因果关系。笔者认为,应对直接因果关系的涵射范围予以扩展,将包括人工智能中间环节的过程纳入直接因果关系流程的范围,使其涵盖上述两种情形,从而有效规制人工智能犯罪。这种理论扩展到共同犯罪的视野下更为必要,如“全国首例利用AI犯罪案”中,“快啊”打码平台则收取“深加工”费用,以一组信息加工费15元计,50%被分给了制作撞库软件的人,50%被平台开发商李某和杨某平分。其中的行为人未必全部接触人工智能、未必对于全部危害结果有预见,而且在此情况下直接因果关系理论更可以和共同犯罪中“部分行为全部责任”的原理相契合。
2.未来展望:人工智能的刑法拟制可能
未来人工智能犯罪的规制首先要回归到人工智能发展可能性的问题上。“图灵测试”对照一个人度量来检验智能机器的性能,论证了智力行为最好且仅有的标准。如果询问者不能区分出人和计算机,则按图灵的论证,可认为机器是智能的{6}。在此基础上,关于强人工智能的可能性学界也曾有争论。如JohnSearle认为即使有机器通过了图灵测试,也不一定说明机器就真的像人一样有思维和意识{38}。也有哲学家持不同的观点。DanielC.Dennett在其著作《ConsciousnessExplained》中认为,人也不过是一台有灵魂的机器而已,为什么我们认为人可以有智能而普通机器就不能有呢?他认为像上述的数据转换机器是有可能有思维和意识的{38}。而且现实层面这种可能也在逐渐发展:人工神经网络具有自学习和自适应的能力,可以通过预先提供的一批相互对应的输入—输出数据,分析掌握两者之间潜在的规律,最终根据这些规律,用新的输入数据来推算输出结果,这种学习分析的过程被称为“训练”{39}。即人工智能所采取的分析和决定机制虽然带有一定的机械性,但是足以包含一个主体的进行判断和行为的实质要素。也有学者从人工智能的实体Agent(或译为“艾真体”)的角度予以论述,认为Agent的强定义从Agent的精神状态出发,除了要求Agent具有弱定义的特性外,还要求Agent具有拟人的特性,如信念、意志、情感等。Shoham认为Agent还可以具有的特性有:移动性(Mobility)、真实性(Veracity)、仁慈性(Benevolence)和合理性(Rationality){40}。机器人伦理研究员KateDarling将“社会机器人”定义为“在社会层面上与人类沟通和互动的物理实体智能体”{41}。人工智能的实体化为其全面进入刑法视野提供了可能。
人工智能所带来的法律变革正在进行,为其进入刑法视野奠定了基础。主要包括以下3个方面:
第一,人工智能主体资格的肯认。AI有可能在某种程度上赋予类似于人类的道德考量{42}。从法理上讲,人类的意志自由作为处罚的假定前提,这一前提在道理上也可以适用于机器人{43}。有学者进而指出,未来的自主智能机器将有能力完全自主行为,不再是为人类所使用的被动工具;虽然人类设计、制造并部署了它们,但它们的行为却不受人类的直接指令约束,而是基于对其所获取的信息的分析和判断,而且,它们在不同情境中的反应和决策可能不是其创造者可以预料到或者事先控制的。完全的自主性意味着新的机器范式为:不需要人类介入或者干预的“感知-思考-行动”{44}。有学者甚至认为人工智能是特殊性质的法律主体,其是人类社会发展到一定阶段的必然产物,具有高度的智慧性与独立的行为决策能力,其性质不同于传统的工具或代理人{45}52。从未来而言,上述情形完全可能出现。《AIonAI机器人法》(ArtificialIntelligence-on-ArtificialIntelligence(AIonAI)Laws)比照《世界人权宣言》第1条的规定做出如下表述:所有机器人都具有与人类相当的理性和良心,并应以兄弟关系的精神相对待{46}。人工智能主体资格正在逐步走向现实化。
第二,人工智能行为社会意义的赋予。法律所调整的对象必须是主体的行为,不论该主体是自然人主体还是拟制主体。随着人工智能的发展,其行为的社会属性也愈发现实化,并逐步为法律规范所认可。比如人工智能创作作品,对于采用了人工智能的绘画机器人绘制的肖像画或风景画而言,在形式上就属于“以线条、色彩或其他方式构成的审美意义的平面造型艺术”。同理,由“新闻写作软件”生成的新闻报道,以及由软件生成的音乐,在形式上具备著作权法对文字作品及音乐作品的要求{47}。早在1988年英国立法就对这一问题做出规定:英国《版权、设计与专利法》(Copyright,DesignsandPatentsAct1988)第178条对“计算机生成的作品”做了界定,它是指在“无人类作者”的环境下、由计算机环境生成的作品。同时,根据第178条的规定,“计算机生成的作品”明显不同于将计算机作为创作工具的作品{48}。美国学者则指出,将言论自由权利扩大到强人工智能聊天机器人存在规范和实践的困难,这可能会推动重新审视自由言论法律和理论的当代转向,进而使未来的人工智能语言表达成为可能{49}。随着人工智能行为被赋予越来越多的社会意义,其行为独立纳入刑法视野的正当性也愈发充足。
第三,人工智能责任制度的发展。关于人工智能的责任制度研究目前主要关注于对其相关自然人如何科以责任。如有学者认为,在侵权法中,大多数时候可以通过类动物、儿童、雇员的行为甚至高度危险行为来理解人工智能领域的严格责任规则。根据替代责任的理念,可以将其视为“雇主责任”规则{4}。IEEE《合伦理设计:利用人工智能和自主系统最大化人类福祉的愿景》提出的基本原则之二就是责任原则。其指出,为了解决过错问题,避免公众困惑,人工智能系统必须在程序层面具有可责性,证明其为什么以特定方式运作{14}。联合国教科文组织《关于机器人伦理的初步草案报告》提出对机器人的责任采取分担解决途径。让所有参与机器人发明、授权和使用过程中的主体分担责任{45}55。我国学者也有提出构建智能机器人民事责任的若干方案,包括:其一,借鉴《侵权责任法》上关于危险责任的规定,让智能机器人的制造商或者使用者承担严格责任(StrictLiability);其二,差别化责任规则;其三,强制保险制度和赔偿基金;其四,可以像欧盟那样,考虑赋予某些智能机器人法律人格{44}。虽然目前人工智能责任制度在关注范围和研究结论方面仍有较大的局限性,但是也表明人工智能问题已经进入法律责任的范畴讨论。
法人主体的刑法拟制也为人工智能的刑法拟制提供了先例。法人犯罪的出现与研究使得犯罪主体限于自然人的态度有所松动。如我国“通说”认为,我国刑法中的犯罪主体,是指实施危害社会的行为并依法负刑事责任的自然人和单位{50}。但是在该书“犯罪主体概述”一节中继而介绍的是“我国刑法中的自然人犯罪主体的共同要件”,而非“我国刑法中的犯罪主体的共同要件”,实际上侧面描述了单位主体的出现对于纯自然人犯罪主体认知的冲击。法人犯罪的实施并不局限于某一或某些特定自然人,而是整体体现法人的意志,并且由法人成员集体予以实施,难以仅通过对于直接实施人的分析和处罚实现刑罚目的,因而需要对于法人犯罪包括法人本身做出独立的考量。在这个意义上法人主体也是一种拟制主体。基于此,参考法人犯罪的思路,对于人工智能作为拟制主体看待未尝不是未来人工智能犯罪刑法规制的可能思路。
此外,国外学者KurtSeelmann甚至还对人工智能的“惩罚”做了一定的探索:如果一个自主或者说部分自主的电子人犯罪,不能归因于自然人或者法人,则是其终身的耻辱,轻者应断电一周;每个电子人是超越知觉的综合体,其能力具有二次性,并非自然而生,但真实地具有(一定的)能力;电子人的自主是有限的,如果其程序设定如此{51}。当然,对于人工智能“处罚”的性质及其限度仍有待于未来随着人工智能犯罪的发展而不断深化。
四、人工智能犯罪的刑法对策展望
人工智能犯罪的刑法治理不仅需要理论层面的回应,更需要分析如何通过刑事立法的完善和适用来对其予以有效治理,对此应从理念和内容两个层面展开。
1.理念层面:注重人工智能犯罪立法的前瞻性
注重人工智能犯罪立法的前瞻性主要基于技术发展背景下犯罪极速变化与刑法相对滞后之间的矛盾。立法所立足的技术背景和社会条件都处于急速的变化发展之中,法律的制定与实施既需要有前瞻性也要正视现实的可操作性{52}。刑法的安定性与刑法的适应性之间的矛盾是风险社会发展过程中所不可避免的长期命题。原本确定的、严格的刑事立法不得不为了回应犯罪的现实发展而改变既有的立法结构与内容。特别是在恐怖活动犯罪、环境犯罪、信息犯罪、网络犯罪等新兴犯罪的冲击下,各国刑事立法均做出了较大的调整。有学者从刑事立法的活性化角度来予以论述,并将其主要表现概括为3个方面:犯罪化,即将过去未视为犯罪的行为犯罪化;处罚的早期化,即大量增加了未遂犯、危险犯、预备罪的处罚规定,逐渐使其由例外处罚类型变成常态处罚类型;处罚的重刑化,即提高有期徒刑的最高期限,加重性犯罪、杀人罪、伤害罪及各种交通犯罪的法定刑等{53}。随着人工智能及其犯罪的发展,现有刑事立法在解释和规制其过程中面临着现实的障碍,在立法层面也应对人工智能犯罪做出独立和恰当的考量,并借此推动刑事立法的更新和发展。否则,如果一味以传统的理论立场对这种倾向进行批判不仅会导致刑法学丧失社会影响力,还可能错失通过检讨立法反省刑法学本身存在的问题之机遇{54}。基于此,笔者认为秉持一种前瞻式的立法理念,推动人工智能犯罪相关刑事立法的发展。具体可从以下3个方面展开:
第一,注重对于人工智能犯罪相关概念和对象立法前瞻的界定。目前有关人工智能犯罪的相关问题仍然处在探索之中,对于人工智能及其犯罪行为等相关概念仍然缺乏统一认识。此外,由于人工智能仍然处在变化发展过程中,也导致了对于人工智能犯罪相关概念不易做出精准界定。应对其予以科学界定,使之既契合当下人工智能犯罪治理的现实,也符合未来人工智能犯罪治理的需要。这需要做到以下两点:其一,对于人工智能犯罪相关概念与对象的立法界定必须充分把握其实质,从而使之与相关的概念与对象有效区别,为科学和恰当地治理人工智能犯罪提供基础;其二,在国家立法层面对于人工智能犯罪相关概念与对象的立法界定不应过细,应为相关下位立法和司法解释预留必要的空间,从而更好地适应人工智能技术的发展阶段。
第二,注重人工智能犯罪立法前瞻性与刑法安定性的统一。笔者认为,前瞻式立法既是回应人工智能犯罪的应然选择,也与维持刑法自身稳定性和效力不相矛盾。有学者曾就网络犯罪的前瞻式立法问题做出阐释,指出在网络犯罪立法中经常出现这样的情况,当经过复杂而冗长的立法程序将某种网络行为纳入到法律进行规制时,却发现该种行为在网络上己经趋于销声匿迹了,代之而起的是新型的、法律尚未关注的行为,法律生效后很快就实质性失效的情况在网络中更易发生{55}。人工智能犯罪也是如此,其相关刑事立法既要及时回应现实中该类犯罪的治理诉求,也要注重对于刑法自身安定性的维护。基于此,人工智能犯罪相关立法规定应注重层次性,形成法律层面、法规与规章层面、司法解释层面的梯次结构,分别对于基础规范、一般规范、具体规范予以规定,法律层面的相关规定注重概括性与稳定性,法规与规章层面和司法解释层面的相关规定注重具体性和及时性,最终达到立法前瞻性与刑法安定性的统一。
第三,注重区分刑事立法的前瞻性与过度刑法化。在当代社会,过度刑法化是在理论和实践层面都需要警惕的一个趋势。有学者指出,刑法过度化是对现代刑法观念的背弃,势必引起社会治理的巨大风险。在英美国家,刑法过度所引起的罪名的增设和犯罪数量的增加导致了法院和监狱的过度拥挤,已造成了刑罚的谴责功能的大大退化{56}。前瞻式立法并不等同于盲目扩大犯罪圈,不会导致刑法的泛化适用{57}。就人工智能犯罪而言,一方面对于随着人工智能发展所产生的新型犯罪需要对其予以犯罪化,比如智能机器人犯罪的问题,在此层面确实是犯罪圈的扩大;但另一方面,随着人工智能的发展和普及,很多传统犯罪会向人工智能犯罪转移,如同互联网时代诈骗犯罪从现实空间大量向网络空间转移,因此也会导致一些传统犯罪领域犯罪圈的缩小。
2.规则层面:构建人工智能犯罪相关规范体系
人工智能的法律责任已经成为各国普遍关注的一个重要问题。IEEE《合伦理设计:利用人工智能和自主系统最大化人类福祉的愿景》提出的责任原则指出,为了解决过错问题,避免公众困惑,人工智能系统必须在程序层面具有可责性,证明其为什么以特定方式运作{14}。有效治理人工智能犯罪需要在前瞻性理念的指导下探索和建立相关刑事责任规范体系。结合前述理论和立法分析,笔者认为应从以下3个方面展开:
第一,人工智能犯罪的主体制度。如前所述,现阶段人工智能尚不具备独立的犯罪主体资格,应充分运用现有犯罪主体理论协调和解决人工智能犯罪的主体问题,重点规制与人工智能相关的自然人与法人。在这一层面需要解决的主要问题是如何将已经具有一定自主性的人工智能在既有的仅承认自然人与法人的犯罪主体体系中予以合理解释。一个可行的思路是参考既有犯罪主体中的一些主体否定制度,比如间接正犯(否定他人的主体资格)、原因自由行为(延展行为人的主体资格)等问题的立法模式,使人工智能恰当地进入现有刑事主体立法框架,达到立法与处罚的协调。从长期来看可以参考法人主体的拟制思路,逐步探索构建人工智能刑事主体资格的法律拟制模式,基于人工智能的发展逐步构建和完善人工智能主体的意思要素、行为要素,使之正式进入刑法主体范围。
第二,人工智能犯罪的行为模式。应探索人工智能犯罪行为的规范体系,在类型化的基础上对其予以全面规制。其中应重视基于不同罪过形态对于人工智能犯罪予以类型化:对于人工智能过失犯罪,应在立法中明确与之相关的各个责任主体(如人工智能的制造人、使用人等),以及相关主体的注意义务及其具体内容,构建完整的过失犯罪行为立法模式;对于人工智能故意犯罪,应在立法中明确相关主体的罪过要素(犯罪目的等)、行为要素,并就共同犯罪问题做出独立和科学的规定。此外,关于人工智能犯罪行为模式的立法也应与人工智能犯罪的主体制度协调。
第三,人工智能犯罪的刑事责任。就其刑事责任的设置可以在借鉴和参考民事责任的基础上展开。国内有学者就人工智能的民事责任予以探讨:其一,对于智能机器人,有损害必有责任。其二,如果最终负有责任的主体得到确认,其所应承担的责任应与其给予机器人的指令级别以及机器人的自主性程度相称。其三,为自主智能机器人造成的损害分配法律责任是一个复杂的问题,一个可能的解决方案是适用于智能机器人的强制保险制度。其四,可以考虑建立赔偿基金,作为强制保险制度的一个补充。其五,与保险、赔偿基金等相配套的机器人登记制度和机器人法律地位{44}。虽然诸如保险制度等规定不宜直接引入刑事领域,但是关于损害与责任的探讨完全可以借鉴。在此基础上,笔者认为人工智能犯罪的刑事责任可从以下两个方面展开:其一,对于相关自然人、法人主体科以适当的主刑与附加刑,以契合当下的人工智能犯罪刑事打击路径,实现个别预防与一般预防。其二,设置与人工智能领域相关的资格刑,以防止再犯可能的发生。而人工智能犯罪资格刑的设置也可能为未来人工智能主体刑法拟制的责任化提供可能,即人工智能主体可能在将来被科以“资格刑”的处罚方式进入刑事责任领域。
五、结语
美国日微系统(SunMicrosystems)公司联合创始人和首席科学家比尔•乔伊忧心忡忡地预言,21世纪最强大的3大技术——机器人技术、基因工程与纳米技术——结合在一起,将会生成一个“有灵魂的机械”时代,这些智能机器人将融入并取代人类,使人类濒临灭绝{58}。在此意义上人工智能最大的问题并不在于他是否具有如人一样的智能,而是在于它能否成为人们最需要的那种工具。
随着社会的发展变迁特别是风险的流变,在学派的争论与交织中,刑法理论与实践日渐转型和发展。以过失理论为例,经历了从旧过失论、新过失论、新新过失论等跌宕与反思,并经由被允许的危险和信赖原则修正而形成今天的过失理论。在这个意义上,刑法理论的定型化、体系化均只具有一定阶段的历史意义和社会意义,刑法理论的更新发展是与社会发展相适应的必然趋势。在人工智能风起云涌中,人工智能犯罪也正在为既有刑法理论与立法的发展提出时代的命题。探索人工智能犯罪的理论与立法回应既是立足于当下的新问题,也是展望未来的新思考。我们有理由相信这样的探索过程会带来既有刑法理论的发展与更新。
【注释】基金项目:教育部哲学社会科学研究重大课题攻关项目:“提高反恐怖主义情报信息工作能力对策研究”(17JZD034)
作者简介:王肃之(1990-),男,河北石家庄人,武汉大学法学院博士研究生,德国马普外国刑法与国际刑法研究所访问学者,主要从事中国刑法学、网络安全法学研究,E-mail:wangsuzhi001@126.com。
【参考文献】{1}陈凡,贾璐萌.技术控制困境的伦理分析——解决科林格里奇困境的伦理进路[J].大连理工大学学报(社会科学版),2016,37(1):77-82.
{2}徐仲伟.对大数据、互联网的认识及其本质问题的思考[J].重庆邮电大学学报(社会科学版),2017,29(1):83-88.
{3}王万林.人工智能[M].北京:人民邮电出版社,2011:2-4.
{4}CERKAP,GRIGIENEJ,SIRBIKYTEG.Liabilityfordamagescausedbyartificialintelligence[J].ComputerLaw&SecurityReview,2015,31(3):376-389.
{5}TSANGL,KRACOVDA,MULRYNEJ,etal.TheimpactofartificialintelligenceonmedicalinnovationintheEuropeanUnionandUnitedStates[J].IntellectualProperty&TechnologyLawJournal,2017,29(8):3-11.
{6}刘凤岐.人工智能[M].北京:机械工业出版社,2011:8-18.
{7}ETZIONIA,ETZIONIO.Shouldartificialintelligenceberegulated?[J].IssuesinScienceandTechnology,2017,33(4):32-36.
{8}卢建平.风险社会的刑事政策与刑法[J].法学论坛,2011,26(4):21-25.
{9}劳东燕.公共政策与风险社会的刑法[J].中国社会科学,2007(3):126-139.
{10}陈晓明.风险社会之刑法应对[J].法学研究,2009,31(6):52-64.
{11}吴汉东.人工智能时代的制度安排与法律规制[J].法律科学,2017,35(5):128-136.
{12}ETZIONIA,ETZIONIO.KeepingAIlegal[J].VanderbiltJournalofEntertainmentandTechnologyLaw,2016,19(1):133-146.
{13}胡凌.人工智能的法律想象[J].文化纵横,2017(2):108-116.
{14}何波.人工智能发展及其法律问题初窥[J].中国电信业,2017(4):31-33.
{15}陈兴良.刑法哲学:上[M].北京:中国政法大学出版社,2009:82.
{16}晓白.犯罪学体系建构[M].台北:读享数位文化有限公司,2014:63.
{17}雅克•博里康.法国当代刑事政策研究及借鉴[M].朱琳,译.北京:中国人民公安大学出版社,2011:86.
{18}王东浩.机器人伦理问题研究[D].天津:南开大学,2014:164.
{19}PAGALLOU.Thelawsofrobots:crimes,contracts,andtorts[M].Dordrecht:SpringerScience&BusinessMedia,2013:47-48.
{20}西原春夫.刑法的根基与哲学[M].顾肖荣,陆庆胜,谈春兰,等,译.北京:法律出版社,2004:116.
{21}马克昌,莫洪宪,康均心,等.近代西方刑法学说史[M].北京:中国人民公安大学出版社,2008:99.
{22}陈兴良.从刑事责任理论到责任主义——一个学术史的考察[J].清华法学,2009,3(2):6-24.
{23}黑格尔.法哲学原理[M].杨东柱,尹建军,王哲,译.北京:北京出版社,2007:45.
{24}郭卫斌,杨建国.计算机导论[M].上海:华东理工大学出版社,2012:220.
{25}张明楷.刑法学[M].北京:法律出版社,2016:142-143.
{26}张劲松.人是机器的尺度——论人工智能与人类主体性[J].自然辩证法研究,2017,33(1):49-54.
{27}朱体正.人工智能时代的法律因应[J].大连理工大学学报(社会科学版),2018,39(2):97-102.
{28}KIRNS,MLLER-HENGSTENBERGCD.Intelligente(Software-)Agenten:eineneueHerausforderungfürdieGesellschaftundunserRechtssystem?[R].FZIDDiscussionPaper,2014:21.
{29}GLESSS,WEIGENDT.IntelligenteAgentenunddasStrafrecht[J].ZeitschriftfürdiegesamteStrafrechtswissenschaft,2014,126(3):561-591.
{30}杰瑞•卡普兰.人工智能时代[M].李盼,译.杭州:浙江人民出版社,2016:86.
{31}SEHERG.IntelligenteAgentenals“Personen”imStrafrecht?[A].GLESSS,SEELMANNK.IntelligenteAgentenunddasRecht[C].Baden-Baden:NomosVerlagsgesellschaftmbH&Co.KG,2016:45.
{32}桂亚胜.故意犯罪的主观构造及其展开[M].上海:上海人民出版社,2014:158.
{33}李森.反思间接故意犯罪的存在范围[J].政治与法律,2014(4):104-116.
{34}谭淦.监督过失的一般形态研究[J].政法论坛,2012,30(1):175-183.
{35}易益典.监督过失犯罪中主体范围的合理界定[J].法学,2013(3):153-160.
{36}刘丁炳.监督管理过失犯罪研究[M].北京:中国人民公安大学出版社,2009:34.
{37}侯国云.刑法因果新论[M].北京:中国人民公安大学出版社,2012:201.
{38}丁世飞.高级人工智能[M].北京:中国矿业大学出版社,2015:232.
{39}李屹,李曦.认知无线网络中的人工智能[M].北京:北京邮电大学出版社,2014:89.
{40}鄂旭.物联网概论[M].北京:清华大学出版社,2015:60.
{41}MULLIGANC.Revengeagainstrobots[J].SouthCarolinaLawReview,2017,68(1):1-19.
{42}SCHWITZGEBELE,GARZAM.Adefenseoftherightsofartificialintelligences[J].MidwestStudiesinPhilosophy,2015,39(1):98-119.
{43}LOHMANNMF.RoboterundRecht[J].AktuelleJuristischePraxis/PratiqueJuridiqueActuelle,2014(5):595-608.
{44}司晓,曹建峰.论人工智能的民事责任——以自动驾驶汽车和智能机器人为切入点[J].法律科学,2017,35(5):166-173.
{45}袁曾.人工智能有限法律人格审视[J].东方法学,2017(5):50-57.
{46}ASHRAFIANH.AIonAI:ahumanitarianlawofartificialintelligenceandrobotics[J].Scienceandengineeringethics,2015,21(1):29-40.
{47}王迁.论人工智能生成的内容在著作权法中的定性[J].法律科学,2017,35(5):148-155.
{48}梁志文.论人工智能创造物的法律保护[J].法律科学,2017,35(5):156-165.
{49}MASSAROTM,NORTONH,KAMINSKIME.SIRI-OUSLY2.0:whatartificialintelligencerevealsaboutthefirstamendment[J].MinnesotaLawReview,2016(101):2481-2525.
{50}高铭暄,马克昌.刑法学[M].北京:北京大学出版社,高等教育出版社,2016:83.
{51}GLESSS.VonderVerantwortungeinerE-Person[J].Goltdammer’sArchivfürStrafrecht,2017,164(6):324-329.
{52}赵丽.网络安全立法要有前瞻性眼光[N].法制日报,2015-7-7(A4).
{53}陈家林.外国刑法:基础理论与研究动向[M].武汉:华中科技大学出版社,2013:12-13.
{54}程红,吴荣富.刑事立法活性化与刑法理念的转变[J].云南大学学报(法学版),2016,29(4):40-47.
{55}李怀胜.三代网络环境下网络犯罪的时代演变及其立法展望[J].法学论坛,2015,30(4):94-101.
{56}何荣功.社会治理“过度刑法化”的法哲学批判[J].中外法学,2015,27(2):523-547.
{57}王肃之.从回应式到前瞻式:网络犯罪刑法立法思路的应然转向——兼评《刑法修正案(九)》相关立法规定[J].河北法学,2016,34(8):155-164.
{58}朱体正.基于消费者权益保护的纳米风险法律治理研究[J].大连理工大学学报(社会科学版),2015,36(4):100-105.
【期刊名称】《大连理工大学学报(哲学社会科学版)》【期刊年份】2018年【期号】4
作者:王肃之
来源:大连理工大学学报(哲学社会科学版)
备注:好文分享,版权归原作者。如遇侵权,请联系我们删除。
文章转载自《大连理工大学学报(哲学社会科学版)》,如有涉及版权等问题请及时联系我们,著作权解释权属原创者所有,本文工业4.0俱乐部推荐阅读!
邬贺铨院士|人工智能的魅力是它永远在路上
【名家】同济大学沈斌教授:人工智能与智能制造(附精彩PPT)
清华大学薛澜教授:我国人工智能的两大短板
信通院|《人工智能时代的机器人3.0新生态》
工信部印发新一代人工智能产业创新重点任务揭榜工作方案
中国工程院高文院士:国家新一代人工智能发展规划
清华大学薛澜教授:我国人工智能的两大短板
清华大学正式发布《中国人工智能发展报告2018》(附报告下载)返回搜狐,查看更多