博舍

人工智能深度介入文化产业的问题及风险防范 人工智能风险防范

人工智能深度介入文化产业的问题及风险防范

(二)人工智能在文化产品制作环节的应用

(三)人工智能介入文化产品营销环节

(四)人工智能催生文化产品新形式

二、人工智能深度介入文化产业带来不容忽视的问题

(一)对人工智能的过度依赖会扰乱文化产品的意识形态功能

所谓人工智能就是通过计算机来模拟人的某些思维过程和智能行为,目前人工智能的应用主要表现在深度学习、计算机视觉(图像识别)、自然语言处理、推荐引擎等方面。其工作原理和过程就是:输入大数据—人工神经网络特征提取器—总结对象的特征—把特征放进一个池子里整合—全连接神经网络—输出最终结论。简单总结就是大数据和云计算。所谓大数据再穷尽也是人类已有的认知成果,再复杂的计算也是人设定出来的,机器的运转和输出再复杂丰富也只是技术层面的,而人类对文化艺术的创造首先是基于情感的表达和诉诸,也多是借助于直觉式领悟的灵感思维,与科学的理性逻辑思维是大相径庭的。人类的社会生活日益发生翻天覆地的变化,人类的情感世界日益变化复杂,人类的艺术表现介质让人目不暇接,因此,如何探索人类未曾介入过的生命体验领域,如何认知自身尚不清晰混沌未开的情绪情感,用何种表现形式与介质表达这些未知的领域,便是人类生生不息在文化艺术领域孜孜探求的主观意愿和情感动力,是文化艺术作品不断创新发展的源泉,也是人们对文化艺术产品不断打动心灵的精神与审美的需求。因此,在原创性文化艺术产品领域,作品追求和推崇的还应该是对生命体验和情感的极致表达和独树一帜的风格,而这是过度依赖人工智能技术解决不了也解决不好的。比如,前两年由网络小说大火而带动的“IP”产业链的火热,如今开始降温,原因正是真正优质原创网络小说的匮乏。因此,我们也很难再看到不仅轰动而且能深深打动人的优秀影视作品和动漫游戏产品。在算法资讯平台上,我们很少看到独家采访的新闻报道,更鲜有鞭辟入里的深度报道,AI小编大量推送到你眼前的是炒来炒去的“冷饭”,或“标题党”不断地招摇撞骗。而在音乐方面,由于坚持艺术独创性追求的原创性音乐工作者群体性崛起,使得中国乐坛活跃异常。如反映底层青年奋进、拼搏、挣扎和嘶吼的汪峰的摇滚原创音乐;致力于将现代摇滚与民族音乐相结合,表现一个古老民族正告别贫穷落后而奋勇向上的谭维维的原创音乐;不为喧嚣外界所动,甘坐十年冷板凳,也要将温暖阳光的音乐送达冷漠环境中人的内心的音乐诗人李健等,都是典型代表。他们的创作正向地证明:只有把握时代脉搏,忠实于生命体验,追求艺术极致表达,才能创作出震撼人心的优秀的作品。

(三)人工智能搜索引擎与推算等造成的侵权与人工智能创作物著作权不受保护

(四)智能算法推荐引起信息茧房{1}效应,容易造成低俗内容风行

自媒体和算法推荐造成的信息茧房效应已经在一定程度上造成负效应,对社会成员特别是在青少年中产生不良影响。如果不积极预防和有效遏制,便会带来舆论混乱和文化精神产品格调低下的风险。

(五)信息保护立法与监管不到位,个人数据隐私和安全问题频发

三、如何防范人工智能深度介入文化产业带来的风险

(一)处理好文化产品经济效益与文化效益的关系,坚持社会效益优先的原则

(二)采取包括法律法规在内的各种措施,保护原创者的知识产权,激发文化创造创作的动力,鼓励原创和优质产品的产出

建立在大数据基础之上的人工智能,一定要注意对原创者权利和利益的保护。政府要考虑通过立法或相应法规、条例,规定数据库中哪些数据是可以共享的,哪些数据是要受知识产权保护的。平台和大数据供应商及其设计写作软件的设计者和利用写作软件写作的作者,应加强自律,自觉遵守知识产权法律法规的规定,尊重原创作者的劳动和合法权益,用合理合法方式利用已有的知识成果。我们要像当前的音乐平台或者知识付费平台一样,保护那些原创者的创作成果和合法经济权益,凡是使用原创产品,一定要一丝不苟地付费。这样才能使原创者生存发展下去,行业才能繁荣。媒体平台内容创作门槛较低,容易发生侵权问题,平台应对版权保护提供全面的支持,例如在媒体平台设置侵权投诉入口,优化查重技术排查侵权文章,对频繁侵权账号进行封号、奖励优质文章或优质账号等,保证原创内容生产者的创作积极性,鼓励生产出更多优质内容。对于其他采用人工智能创作生产的平台,如新闻媒体可以用专区区分写稿机器人生产新闻和人工记者撰写的新闻,以保护原创作者和生产商的权益。在音乐创作上,可以像唱吧APP那样,区分深度修音后的歌曲和未修音的歌曲,保证原创内容在技术环境下的公平竞争,激发创作者的热情,也能让优质原创内容专区成为平台的特色。利用人工智能工具和技术的生产者,更要加强自身修养和原创能力的提高,积极进行创作方面的积累,仔细研究社会现实及创作素材,充分挖掘自身的创造性,创作出好的作品,如此才能形成良性循环,使优质文化产品大量生产出来。同时,我们应正确发挥人工智能的工具属性,在进行原创性创作时,可以适当运用人工智能辅助创作,但不能完全依赖人工智能,更不能完全搬用成果,只有融入个人情感的独创性作品才能成为真正的“大IP”,否则永远只是符号的搬用工。滥用技术以达到获利目的和行为,严重侵犯他人著作权的行径,必将受到谴责和惩罚。

(三)保护和规范人工智能作品,消除人工智能作品保护的盲点

我们要尝试对人工智能创作物进行立法规范,首先要面对以下问题:人工智能创作物是否具有权力主体资格?人工智能创作物是否构成作品?假如受著作权保护,人工智能创作物的著作权归谁,是机器或程序的研发者还是操作者?人工智能创作物的保护期限与人类作者是否相同?在这些问题上,国际上还没有统一的法则,各国的规定也各不相同。美国、日本、欧盟等发达国家和地区基本上都达成人工智能创作物应该受到法律保护的共识。我国学术界对人工智能创作物著作权相关问题的争论十分激烈,还没有明确的定论,各种态度和建议都有,其中支持人数较多的是增设邻接权{2}来保护人工智能创作物,原因在于邻接权可以根据现实需要进行增设,且智能创作与其他拥有邻接权的行为在原理上有相似之处。需要特别注意的是,一项技术的应用经常会突破国界的限制,人工智能创作物经过网络也能在全球范围内传播。所以我国在为人工智能创作物修订法律法规的时候,既要考虑本土化问题,也要参考其他国家的法律法规,否则会导致中国标准与国外不接轨的问题,可能会导致中国人工智能产业、文化产业固步自封的后果。我们应尽快弥补对人工智能作品保护的盲点,使人工智能技术在文化产业中的应用更广泛,发挥更大更好的作用;并应确定人工智能拥有者和使用者的地位和权益,保护人工智能技术发展的积极性。

(四)充分发挥人工智能应用各相关方的作用,加强对网络文化内容传播的监管

如今智能推荐算法和个性化资讯推荐已经是媒体平台必不可少的技术手段,如何消除技术带来的负面影响,将优势发挥得当,需要相关各方的共同努力,联手合作,加强对网络内容的监管和把关。首先政府应履行监管职责,承担促进发展和加强管理的责任。国家广播电视总局、各级互联网信息办公室等相关政府部门要加强监管力度,建立健全惩戒机制,严格执法,追究播出违法违规有害视听内容的网站及相关人员责任,为文化产业的发展保驾护航。媒体平台应履行职业把关职责,担负起传播优质网络文化内容的重任。媒体平台不只是网络文化内容传播的工具,更担负着传递正能量的社会责任,不能让算法左右用户的思想,可以通过“人工审核+智能审核”模式加强对内容审核的力度,通过“人工推荐+智能推荐”的模式引导用户获取有价值的信息。自智能推荐算法引发问题后,今日头条已经及时做出了治理和整改,对1000多个低质、涉嫌违规的自媒体账号进行了封禁,在机器审核的基础上扩招大量内容审核编辑共同把关,提高内容审核质量。内容生产者要把好生产关,从源头提高内容质量。内容生产者要意识到优质内容的生产不仅是一种社会责任,从经济角度出发,只有生产优质内容才会获得长期利润和长久发展。单纯为获取流量而制作的低俗内容是没有生命力和持久市场活力的。消费者也要做好自我把关,自觉抵制低俗内容,使其没有市场,便没有生存的土壤。智能推荐算法是根据用户历史浏览记录发生的,不点击就没有持续的推荐。平台用户应自觉抵制低俗诱惑,不浏览、不传播,自觉抵制,共同维护健康的文化生态环境。

(五)加强个人数据隐私立法和监管,维护信息安全

在大数据和云计算技术下,个人数据隐私的泄露和被侵犯会造成灾难性后果,对个人隐私数据的保护势在必行。然而在我国,尚未颁布针对个人信息保护的专门法。我国于2003年进行了“个人数据保护”的课题研究,2008年课题组向国务院呈交了个人信息保护法草案,2017年更新了建议稿并提交给两会,2018年全国人民代表大会将《个人信息保护法》纳入立法计划。欧盟于2016年颁布了《数据保护通用条例》(GDPR),至2017年3月,全球已经有121个国家和地区制定了专门的个人信息保护法。我国是人口大国,也是数据大国,但是对个人信息保护的立法相对滞后,在信息安全问题频发的情况下,推出符合中国国情的《个人信息保护法》刻不容缓,通过立法明确个人信息的范围,明确个人信息保护的对象,明确信息主体的各项权利。我们应在《网络安全法》的基础上进一步明确和完善个人信息收集及使用规则。政府各部门要加强对信息保护的监管力度、执法力度,严厉打击过度获取和非法泄露公众隐私数据的行为,让数据成为受保护的重要资源,让智能推荐、智能分析等技术在法律规定范围内合理应用。

伴随着计算机和互联网技术的快速发展,人工智能在文化产业领域中应用的深度和广度不断扩大。从现实应用的情况看,人工智能在文化产业生产经营的各环节替代了原有的部分脑力劳动,提高了生产效率,契合与满足了人们在移动互联网背景下对海量内容的需求。不断创新出现的“互联网+”新业态、新产品和新商业模式在人工智能技术的加持下,已经领跑我国文化产业各行业。科技与文化的融合、创造性文化劳动力和高科技人才投入的增加,使文化产业具备了更大的发展潜力和活力。然而,技术的过度运用和依赖,从来都是一把双刃剑,我们在享用高科技带来的种种便利的同时,也不得不沉重地发现人工智能给文化产业这个特殊行业所带来的种种弊端及由此带来的风险。因此,我们应及早发现并提出问题,以引起作为市场监管主体的政府、生产经营主体的企业和消费主体的大众等各方的高度重视,并通过采取各种有效措施对已出现的问题和预知的风险加以解决和防范,是十分必要的。当然,人类在利用科学技术推动社会发展的过程中,也从来没有因噎废食,扬其所长,抑其所短,在不断创新和修正中发展,人工智能之于文化产业亦是如此。来源:深大社科学报返回搜狐,查看更多

西方学界人工智能伦理风险防范研究

导读:智能化革命正在深刻地影响和塑造着人类的生产、生活方式与社会文明发展形态。如何应对人工智能技术发展和应用带来的伦理问题及挑战,成为智能化时代全人类需要面对的重大课题。国际学术界对新技术可能引发的各种伦理问题以及防范等进行了诸多研究,值得我们...

智能化革命正在深刻地影响和塑造着人类的生产、生活方式与社会文明发展形态。如何应对人工智能技术发展和应用带来的伦理问题及挑战,成为智能化时代全人类需要面对的重大课题。国际学术界对新技术可能引发的各种伦理问题以及防范等进行了诸多研究,值得我们关注。

对机器能否成为道德主体的看法

人工智能显然超出了传统工具的范畴,具有学习能力,能做决策,并根据环境变化调整行为,进而产生相应的伦理后果。因此,该如何确定或定义人工智能在人类社会中的身份和地位,其能否成为道德主体或法律主体,为自身行为承担责任或获得激励?国外学界认为,对这些问题的探讨最终还是要还原到何为自我意识、自由意志的问题。从1956年图灵(A.M.Turing)提出“图灵测试”设想开始到塞尔(J.R.Searle)的“中文屋”思想实验,再到德雷福斯(H.Dreyfus)的《计算机仍然不能做什么:人工理性批判》等思想成果,早期的人工智能先驱们基于人工智能的本质,及其与人类智能的区别等视角普遍认为,人工智能不具有类人的意识。

近年来,随着以人工智能为代表的新技术指数级的发展,自主性的机器能否成为主体,成为绕不开的话题。其中,大部分学者认为机器智能依赖的是算法程序,很难衍生出像人一样的自我意识和自由意志,因而很难成为道德主体。他们认为人的心灵(mind)是由两个部分构成的,通过形式逻辑、自然因果律等认识、把握、改造对象世界的计算意识,通过对象性活动和交往活动确证主体世界本质与意义的社会情感意识,机器表现出来的自主意识只是对人类计算智能的模拟。如博登(M.Boben)认为人类很难设计出通用人工智能,因为人工智能只专注于智能理性而忽略了社会情感智能,没有智慧(wisdom)。齐泽克强调不应该将计算机想象成人的大脑模型,要将人的大脑想象成“血肉构造的计算机”,而人脑是无法完全还原为计算机构造模型的。但是,一些未来学家认为机器在未来将衍生出不同于人类的意识和超出人类的智能,而一旦出现超级人工智能,人类将很难与其沟通,也很难使其遵守人类的道德规则。如库兹韦尔(RayKurzweil)于2005年提出“技术奇点”论,认为在未来人的主体性将受到机器的挑战。安德森(MichaelAnderson)夫妇编著了“机器伦理”(MachineEthics)一书,开启了以机器作为责任主体的机器伦理学研究进路。随着人工智能技术指数级的发展,机器在未来能否突破因果律的限制,衍生出能动意识,需要理论持续的跟进。

西方学者关于机器能否成为道德主体的论争,引发了我们重新关注和审视人工智能趋势下“什么是人”“我们该如何对待人”“技术的本质和限度是什么”等问题的思考。

人工智能产生的道德伦理风险

人工智能技术自发展伊始就与人有着千丝万缕的联系,早在1950年,美国控制论创始人维纳(NorbertWiener)就认为机器人技术会从善还是作恶充满不确定性,但机器人将代替人类从事工作,或许会造成人脑的“贬值”。西方学者对人工智能可能产生的道德伦理风险,进行了较为深入系统的研究和探索。

第一,对人工智能技术导致劳动者失业,形成新的社会不公、技术鸿沟等问题的探讨。不少西方学者认为人工智能造成大量失业、社会贫富差距增大等风险。如赫拉利(YuvalHarari)认为随着技术的进化,大多数人因自身工作会被人工智能替代而沦为“无用阶级”,只有少数掌握技术和资源的精英阶层会进化成超级人类,社会阶层固化、极化。对如何更好地保障人的生存发展权利,休斯(JamesHughes)等学者提出通过税收和财富公共所有权建立全面基本收入制度,以应对智能技术造成的失业和社会不公。

第二,对人工智能技术不确定性伦理风险问题的辩论。“究竟谁应该对机器行为承担责任”成为日益严峻的责任伦理问题。一些学者主张设计者、制造者、编程者和使用者应对机器人的社会后果进行控制监督,强调机器人工程师的伦理责任。另外一些学者主张以道德嵌入的方式来设计算法,使机器成为内置伦理系统的道德体,以防范人工智能在设计和应用阶段产生的伦理风险。2009年,美国学者瓦拉赫(WendellWallach)和艾伦(ColinAllen)在合著的《道德机器:教导机器人分辨是非》一书中,对如何设计道德机器做了较为系统的分析。然而,道德算法面临价值选择与冲突。人类社会存在多种道德规范和伦理原则,各体系间难以通约,以何种道德规范设计算法成为问题。此外,设计者的伦理诉求也非一元,在设计道德机器时如何进行价值取舍同样成为问题。基于此,一些学者如布赖森(J.Bryson)等就如何进行价值排序、解决价值冲突、寻求普遍伦理共识作为设计道德机器的理论框架进行了探讨,他们普遍将机器对人类无害且友善作为首要的伦理原则。

第三,对人工智能技术滥觞突破传统人类道德伦理界限的担忧。除了上述问题,一些学者对下述问题表达了担忧。人对智能技术的过度依赖,容易导致技术霸权和技术奴役,造成社会不确定性风险和危机;护理机器人的应用存在物化老人、幼儿,弱化或侵犯其尊严、自由、隐私等风险;自主作战机器人的应用存在打破国际社会法律与规约,增大引发地区性冲突与战争可能性以及大规模杀伤的风险。

人工智能伦理风险防范思路

针对人工智能可能引发的各种伦理问题,西方学者普遍认为应该从机器伦理价值导向设计、行业标准设定以及立法等多途径防范和规避人工智能伦理风险。

在国际学术界有较大影响力的是自上而下的道德编码和自下而上的道德学习的机器设计思路。前者主张将人类社会的道德规则以程序编码的方式嵌入算法中,使机器能够通过计算和推理进行道德决策。后者认为人类的道德行为是在具体道德情景、与他人的互动中习得的,因而无须预先编码,让机器通过道德案例观察、与其他道德体互动学习等成为道德行动者。

这两种设计各有局限,前者存在选择何种伦理价值嵌入以及如何应对复杂道德场景的问题,后者存在没有伦理指导系统,仅凭机器学习,输入机器的道德敏感数据会得出何种结果的问题。考科尔伯格(MarkCoeckelbergh)认为,当前的机器学习实质上是一种统计学加工过程,因而机器很难被训练成完全的道德行动者,他主张从人机互动的关系进路设计道德机器。

通过行业标准设定防范和规避人工智能伦理风险的对策。近年来,欧洲机器人研究网络(EURON),美国国家航空航天局(NASA)和国家科学基金会、韩国贸易、工业和能源部等从国家层面对人工智能伦理研究进行指导。一些行业协会如英国标准协会(BSI)颁布了《机器人和机器系统的伦理设计和应用指南》,美国电气与电子工程师协会(IEEE)提出“合乎伦理设计”(EAD)规范等,以应对因设计者认知偏好引发的算法歧视、社会不公等问题。

通过制度规范化解人工智能伦理风险的做法。2021年4月,欧盟委员会通过了《人工智能法》立法提案,对人工智能的功能和用途等要素做了不可接受的风险、高风险、有限风险和低风险等层级区分,并提出了明确、具体的对应分类治理和监管体系。

国际学术界对“合乎伦理设计”的道德机器可行性探索,为我们开发设计可信赖的人工智能提供了方法论的指引。在疫情难以预料的当下和未来,人类命运休戚与共,加速人工智能与各领域的深度融合,使世界形成一个泛智能化的地球村已是大势所趋。因此,搁置争议,寻求全球共识,设计具有最大公约数的道德机器,共同抵御未来的不确定性风险非常必要、迫切并将成为可能。但这些学者将研究重心集中于如何规避技术风险,忽视了人文价值缺失在技术应用中的极化伦理风险。为了解决这些问题,我们应始终坚持以人民为中心的科技发展规律,在技术的发展和应用中始终将维护人的尊严,呵护人的价值作为根本目标和前置条件。

赞助本站

相关热词:西方学界人工智能伦理风险防范研究智能化革命

::刘仁文、曹波:人工智能体的刑事风险及其归责

摘要:人工智能在推动人类社会智能化变革的同时,其不确定性(自动性)所衍生的侵害人类法益的刑事风险是亟待认真对待的“真问题”,绝非凭空臆造、危言耸听的“伪问题”。对人工智能体被滥用于实施犯罪的刑事风险,应根据现有刑事归责原理,按照具体行为方式以及主观罪过形式,分别追究人工智能体背后的算法设计者、产品制造者与使用者(管理者)故意或过失犯罪的刑事责任。对人工智能体脱离人类控制侵害法益的刑事风险,赋予人工智能体以刑事责任主体地位的肯定论归责方案,存在持论依据及论证路径方面的诸多误区。以刑罚规制人工智能体刑事风险缺乏适宜性,应当借鉴“科技社会防卫论”,通过建构保安处分机制,由司法机关在参考专业技术意见的基础上,对严重侵害人类利益的人工智能体适用以技术性危险消除措施为内容的对物保安处分,回避以刑罚规制人工智能体刑事风险必须具备可非难性的局限,进而为人工智能的发展预留必要的法律空间。

关键词:人工智能体;刑事风险;刑事归责;刑事责任主体;对物保安处分

 

人工智能的概念虽然早在20世纪50年代即被提出①,但其后人工智能的发展和研究却两度遭遇“寒冬时期”,终在21世纪初迎来第三次发展浪潮和研究高峰。近年来,信息社会和知识时代的来临使得信息以惊人的速度膨胀,人类处理浩如烟海的信息的现实需求催动了大数据技术以及智能技术的发展,大有将人类文明从农业文明-工业文明-网络文明的三个递进阶段推入第四个阶段“人工智能文明”之势。受人工智能技术研发以及法律治理需求的影响,中国的法学理论和法律实务界对人工智能表现出强烈的兴趣,刑法领域的研究成果也呈现爆炸式增长的态势,关于人工智能体能否成为刑事责任主体、其刑事责任应采取何种归责模式,甚至对人工智能体应当适用何种“刑罚”等迅速成为热门话题。

一、人工智能体的刑事风险是“真问题”

得益于深度学习、大数据、大规模计算三位一体的联合驱动,人工智能势不可挡地从封闭的实验室走向开放的商业应用道路,其蕴含的强大赋能效应,使得智能思维、智能工厂、智能设备、智能产品及智能管理等不断涌现,正推动人类社会迈入智能时代。不过,如同促进人类社会发展的其他科学技术一样,人工智能在将人类从繁琐纷杂、枯燥单调的工作中解放出来、推动人类社会完成跨越式变革的同时,其内在的不确定性也衍生出影响人类生存和发展安全的现实及潜在风险,客观上引发人类对人工智能安全性的极大忧虑。

然而,对于刑法应否介入人工智能刑事风险、人工智能体能否成为刑事责任主体等问题,目前中国刑法学界不乏否定声音,甚至有学者就刑法学界对人工智能的浓厚兴趣提出火药味甚浓的批评,认为人工智能法学研究出现违反人类智力常识的“反智化现象”。该学者指出,当前关于人工智能的法学研究其实是以“伪问题”代替“真问题”;学者们关于人工智能所谓的“忧患意识”,实则只是依靠无数假想拼凑起来的幻影,只是在用别人的“噱头”吓唬自己;在人工智能法律风险的应对上,当前的研究停留在缺乏教义支持的对策论层面,往往就事论事、毫无体系;主张人工智能可承担刑事责任的观点根本违背人类制定刑法的目的理性,人类对自由刑、死刑的痛苦感来自天然的肉体和心理,机器人没有痛感,在这一点上它连一只有触觉的蚂蚁都不如;对犯罪人工智能体科处刑罚违背刑法谦抑性原则,“法学家从来没有考虑过人类是否能够为机器人成功搭建起道德或伦理的规范体系,而只是简单粗暴地动用刑罚,面对人工智能等高端技术时总是如此急不可耐。”[1]此外,也有学者以人工智能技术发展的阶段性特征为由,认为“讨论人工智能的刑事规制其实是一个伪命题”。[2]

上述批判意见的确为当前相对激进的人工智能刑法学研究提供了理性反思的契机,但断言人工智能刑事风险乃“伪命题”、研究人工智能体刑事归责系以“伪问题”替代“真问题”却不足取,因为它无视人工智能潜在的负面效应给人类带来的危险和危害,犯了从一个极端走向另一个极端的错误。

(一)人工智能内在之刑事风险具有不容否认的客观真实性

人工智能体是否具有刑事风险决不是法学学者的臆想或者断言,而应当由人工智能运行的实际情况以及技术专家的判断来证实。在研发和应用的实践中,人工智能因其自动性和自主性运行特征或程序故障而致人死伤的事例时有报道。如:2015年德国一名大众汽车厂员工在工作中被机器人抓住并压死在金属板上的“智能机器人杀人事件”;同年,中国发生利用人工智能技术破解互联网验证码策略的打码平台非法获取公民信息的“全国首例利用人工智能犯罪案”;2016年装载自动驾驶系统的特斯拉汽车因出现误认而造成全世界首宗自动驾驶系统致人死亡的车祸,特斯拉CEO伊隆-马斯克也明确强调“人工智能是人类文明生存的根本风险”,并呼吁政府迅速而坚决地进行干预、监督人工智能技术的发展;[3]2018年美国亚利桑那州发生优步自动驾驶车撞死行人的事故。此外,以人工智能深度学习为技术支撑的深度伪造(DeepFake)已带来严重的社会风险,尤其是针对公众人物的深度伪造,有对社会秩序和国家安全造成严重冲击与损害的可能。[4]诚然,人工智能体侵害人类的事例尚未普遍发生,却也充分说明能够跟随外部环境变化而自我调整的人工智能体内含失去人类控制而侵损人类法益的危险,决非主观臆断、危言耸听。

从国内外人工智能技术专家的相关研究来看,人工智能内在的不安全性、不稳定性以及具备深度学习能力的强人工智能脱离人类程序控制侵犯人类、反噬人类的可能性和危险性都是得到认可的。例如,英国萨塞斯大学认知和计算机科学学院前院长、有着“人工智能领域的女性牛人”之称的玛格丽特·博登表示,“人工智能已经引起了人们的担心。未来的进步肯定会带来更多问题,所以对人工智能长期安全的焦虑也是非常必要的。更重要的是,它的短期影响也不容忽视。”[5](P185)值得注意的是,牛津大学人类未来研究所曾于2015年发表题为《威胁人类文明的12个风险》的报告,将人工智能的崛起与核战争、巨大火山喷发并列为人类未来的威胁之一。英国伦敦大学学院Dawes未来犯罪案研究中心于2019年2月召开“AI与未来犯罪”研讨会,组织来自学术界、公共部门、私营部门领域具有专业知识的31名代表对人工智能可能涉及的犯罪风险进行科学评测。考德威尔等整理研讨会相关材料,形成并发布研究报告《基于人工智能的未来犯罪》,对人工智能的日益普及所产生的潜在犯罪和恐怖威胁进行分类,并根据预期的受害者损害、犯罪收益、犯罪可实现性和打击难度对相关威胁进行排序,最终对18类威胁给予识别和评级。[6]国内也有不少人工智能技术专家对人工智能内在的危险性发出担忧,表示“人工智能已经不是科幻小说和电影讨论的话题了,现实马上就在眼前。我们必须要把可能的危机与机遇摆在人类的面前,这是人类的权利、科学家职责,我们不能因对未来的恐惧而回避,也无法回避,也不能为了眼前看得见的利益而忘命。”[7](P252)

由此可见,如何妥善应对人工智能的这种内在危险或威胁,科学分配人工智能体侵害人类法益的法律责任,是包括刑法在内的法律体系必须认真对待的“真问题”,至于采取何种刑法措施(刑罚或保安处分),则是刑法关于人工智能刑事风险应对的措施之争,属于解决问题的具体方式,而不涉及对人工智能刑事风险是否为“真问题”的评判。申言之,批评者关于人工智能刑事风险属于“伪命题”的看法既无视人工智能已经带给人类损害的客观事实,还因其反对授予人工智能体刑事责任主体地位的理论主张,误解人工智能刑事风险的具体内容。然而,是否授予人工智能体刑事责任主体地位与人工智能刑事风险是否属于“伪命题”系两个不同层面的议题。理论界就不乏这样的学者,他们即便不赞同赋予人工智能以独立的刑事责任主体地位,却依然十分关注人工智能刑事风险,并积极构建责任分配机制予以应对。[8]

在我们看来,由于评价标准的不同,人工智能体是否会像人类一样直接实施犯罪行为可能存在一定的争议,但人工智能体卷入犯罪而被作为犯罪工具予以滥用或者作为犯罪对象被攻击均属可能,批评者在一定意义上误解了人工智能刑事风险的内容和意涵。正如刘宪权回应批评者时所称,“并非在当今的弱人工智能时代不存在刑事风险,而是批判者为批判或否定别人的观点才对弱人工智能时代的风险采取熟视无睹的态度。就此而言,人工智能技术带来的刑事风险不是法学研究者‘依靠无数假想拼凑起来的幻影’,而认为人工智能技术没有带来刑事风险似乎才是批判者闭目塞听所造成的‘幻觉’。”[9]应当承认,批评者大多强调积极运用既有刑法教义学原理在现行刑法的体系框架下解决人工智能损害法益的刑事责任分配问题,这其实已经径行肯定了人工智能内含损害人类法益的可能,只是认为此种可能性不需要刑法专门进行新的规制。

(二)刑法谦抑性难以否定刑法规制人工智能风险的必要性

刑法谦抑性乃刑法最基础、最独特的属性之一,但却不知从何时开始,在讨论刑法是否应当介入某种新行为或者新领域的规制时,谦抑性总会被提出来作为反对刑法规制的理由,以至于使人产生如下印象:刑法谦抑性已然成为反对刑法介入社会生活的标配性理据,动辄被用于批判刑法新增罪名或者重刑化的立法转向。刑法谦抑性在人工智能风险的法律规制研讨中扮演的角色既有积极的维度,也有消极的侧面,如有学者以违反刑法谦抑性为由反对赋予人工智能法律人格或者刑事责任主体地位,[10]有观点表示刑法对人工智能刑事风险的规制牺牲了刑法谦抑性。[11]但是,不论积极抑或消极,学者们对刑法谦抑性的理解整体是在缓和、否定刑法介入人工智能风险规制意义上展开的,强调人工智能属于新兴科技,刑法前置法以及伦理道德等尚未实现对人工智能的研发和运用提出普世性的明确规制标准,人工智能刑事风险的类型及表现仍有待进一步明确,刑法此时介入人工智能刑事风险的规制过于急切。不过,人工智能刑事风险并非都是尚未明晰的新兴风险,人工智能体被用作于犯罪工具以及被作为犯罪对象的风险已被证实,这些风险给人类利益带来的损害丝毫不亚于甚至远超传统犯罪工具或者传统犯罪。因此,我们在运用刑法谦抑性对刑法是否应介入人工智能风险进行评判时需要慎重,应防止对刑法谦抑性的不准确把握和对人工智能刑事风险的不精确识别导致刑法应介入却因谦抑性的不正当主张而未介入。

毋庸置疑,刑事机制最具严厉性且规制成本最高,因而总是在民事侵权责任机制及行政处罚机制难以达到规制效果时,才动用刑事机制介入特定行为,以实现保护法益的目的。“保护法益的手段多数存在,刑罚是制裁手段中最严厉的,而且其社会成本也大(常被比喻成副作用强的药),因此,使用刑罚应该限于其他制裁手段不充分的场合。”[12](P9-10)刑法具有谦抑性的内在品格,是辅助性的法益保护法,不追求规制任何形式、任何程度侵害法益的行为,但这绝不意味着刑法应对人工智能的客观危险熟视无睹、置若罔闻。“刑法的谦抑性原则应当遵循,但也不能无视当今科学技术的高速发展给人类社会所带来的完全不同于以往的冲击。人工智能技术的发展特别是未来可能到来的强人工智能,人类如果对其应对稍有不慎即可能遭遇灭顶之灾。”[13]在相当意义上,刑法谦抑性的要旨在于规范国家刑罚权的行使,防止国家刑罚权过分或不当侵入公民社会生活,强调合理划分不同法律部门在调整特定行为的具体分工,实现特定行为法律规制系统内部的协调性与互补性,而限定刑法规制范围却非刑法谦抑性的必然要求,刑法规制范围也并非越窄越好。“尽管刑法谦抑主义特征仍然需要予以重视,但这并不等于说,刑法就是消极的,甚至是无为的。”[14](P20)当特定行为具备值得刑法规制的必要性和可行性时,刑法应当果断地介入该行为的规制,以发挥刑法有效且有力的社会规制机能。如果特定危险客观存在并严重威胁法益,适当扩充刑法规制范围以及时介入该危险的防控和治理,正是刑法作为保护人类法益的最后一道防线的题中之义。既然人工智能带给人类社会的刑事风险客观存在,运用刑法给予应对必定是刑法切实承担保护法益任务的表现,并不违背刑法的谦抑性原则。

(三)人工智能风险刑法规制需要教义学与立法论衔接互补

人工智能作为人类社会变迁中出现的新技术,人工智能体侵害人类法益无疑为前所未有的新问题,批判论者希冀完全依靠既有的刑法教义学范式在现有刑法体系内充分解决人工智能体刑事归责问题,明显夸大刑法教义学的功能,割裂刑法教义学与刑法立法论之间应有的联系,缺乏方法的妥当性和实践的可行性。“‘伪问题论’通过质疑将来而回避问题本身的论说思路可能并不可取,看不到或者忽视‘将来’的思考也无益于问题的有效解决,因而‘伪问题论’自身的问题意识也存在合理性疑问。”[15]刑法学研究须秉持应有的务实态度和开放理念,对当前人工智能刑事风险的具体内容和样态进行现实性考察以及必要的前瞻性预测,并根据刑事风险属性的差异,给予不同的刑法规制:对刑法规范体系已能较为充分评价的刑事风险,尽可能运用刑法教义学作用范围内进行准确认定和评价;对运用刑法教义学难以在当前刑法规范体系内准确或者全面评价的人工智能刑事风险,应当转变研究视角,通过制定新的罪刑规范予以规制。

就人工智能体侵害法益及其归责问题来看,现有刑法教义学资源能够基本解决自主性较弱的弱人工智能体侵害人类法益的刑事归责问题,但对具有较强(或完全)自主性、具备独立意识和意志的强人工智能侵害法益行为,却难以给予适当的刑法评价和处置,亟需建构性的“立法论”或“对策论”研究,通过引进新型归责模式来解决其刑事责任分配问题。就此而论,人工智能刑法学研究必然属于批判者所谓的“对策论”,只不过该“对策论”决非恣意的“对策论”,而是建立在新的“教义学”基础上的“对策论”,是对现有“教义学”的必要补充和发展。

诚如张明楷所言,“当下经过了一段解释论之后的刑事立法论,可以避免不合理的立法建议,从而对刑事立法起到更好的指导作用。”[16]刑法教义学与刑法立法论衔接互补的研究范式已经在当前刑法学界对人工智能刑事风险及其规制的研究中得到体现。此外,主张通过新增罪名规制人工智能风险的学者必定也采纳以刑法教义学推动刑法立法论和以刑法立法论补充刑法教义学的双向互动研究范式。[17]依此可见,人工智能刑法规制研究应当继续充分释放既有刑法教义学资源的解释张力,在现有刑法规范体系内规范评价人工智能损及人类法益行为的不法与罪责,避免不必要的刑法条文扩张。以此为基础,对超逸刑法教义学作用范围的人工智能刑事风险及其危害,应当制定新的罪刑规范予以规制,促进人工智能刑法规制司法路径与立法路径的衔接与互补。

二、人工智能体的刑事风险及其归责论争

人工智能所带来的刑事风险除人工智能系统成为犯罪对象被不法攻击或操纵外,还有人工智能体被滥用于实施犯罪的工具性风险,如人工智能体被用于非法搜集公民个人信息、实施诈骗犯罪、侵害社会信用等风险,也有人工智能体脱离人类控制而严重侵害人类的风险。后者又可区分为两类:一是缺乏自主意识的弱人工智能体因程序运行偏差、侵害人类的风险,如前述特斯拉自动驾驶汽车致人死亡事例中,装载自动驾驶系统的特斯拉汽车在交叉路口撞上一辆卡车后面的拖车即是因为程序运行偏差所致:它既错以为拖车明亮的白色部分只是天空的一部分,又错以为司机正在注意路况,如果有事发生,他一定不会袖手旁观。[18](P133)二是能够深度学习的强人工智能体,在自主意识和意志支配下实施程序设计之外的严重侵害人类法益行为的危险。[19]

由于缺乏生命权、身体权、荣誉权和财产权,人工智能体一旦作为犯罪对象被其他犯罪主体所攻击,刑法的聚焦点应为人工智能体自身的算法系统(计算机信息系统)及其相应数据的安全。人工智能体的智能属性及其程度取决于人工智能算法,而“成功的人工智能算法需要三样东西:大数据、强大的电脑运算能力,以及优秀(但未必顶尖)的人工智能算法工程师。”[20](P25-26)在新领域善用深度学习的能力,此三者都是必要的,但其中最重要的还是大数据。如果“喂养”算法系统的数据量越大,人工神经网络获得的样本数据将越多,人工智能体就越能够正确识别出形态,准确辨认真实世界里的东西。当然,人工智能体对算法系统及大数据的依赖也客观上带来算法系统和数据安全的巨大挑战,诱发算法系统与数据安全被不法攻击的危险。对犯罪对象意义上人工智能体刑事风险及其客观危害,应尽可能借助现有刑法罪名体系予以准确评价,即根据行为人行为方式与侵害法益的特征,分别将其认定为刑法分则第六章规定的非法侵入计算机信息系统罪等信息网络犯罪,而当行为人通过破坏人工智能体算法系统或者数据安全操作人工智能体侵犯人类的生命、身体等安全的,可以根据具体犯罪情节,将其认定为以危险方法危害公共安全罪。[21]

在人工智能体被滥用于实施犯罪的责任分配中,犯罪体现的是犯罪人自身的犯罪意志,人工智能体仅作为实施犯罪的特殊工具。“在大多数情况下,算法的背后是人而不是机器在真正发挥决策作用。算法驱动下的人工智能,按照人设定的逻辑,判断、决策、执行各个任务环节。”[22]因此,对于人工智能体犯罪工具风险的刑事归责,应当根据犯罪人滥用人工智能体实施犯罪的客观样态和犯罪人自身的主观罪过形式,对故意设计、制造“邪恶”人工智能体,懈怠注意义务设计、制造严重瑕疵的人工智能体,滥用人工智能体实施犯罪或未尽合理监管义务导致严重危害后果等,分别追究算法设计者、产品制造者与使用者(管理者)的故意或过失犯罪的刑事责任。

例如,人工智能外科医生对病人进行安装新髋关节的手术,手术中人工智体能却出现机械性误差。负责监控手术的人类医生未能尽职地监控手术进程,且无法中途介入以完成髋关节置换术,导致手术不得不提早结束,迫使患者必须进行第二次髋关节置换手术。[23](P26)人类医生原本履行监管义务即可阻断人工智能体内在危险现实化进程,却懈怠监管义务,未能及时发现机械性误差并中途介入完成手术,客观上造成患者髋关节置换不当并需要进行第二次手术,可追究人类医生过失犯罪的刑事责任。不过,“过失意味着不注意,而不注意指的是违反注意义务,也即违反应当为了回避犯罪事实的实现而小心谨慎的义务。”[24](P192)过失犯罪刑事归责的前提要素是具备结果回避可能性,即行为人小心谨慎地履行注意义务,采取回避措施即能够有效地回避法定危害后果的发生,将过失犯罪的刑事归责适用于缺乏结果回避可能性的场合将背离刑法责任主义。据此,如果人类医生尽职地履行监控义务,仍来不及中途介入手术进程,或者即便人类医生中途介入手术进程,仍不能避免人工智能体机械性误差的可能后果,应当以缺乏结果回避可能性为由,将患者因人类医生懈怠尽职监控义务而必须进行第二次置换术的后果认定为不可抗力造成的事故或偶然事件,进而否定对人类医生过失犯罪的刑事归责。当然在此种情形中,人类医生懈怠尽职监控义务符合医疗侵权的构成要件的,不排除从民事侵权的角度考虑追究人类医生的赔偿责任。

在现阶段,人工智能体刑事归责论争的焦点在于:若人工智能产品“变坏”,在运行过程中偏离程序主动或被动侵害人类,该如何分配刑事责任?现代责任主义强调,刑事责任的发动必须具有正当化根据,任何人只能因自己可被非难的行为承担刑事责任。拥有自主意识的人工智能体受其深度学习的指引,在改变自己来适应环境变化的过程中有可能“自主地”“不被预见地”犯下严重侵害人类的“罪行”。在这种情况下,人工智能体研发和运行中所涉及的人类主体都勤勉尽责,所设计和所制造的人工智能体满足合理的产品质量标准,他们与人工智能体的恶行虽有关联但无因果,更无法具体预见人工智能体会严重侵损人类法益,追究其刑事责任将明显抵触现代责任主义。那么,应否肯定人工智能体自身的刑事责任主体地位,以填补人工智能体脱离人类控制而侵害人类风险中可能出现的“责任空白”呢?

对此,肯定论者提出,刑法应重视前瞻预防和风险防控,强调人工智能正深刻动摇传统刑法归责体系及其基础,应从刑事责任能力出发抑或演绎法人犯罪主体法理,根据人工智能体的学习能力和发展代际,肯定具有自主学习能力的智能机器人为“第三类人”“人工人”,赋予其独立刑事责任主体地位,增设删除数据、修改程序、永久销毁等新型刑罚方法,妥善解决人工智能体脱离人类控制、侵害法益的风险中的刑事责任归属问题。[25]与之相对,坚持人工智能体不能成为刑事责任主体的否定论指出,因电子机械运动与人的生理运动之间存在不可逾越的鸿沟,从金属、塑料和指示电极开与关的程序组合中无法产生人的意识。在对人类意识的本质及生成机制缺乏透彻理解的情况下,无论是符号主义还是联结主义,都不能模拟出人的意识。即使假设强人工智能已经到来,考虑对其增设刑罚种类也意义不大。[26]

综合肯定论与否定论来看,否定缺乏自主意识和意志的弱人工智能体的刑事责任主体地位已成为学界共识,论争主要聚焦于强人工智能体是否可以成为刑事责任主体。肯定论者立足人工智能体本身的道义性,主张强人工智能体已经超越工具理性的范畴,成为能够通过深度学习形成自主意识并在其侵害人类法益的过程中实现其自主意识的特殊主体。“现有的罪责理论并不排斥人工智能的罪责,甚至可能发展出一种合理的客观标准作为人工智能罪责能力的判断依据。在此基础上,至少将人工智能主体作为一种拟制的法律主体置于刑法的范畴之内是没有问题的,甚至将其作为道德主体的可能性在事实和逻辑层面也是可以成立的。在人工智能主体具备足够的理性能力的前提下,对其科处刑罚是有意义的,完全符合刑罚目的。”[27]否定论者则继续秉承人类中心主义理念,强调“把人看成是自然界唯一具有内在价值的事物,并理所当然地把人看成是一切价值的尺度,人以外的事物不具有内在价值而只有工具价值,它们理应为人类的利益服务。”[28](P33)人工智能体与人存在明显区别,人工智能体所拥有的“智能”只是人类对于其能够在人类缺乏详细预设的情况下自主完成任务能力的一种表述,并非人类“智力”。[29](P245)

三、不宜以刑罚来规制(强)人工智能体的刑事风险

蕴含强烈规范性谴责和非难的刑罚乃犯罪之最基本、最主要且最核心的法律后果,建构新型“刑罚”以实现对人工智能体自动性运行可能侵害人类法益的刑事风险进行刑事归责似乎是最直接的选择。然而,主张赋予人工智能体(特别是强人工智能体)以刑事责任主体地位,运用刑罚非难、制裁“犯罪”人工智能体以规制强人工智能体刑事风险的肯定论归责方案,虽对现代科技所带来的刑事风险保持了值得肯定的高度警惕,其重构刑事责任理论模型及刑罚措施对完善现行刑事责任理论与刑事制裁体系也具有启发意义,但却存在持论依据及论证路径方面的诸多误区。

(一)误将刑事责任能力视为刑事责任主体地位的充分条件

肯定论者普遍认为,若人工智能体具有“独立意志”“辨认能力和控制能力”,能够“为了实现自己的意志、自主决策并自主实施”行为,或具有“自主性”或“拥有自我的意识”,便符合刑事责任主体的条件。[30]但且不论人工智能体能否真切地理解其所感知事物的真实意义,即便暂时承认能够深入学习的人工智能体具有刑法所要求的辨认和控制能力,也不应据此肯定人工智能体的独立刑事责任主体地位。

的确,刑事责任能力是行为人辨认和控制自己行为的能力,行为人只有在能够辨认自己行为性质及其后果并且能够自由选择是否实施犯罪时才承担刑事责任;而刑事责任主体是实施刑法规定的犯罪行为、值得刑法非难与谴责的刑事责任承担者。刑事责任能力仅为刑事责任主体地位的必要条件而非充分条件,具备独立刑事责任主体地位的主体必然具有刑事责任能力,但具有刑事责任能力的主体却并不一定拥有独立刑事责任主体的地位。“具有‘辨认能力和控制能力’的不止是人类,如家养和野生动物虽有以上能力,但都不是犯罪主体,应当将以上能力限定为超越生物意义的、主要是与人类社会规范相关的‘辨认能力和控制能力’,同时,犯罪主体要排除动物等非人类创造物。”[31]肯定说一味将人工智能体与人的特征进行对比,论证人工智能体具有刑事责任能力的可能性,忽略刑法理论中责任主体归根结底只能是人的这一最基础最核心的要素,[32]走入以偏概全、逻辑错乱的误区。

(二)混淆“自主意识与意志”和辨认与控制能力

传感器、反应器及无线通讯技术的发展,使具有深度学习能力的强人工智能体可以感知外界环境的变化,并自主做出既可能是符合程序设定也可能偏离设定程序的反应,获得超越人类的“自主意识与意志”。如采用强化学习算法的AlphaGoZero在零人类经验的情况下,通过自我训练即可“随机应变”,最终在自我训练三天即以100:0的战绩完败曾经战胜韩国棋手李世石的AlphaGo,在与人类排名第一的棋手柯洁的人机大战中也以3:0的战绩取胜。经由深度学习、自主运行而产生的“自主意识与意志”被肯定论者认为具有“辨认能力和控制能力”,甚至强调“与人类相比,强人工智能产品具有更强的控制能力和可培养的辨认能力”。[33]

以辨认与控制能力为核心的人类思维、情感、心智是人类与其他生物最明显的区别之一,也是人类自身尊严和奥秘所在,与人工智能通过学习、归纳和推理表现出的“逻辑思维”“物理理性”大相径庭。肯定论者将“自主意识与意志”和辨认与控制能力予以等同,无视人工智能与人类智能的客观差异,曲解刑法中辨认与控制能力的实质。对此,斯坦福顶尖人工智能专家杰瑞·卡普兰曾发出警示:“人们倾向于认为,大部分人工智能系统和特殊的机器人类似于人类的大脑和肌肉,虽然可以理解,但是这样的想法却是很危险的。长期以来,人工智能领域一直在利用我们对于人格化对象(看起来像我们或者行为像我们)的自然喜好,因为它们可以吸引人的注意力或吸引投资。但同时这样的对象也会误导人们,让人们相信及其比它们实际上更像我们,并进一步假设它们有理解能力并会遵守我们的社会习俗。”[34](P35)人作为社会性存在,并非机械、物理性地参与社会交往实践,刑法中人的辨认与控制能力均具有强烈的社会性和规范性,不是纯粹感知到“有”或“无”“存在与否”等事实特征,而是对行为性质及其后果的规范认知并以此为前提有意识地选择为或不为特定行为,以符合其参与社会交往和实现自身人格的需要。刑法设定和追究刑事责任旨在,以非难违反刑法规范的行为并制裁其行为主体的方式命令人们遵从刑法的规范。显然,唯有以具有规范性辨认和控制能力、能够理解刑法规范意义的人为对象方能实现刑事责任的内在目的。

与此相关,人工智能体基于深度学习做出表现于外部世界的反应或举动也难以认定为刑法中的“行为”,缺乏值得刑法处罚的对象。刑法中的行为是在自由意识和意志的支配下所实施的具有社会意义的外部动作,“在目前的发展状态下,似乎人工智能产品的行为都很难被归入行为的范畴内。即使我们把行为的‘身体’维度排除在外,这一行为的定义永远都不适用于机器,智能主体的行为既不能被视为‘与社会相关’,也不能被视为刑法意义上的‘自愿’”[35]。

(三)不当演绎单位作为独立刑事责任主体的法理

除将人工智能体深度学习产生自主意识和意志的能力视作刑事责任能力外,肯定说还演绎单位作为独立刑事责任主体的法理基础,表示“自然人与智能机器人之间最大的区别在于自然人有生命,而智能机器人没有生命。但是没有生命的单位可以成为刑事责任主体,这就意味着‘生命’并不是成立刑事责任主体的必备要件。”[36]不过,“法人是法律拟制的产物,没有法律的拟制,法人的任何一种行为均可以还原为自然人之行为。而人工智能机器人却是实实在在的事物,有没有法律的拟制均为客观的事物。换句话说,法人是法律之子,而人工智能是自然之子,两者存在事物本质上的差异。”[37]当前单位刑事责任主体地位的取得仍以自然人为基础,未超逸自然人责任观念的基本范畴。

单位承担刑事责任的前提是依法成立的单位在“单位意志”的支配下由单位成员出于单位利益的需要实施刑法规定的犯罪行为,并将犯罪所得的利益归属于单位。其中,与人工智能体的明显区别有三:一是单位的责任主体地位得到民法或经济行政法等刑法前置法的确认,而人工智能体却未获得法律人格。虽然域外人工智能体有被授予法律人格的成例(如2010年日本富山县接受陪伴机器人Paro的户籍登记请求;2017年沙特阿拉伯授予人形机器人Sophia国籍,承认其公民身份),但却被包括人工智能科学家在内的各方人士更多地认为是一种公关噱头,一场科技领域的作秀,绝非对人工智能体法律主体身份的真正肯定。[38]在刑法前置法尚未认可人工智能体法律主体地位之前,肯定论确有抵触刑法谦抑性之虞;二是单位犯罪须在单位意志支配下实施,但单位意志仍由自然人主导,是单位内部成员意志的集中体现且由单位成员具体执行,非在自然人毫不干涉的情况下自主形成;三是单位犯罪的犯罪利益应归属于犯罪单位,但人工智能体缺乏权利主体资格,难以实际拥有“犯行”所带来的“犯罪利益”,也难以为“犯罪”付出相应的“刑罚代价”。事实上,有学者在考察单位责任的实质根据后正确地指出,“各种学术观点中的公司刑事责任,无非是某一部分自然人的责任,即便强调责任的整体性,亦是自然人责任的不同表现形式。公司罪责并非对传统责任论的突破,也当然不能成为肯定机器人刑事责任的根据。”[39]故而,以单位与人工智能体均为无生命体而单位却拥有刑事责任主体地位为由,主张人工智能体应被赋予独立刑事责任主体地位,缺乏令人信服的说服力。

(四)新设刑罚方法难以切实发挥刑罚机能、实现刑罚目的

为防止赋予人工智能体独立刑事责任主体地位但既有刑罚方法却无法有效惩治犯罪人工智能体,肯定论者还特别按照人类刑法所规定的刑罚方法,创造出删除数据等新型刑罚方法,用于惩治犯罪人工智能体,以实现人工智能体罪责自负的要求。然而,这些新型刑罚方法发挥刑罚机能、实现刑罚目的之实际效果并非不值得怀疑。“不论设计何种刑罚措施,基于人工智能特殊的存在形态,任何物理意义上的刑罚手段都无法实现应有的惩罚效果,而从对被害人内心安抚角度审视,当前人们在观念上同样难以通过对机器施加刑罚措施得到心灵上的慰藉。”[40]其实,删除犯罪人工智能体的“犯罪记忆”,能否保证该人工智能体不会如前次犯罪那样重新走向犯罪的道路,毕竟具有深度学习能力的人工智能体能够在算法设计之外自主行动?修改人工智能体的程序如果确有效果,为何不在人工智能体算法设计过程中即修改相应的程序或者径直加入避免侵犯人类或侵犯人类即自动报废的程序要求?按照肯定论者对人工智能体可能脱离人类控制甚至淘汰、奴役、消灭人类的设想,人类是否有足够的能力和实力彻底销毁严重犯罪的人工智能体呢?凡此种种,均需得到肯定论者应有的重视。

事实上,肯定论为规制人工智能“反噬”人类的刑事风险,提出应当修正、解构甚至否定人类中心主义的立场,在人类之外肯定存在其他类型的法律主体,赋予人工智能体特别是强人工智能体以独立性刑事责任主体地位[41],认为“在智能时代,修正的人类中心主义才是更好的现实选择”[42],以此破解人工智能体刑事风险现实化过程中可能出现的“责任空白”难题。然而,人类中心主义是人类所建构的各种规范性制度取得最终实效的基本保障和内在缘由,肯定论者主张缓和或修正人类中心主义在相当程度上弱化了人类的主体性地位和价值,是对人类价值与人格尊严的不当放弃,得不偿失,非明智之举。当前,坚持人类中心主义已成为人工智能界的普遍共识,即人工智能研发与应用必须以人为本,以追求并扩大人类福祉为宗旨。[43]人工智能体脱离人类控制严重侵害人类法益的归责方案理应继续坚守人类中心主义的立场,坚持人工智能体的工具理性,意识到人工智能体缺乏人心人性,其外部行动建立于对外部世界客观事实的感知而非价值意涵的理解,是深度学习能力及算法系统驱动下的自动性反应,与人际间社会交往互动存在明显区别。同理,人工智能体对人类法益的侵害既非人工智能体自由意志的外部表现,也不是能够避免侵害情况下有责任地违反规范,而是算法系统运行的必然结果,缺乏被刑罚非难的主体适格性。

四、可能的方案:运用保安处分抗制(强)人工智能体的刑事风险

就刑法作用机制的具体构造来看,刑法对社会关系的规制是借助刑罚方法非难行为人违反禁止性规范主动攻击特定法益,抑或违反命令性规范应当救助却不救助特定法益,其规制理由除侵害法益的特定后果以外,还包括行为人在能够遵守相关规范的场合却基于自由意志选择(有责任地)违反相关规范,即犯罪系行为人自由意志外化的客观结果,是行为人犯罪性人格的重要表现,而刑罚则是对犯罪性人格的正式否定,是对行为人自由意志犯罪性外化的非难形式。

以深度学习为技术支撑、靠大数据“喂养”的人工智能系对人类智能的模拟和仿效,其固然能够借助各种传感器捕捉外部世界的信息变化,并按照预先设定的算法系统作出特定反应,但却只是具备人类认识能力和控制能力以及自由意志的外观,而缺乏人类特有的人格性这一本质要素。“人类与机器人一项重大的道德差异在于机器人缺乏人格性,无法参与在人际关系之中。虽然机器人作为道德主体,在外显的行为表现上可以跟人类一样,甚至更好,但无法享有人际关系理由的事实,代表在涉及到干涉人类自主性的情况时,机器人的行为应当受到比人类更大的限制。”[44]赋予“犯罪”人工智能体独立的刑事责任主体地位,直接追究人工智能体自身的“刑事责任”,貌似是对人工智能体“犯罪”的报应和非难,但此种报应和非难的对象却不是人工智能体能够遵守法律规范前提下“自由”“自主”地选择实施侵害人类法益,并未真正触及人工智能体的“人格性”。

当前,人工智能技术正成为推动社会发展的重要动力,也是我国在现代国际竞争中实现“超车”的重要弯道,理应坦然正视且致力抑制或消除人工智能体带给人类利益受损的刑事风险,充分保护人机交互或人机融合中人类的利益和福祉。前述人工智能体缺乏被刑罚非难主体适格性的理论展开,旨在强调不宜赋予人工智能体独立刑事责任主体地位、径直追究“犯罪”人工智能体“刑事责任”的方式,解决人工智能体自动运行过程中侵害人类法益可能出现的“责任空白”,并不意味刑事反应机制不应介入人工智能体的刑事风险及其归责领域。

在特定行为的刑事反应机制中,刑罚方法系国家对行为人能够实施合法行为的情形下有责任地实施该当构成要件的违法行为所施予的责任报应和非难谴责。“刑罚是以剥夺法益这一形式所体现的责任非难的现实的表现形式。责任是刑罚的基础,并且决定了刑罚的性质。”[45](P469)依托现有刑事归责理论无法赋予人工智能体独立刑事责任主体地位,难以肯定以刑罚规制人工智能体刑事风险的适宜性,于是放弃对人工智能体直接进行归责,将目光投向社会防卫论以及以此为基础的保安处分,就成为应对人工智能刑事风险的务实选择。对此,有论者借鉴刑事近代学派所主张的社会防卫论,创造性地提出“科技社会防卫论”:“在应对人工智能等科技产品危害社会的风险时,只要有客观危害产生或者有危险存在,对实施了社会危害行为或者有危险性的人工智能就应当适用具有保安处分性质的技术消除措施。”[46]毋庸讳言,为消除客观危险的社会防卫论曾在学术史上遭到批判,但以社会防卫论为基础所构建的保安处分在管控风险、保障安全上超越刑罚(刑事归责)的特殊优势却得到现代刑法的普遍肯认,刑罚与保安处分双轨并行的刑事制裁体系也得到相对广泛的提倡和采用。

在双轨制中,刑罚是在满足报应需要前提下,追求一般预防与特殊预防的双重目的,其以过去的犯罪行为所表现出的责任为基础,通过剥夺犯罪人之法益,实现对具有刑事责任能力者实施犯罪行为的非难和谴责。与此相对,保安处分则仅出于特殊预防的考量,以将来实施严重危害社会的危险性为基础,采用改善、隔离等矫正或排害措施,抑制或消除社会危险性。鉴于“根据犯罪行为的罪责程度而裁量的刑罚,往往不能正确而完整地达成刑法预防犯罪的目的构想”,[47](P389)作为刑罚补充的保安处分直接针对处分对象的社会危险性,面向将来实施严重危害社会的可能,不涉及对过去严重危害社会行为的谴责或非难等否定性评价,不以具有刑事责任能力为前提,不以犯罪人具有被刑罚非难的主体性资格为必要,[48](P125)契合了人工智能刑事风险防范的现实需要。同时仅就犯罪预防而言,刑罚是透过剥夺犯罪人的重要法益使犯罪人与普通公众认识到实施犯罪将受到国家的谴责并遭受法益被剥夺的不利后果,进而产生“不敢”或“不愿”实施犯罪的预防效果;而保安处分则聚焦于剥夺犯罪人工智能体的犯罪能力或消灭人工智能体,使之“不能”再犯罪。人工智能体不是可自负罪责的刑事责任主体,其自主运行过程中内在风险及其现实危害难以归咎于人工智能体本身,为此,对人工智能体所施加的“技术性危险消除措施”放弃对刑法上可非难性的考量,专注于消除人工智能体自身的风险,可归入对物保安处分措施的范畴。②

与对具有危险性格的人所实施的保安处分不同,对物保安处分是国家为抗制犯罪或侵害社会的危险,对诱导犯罪发生之物或者过去犯罪残存之危险物采取的预防措施,旨在消除特定物的社会危险性。“如果某种物对公共安全或社会秩序具有危险性,而且从防卫社会的角度出发应予没收的,这种没收就属于保安处分。”[49](P21)除刑事没收以外,典型的对物保安处分措施还有责令犯罪者提供一定数额财物担保将来不再实施犯罪的善行保证、关闭营业所、解散法人及停止业务等。[50](P86)破解人工智能体刑事风险及其现实化之危害后果的归责难题,需要应当继续坚守人类中心主义根本立场,根据人工智能刑事风险的独特属性、具体内容并结合刑法的性质任务以及运行机制,探索建立有效且科学地规制人工智能体刑事风险的(对物)保安处分体系。亦即特定人工智能体在自主运行中严重侵害人类并且有证据证实其仍有继续侵害人类危险的,司法机关可在参考专业技术意见的基础上对该人工智能体适用删除数据、修改编程以及永久销毁等技术性危险消除措施。这些技术性危险消除措施绕过人工智能体自身刑罚非难适格性的论争,因专注于消除人工智能体内在之侵害人类法益的刑事风险,确保人工智能运行的安全性,与保安处分具有性质、内容及价值上的同一性。

采用保安处分的方案破解人工智能体侵害人类法益的归责疑难,直面人工智能体内在的技术风险,既有助于摆脱人工智能体侵害人类的责任应当归咎于何种法律主体的纠结,回避以刑罚规制人工智能刑事风险必须具备可非难性的局限,进而为国家公权力介入人工智能体刑事风险的抗制提供理论支持和正当性根据,也有利于督促人工智能体的使用者审慎监管人工智能体的实际运行,及时阻断人工智能体内在刑事风险现实化流程,确保人工智能体始终在安全和值得信赖的环境中得到合理使用。毕竟对“问题”人工智能体采取的技术性危险消除措施必定会构成对使用者正常使用人工智能体不同程度的制约。

结语

鉴于人工智能在增强综合国力、提升国际竞争力以及引领时代发展方面的独特优势,中国已经毫不迟疑地加入了新一轮人工智能革命,并将人工智能技术的研发与运用作为提高经济社会发展智能化水平、增强社会治理能力的重要抓手和强力支撑。然而,“来自未知的力量也让人们有些无所适从,担忧、不安甚至惶恐的情绪,也让人们深受困扰。人们不知道人工智能研究像潘多拉的盒子那样装满了灾难,还是像一部电梯,带着人们通向更高级的人类文明。”[51](P26-27)不论在现实中还是理论中,人工智能体所蕴含的刑事风险都是制约人工智能发展的重要障碍。人工智能进步价值的充分释放,有赖于包括刑法在内的整个法律体系乃至社会控制体系有力、有效地应对人工智能刑事风险,但人工智能刑事风险防控措施的选择理应准确识别人工智能刑事风险的客观属性以及不同风险防控措施的独特原理,科学把握风险种类及防控措施之间的内在逻辑关联,确保人工智能刑事风险及其归责方案的正当性和实益性,避免将刚走出科幻世界不久的人工智能重新带入科幻世界。

 

注释

①本文在系统的维度使用“人工智能”的概念,基于人工智能系统驱动的实体则为“人工智能体”,特此说明。

②值得注意的是,保安处分因其处分内容及法律依据的差异,可以区分为刑事保安处分与行政保安处分两类。不过,刑事保安处分与行政保安处分虽然法律属性上存有区别,但二者的实质意涵均为消除或者抑制特定社会风险(人或物),保障社会安全。保安处分刑事性与行政性的固有区别,并不影响将技术性危险消除措施归入对物保安处分范畴的正当性,毕竟对物保安处分与对人保安处分是在处分对象维度对保安处分进行的类型化区分。

 

[参考文献]

[1]刘艳红.人工智能法学研究中的反智化批判[J].东方法学,2019,(5).

[2]白海娟.人工智能“犯罪”之否定[J].兰州学刊,2020,(8).

[3]王心馨.人工智能威胁人类生存?马斯克又就这个问题和别人吵架了[EB/OL].http://m.thepaper.cn/wifiKey_detail.jsp?contid=7409929&from=wifiKey#.

[4]李怀胜.滥用个人生物识别信息的刑事制裁思路——以人工智能“深度伪造”为例[J].政法论坛,2020,(4).

[5](英)玛格丽特·博登.人工智能的本质与未来[M].孙诗惠,译,北京:中国人民大学出版社,2018.

[6]M.Caldwell,J.T.A.Andrews,T.TanayandL.D.Griffin.AI-enabledfuturecrime[J].CrimeScience,2020,(9).

[7]谢淳,许慧.第四纪思维与认知[M].天津:天津科学技术出版社,2017.

[8]叶良芳.人工智能是适格的刑事责任主体吗?[J].环球法律评论,2019,(4).

[9]刘宪权.对人工智能法学研究“伪批判”的回应[J].法学,2020,(1).

[10]王殿宇.人工智能刑事主体资格之否定及其进路[J].广西大学学报(哲学社会科学版),2019,(5).

[11]余德厚.从主体资格到权责配置:人工智能法学研究视角的转换[J].江西社会科学,2020,(6).

[12](日)佐伯仁志.刑法总论的思之道·乐之道[M].于佳佳,译,北京:中国政法大学出版社,2017.

[13]陈叙言.人工智能刑事责任主体问题之初探[J].社会科学,2019,(3).

[14]付立庆.积极主义刑法观及其展开[M].北京:中国人民大学出版社,2020.

[15]魏东.人工智能犯罪的可归责主体探究[J].理论探索,2019,(5).

[16]张明楷.增设新罪的观念——对积极刑法观的支持[J].现代法学,2020,(5).

[17]王燕玲.人工智能时代的刑法问题与应对思路[J].政治与法律,2019,(1).

[18](美)迈克斯·泰格马克.生命3.0:人工智能时代人类的进化与重生[M].汪婕舒,译.杭州:浙江教育出版社,2018.

[19]刘宪权.人工智能时代的刑事风险与刑法应对[J].法商研究,2018,(1).

[20]李开复.AI·未来[M].杭州:浙江人民出版社,2018.

[21]郭旨龙.中国刑法何以预防人工智能犯罪[J].当代法学,2020,(2).

[22]周辉.算法权力及其规制[J].法制与社会发展,2019,(6).

[23](美)约翰·弗兰克·韦弗.机器人是人吗?[M].刘海安,译,[M].上海:上海人民出版社,2018.

[24](日)高桥则夫.刑法总论[M].李世阳,译,北京:中国政法大学出版社,2020.

[25]刘宪权,胡荷佳.论人工智能时代智能机器人的刑事责任能力[J].法学,2018,(1).

[26]周铭川.强人工智能刑事责任之否定[J].上海政法学院学报,2019,(2).

[27]江溯.人工智能作为刑事责任主体:基于刑法哲学的证立[J].法制与社会发展,2021,(3).

[28]雷毅.人与自然:道德的追问[M].北京:北京理工大学出版社,2015.

[29]马兆远.人工智能之不能[M].北京:中信出版社,2020.

[30]夏天.基于人工智能的军事智能武器犯罪问题初论[J].犯罪研究,2017,(6).

[31]皮勇.人工智能刑事法治的基本问题[J].比较法研究,2018,(5).

[32]于冲.人工智能的刑法评价路径:从机器规制向算法规制[J].人民法治,2019,(17).

[33]刘宪权.人工智能时代的“内忧”“外患”与刑事责任[J].东方法学,2018,(1).

[34](美)杰瑞·卡普兰.人工智能时代[M].李盼,译,杭州:浙江人民出版社,2017.

[35]DafniLima,CouldAIAgentsBeHeldCriminallyLiable:ArtificialIntelligenceandtheChallengesforCriminalLaw.SouthCarolinalawreview,2018,(69).

[36]马治国,田小楚.论人工智能体刑法适用之可能性[J].华中科技大学学报(社会科学版),2018,(2).

[37]董玉庭.人工智能与刑法发展关系论——基于真实与想象所做的分析[J].现代法学,2019,(5).

[38]谢玮.网红机器人索菲亚何许“人”也?[J].中国经济周刊,2018,(5).

[39]李本灿.自然人刑事责任、公司刑事责任与机器人刑事责任[J].当代法学,2020,(3).

[40]时方.人工智能刑事主体地位之否定[J].法律科学,2018,(6).

[41]商玉玺,刘三洋.文化、本体与规范:论人工智能的刑事主体性[J].重庆理工大学学报(社会科学),2020,(6).

[42]孙道萃.智能时代的刑法立法——人类中心主义与现实功利主义的取舍[J].学术交流,2020,(4).

[43]张丽卿.AI伦理准则及其对台湾法制的影响[J].月旦法学杂志,2020,(6).

[44]何宗兴.反思机器人的道德拟人主义[J].欧美研究,2020,(2).

[45](日)野村稔.刑法总论[M].全理其,何力,译,北京:法律出版社,2001.

[46]黄云波.论人工智能时代的刑事责任主体:误区、立场与类型[J].中国应用法学,2019,(2).

[47]林山田.刑法通论(下)[M].北京:北京大学出版社,2012.

[48]曹波.刑事职业禁止制度研究[M].北京:法律出版社,2018.

[49]乔宇.刑事涉案财物处置程序[M].北京:中国法制出版社,2018.

[50](日)川出敏裕,金光旭.刑事政策[M].钱叶六,译.北京:中国政法大学出版社,2016.

[51]周晓垣.人工智能:开启颠覆性智能时代[M].北京:台海出版社,2018.

 

 

作者:刘仁文,中国社会科学院法学研究所研究员、刑法研究室主任;曹波,中国社会科学院法学研究所博士后研究人员,贵州大学法学院副教授。

来源:《江西社会科学》2021年第8期。

 

防范人工智能安全风险

将一张“神奇贴纸”贴在脸上,就能让人脸识别门禁系统出现误判,毫无防备地为陌生人打开大门;把这张“贴纸”放在眼镜上对准手机,就能解锁其人脸识别系统,获取用户信息如入无人之境……这曾经只出现在科幻电影中的场景,如今已经在现实生活中发生。日前,首届人工智能安全大赛在北京举办,上述攻防场景在大赛中令不少观众直呼惊讶。

近年来,我国人工智能产业规模快速增长。据工信部发布数据显示,人工智能核心产业规模超过4000亿元,比2019年同期增长6倍多,企业数量超过3000家,比2019年同期增加15%,在制造、交通、医疗、金融等重点行业形成一批典型应用场景。“伴随应用场景日益广泛以及使用频次快速增长,人工智能安全风险发生的范围和可能性持续提高。”中国科学院院士、清华大学人工智能研究院名誉院长张钹认为,以深度学习为代表的算法爆发拉开了人工智能浪潮序幕,在计算机视觉、智能语音、自然语言处理等众多领域取得长足发展。但以数据驱动的第二代人工智能在可解释性、稳健性方面的缺陷也逐渐暴露出来,导致安全事件频发。如何实现高质量发展和高水平安全良性互动,是当前人工智能产业面临的最为重要命题。

中国信息通信研究院发布的《人工智能白皮书(2022年)》同样指出,随着人工智能应用暴露出各种风险和挑战,以及人们对人工智能认识的不断深入,人工智能治理已经成为全球各界高度关注的议题,对可信安全的呼声不断增多。

“人工智能安全风险主要从‘人’与‘系统’两个角度剖析。从人的视角看,人工智能安全风险存在技术滥用甚至‘武器化’问题。”北京瑞莱智慧科技有限公司CEO田天以深度合成技术为例解释,该技术能够大幅提升内容制作效率与质量,但其负向应用——深度伪造的风险正持续加剧且已产生实质危害。比如,通过“AI换脸”捏造虚假讲话视频等引导公众舆论。对此,清华大学人工智能研究院基础理论研究中心主任朱军认为,技术是中性的,应加强对应用场景、使用者的监管,防止技术滥用等衍生风险发生,保障其应用可控。

大赛现场演示的人脸识别破解则展示了人工智能系统层面风险,它来自深度学习模型本身存在脆弱和易受攻击的缺陷,通过输入数据添加扰动,使系统作出错误判断,导致其可靠性难以得到信任。这一漏洞在自动驾驶感知系统同样存在:正常情况下,自动驾驶系统识别到路障、指示牌、行人等目标后,会立即制动车辆,但对目标物体添加干扰图案后,车辆感知系统就会出错,引发碰撞危险。“与传统信息系统不同,人工智能系统存在高度不确定性,技术漏洞更为复杂。”朱军建议,在算法模型外部署安全防护组件,利用算法安全检测与防御加固等措施,抵御模型窃取、对抗样本等新型攻击,提高攻击门槛与防御成本,让攻击者无利可图,从而在源头上实现安全。

北京航空航天大学软件开发环境国家重点实验室副主任刘祥龙则认为,构建科学评测手段是提高人工智能系统防御能力的另一项有效解决方案。人工智能算法不仅种类众多,还包含数据集、模型等众多要素,涉及训练、测试、验证等多个环节,这使得人工智能算法安全性评测成为一项复杂命题。因此,应配备从测试、分析到加固的完整技术手段,形成标准化测试流程。人工智能安全评估不仅局限于算法,未来还应拓展至数据、应用等多个层面,形成全面测评,保障人工智能全周期安全。

从长远看,人工智能安全问题需要从算法模型原理上寻找突破口。张钹提出构建第三代人工智能,即在第二代人工智能具有的数据、算法、算力3个要素基础上,再融合知识要素,建立新的可解释、稳健的人工智能方法。

筑牢人工智能安全屏障需要不断在攻防演练中升级对抗能力。大赛聚焦人脸识别、自动驾驶等场景中的典型漏洞及风险,通过考核漏洞发现、挖掘等能力,寻找新型安全需求场景,推动人工智能安全攻防技术创新,为强化人工智能治理体系与安全评估能力建设提供支撑。

作为人工智能产业发展重要基石,算力基础设施的加快建设将满足人工智能爆发式增长的算力需求。国家工业信息安全发展研究中心日前发布的《人工智能算力基础设施安全发展白皮书》指出,安全的算力基础设施应保护数据模型不被窃取,有效防范恶意攻击,提供可信任的运行环境,保障人工智能系统安全稳定。

但人工智能算力基础设施发展仍处于初期阶段,专门的安全标准、技术体系、评估规范、监测和检查手段仍在建设中。为进一步推动人工智能算力基础设施安全发展,国家工业信息安全发展研究中心副主任何小龙认为,算力基础设施与人工智能的安全问题相互交织,应构筑具有针对性的一体化、全链路标准体系,实现协同联防。同时,鼓励算力基础设施企业和算法企业加强合作,推动安全技术工具集成到人工智能算力基础设施中,降低企业应用人工智能成本,形成安全发展良好氛围。(经济日报记者李芃达)

版权声明:本文内容由互联网用户自发贡献,该文观点仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌抄袭侵权/违法违规的内容,一经查实,本站将立刻删除。

上一篇

下一篇