博舍

深研原因力理论 理性应对人工智能带来的刑事风险 人工智能可能带来的伦理道德风险

深研原因力理论 理性应对人工智能带来的刑事风险

陈伟

当前,ChatGPT等生成式人工智能的诞生和繁荣为人类生产和生活提供极大便利的同时,亦带来众多新生危险源,有可能导致技术风险的扩散。新技术会引发哪些法律风险,又该如何应对?在“面向未来的刑法学:理论发展与方法创新”国际学术研讨会上,本报记者就此采访了西南政法大学法学院教授、重庆市新型犯罪研究中心执行主任陈伟。

记者:何为生成式人工智能?

陈伟:生成式人工智能是技术衍生下的新型人工智能形式,国家互联网信息办公室《生成式人工智能服务管理办法(征求意见稿)》第2条将生成式人工智能界定为:“基于算法、模型、规则生成文本、图片、声音、视频、代码等内容的技术。”ChatGPT就是典型的生成式人工智能形式。一般认为,生成式人工智能擅长生成新的、原创性的内容,而不再是简单地对已有数据的分析和模仿。

记者:ChatGPT等生成式人工智能相较于传统人工智能有哪些特性?

陈伟:就现阶段的生成式人工智能而言,其主要具有三方面较为显著的特性。一是极强的类人属性。以ChatGPT为代表的生成式人工智能可以输出极为类似于人类主体的内容与行为,对于一般人而言,这种人工智能生产的内容甚至很难分辨。二是进阶的算法黑箱。算法黑箱通常指算法仅被开发者、生产者一方掌握,而对用户、社会公众不公开、不透明。而ChatGPT等生成式人工智能的出现或将导致算法黑箱的“升级”。一般而言,人类主体仅能在前后两端对基于深度学习技术并使用了大规模神经网络模型的生成式人工智能主体施加影响,而对于其内部的具体运行逻辑无法完全掌握。换句话说,开发者能够判断生成式人工智能可能基于某个预训练数据而产出相应的内容,但无法确定其产出该内容的具体逻辑。此时,算法过程变成了“仅人工智能本身了解”的黑箱,可以把它称为进阶的算法黑箱。三是相对独立的行为。第三个特性实际上与第二个特性存在一定的联系,由于ChatGPT等生成式人工智能在其运行的整个过程,包括数据挖掘、预训练、优化训练等过程中具有相当的独立性,开发主体无法对其一举一动进行完全掌握,而只能施加影响。所以,个人认为,ChatGPT等生成式人工智能已经不再是牵线木偶,其可以实施相对独立的行为。

记者:科技的进步是一把双刃剑。生成式人工智能可能引发哪些刑事风险?

陈伟:有关生成式人工智能可能引发法律风险的问题在各国学界已有系统论述,主要集中于知识产权领域,但对于刑事风险鲜有论及,或虽论及但仅停留在伦理道德层面。事实上,生成式人工智能背后同样具有潜在的刑事风险,将来甚至可能对刑法体系造成冲击。单就现阶段来看,生成式人工智能的刑事风险可以细分为内源性刑事风险与外源性刑事风险两个层面。

内源性刑事风险即是生成式人工智能由内而外引发的风险,换言之,就是生成式人工智能自身所诱发的风险。这种风险主要源自数据挖掘进程,由于该进程具有极高的自动化属性,在对互联网数据合法性尤其是合刑法性判断错误的情况下,生成式人工智能完全可能基于不符合刑法规定的数据进行训练,从而向用户输出违反刑法规定的内容。此外,生成式人工智能自动爬取的数据亦可能未经相关知识产权主体的充分授权,从而在知识产权层面触刑。

外源性刑事风险,顾名思义,是指生成式人工智能基于外界影响而诱发的刑事风险。由于生成式人工智能会受到来自开发者与使用者两端输入数据的影响,若相关主体向生成式人工智能输入违反刑法规定的数据或者内容,便可能因此诱发外源性刑事风险。

记者:如何应对生成式人工智能可能引发的法律风险,尤其是刑事风险?

陈伟:首先是要对法律风险的整体状况进行充分评估,判断其是否对现行的法律体系造成冲击。就现阶段来看,其他部门法应当出台一系列细化规定,为生成式人工智能技术发展保驾护航。而刑法领域则应当平衡技术发展和社会风险之间的关系,奠定作为基础的刑法观念。具体而言,对于生成式人工智能技术的迅速发展可能产生的刑事风险的预防与规制,应采取一种“适应性刑法观”。在当前阶段,生成式人工智能技术尚不能对刑事法律体系造成严重冲击,无须通过立法层面的积极立法加以应对,更应当在坚守刑法本位观的立场上,静观其变,通过刑法理论层面的积极革新妥善应对生成式人工智能技术迅速发展所引发的刑事风险。

记者:对于生成式人工智能可能引发的法律风险,法学界尤其是刑法学界,未来应加强哪些方面的理论研究,从而为司法实践提供理论支撑?

陈伟:面对生成式人工智能可能引发的刑事风险,刑法学界应当在秉持科学合理刑法观念的基础上,实现刑法理论与刑法基本教义的与时俱进,从而妥善应对生成式人工智能可能引发的刑事风险。个人认为,原因力理论能够为正确、全面理解生成式人工智能提供理论依据。

原因力理论常见于民法领域,常被用于解决多人侵权中各行为人的责任划分问题。在刑法领域中,虽然我们经常提及原因力,但实际上对原因力理论的研究还不够系统深入。随着ChatGPT等生成式人工智能的诞生及发展,我们逐渐意识到人类与人工智能之间的关系由控制转化为影响,在此基础上,传统刑法因果关系理论不能为生成式人工智能开发者、生成式人工智能、生成式人工智能使用者三者之间的因果关系进行正确解释,理应用更为恰当的原因力理论进行理解。当然,碍于视野的局限性,传统的原因力理论存在一定的缺陷,故应当对传统的原因力理论进行创新。例如,将接受原因力的主体适当扩充至生成式人工智能等一系列非人主体。又如,将行为间关系纳入原因力范畴,从而对开发者、使用者行为对生成式人工智能行为的影响进行充分研究。在此基础上,还应当对原因力的程度及种类进行详尽划分,为解决生成式人工智能的刑事规制问题奠定理论基础。

多名专家做客“人工智能与技术伦理”课程

2021年11月9日、23日、30日下午,清华大学公共管理学院教授、人工智能治理研究中心主任、人工智能国际治理研究院副院长梁正教授、信息国家研究中心助理研究员顾心怡博士和西南政法大学高等研究院院长、人工智能法律研究院院长侯东德教授,先后做客我校核心通识课“人工智能与技术伦理”,分别在线做了题为“人工智能的负责任创新:从伦理到治理”、“由准则走向实践:企业的人工智能伦理构建”和“人工智能伦理与法治”的前沿讲座,并进行了线上同步直播。

 

梁正教授的讲座内容包括人工智能与社会相互嵌入的技术系统、人工智能风险与挑战、人工智能的负责任创新系统三大方面。梁教授系统介绍了人工智能在公共管理、科研、金融、政府决策等各个领域的嵌入。人工智能正在推动社会生活和公共治理的转型和变革,也带来了一定的影响与风险,风险不仅来源于人工智能技术本身,也来源于技术应用中的多种相关社会因素。为了应对这些风险,梁教授提出了从伦理到治理的新角度——构建一个多维共治的负责任的人工智能社会技术系统,即负责任的人工智能创新既需要创新者个人的伦理意识和自觉行动,也需要发挥政府监管、行业自律和社会监督的合力,建立三位一体的负责任创新系统。

侯东德教授的讲座内容包括伦理视野下的人工智能法治,人工智能生成物的法律保护,智能决策导致的法律责任和人工智能时代的法治建设四个方面。侯教授从伦理的视角解析了人工智能法治的内涵、价值追求和四大基本原则,探讨了如何定位人工智能的法律地位。侯教授认为人工智能不具备成为法律主体资格的条件,应定性为法律的客体。法学界对于人工智能生成物的保护也存在争议,侯教授认为在当前的假设和条件下,人工智能生成物既不具备作品的独创性,但人工智能生成物在法律上具有邻接权。针对未来人工智能技术的应用给人类带来各种程度损害的可能情况,侯教授分别从民事、刑事和行政三个层面分析了相关的责任归属问题,以及在法律内外针对不同程度风险采取不同防范措施的必要性。

 

 

    顾心怡博士的讲座内容包括企业伦理的发展沿革与伦理构建、人工智能企业现状与伦理问题和构建企业人工智能伦理的措施与机制三个部分。在人工智能时代,企业是人工智能伦理的实践主体,顾老师回顾了企业伦理学的发展历程以及与企业伦理相关的理论基础,以及企业的组织关系、商业模式和伦理责任的变革。企业伦理建设涉及技术安全、数据治理、算法公平和可问责性几大方面,伦理的竞争也成为当今商业竞争的核心。企业不仅要重视经济利益,也要重视道德价值的实现。顾老师提出了一些具体的企业构建的伦理准则与机制,建立联通企业经济效益与社会效益之间相互促进的协调机制,实现技术与产业的可持续发展。

三位老师都和同学们进行了积极互动,解答了他们提出的问题。同时,他们希望AI领域的科研和技术人员能够充分重视AI伦理与治理的重大意义,促进AI技术健康可持续发展。三位老师的讲座为本科课程增添了新的内容,为师生们在人工智能及伦理治理的学习和研究中提供新的思路与视角。

梁正,清华大学公共管理学院教授,人工智能治理研究中心主任,清华大学人工智能国际治理研究院副院长,清华大学中国科技政策研究中心副主任,清华大学科技发展与治理研究中心学术委员会秘书长,兼任中国科学学与科技政策研究会常务理事、副秘书长,中国知识产权研究会高校知识产权专业委员会和中国城市经济学会城市公共经济与政策专业委员会副主任,《科学与管理》、《中国标准化》杂志编委。先后获第八届高等学校科学研究优秀成果一等奖,中国科学学与科技政策研究会优秀青年奖等多项奖励。主要研究方向为科技创新政策、研发全球化、标准与知识产权、新兴技术治理。

侯东德,西南政法大学民商法学院教授,高等研究院院长,人工智能法律研究院院长,中国法学会商法学研究会理事。长期从事民商法学的教学和理论研究工作,主持及参加课题研究十余项,出版学术专著及教材五部,发表学术论文三十余篇。

顾心怡,北京大学哲学系伦理学博士,清华大学信息国家研究中心助理研究员。曾参编教材《人工智能伦理导引》,于《科学技术哲学研究》等刊物发表论文,如《脑机接口的伦理问题研究》。主要研究方向为人工智能伦理、脑机接口伦理等。

(计算机学院,人文学院)

智能养老护理机器人的伦理反思与建议

LUOYN,SUBB,ZHENGXY.PreplannedStudies:TrendsandChallengesforPopulationandHealthDuringPopulationAging:China,2015–2050[J].ChinaCDCWeekly,2021,3(28):593-598.

版权声明:本文内容由互联网用户自发贡献,该文观点仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌抄袭侵权/违法违规的内容,一经查实,本站将立刻删除。

上一篇

下一篇