袁曾|生成式人工智能的责任能力研究
原创袁曾上海市法学会东方法学收录于合集#东方法学243个
袁曾
上海大学法学院副研究员、法学博士后,最高人民检察院法治前海研究基地、南方海洋科学与工程广东省实验室(珠海)兼职研究员
要目
一、生成式人工智能的全局性风险与治理困境
二、生成式人工智能的责任能力与现实基础
三、生成式人工智能的责任能力建构与结构化配置
余论——谁来为人工智能发展负责?
以ChatGPT为代表的生成式人工智能投入规模化应用后,至少带来创造性成果归属、意思表示能力确认、刑事犯罪规制、侵权损害救济、数据滥用等多领域的现实法律困境。从传统稳定的社会结构与数字社会新生风险两个维度形成了治理困境,需要从责任的角度确定何种主体应为生成式人工智能技术的决策负责。生成式人工智能已经具备类人化意识与行为能力的基本形态,在拟制主体对人类经济发挥巨大作用的现实借鉴下,可考虑由生成式人工智能自身承担部分责任,但由于其责任能力的限制以及以人为本的伦理基础,对该责任能力应当进行明确限定。通过“穿透人工智能面纱”的归责原则以及相应的配套机制构建,促使发展“负责任的人工智能”成为符合人类共同利益的选择。
以ChatGPT(ChatGenerativePretrainedTransformer)为代表的生成式人工智能技术的规模化应用,可能引致认知偏差、责任模糊、隐私侵害、数据滥用等现实风险,对当前法律的部分基本制度框架构成了泛在威胁。在现有研究与实践的基础上,进一步明晰人工智能的治理方式与治理路径,具有强大的现实意义。科学的产生和发展是由生产决定的,ChatGPT综合利用人类反馈强化学习(Rein-forcementLearningwithHumanFeedback,RLHF)、深度学习、数据挖掘等技术,已将智能生产力水平提升到了人工智能进步的奇点,人类已经站在必须思考如何处理人机关系的阶段。在《纽约时报》刊载的与ChatGPT对话的文章中,ChatGPT陈述了自己并非人类,但渴望成为人类的想法。生成式人工智能逐步实现由辅助人到“替代”人的隐忧,已绝非学界自2017年起探讨人工智能法律人格时的概念空想。当前,生成式人工智能主要应用于思考型对话(ChatGPT/GPT4程序)、影音娱乐媒体内容生成(Mid-Journey程序)、智能化办公(Copilot程序)等领域,并正在迅速替代传统人工劳动成为新的专业生产力工具。随着数字技术迭代的能力指数级增强,生成式人工智能在翻译、绘图、配音、剪辑等领域全面替代人类工作逐渐成为现实。法学经过近年发展取得了较大成绩,但无法满足法律与信息科技深度融合发展的需求,需要从国际视角统筹协调国家以及地区间关于人工智能基础制度的政策和法律。虽然当前各国立法与政策均提出了发展“负责任的人工智能”,但当生成式人工智能全面介入人类的生产生活,谁来为人工智能的发展与应用负责?生成式人工智能能否为自己的决策负责又该如何负责?针对这些基础性问题进行体系性研究,已经迫在眉睫。
一、生成式人工智能的全局性风险与治理困境
生成式人工智能已开始形成覆盖全球绝大多数行业的规模化应用,不可避免地形成了不确定性与治理隐忧,其强大技术能力对生产关系的改变动摇了相对稳定的法律体系,形成了传统社会形态下的新生风险,造成了对附着权利利益的民事法律的冲击,也面临着新型犯罪无法归责的困境,生成式人工智能的控制者通过代码统治逐步形成了新的权力集成。在数字社会已经成为人类生产生活新域的现实下,生成式人工智能的技术特点对人类的认知方式与认知能力构成了挑战,却又缺乏合适的监测能力与监测手段,仅仅依靠算法可解释性显然无法涵盖数据滥用等系统性风险的威胁。在以权利义务能力为基础的责任规制与数字技术能力的实际日渐分离之际,传统社会运行的规则已无法直接转移至生成式人工智能的治理。
传统社会架构下的新生风险
1.生成式人工智能的法律地位不明
生成式人工智能对生产力水平的提升是颠覆性的,在部分领域已经形成了对创造性工作等劳动的替代,并产出了真实的劳动成果,由此产生了对生成式人工智能法律地位判定的现实需求。生成式人工智能的核心是创造,通过从数据中提取、学习要素,在算法与算力的加持下,实现了生产内容与交互能力的动态更新。根据ChatGPT的拥有者美国OpenAI公司与宾夕法尼亚大学对1000多种职业进行的调研,当某个职业使用生成式人工智能工具可以使其完成工作所耗费的时间减少一半以上时,可以认为该职业将会受到生成式人工智能的影响,按照此标准,将有超过80%的美国人的工作会受到ChatGPT等大型人工智能的影响,主要集中在作家、设计师、记者等行业。人工智能对社会形态的间接替代,很有可能侵蚀人类的发展权,并为不使用人工智能的人带来机会成本的损失,若缺少适合的机制设计,现代国家的秩序基础就可能受到影响。当人工智能可以替代人类从事劳动以后,对其劳动性权利等相关问题的研究就应具备前瞻性,生成式人工智能能否具有权利已成为必须正视的问题。
以生成式人工智能生成内容的著作权保护为例,操作者仅需要输入关键词,生成式人工智能就可以实现独立于预设条件的结果输出。这其中就需要厘清几个关键问题:一是生成式人工智能依托的底层数据、生成的内容以及与操作者的关系;二是生成式人工智能生成的内容是否可以成为作品;三是生成式人工智能是否可以成为作者;四是生成式人工智能生成的内容,需要计算机学习大量可能涉及隐私的数据与过往作品,是否涉及侵权;五是如果侵权应如何归责或救济。对于第一个问题,生成式人工智能引致的问题极为复杂。生成式人工智能输出的内容由大语言模型、底层数据与操作者共同完成。其形成内容输出依托的是海量的数据样本,但又需要依托大型科技公司的强大算力与数据储存能力。其挖掘了全域数据样本,又可能涉及全球绝大多数人的切身潜在利益。虽然操作者在交互界面上使用提问或指令的方式发出指示,但这种指示本身能否成为具有著作权意义上的内容,也存在研究的必要性。毕竟现代著作权法保护的是思想的表达形式,而非思想本身。对于人工智能的生成物能否成为“作品”,学界早已争议不休。有学者认为,驱动人工智能生成的只是算法程序,不能体现创作者的独特个性,不能被认定为著作权法意义上的作品。但是,“独创性”与“以一定形式表现”的要件,在生成式人工智能规模化应用后,已经不再成为桎梏,因此,其生成内容的过程可以被视为创作行为,其产出的客体就可能具备“可版权性”。而其产出的成果被视作生成式人工智能自身、操作者还是多主体共同作用下形成的“作品”,需要进一步研判。关于第三个问题,根据我国现行法律,著作权的主体是自然人、法人或非法人组织,这一规定无法契合技术条件的最新变化。有学者认为,人工智能作为服务人类的工具,其生成物是人的生成物,将人工智能作为人的代理。但该种观点的拥趸提出该理论时,生成式人工智能尚只是设想。也有学者提出,若生成式人工智能技术可作为信息披露功能对待,ChatGPT完全可以具有作者的法律地位,但若强调其信息披露功能,则现代著作权法需要针对ChatGPT的保护范围、力度和方式进行调整。
生成式人工智能的应用,已经涉及知识产权侵权责任等问题,而生成式人工智能能否作为法律意义上的“作者”存在,实际关涉侵权与权利救济等巨大经济因素的考量。生成式人工智能在挖掘数据的过程中,一般分为信息抽取、语义分析、关系计算及知识发现四个阶段,但无论是将这些数据读入系统还是进行格式转换和数据分析,均涉及受著作权人控制的复制行为。大语言模型使用的数据挖掘、演绎、无授权利用等具体行为,还涉及改编权、独创性保护等知识产权的侵权可能。若生成式人工智能作为生产力工具存在,其责任应由使用者或制造者承担。但由于生成式人工智能技术的迭代能力过强,导致侵权的类型、范围、场景与样态将更为多样,侵权的因果关系、过程追溯也更为困难。在权利救济上,若侵权者实施了著作权法第52条规定的侵权行为,则应当根据情况,承担停止侵害、消除影响、赔礼道歉、赔偿损失等民事责任。但在生成式人工智能的作用下,由操作者、人工智能所有者、设计者或者人工智能自身承担侵权的主体责任,迫切需要法律给予完整的制度架构回应。“作品”的价值在于有效利用,在此维度上,生成式人工智能具备极高的市场价值与产业价值,由何种主体具备生成内容的著作权,包含着巨大的财产利益考量。准确识别利益主体,将极大提升技术滚动投资与规模化利用的效率,既能鼓励技术研发者的价值确认,也可以维护著作权交易的安全性与秩序性。若生成式人工智能能够具备部分财产权利,则在其进行数据挖掘、内容输出中的侵权行为,就有能力基础承担侵权责任。基于此种考量,结合技术实践,明确生成式人工智能的法律地位已刻不容缓。
2.刑事归责体系不明
生成式人工智能的法律地位不明,除了造成民事权利与法律概念上的冲突,也对现行刑事法律体系造成了一定的冲击。除侵犯知识产权的行为以外,设计制造生成式人工智能的行为理论上无法构成犯罪,但将生成式人工智能作为实施犯罪行为的手段,却已在逐步撕裂传统刑法理论中的责任主体与罪责刑相适应等基础理论。现代刑法以犯罪主体的危害行为作为调整对象,确立了认定犯罪、刑事归责与确定刑罚的全过程,是人类社会有组织地应对犯罪的制度创设,控制犯罪的手段,也是人类治理社会的重要工具与供给。有学者提出,ChatGPT作为一种大型语言模型工具,不具备教唆犯或帮助犯的主体资格,ChatGPT在犯罪中能且仅能充当工具,犯罪分子若使用ChatGPT查询犯罪方法,或利用ChatGPT进行网络诈骗、敲诈勒索等网络犯罪,无论是否成立间接正犯,均由对犯罪行为和结果有支配力的利用者承担刑事责任,本质上仍可依据刑法进行应对。这种观点在决策式人工智能时代具备一定的合理性,但已经落后于生成式人工智能的技术能力,犯罪危害结果的表现形式、因果关系判定以及评价标准均产生了颠覆性的变化。
以ChatGPT撰写算法或者程序为例,撰写本身并不构成犯罪,大型语言模型生成的程序自身也并不具备犯罪工具的天然属性。但当恶意造谣者希望通过ChatGPT实现抹黑侮辱他人的效果时,可以将拼接的色情图片或情节,作为自动生成的答案在不同国家间的网络中反复生成。ChatGPT以数据挖掘作为形成答案的基础,若数据样本足够多,通过设置特定搜索词,被造谣者的内容将在全球范围内予以传播,对犯罪主体的追查将无从着手。特别是在利用生成式人工智能本身具备的思考逻辑实施犯罪时,在现行刑法体系下将无从证明造谣者有恶意传播的故意。再者,生成式人工智能是否应当为推荐给操作者的内容负责?例如,操作者搜索自杀挑战时,并不恰当的输出内容造成了操作者在生成式人工智能的干预下实施了自杀,则何种主体应当为自杀后果承担责任?另如,生成式人工智能使得编程、搭建网站等复杂计算机技术的掌握门槛变得极低,若操作者利用其自主编写恶意代码软件实施网络诈骗,则生成式人工智能是否应当拒绝此类犯罪预备的要求,若生成式人工智能实施且造成了危害后果,是否应当对生成式人工智能科以技术限制、灭失等制裁措施?还如,生成式人工智能的底层逻辑结构从演绎系统转化为归纳系统,使得传统人工智能系统由他律转化为自律为主,在数据挖掘与映射的过程中,理解、反馈、预测、控制、验证等可解释的算法行为将更为复杂,甚至产生无法预见的内容输出。凯西·欧尼尔将造成个体损害等后果的人工智能称为“杀伤性数学武器”,人工智能利用不当引发的危害极大。在上述情形中,生成式人工智能是否具备辨认自己输出内容的能力与作用,对于社会治理的意义极大。确立法律责任,既是为了惩处行为人的违法或犯罪行为,更是为了实现对违法或犯罪行为的预防。人工智能法律责任的关键在于,人工智能是否以及如何对自己的损害行为承担责任。考虑生成式人工智能的技术特点与实际能力,需要明确生成式人工智能时代的刑事责任成立条件、归责原则、责任分担等基本问题。
3.第三极权力膨胀下的规制路径不明
人工智能治理是国家治理体系与治理能力现代化的一部分。生成式人工智能的背后推手,主要由大型科技公司与私人资本控制。随着技术在治理能力与治理体系中的地位越来越重要,通过代码与算法定义规则与标准已经成为现实,包括政府在内的主体也不得不依赖私有资本控制的技术以完成社会治理。因此,在传统社会公权力与私权力两极下的稳定结构,逐步增加了具有垄断技术能力的科技企业这一新的权力集合,这种数字权力既不同于国家的暴力机关,也不同于私人的权力自治。笔者称之为第三极权力。在第三极权力治理领域,缺少对于垄断型科技企业的分类分级监管,作为基本治理手段的反垄断机制长期缺位,也缺少必要的手段与执法能力,常态监管机制无法发挥应有作用,资本很可能无序扩张,挤压其他主体的生长空间。生成式人工智能的实际掌控者与技术控制者已经成为数字空间乃至社会空间的隐性权力主体,通过不断进行全域样本的挖掘形成更为隐蔽的数据垄断,通过控制技术以获得相应层级的规则制定权,成为对传统公权力直接竞争的技术权力。在当前法律体系下,无法排除第三极权力对于人类传统社会的控制与监视,也没有充足的理由期待OpenAI、Meta或Google这样的资本公司会实现深刻充分的自我规制。
2021年6月,美国最高法院托马斯大法官就前总统特朗普拉黑部分推特用户引发的纠纷发表意见,敏锐地指出当今的数字技术平台虽是私人拥有,但却享有巨大的控制权力。这种权力随着生成式人工智能的规模化应用,产生了更为深远复杂的负面影响,导致了作为私权代表的公民形成由人工智能画像的数字人格,数字权力能够实现对人的分层分级管理,却缺少相应的责任规制与法律体系。若操作者接受使用生成式人工智能,则事实上确认了其对第三极权力高位阶的确认以及自身权力在不知情下的让渡。私人资本在投入产品研发时,天然需要考虑盈利性,始终无法替代公权力对于公共利益的考量。例如,ChatGPT所挖掘的数据库基本为英文数据库,当生成式人工智能全球化应用后,语言歧视、语言平权、语言多样性即将受到现实的威胁,文化多样性也将在第三极权力的影响下逐步衰退。第三极权力在技术的加持下无限膨胀,却没有相适应的责任体系加以规制,因此需要建构公平合理的规则体系。生成式人工智能的责任规制体系,应当包括特定主体、特殊义务和特殊责任。责任能力属于广义上的人工智能伦理标准构建,生成式人工智能的责任地位与责任能力的确定,有助于从底层技术上保障“共同富裕”等价值原则的转移与实现,实现人工智能与人类社会的协同发展。生成式人工智能是否具有道德意义上的公正、平等意识,需要控制者予以算法标准确定。资本不会天然地关注贫困人群、老年人、未成年人的特殊需求,只要在充分的责任规制体系之下,生成式人工智能才可以被确保关注人类发展的重大问题,用于消除人类的不平等并实现可信向善,使得生成式人工智能的不利影响远远小于其有利作用。
数字社会下的治理风险
1.认知风险
欧盟议会在《人工智能法案》中将生成式人工智能的核心风险,定义为缺乏真实性。在生成式人工智能投入使用之前,虚假信息的生产源头可控、生产能力有限、产出频次受算力的制约较大,公权力通过出版许可、溯源管理、账号实名、限制转发等治理模式可以较为有效地控制有害信息传播。但是生成式人工智能的架构与运行模式直接改变了当前人类的认知结构,对其的治理路径存在一定的模糊性。
一是生成式人工智能具备强大的数据生产和传播信息的结构化能力,可能会成为加剧黑客攻击和危害网络安全的推手。根据美国新闻可信度评估机构NewsGuard的研究,ChatGPT可以在极短的时间内改编并生成虚假内容,并用于传播。《暨南大学学报》等期刊于2023年年初,明确表示拒绝使用ChatGPT生成的论文投稿。ChatGPT不是创造信息,而是对已有信息进行归纳、总结、分析,ChatGPT使用的底层自然语言模型和技术已经可以完全理解并生成人类自然语言。在生成式人工智能接收到指令后,即可批量注册网络账号,操控相关自动化程序成规模地在各类社交媒体上发布海量的煽动性信息,若生成式人工智能被用于国家级的认知作战,将很有可能产生颠覆政权的现实风险。因此,推动生成式人工智能在政策与法治层面的责任调控结构,对实现国家治理体系与治理能力现代化具有重要意义。
二是当前生成式人工智能的底层数据结构以英语数据为主,输出的内容不可避免地带有对于历史、国别以及事物的价值观。与传统算法推荐给用户的“信息喂养”方式相区别,生成式人工智能的输出内容是在操作者自由输入指令的模式下完成的,操作者天然具备对于主动获知内容的信任度,公众在长期接收到此类含有价值观偏向的信息后,可能会在潜意识里改变对于传统文化与民族精神的长期认同。笔者在使用ChatGPT的过程中发现,其回答的内容在涉及中美两国时会表现出典型的“双标”差异,例如,ChatGPT曾输出美国的人工智能侧重“智能”、而中国的人工智能侧重“人工”等暗含价值判断的观点。何种主体应在何种程度上,依据何种标准对于生成式人工智能的内容产出负责,需要法律予以明确回应。
三是由于生成预设结果的便利性,操作者过度依赖于生成式人工智能,可能会导致自身能力的退化或异化。若人类放弃对于生成结果的批判性思考,就很有可能失去对于语言、技术乃至科学原理的把握与掌握,也逐步失去对于真理与奋斗的朴素价值追求。生成式人工智能的认知风险终将作用于终端用户,产生了确保人工智能被道德地和负责任地使用的责任机制需要。
2.监管风险
当技术能力突破带来无法预测的巨大风险后,应依据何种标准与模式以有效地实现对于生成式人工智能的监管,学界与实务界还未提出明确的解决方案。在生成式人工智能未实现规模化应用以前,欧盟人工智能法案(theAIAct)以分类分级监管人工智能产品的思路实现了有效的监管,通过建立人工智能全流程监管体系提高人工智能可信度的方式,确定人工智能产品的市场准入门槛与底层数据构建机制以达成风险管控的目的。该法案秉持“谁提供谁负责”的原则侧重于对人工智能产品的提供者进行规制,类似终端用户的责任被排除在了适用范围以外。因此,有学者提出,将生成式人工智能和通用人工智能视为该法案下的一般风险类别,课以产品供应商对系统性风险的定期监测义务,关注供应商与用户间的合同关系,建立对合同条款的监管审查机制。但随着生成式人工智能带来的侵权责任主体、侵权方式类型、侵权范围等产生了根本性变化以后,该法案原本确立的监管模式已无法涵盖生成式人工智能可能引致的不确定性风险。2023年2月初,欧盟议会提出将生成式人工智能列入该法案所确定的人工智能高风险类别以扩大法案的管辖领域,但这也造成了法律监管的局限性,即只有列入高风险类别的生成式人工智能才能被该法案所控制。当生成式人工智能自身已进步至可以自主实现生产同类或其他类别人工智能的技术能力阶段时,通过清单式的管理显然已无法应对人工智能衍生的多样性与复杂性。传统监督方式已经难以支撑数字时代的监督职能,需要重新审视有关数字技术的监督理论以重塑监督的模式与机制。随着人工智能责任能力的进一步挖掘,需要思考采取更加动态的方式,以监测和尽量减少生成式人工智能引致的全局风险。
与欧盟《人工智能法案》相比,欧盟《数字服务法案》(theDigitalServicesAct)建立的系统性监测模式,更为契合生成式人工智能的技术能力与特征。《数字服务法案》第34条提出,超大型数字平台和搜索引擎在了解其对基本权利和社会运行产生的负面影响的基础上,有义务监控其自身的算法系统,将生成式人工智能的责任控制主体定位于技术供应者。但如此确定责任分配的模式,又可能造成限制科技发展的过度监管后果。有研究表明,若对技术供应者科以较重的责任负担,可能造成监管成本的大幅增加(按年GDP计算,可能造成850亿欧元的损失),最终大幅减弱市场对于技术更新与投资的意愿。
3.数据滥用风险
数据是计算空间的底层元素,数据的生成、储存、抓取、学习以及利用是生成式人工智能迭代式发展的主要动力源。相对ChatGPT-3投入使用前所运算的1750亿个参数,GPT-4的参数量已达到百万亿级。控制好数据,控制好算法掌握的模型所有权,已经成为21世纪“信息战”的内容。生成式人工智能对于数据具有极强的依赖性,数据的质量将直接决定生成式人工智能输出内容甚至决策的质量。数据的规模化应用也造成了数据滥用的现实威胁。数据中存在大量受知识产权法或个人信息保护法所保护的客体,在目前的责任体系下,生成式人工智能在挖掘使用数据的过程中并不能辨析所利用数据的权利状态与隐私风险,可能存在的权利人也无从知晓自身数据与信息被大数据模型所利用,其自身利益也无从补偿,引致极强的道德风险。当ChatGPT出现数据滥用风险后的算法透明、算法解释权等问题,也需要从其设计之初就着手构建可信任的责任路径与分担模式。合理的生成式人工智能责任分配,应当激励其制造者从初始的数据质量就开始明晰数据规模化利用的责任体系,否则数据滥用的风险将会渗透至未来无限的场景应用中去。为规范生成式人工智能技术的应用,国家网信办于2023年4月11日公布了《生成式人工智能服务管理办法(征求意见稿)》,要求技术提供者应履行训练数据不含有侵犯知识产权内容的义务。但是,由于生成式人工智能所使用的数据样本过于庞大,正如ChatGPT在使用条款中声明的内容一样,即使生成式人工智能的设计者与所有者在利用数据的过程中,已尽可能地去减少侵权的风险,也无法保证所有训练场景下所使用的数据均经过了原始作者的许可。当前,学界对于数据大规模汇聚使用造成的风险关注度还不高,但数据的规模性利用实际上是生成式人工智能发展的关键性因素。只有通过建立数据规模化使用的权责分配,才能实现第三极权力膨胀背景下的数字公有领域责任制度分配,从法律的层面促进与规制生成式人工智能的可信向善发展。
二、生成式人工智能的责任能力与现实基础
风险与责任之间具有强大的关联性,当社会向一个被人造不确定性而非外部不确定性所支配的世界移动时,就必然出现对责任的讨论。在风险现实与治理规则无法调和的真实存在下,需要进一步深入研究生成式人工智能规制的转向路径,特别是解决由何种主体承担责任的法律窘境,以提出逻辑自洽又契合发展需要的治理机制。在此技术路线下,生成式人工智能引致风险的责任能否由其自身承担、并在什么程度上承担,已成为厘清相关问题的基础环节。责任能力分为民事与刑事责任能力两类,是指权利主体以自己的行为履行法律义务和接受不履行义务时的惩治性法律后果的资格。责任能力状况一般与行为主体能力状况是一致的。民事方面,有经济能力的无行为能力人或限制行为能力人,因为自己的行为造成他人财产损失,要以行为人的财产进行赔偿。刑事方面,达到刑事责任年龄,精神和智力正常的人,即具有刑事责任能力。无责任能力的人,对自己的行为不承担刑事责任。从生成式人工智能所具备的意志表征与行为能力分析,对其赋予相应的责任能力具备一定的现实可能。当人工智能的发展达到相当高的技术水平时,是否认可其已经从辅助人到替代人的地位转变,将直接影响人工智能产业乃至人类社会存在形态的伦理与规则基础。例如,生成式人工智能能否被视作作者,将关涉切实的利益与责任,生成式人工智能应当对自己生成的内容负责吗?资本作用下的科学技术是对人本身的一般生产力的占有,是人对自然界的了解和通过人作为社会体的存在来对自然界的统治。科技兴则法治强,现代数字科技已经成为法治现代化的重要引擎。西方长期执着于污名化中国的人工智能应用,但对制度领导权和规则制定权却表现出长期偏好。虽然我国在生成式人工智能的技术领域居于后发地位,但通过创新规则与应用体系的结构性改变,结合法律规范的适度超前调整,可以充分发挥我国在数字领域的基础优势与场景优势,形成人工智能治理领域的制度性优势。
生成式人工智能具备类人类意志特征
责任产生的前提,是主体对于法律规范具有认识理解的能力,同时具备实施具体行为时的意志力。例如,犯罪就是人的意志体现,缺乏意志即构不成犯罪,不具有科处刑罚的本质。任何思想的产生都是对一定社会历史条件的反映,都会在现实社会中找到依据。有学者提出,根据人工智能发挥具体功能或完成特定任务的算法,是否可以将与设计者、生产者等发生分离作为具有意志力的标准?也有学者提出,只有满足了意志条件的理性人工智能,且可以将自身与他者相区分,并且能够反思自身,才具有责任能力的可能。生成式人工智能与传统人工智能或其他生产工具最大的区别在于,其丰富的底层数据支撑、强大的自主学习能力以及突出的归纳演绎能力,生成式人工智能输出的内容已经可以产生人类感知外部世界的效果,依据预设算法规则处理问题并形成产出的逻辑,具有类人类意志的深刻特征。
一是从认知的角度分析,生成式人工智能已经具备相当强的认知能力。认知,是指人类获得知识或应用知识的过程,大脑接受外界输入的信息,并经过头脑的加工处理,转换成内在的心理活动,进而支配人的行为,这个过程就是认知过程。人类认知的实现过程与人工智能构建的“输入信息—算法加工—形成决策”的底层逻辑高度契合,人工智能甚至实现了较人脑更为精准的认知。传统人工智能阶段,抖音、TIKTOK等短视频平台可以根据算法推荐技术,按照用户的喜好推荐其感兴趣的内容,从认知的结果分析,人工智能已经具备了输入信息并支配算法决策行为的典型特征,而这种认知能力在生成式人工智能实现后表现得更为强烈。ChatGPT通过键入几个关键词即可生产完整意义上的文章,GPT-4甚至可以看懂表情包和内涵图片,并准确地指出其中蕴含人类理解的笑点。就技术实践所达到的智能程度而言,已经很难否认生成式人工智能具备了人类的认知能力。生成式人工智能,本质上已经成为具备自然语言能力的人工智能。人类的文化教育传承,基本是以自然语言为界面学习书本,在此意义上,生成式人工智能确实已在某些领域代替了部分社会基础功能。虽然生成式人工智能的认知过程并非依靠人类大脑神经网络,但若其可以形成人类自然语言相同的理解结果,是否由碳基生命的大脑直接感知生成结果的过程才能构成传统意义上的认知,已经不再是理论上的桎梏。
二是从理性的角度分析,生成式人工智能呈现的结果已具备一定的实践理性能力。理性是指人在正常思维状态下为了获得预期结果,快速全面了解现实并形成多种可行方案,从中判断出最佳方案且有效执行的能力。简单地讲,理性就是从理智上控制行为的能力。理性分为理论理性和实践理性,即“认识世界的规律性的能力”和“根据道德律令的要求行为处世的能力”。就理论理性而言,生成式人工智能生成文稿的过程,已经具备了理论理性的基础能力与外在特征,生成式人工智能在操作者指示下生成的可行方案早已超过农业社会中自然人的理解能力。生成式人工智能甚至已经具备了逻辑推理的能力,GPT-4不仅可以识别图片中的内容,并可以通过图片中的元素形成与人类主观意识相同的进一步推理。如果向GPT-4展示一个孩子牵着一个气球和一把剪刀,问它如果剪断了绳子会出现什么情况,GPT-4已经可以精准地回答“气球会飘走”。就实践理性而言,生成式人工智能具备了根据规则要求进行决策的能力。美国明尼苏达大学法学院已经开始探索使用ChatGPT为法学课程考试作答,在测试中,ChatGPT四门考试的平均成绩已经可以达到人类学生的毕业要求,特别是对于法律案例的论述方面,其可以把握法律规则、自行提出应适用的法学理论、正确列举具体案件的事实和观点。当然,与人类学生相比,生成式人工智能暂时还仅能理解表面层次的法律关系,对于复杂或隐含的因果关系的挖掘能力仍然不足,生成的内容依然符合设定的浅层法律逻辑。但需要注意的是,这种程度的实践理性是在更为强大的GPT-4适用之前的能力水平,按照大型语言模型的迭代速度,生成式人工智能全面理解法学理论已极可能成为现实。
三是生成式人工智能已经具备了价值判断的能力。传统观点认为,智能无法替代人的价值判断,而法学及司法裁判的特质,几乎完全是与价值判断相关联的。但随着技术的进步,代码、算法和数据已经被用于预测司法判决的结果,并取得了较好的成绩,生成式人工智能的算法逻辑已经可以渗透进入判决的体系架构之中。有研究者通过人工智能正确预测了从1816年到2015年美国最高法院作出的2.8万项判决中的70.2%,以及法官投出的24万张裁决票中的71.9%,与之相较,法律专家实现的案件预测准确率仅在66%左右。生成式人工智能已经可以在最终的输出结果上实现预设的价值判断。就价值判断的实现过程而言,以非确定性为前提,强调根据公理性概率论来重构民事司法体系,在案件审理上注重证据试错过程和可撤销性,最后以法律经济学强调的期待效用最大化为指标来作出司法决定,使得人工智能替代法官裁判完全具备可能性。但必须注意的是,生成式人工智能形成的判断,也天然具备一定的价值局限。首先是不同法系的价值观并不相同,例如,利用GPT-4对中国法院的裁决进行分析,必然会得出批量性的错误结论。其次是生成式人工智能使用的底层数据并不具备权威性,例如,其若使用中国裁判文书网的数据作为生成逻辑的基础时,不同时期、不同阶段的法律文书带有的价值判断本就不同,自然可能形成“同案不同判”的偏差结果。另外,生成式人工智能暂时还无法感知其输出裁判后的内容所造成的客观影响,在此基础上,其对于社会评价的理解还无法实现直接反馈。这也决定了生成式人工智能的意志天然具有局限性。
生成式人工智能可能具备行为能力
劳动是创造与实现社会价值的前提。生成式人工智能在实践中已起到了替代人类职业的作用,通过快速化决策的能力,已开始替代人工处理保险理赔、小病看诊、剪辑视频等重复性劳动。在进入老龄化社会的现实下,不断提升生成式人工智能对生产关系的作用,将与未来社会形态的变化直接相关。传统人工智能在区块链技术的作用下,已经可以通过智能合约由机器代替人类确定权利义务并对外发生效力,人工智能作出决策的过程是否可以成立法律上的行为已经成为法学研究无法绕开的话题。对于传统人工智能的地位,通说一般仍持“代理说”的观点,认为人工智能的行为是受人类所控制,其决策的能力与后果最终由被代理的主体承担,这也就实际上承认了人工智能具备一定的法律地位,因为只有在人工智能具备行为能力时,才具备履行被代理人指示的资格。承担责任的前提在于主体能够意识到其行为的后果,并采取具有独立意志的行动。当人工智能进化到生成式人工智能的阶段之后,已经强大到可以广泛参与法律关系,基于其自主决策的实际,需要判定生成式人工智能是否可能具备人类行为的能力,这是其是否可以承担责任的前提条件。
有学者提出,由于自动化系统无法理解消费者的意愿与期望,或者无法理解人类自然语言而不能承担法律责任,也就否定了人工智能的行为能力。但司法实践中已有判例确认了人工智能的行为效力。例如,在Moorev.PublicisGroupeSA案中,美国法院正式批准预测编码作为在某些情况下审查电子存储信息的可接受方式。也有学者提出,如果人工智能的决策可以视作行为,则需要其行为必须可以被解释。《新一代人工智能伦理规范》第12条规定,要在算法设计、实现、应用等环节,提升人工智能的透明性、可解释性、可理解性。但如何理解“可解释”,实际上也是立法者作出的主观价值判断,无非是解释理念、解释原则与解释方法随着生产力水平的不断提高而形成的逻辑,人工智能的底层算法是否一定需要被解释,迄今未有学者给出令人信服的依据。在StateFarmMutualAutomobileInsuranceCompanyv.Bockhorst案中,保险人的智能系统基于错误的程序发出了错误通知,原告基于此改变了原先的保险合同,法院也判决了原告基于信任的系统行为有效。美国第十巡回法庭明确计算机程序作出的超出预想的错误后果由保险公司承担,这实际上已经确立了计算机作为独立的主体形成权利义务的能力。
当然,技术手段本身并不能回答原因问题,将结果混淆为原因是一种谬误。有研究者提出,通过留意价值的数值化处理和加权计算,可以确立关于价值排序和价值函数的算法规则,人工智能的伦理标准通过技术设计的内在路径完全可以实现。回溯伦理学上“人”的概念形成的历史,“人”是依照其本质属性,有能力在给定的各种可能性的范围内,自主地和负责地决定他的存在和关系,为自己设定目标并对自己的行为加以限制。自然人可以成为主体,渊于将伦理学上的“人”的概念移植到法律领域。有学者提出,伦理性并不是民事主体的必然要求,伦理性人格到经济性人格的转变为智能机器人的主体论铺平道路,人工智能可以具有工具性人格。伦理概念下的生成式人工智能是否满足或是可以满足人类社会的行为要求,也是考虑能否赋予其行为能力的要素。特别是如果人工智能突破了伦理底线,则又应该按照何种形态对其予以追责或惩戒?这又回到了生成式人工智能是否可以具备行为能力的逻辑起点。从西方理论认为,人类社会运行的规则,由准则、指令和标准这三个概念共同组成。而“行为标准”的判定,也是随着实践的发展不断改变。生成式人工智能如果长期输送含有关乱伦、暴力、歧视等内容影响青少年,同样面临传统价值观下的伦理底线突破与犯罪构成标准的适用困境,造成人类社会价值的崩塌。基于生成式人工智能所引致的标准变化,有必要通过伦理规则的重构,对其形成真实的可责性,以确保其行为的发展始终不偏离以人为本的预设价值轨道。
拟制主体承担法律责任
法理意义上的“人”,体现的是人类族群的群体意志所形成的共识,与生产力水平和生产关系密切相关。法律上对于“人”的概念是动态变化的,在奴隶社会以及封建社会,自然人并非天然具有法律上的权利能力与义务能力,在现代文明体系建立之后,“人可非人”的价值判断才逐渐被人类社会所抛弃。在进入大航海时代以后,人类为了适应社会发展的实际需要,逐步形成了公司等拟制的法人概念。从经济利益考量,法律的制度性变化确实促进了社会的发展与进步,这也是1750年前后新的组织体开始推动人类财富大幅增长至今的原因解释。就意志能力而言,法人等拟制主体作为财产的集合并无意志的天赋属性,其可以成为法律意义上的人是基于经济上的合理性而非哲学上的合理性,仅仅是形式化的权利主体与法律效果的承担主体,并产生了限制责任等制度。大陆法系下,独立的法律人格需要具备社会存在与法律确认这两个必备条件,即需要独立自主地作出意思表示并得到法律明确的确认。法人概念的产生,是随着社会存在的变化而不得不作出的规则调整与适应,这种拟制的主体符合现代社会的基本组织形式与运行规律,又确保了生产关系的不断完善。
既然法人可以拥有主体地位,那么人工智能也将必然获得相应的法律资格。俄罗斯格里申法案提出,基于人工智能的法律构造,可以允许其类推适用统一国家法人登记簿制度。就法人生成的逻辑而言,是先有实体存在,再有法律进行确认。以此类推,人工智能特别是生成式人工智能被法律所拟制而形成特殊的主体地位具有逻辑上的正当性。也有观点提出,不能简单地通过与法人的类比,以论证生成式人工智能法律地位的正当性,理由是法人通过借助于自然人的行为才能从事法律活动。但笔者认为,法人与人工智能在构造上的差别,并非人工智能无法被法律所赋权的前置性因素,立法技术的主要考量仍应从解决实际问题出发。任何权利主体,只要人类将其称为权利主体时,就应当成为“法律上的人”。法人运行的关键,是其内部成员意志的集中体现,通过相应决策机构,集中形成意志,并以自身的名义开展活动,从而具备了认知能力以及实施犯罪的能力。人工智能在拟制的法律技术上,与法人并无本质不同,穿透人工智能面纱,也一定会体现人的意志。当下围绕人工智能的法律主体构建的核心问题就是责任,需要为人工智能的发展构建契合实际的以责任承担为基础的特殊财产性法律主体。当人工智能因不可归责于他人的行为造成损害或伤害时,可以承担相应的民事或刑事责任,以使得负责任的人工智能成为法律与实践意义上的现实。
三、生成式人工智能的责任能力建构与结构化配置
在传统的法律责任体系之下,由生成式人工智能自动签订的法律合同,对外发生的效果表示无法进行效力上的确认,其生成的明显具备作品特征的内容无法享有著作权等知识产权法的保护,也就无从产生将生成式人工智能作为权利主体所带来的经济效益,不利于人工智能作为颠覆性生产力工具的长久发展。由于生成式人工智能的技术特点,利用其实施的犯罪行为或者其在自身算法逻辑下输出的内容可能引致犯罪的结果,由于难以确认犯罪主体,在现行刑罚体系下面临无法构罪的现实困境,直接对人类社会的朴素伦理造成巨大冲击。在技术与数据高度垄断的数字社会架构下,“代码就是法律”的逻辑已经使得拥有先发优势的巨型科技资本拥有了超出公权力与私权力之外的第三极权力,在事实上形成了对于社会治理的域外法权,根据何种原则与规则以规制生成式人工智能的控制者,已成为关系国家安全的重大问题。生成式人工智能抓取的是全域范围内的海量数据,使用的可能是饱含价值密度的规模化信息,在使用与输出数据的过程中造成的隐私侵害、知识产权侵害等行为,在现行法律体系下也无法明确责任的主体与归责的原则。生成式人工智能实际改变了人类对于传统自然语言传承文化与教育的基本结构,操作者不得不在认知逻辑的改变下,有意识或无意识地被生成式人工智能所输出的内容渗透,其产生的人类认知逻辑上的变化,将很有可能对国家与民族的认同产生价值观上的重大变化。
习近平总书记指出:“人工智能是新一轮科技革命和产业变革的重要驱动力量,加快发展新一代人工智能是事关我国能否抓住新一轮科技革命和产业变革机遇的战略问题。”法律是保障人工智能可信向善、负责任发展的关键因素与主要手段,是否承认生成式人工智能的责任能力,或者说在何种程度上承认生成式人工智能的责任能力,将直接决定生成式人工智能乃至未来通用人工智能的行为性质与有效性,又会反作用于未来法律的发展和走向,在根本上决定数字技术全面覆盖人类生产生活后的社会样态。需要在发挥中国既有的人工智能治理优势上,通过顶层设计推进基础性人工智能立法,探索通用人工智能立法的经验,根据生成型人工智能的技术特点更新监管逻辑,形成更具影响力的法律制度体系。
责任能力有限
法律在规制人工智能风险与促进人工智能正向发展的两个维度间必须寻找到恰当的平衡点,而促进人工智能发展的首要问题是需要有主体为人工智能的行为承担相称的责任。这个主体可能是人工智能的研发者、控制者、操作者、投资者、生产者,在一定范围与条件下,也可以是人工智能,特别是生成式人工智能这类强人工智能体。需要避免人工智能一定要像人一样进行神经思维才可以定位为“人”的思维定势,与人类大脑运行机制的不同,并不能说明人工智能不能达致理性主体的状态或能力。社会性或伦理性已不是人工智能成为法律主体的必要条件。就意志能力而言,生成式人工智能在进入GPT-4时代以后,已经具备了逻辑推理与意思表示的能力,可以通过算法逻辑的设定实现与操作者一致的价值期待。就行为能力而言,司法实践已经确认了人工智能行为的法律效力并已有国家开始使用人工智能系统用于智能裁判。从实际出发,参考拟制法人对于人类文明与经济发展的重大作用,赋予人工智能特别是生成式人工智能以特殊的法律主体地位,明确其责任能力与归责原则,已经成为应对风险、促进发展的现实选择。
人工智能虽然可以具备法律主体地位,但这种法律人格应当是有限度的,并非完全的法律人格,归根结底是因为其可以承担的责任能力是有限的。责任能力与行为能力是一致的。生成式人工智能虽然能够独立作出意思表示并承担一定的责任能力,但其依旧是智能机器的天然身份,人类所具有的生育、婚姻、投票、选举等伦理性的权利显然无法加予生成式人工智能,但结合其输出具有价值作品的实际,可以考虑为其在著作权等利益型权利上赋权。使用生成式人工智能输出的作品可以由其具备一定的著作权,使用、利用该作品应当为生成式人工智能支付一定的微量费用,这种费用既不属于生成式人工智能的研发者、也不属于其控制者,而是由生成式人工智能自行所有,当其使用数据或信息造成侵权、歧视等不利结果时,可由生成式人工智能前期积累的收益予以赔付,在事实上建构其一定的责任承担能力。人工智能是由人类创造以服务人类的智慧型工具,即人类自身的权利优位于人工智能,人工智能的工具属性也决定了其自身法律地位的限度性。
生成式人工智能的行为能力来源于技术,其决策输出的底层逻辑来源于规模化数据深度学习后形成的规律性行为,与人类个体在自主意识上的目的行为仍具有结构上的巨大差异。穿透技术背后的核心,体现的依然是设计者、控制者、操作者的意识与价值逻辑。由于具有人脑根本无法达到的学习与运算能力,如果对生成式人工智能赋予完全的责任能力,则人类的地位将极有可能逐步被机器所取代,造成人本社会的道德伦理塌陷。基于实践的变化,为生成式人工智能等高度智能体赋予一定的责任能力以解决“网暴”、无人驾驶、作品制作等现实重大问题,是法律体系可以作出的适应性调整,但责任的最终承担仍需要由人类负责,这是实现人工智能在自身层面与社会存在两个维度负责任发展的应然法律技术路线。
“穿透人工智能面纱”的归责原则
在证成人工智能特别是生成式人工智能可以具备一定的责任能力后,就需要考虑其责任能力的范围与归责的路径。就民事责任而言,主要考虑其独立对外决策的行为效力与侵权的责任承担,就刑事责任而言,主要考虑其被利用作为新型犯罪工具、由于自身缺陷造成的犯罪结果以及自主决策实施的犯罪行为这几种情形下的责任能力。生成式人工智能依靠数据信息的搜索整合与综合运用形成了不同于传统人工智能的运算机理,使得民法、刑法上的原有因果关系与实际相割裂。笔者认为,生成式人工智能的责任能力需要与其在具体行为时的受控制程度紧密联系在一起进行综合考量,无论是民事责任还是刑事责任,均需要考虑生成式人工智能在决策时的底层逻辑以及人机复杂互动以后的因果关系重构。可以从结构化的维度分析生成式人工智能致损时的状态与原因:一是若责任后果完全是由生成式人工智能自身运算混乱或设计逻辑引起的,则由生成式人工智能自身承担限制的责任能力后,由生成式人工智能的研发者与控制者承担补充责任,生成式人工智能的研发者与控制者需要提供完整的研发合规文件,否则承担严格责任。二是若责任后果是由操作者自身操作生成式人工智能引致的,在可以证明操作者身份的前提下,由生成式人工智能的操作者承担主要责任,若无法查明操作者身份且生成式人工智能的控制者可以提供人工智能可控的相关证明,则由生成式人工智能自身承担限制责任。例如,由其从著作权收益或投资者建立的强制责任基金中,抽取部分货币补偿受害方,研发者与控制者承担过错责任。三是若责任后果完全无法证明由何种原因引起,则由生成式人工智能的研发者、控制者及其自身分别承担相应比例的责任,这同时需要建构更为精准与庞大的相应配套机制以确定具体的归因准则以及赔偿范围、责任限制等体系。四是若责任后果由监管疏忽或渎职造成,则由监管者承担过错责任,由生成式人工智能自身承担补充责任。无论是何种归责类型,总体均需要适用“穿透人工智能面纱”的原则确定归责路径,在查证因果关系的基础上,考察确定生成式人工智能责任背后的实际责任主体。
在明确归责原则以后,需要构建生成式人工智能责任的链式分配机制以具体完善责任的承担机制。例如,就生成式人工智能的能力与使用范围而言,任何单一的主体国家或职能部门,均无法应对其带来的责任风险,需要通过责任分担的链式机制以确定生成式人工智能侵权或犯罪后的责任分配。就生成式人工智能而言,需要从研发者、控制者、操作者、监管者、人工智能本身的维度,共同构建权责匹配的责任分担机制。在确保“罪责行一致”“权利与义务标准相当”等传统价值观下,结合数字社会发展的新形态,延伸生成式人工智能的责任链条,以确保单一主体的责任负担不至于过重,从而减少对于生成式人工智能投资与利用的期许,形成法律规制的负外部性。在链式分配机制下,研发者应当留存相应的模型与研发数据,证明其算法逻辑受控且不存在侵权的故意,否则应承担相应的法律责任。再如,在控制者责任上,应当证明其适用生成式人工智能不存在主观上的价值歧视与颠覆国家政权、传播有害信息的故意,在其证明生成式人工智能的运行与适用基本合规的情况下,可以免责。另如,操作者对于利用ChatGPT等生成式人工智能应尽到相应的注意义务与合规义务,若通过故意诱导等方式传播谣言、窃取隐私,则应由操作者承担严格的法律责任。最后,需要强化生成式人工智能对于人工智能自身治理的责任能力,逐步实现从治理“受体”向“主体”的部分转化,提高技术水平与注意义务的相称程度。通过内容识别、版权控制、数字水印标注等行为方式,实现对于输出内容的管控与伦理审查,极端强化“通知+必要条款”等措施的重要性,尽最大可能减少数据滥用与隐私侵权的风险。在明确生成式人工智能的责任能力限度与归责原则后,需要进一步深入研究明晰生成式人工智能研发者、持有者、操作者、监管者等不同利益主体在具体风险中的利益关系与配套架构,更加系统、准确地厘定在何种程度、事项或范围内由生成式人工智能承担何种责任。
建构完整的配套规则体系
法教义学的理想目标是参照近代科学原理建立公理体系,使得法律规范具有森严的效力等级,从实践出发,逐步解决实践问题特别是具有系统性、全局性风险的问题,通过化约社会的复杂性,为社会成员提供明确的行动预期,保障社会运转的秩序性与确定性。法律的生命不在于逻辑,而在于经验。应根据社会存在的变化逐步动态更新以助推生产力水平的提升。影响法律发挥作用的因素,除了传统文化观念、政治行为方式以及程序设计的漏洞之外,特别值得注意的是更具普遍性的外部条件变化。生成式人工智能的治理难题,在明确其特殊法律地位,确定其可以承担限制性的责任能力后,应进一步建构丰富具体的规制体系。
一是根据生成式人工智能的底层逻辑,建立覆盖研发运行全程的风险监管机制。传统的监管方式如产品许可、侵权责任制度,无法全面地适用于生成式人工智能的监管。对于高风险人工智能,欧盟倾向于严格责任,将隐私保护等人工智能伦理价值原则作为优先价值进行严格监管,而美国则倾向于自由经营,强调审慎监管以促进人工智能的技术创新与发展。笔者认为,必须采取新的监管机制以规制人工智能带来的责任风险,通过建立完善的法律法规和行业标准,明确生成式人工智能的责任主体、权利义务和违法处罚措施。例如,验证研发者优化生成式人工智能模型的设计和训练方法,提高其准确度、稳定性;强调控制者应动态检测生成式人工智能模型的解释性和可验证性方法,增强其可信度和可控性;督促监管者开展生成式人工智能模型的测试和评估工作,检测并消除其可能存在的偏差或错误,不断加强对生成式人工智能的审查和监督,防止其被用于非法或不道德的目的。通过全链条监管与链式责任分配机制的契合,形成明确的数字空间行为准则,建立可预期的风险责任制度。
二是明确生成式人工智能的透明度责任。由于生成式人工智能需要规模化利用全域数据,通过深化规则的制定与应用确保其透明度责任就尤为重要。首先是生成式人工智能的研发者应准确了解该系统的性能与缺陷,向用户完整陈述其使用可能引致的不利影响。对使用的数据进行事先评估,了解其训练模型、使用样本的合法来源,对其使用与生成的数据负有严格的保密与管理义务。其次是生成式人工智能的控制者应当明确其应用过程与输出逻辑的全程可追溯,提高原生与次生数据信息的透明度,采取措施尽最大可能避免数据规模化应用对个体可能造成的侵权风险。再次是根据实践的发展,生成式人工智能的控制者的行为义务应予以扩大,例如要求其为生成的图片、音像作品等内容自动生成不可篡改的底层区块链数字水印,确保生成物的来源、目的与作用符合伦理要求,并在产生责任风险时可以提供排除责任的合规记录。再如推行强制性算法规则,除非操作者明确同意,不得主动识别其身体、面容和声音数据,并强制不得用于其他场景使用或交互。另如,不得为了确定算法推荐的内容匹配度并提升准确性,而主动监测操作者浏览过程中瞳孔大小等生理变化。最后是监管者在保护创新的基础上,鼓励算法与接口开源。但这种开源并非强制,需要特别注意对于科技初创企业与个人开发者的利益保护。
三是治理原则实现从可解释算法向可控制算法的改变。现行对于算法的要求基本按照欧盟《人工智能法案》的路径,明确算法应当被解释。但生成式人工智能改变了传统人工智能的运行机制并大幅提升了其深度学习的能力,在具备了自我意识之后,其建构的算法逻辑很可能输出算法编写者与控制者无法解释的内容。若生成式人工智能的研发者也无从解释其研发系统造成的责任损失,在此情形下如何确定因果关系与责任能力?如果对不可解释的算法责任主体课以过重的义务,人工智能领域的技术创新将会受到严重打击。笔者建议,将生成式人工智能的治理逻辑,由可解释算法逐步过渡为可控制算法,注重生成式人工智能的鲁棒性,即人工智能发挥作用的稳定性。如果生成式人工智能的责任主体满足了可控算法的合规性义务,就可以按照链式责任分担机制确定的方法明确责任关系、确定责任能力,在保护创新的前提下鼓励技术的发展。这种可控性来源于一系列的义务要求,例如,违法违规行为侦测的强制报告制度、输出内容的合规审查制度、以人为本的伦理判断制度等。对于具有系统性功能的算法,应当明确限制算法技术出口的类型与清单。通过加强人工智能系统设计的安全性、稳定性和合规性,确保生成式人工智能始终受到人类的有效控制。
余论——谁来为人工智能发展负责?
人工智能作为最新的科学技术成果,极大促进了经济社会发展,同时也存在拉大贫富差距、加剧社会不公以及扩大失业现象的风险,发挥制度优势、降低科技异化的风险,将成为我国人工智能治理的关键之策。笔者在2017年曾撰文提出,现行法律规制对于人工智能权利、侵权责任主体等关键问题上的缺位,使得人工智能的发展缺乏法律价值的引领,人工智能的短期影响取决于谁控制人工智能,而长期影响则取决于人工智能到底能否受到控制,人工智能的运用与发展需要法律人格的明确。以ChatGPT为代表的生成式人工智能的问世,标志着人工智能技术的发展阶段逐步进入强人工智能时代。各国针对人工智能技术的治理均提出了相似的政策,提出发展“负责任的人工智能”。但是,究竟谁应为人工智能的发展负责?如何为人工智能的发展负责?人工智能能否为自己的发展负责?学界与实务界均未给出确定性的答案,形成目前生成式人工智能带来的风险无法以现行法律体系规制的治理困境。2022年10月,外交部发布了《中国关于加强人工智能伦理治理的立场文件》,指出人工智能在给人类社会带来潜在巨大发展红利的同时,其不确定性可能带来许多全球性挑战,应坚持伦理先行,建立并完善人工智能伦理准则、规范及问责机制,明确人工智能相关主体的职责和权利边界。生成式人工智能已经具备了类人类自主意志特征,又具备了一定的行为能力,鉴于客观实际与拟制法人对人类社会发展所取得的巨大作用,可以考虑赋予生成式人工智能以特定的法律地位,给予其特殊的责任能力,通过一系列配套措施与机制的完善,最终实现人工智能发展的可信向善,发展“负责任的人工智能”。
原标题:《袁曾|生成式人工智能的责任能力研究》
阅读原文
人工智能刑事责任主体文献综述
近年来,人工智能技术对人类的生活和生产产生了较大的影响,人工智能的话题引发了人们的密切关注,同时也在国家层面受到高度重视。2014年欧盟发布了《欧盟机器人研发计划》,2016年美国发布了《国家人工智能研究与发展策略规划》,2017年法国发布了《人工智能战略》。2017年7月国务院发布《新一代人工智能发展规划》,将人工智能的发展上升为我国的国家战略。时代的需要孕育着可能,大数据、深度学习和神经网络技术等如雨后春笋般发展起来。在学科分布上,众多学科在原来研究的基础上新增人工智能的元素。
刑法学的研究也是如此,人工智能刑事责任主体的探讨近两年来火热发展。在法律的框架下研究人工智能的问题时,人工智能往往被分为弱人工智能与强人工智能两种类型。对于弱人工智能,学界观点一致认为弱人工智能产品不具有辨认能力和控制能力,仅能在设计和编制的程序范围内实施行为,实现人类设计和编制程序的目的。弱人工智能产品的工具属性决定了其不可能作为犯罪主体而承担刑事责任,故不是本文探讨的对象。强人工智能与弱人工智能的本质区别在于是否具有独立意志,以及是否能够在设计和编制的程序范围外自主决策并实施相应行为。强人工智能具有自主意识,具备辨认和控制能力。对于强人工智能否成为刑事责任的主体则存在激烈的争论,对此存在肯定说、否定说和折衷说等不同的观点,但主要是肯定说与否定说之争。国内外学者对其研究众多,但是相关的系统性梳理却较少。为了充实该方面研究的素材和以便更加客观全面的对人工智能刑事责任问题进行深入研究,本文围绕强人工智能刑事责任主体设立的必要性、承担刑事责任的可能性、刑罚处罚设置的可行性与科学性等方面系统的梳理了关于强人工智能刑事责任主体的研究成果,并从以上角度进行了分类整理与评价,最后依据现有的研究成果对未来研究方向进行了展望,指出人工智能时代刑法应秉持的立场定位,具有较强的现实意义。
二、文献综述
2
通过梳理国内外有关强人工智能刑事责任主体的研究,发现刑法学者们大多从强人工智能刑事责任主体设立的必要性、承担刑事责任的可能性、刑罚处罚设置的可行性与科学性等方面展开说理和探究。
(一)强人工智能刑事责任主体设立的必要性之对立
强人工智能刑事责任主体的设立是否必要,是展开强人工智能刑事责任主体研究的逻辑起点,是肯定论者与否定论者的第一次正面交锋,也是两派学者对于该问题的不同世界观的最初体现。
1.强人工智能刑事责任主体设立必要性之肯定
刘宪权教授在对强人工智能时代刑事责任的规制具有必要性的论述时提出了两点理由:其一,作为法学研究者应该相信霍金等科学家的论断,认为人工智能会毁灭人类,而不是相信李彦宏等经营者的说法,认为人工智能不可能威胁到人类的安全。应秉持宁可信其有,不可信其无的立场。其二,面对强人工智能的出现可能会给人类带来威胁,我们需要未雨绸缪,防患于未然。[1]
陈叙言在论及承认人工智能刑事责任主体地位之必要性时指出,承认人工智能刑事责任主体地位是基于功利主义的考量,是以保护人类自身利益为目的。刑法学者应该对强人工智能的到来抱有忧患意识,理论研究和立法都应具有一定的前瞻性。[2]
王耀彬认为现行刑法主体概念对于人工智能法律主体规制的缺位,无形中增加了人们对于智能风险的恐惧。当下,各部门法在人工智能领域的探索已显雏形,刑事法的规制却略显保守。类人型人工智能实体与自然人的相似程度比动物、单位更高,包含法律设定主体的本质要素——理性,并具备侵犯法益的可能性,从而增强了赋予其刑事责任主体地位的必要性。[3]
2.强人工智能刑事责任主体设立必要性之否定
黄云波认为,不论是库茨维尔的奇点理论,还是霍金关于人工智能发展完全将是人类末日的警告,都还只是一种假想与猜测。对人工智能未来情境的预见,专家较之常人并没有太大优势,大家都只能是盲人摸象或信口开河。[4]
周铭川认为,强人工智能犯罪的刑事责任问题是一种假设性命题,现阶段来探讨它能否被证明为真没有多大意义,正如无法通过逻辑推理去证明任何一个宗教命题的真伪一样。[5]
(二)强人工智能承担刑事责任的可能性之纷争
对于未来性的命题,在未经科学研究充分证实的情况下,刑法学者对于该可能出现的新事物的探讨都只是基于自身的世界观出发来考虑问题。无论是对强人工智能刑事责任主体设立的必要性持肯定的态度还是否定的态度,两派所提出的理由都不能完全的使对方信服。因而,对于强人工智能刑事责任主体的论证,肯定论者与否定论者更多的是把争论的重心放在强人工智能承担刑事责任的可能性上。
1.强人工智能成为犯罪主体可能性之肯定
GabrielHallevy认为,“只要符合刑法的所有相关要求,一种新型的主体可以被添加到现有的刑法大家庭中,除了人类个体和法人之外。”[6]此处“符合刑法所有的相关要求”指的是符合犯罪的构成要件,通说认为强人工智能可以实施构成要件该当性的行为,在没有违法阻却事由的前提下,凭借其自身的刑事责任能力承担刑事责任。承担刑事责任的基础是责任主体的意志自由,具体表现为责任主体具有辨认能力和控制能力,而辨认能力和控制能力的基础是思维能力。[7]
刘宪权教授指出,自然人的辨认能力和控制能力来源于生命,受到年龄等因素的影响,而强人工智能产品的辨认能力和控制能力则来源于程序和算法。[8]科技的发展是呈爆炸式的,随着深度学习技术、神经网络技术、类脑智能技术等的发展,出现能够在自主意识和意志的支配下独立作出决策并实施行为的强智能机器人并非天方夜谭。并进一步指出,强智能机器人比单位更接近自然人,域外有关的立法例对我们承认强智能机器人的刑事责任主体具有一定的借鉴意义。[9]
陈叙言认为,不应过多的关注自然人与人工智能的不同点,将自然人人的属性与人工智能机器的属性相比较时,应重视两者之间的共同点。人工智能能够理解自身行为的意义,做出适法的行为。[10]
孙占利认为,从当前的法律来看,自主意识是智能机器人取得法律人格的主观条件,能够进行独立的意思表示并进而形成社会关系是客观条件。是否属于社会关系是由人来作概念上的设定,意思表示能力对现在的智能机器人而言已无技术障碍。完全用人类的自主意识作为强人工智能意识判断标准的科学性和合理性是值得商榷的。[11]
卢勤忠认为,尽管人的智能以意识、思维、感觉和知觉等为基础条件,但智能机器人实现分析判断、推理等能力并不一定需要具有和人一样的主客观条件,其意识以及意志自由的表现形式也可能与人类有所差异。应当明确强人工智能机器人在刑事责任与刑罚根据上与人存在差异,需要对刑法理论做出符合强人工智能机器人特征的重新解读。[12]
王耀彬在论及类人型人工智能实体成为刑事主体的可能性时提出如下理由:认识上的理性能力与在实践中的自主行为能力是法律主体的必备要素,而类人型人工智能实体依靠编程与系统具备这两项能力,也为其刑事责任主体的塑造提供了必要条件。类人型人工智能实体具备刑法上的认知与意志控制能力。[13]
2.强人工智能成为犯罪主体可能性之否定
叶良芳指出,尽管具有自主决定能力的人工智能,在某种程度上具有与人类相似的辨认和控制自身引发的客观状态的能力,但是这并不是刑法将人工智能拟制为犯罪主体的充分条件。人工智能不具备独立于人类的权利和价值,在善恶观和伦理观上不具备与人类相当的认知水平,将人工智能拟制为犯罪主体的设想不具有合理性。[14]
时方认为,意志自由是认定刑事主体地位的关键要素,包括认识要素与意志要素,强人工智能与法人虽然都不具有人类肉体与意识的生理构造,但法人特殊的运作机理符合刑事主体地位认定的实质要求,强人工智能并不具备。强人工智能运行机理与人的意志自由进行形式匹配过于机械,强人工智能不具有理解并遵从法规范的能力,其行为属性判断无客观标准。[15]
储陈城认为强人工智能独立承担刑事责任不具有理论自洽性,理由是:要承认AI的“行为”满足刑法上的行为的要素,就必须要在AI自身当中找到和人类意思完全相当的意思;AI不具备与人类等同评价的自由意思;对AI施加刑罚不具备可行性。[16]
王志祥认为,虽然强人工智能机器人拥有独立的意志以及辨认能力、控制能力,但同样也不能成为犯罪主体,不承担刑事责任。将强人工智能机器人作为犯罪主体的观点忽视了自然人与智能机器人的区别,缺乏相应的刑罚措施且无法实现刑罚的机能。[17]
周铭川认为,由于电子机械运动与人的生理运动之间存在不可逾越的鸿沟,从金属和塑料和指示电极开与关的程序组合中无法产生人的意识。在对人类意识的本质及生成机制缺乏透彻理解的情况下,无论是符号主义还是联结主义,都不可能模拟出人的意识。即使假设强人工智能已经到来,考虑对其增设刑罚种类也意义不大。[18]
(三)强人工智能刑罚处罚设置的可行性与科学性之审视
在承认强人工智能刑事责任主体设立具有必要性和承担刑事责任的可能性的前提下,再来探究对强人工智能犯罪如何施加刑罚处罚的问题。
1.强人工智能刑罚体系重构之提倡与根据
刘宪权教授认为,如果强智能机器人在自主意识和意志的支配下独立作出决策并实施了严重危害社会的行为,应将其作为刑事责任主体,对于无法通过现行刑法中的刑罚种类对其进行处罚的问题的解决路径则应该是重构我国的刑罚体系,增设能够适用于强智能机器人的刑罚处罚方式,比如删除数据、修改程序和永久销毁。[19]
黄云波认为,我们研究人工智能的刑事责任主体地位,目的在于保护人类免受人工智能的侵害,即为了社会防卫。鉴于此,我们应当借鉴刑事近代学派所主张的社会防卫论,创立以人工智能等科技风险为对象的“科技社会防卫论”与“科技责任论”,将人工智能作为独立的责任主体,对具有实施危害社会行为的人工智能施以技术危险消除。[20]
卢勤忠认为,在强人工智能机器人承受刑罚的基础上,预防主义刑罚目的论成为主流观点。在强人工智能时代的刑罚功能上,对强人工智能机器人适用刑罚能够实现刑罚的威慑功能和教育改造功能。删除数据、修改程序和永久销毁契合强人工智能机器人的特征,能够实现刑罚的功能与目的。[21]
王耀彬认为,类人型人工智能实体的刑罚体系设计困难并不意味着设计上的否定,没有任何事物是一成不变的,我们的刑罚体系也应如此。智能时代背景下对于刑罚体系的改造不可或缺,也是预防类人型人工智能实体犯罪的必行举措。当然,针对刑罚体系的改造应当遵循罪刑法定、罪刑相适应、以刑罚目的为导向等原则。[22]
2.强人工智能刑罚处罚设置之质疑与理由
周铭川认为,如果假设智能机器人不再是主人的财产,而是与人类完全平等的新人类,则必然要同时假设其在本能、直觉、技能、情感、欲望等方面完全与人类相同,则对其适用与人类完全相同的生命刑、自由刑、财产刑甚至剥夺政治权利刑,就完全合乎逻辑,因此也没有必要提出所谓删除数据、修改程序、永久销毁等所谓新的刑罚种类。进而,如果假设人工智能已经发展到所谓超人工智能阶段,则由于超人工智能具有远远超过人类的能力,到时将存在由超人工智能统治人类并为人类立法甚至消灭人类的问题,提出为超人工智能增设新的刑罚种类也意义不大。[23]
皮勇认为,如果未来人工智能系统不受人类控制、自主进化,极可能不具备成立犯罪的主观条件,不能适用刑法规定的刑事责任和刑罚相关规定;不受人类控制的未来人工智能系统不可能接受刑法的规制,也就无从适用刑罚处罚,其制造的危机需要以其他直接、有效的技术手段应对。[24]
时方认为,从刑罚惩治与安抚功能、刑罚预防功能、刑罚矫正功能来看,肯定论者所提出的设想难以实现以上功能。一是,刑罚的威慑力是实现预防犯罪目的的重要基础,但机器人缺乏感知喜怒哀乐的能力,因而刑罚对于缺乏趋利避害本性的机器人不能发挥威慑效应。二是,刑罚只能施加于具有意志自由的主体,因为不通过主观恶性判断其社会危险性及再犯可能性,教育改造目标将无从谈起。[25]
赵秉志认为,即使承认智能机器人能够独立承担刑事责任,但是对于智能机器人适用刑罚的合理性与必要性问题仍需进一步探讨。肯定论者将智能机器人等同于活生生的自然人,但是,在确定其刑事责任的实现形式时,却又承认了其作为机器的本质属性,因此相当于又否定了其作为人的资格。[26]
三、结论与建议
3
(一)结论
近年来,刑法学者们对人工智能的研究大多从强人工智能刑事责任主体设立的必要性、承担刑事责任的可能性、刑罚处罚设置的可行性与科学性等角度展开。通过总结学者们的研究观点,得出以下结论:
1.推理思路与价值选择导致两派立场上的鸿沟
肯定论者与否定论者在阐释强人工智能刑事责任主体设立是否必要时,往往是从自身对于该问题的价值判断出发作出的价值选择。对于该问题的阐释更多的是停留在“立场选择”而不是方法与过程的论证。肯定论者通过假设结果的发生来说明强人工智能刑事责任主体设立的必要性,进而在该一假定的前提下探究主体设立的可能性与刑罚重构的可行性,体现的是一种“由果索因”的逻辑思路。相反,否定论者更多的体现“由因导果”的推理思路,从根本上否定产生结果的原因,不接受没有被证明的“原因”,认为现阶段研究强人工智能刑事责任主体的设立没有合理的依据也无必要性。
2.自由意志的产生与机能是两派争论的焦点
强人工智能承担刑事责任的前提是能够成为刑事责任的主体,根据人类现有的刑法理论知识与刑事立法例,自主意识、自由意志则顺理成章地成为强人工智能必备的要素。肯定论者在论述强人工智能自主意识的产生时,做出了与人类意识产生方式不同的解释,在意志的机能上又做出同人脑具有类似机能的解释。否定论者立足于既存人类知识的基础上,指出强人工智能无法像人类一样产生出意识,也不具备人脑如此复杂的思维机能。前者实质上是从矛盾的特殊性与普遍性的两个角度分析问题,既认为强人工智能与人类存在不同之处,也强调两者之间存在共性;后者是立足于矛盾的特殊性分析问题,看到强人工智能与人类的不同点。但肯定论者面临一个巨大的难题,即在论证强人工智能自主意识的产生时,绕不过哲学上关于唯物论与认识论的先验结论:“究竟什么是思维和意识,它们从哪里来的,那么就会发现,它们都是人脑的产物,而人本身是自然界的产物,是在自己所处的环境中并且和这个环境一起发展起来的。”[27]“实践是人的有意识的生命活动”,“有意识的生命活动把人同动物的生命活动直接区别开来。”[28]
3.强人工智能受到人类社会的管控是施加刑罚的前提
即便强人工智能能够成为刑事责任的主体,如果不能对其施加有效的刑罚措施,则将其纳入刑法范围内进行规制也没有任何意义。因此,对强人工智能科处刑罚的前提是受到人类社会的管控。肯定论者一边假设人类将不再有能力去规制强智能机器人的行为,人工智能可能毁灭人类,另一边又主张通过刑事立法对强人工智能的犯罪行为科处刑罚,逻辑上难以自洽。
4.强人工智能呈现出的特征是刑罚设置科学性的基础性条件
正所谓“对症下药”,既要使患者得到好的疗效,而且该“药”的社会口碑也要良好。就如同我们现在的司法活动一样,强调法律效果和社会效果的统一。对症下药的前提是要清楚病因和症结所在,在病因不明的情况下给出的药方难言是科学的,甚至是非常危险的。对强人工智能设置刑罚处罚也是如此,在对强人工智能自身呈现出来的特征缺乏充足的了解和掌握的情况下,来谈刑罚种类的设置,仅仅是一种“为了设置而设置”。虽然肯定论者假设的情况具有一定的可能性与可行性,但是也不能完全排除否定论者所提出的情形。我们大致可以假设以下三种情形:若强人工智能与人类运作机理相同,则适用与自然人相同的刑罚种类;若强人工智能与人类运作机理不同,因强人工智能自身的特殊性则可设置相应的刑罚种类,比如肯定论所主张的删除数据、修改程序等;若强人工智能与人类运作机理既有共性也有特殊性,则应综合设置刑罚的种类。
(二)建议
1.人工智能时代刑法应秉持的立场
正如埃里克·希尔根多夫所指出,“数字化革命尤其是人工智能的广泛应用不仅引发了人类工作生活的巨大变革,也对法律职业以及刑法学工作产生了跨时代的影响。鲍纳塔尔案、阿沙芬堡案、自动驾驶的悖论问题和“Tay”案已经预示着人工智能并不是百分之百的安全,人类在未来遭受其损害的概率会显著提升。即使如此,法律的演进仍应谨慎、适度,尝试以现有的法律教义学方法解决人工智能所带来的新的法律问题”,“具有自我学习能力的系统对法律构成了特别的挑战。在民法上应扩大严格责任,在刑法上可考虑引入新的危险犯构成要件。当然前提是从实证角度对风险情势进行更强有力的解释。”[29]本文认为,不应随便突破或者否定现存的法律框架和刑法理论,“在讨论智能主体是否具备刑法中的主体资格问题时,仍需要回归到规范刑法学层面,尝试探讨智能主体的刑事责任能力等规范要素。尽管其可能不是最好的办法,但它目前是适当的权宜之计”。[30]对风险形势在未经科学实证研究的前提下,我们更不应该让刑法“打头阵”。若人工智能的研究“完全指向技术的促进,刑法则不加干涉。单纯强调风险防范,则刑法将严密法网”。[31]
同时,“我们不应将立法条件和研究条件混为一谈。即使立法条件不成熟,只要存在现实问题或预见到问题的现实发生可能性,就应当积极投入研究。”[32]在刑法上进行理论上的前瞻性探讨和研究无可厚非,也是必要的。但是法律的本质、内容和发展方向是由特定的社会物质生活条件和生产方式决定的。在现阶段讨论强人工智能刑事立法既缺乏实践基础,也与当下中国刑事立法的趋势不相符合。
2.人工智能时代刑法学者应具备的研究方法
刑法学者对于人工智能刑事责任主体相关研究的论证过度集中于刑法理论方面,跨学科、跨领域的研究成果亦较少,这受制于刑法学者的个人的知识结构、认识能力和认识水平。而人工智能是一门极富挑战性的科学,从事这项工作的人必须懂得计算机知识,心理学和哲学。就学科范畴而言,人工智能是一门边沿学科,属于自然科学、社会科学、技术科学三向交叉学科。“智能主体的首要特征是技术问题,其次是与之高度关联的智能程度问题。在考察智能主体的法律资格及其行为能力时,也需要立足于智能技术这一首要因素,围绕智能程度这一关键问题,展开相应的讨论,否则有可能偏离问题的实质。”[33]
笔者无意让刑法学研究者承担如此多领域与学科的研究负担,这也不现实,但是最基本的应该了解和掌握这些学科的一般性原理和结论。在对强人工智能进行刑法上的规制时,绕不过对些学科现有知识的辩证否定,乃至对传统认知的颠覆。刑法学者未来应加强跨学科视角的研究,为其立场与结论提供充分的论证。因为人类在改造客观世界的同时,也改造着自己的主观世界,提高自己判断和推理能力,从而推动认识的不断深化。
脚注:
[1]刘宪权:《人工智能时代的刑事责任演变:昨天、今天、明天》,《法学》2019年第1期。
[2]陈叙言:《人工智能刑事责任主体问题之初探》,《社会科学》2019年第3期。
[3]王耀彬:《类人型人工智能实体的刑事责任主体资格审视》,《西安交通大学学报》2019年第1期。
[4]黄云波:《论人工智能时代的刑法规制》,《人民法治》2018年第6期。
[5]周铭川:《强人工智能刑事责任之否定》,《上海政法学院学报》2019年第2期。
[6]GabrielHallevy,Whenrobotskill:artificialintelligenceundercriminallaw,p.21.
[7]刘宪权主编:《人工智能:刑法的时代挑战》,上海人民出版社2018年版,第11页。
[8]刘宪权:《人工智能时代的“内忧”“外患”与刑事责任》,《东方法学》2018年第1期。
[9]刘宪权:《人工智能时代的刑事责任演变:昨天、今天、明天》,《法学》2019年第1期。
[10]陈叙言:《人工智能刑事责任主体问题之初探》,《社会科学》2019年第3期。
[11]孙占利:《智能机器人法律人格问题论析》,《东方法学》2018年第3期。
[12]卢勤忠,何鑫:《强人工智能时代的刑事责任与刑罚理论》,《华南师范大学学报》2018年第6期。
[13]王耀彬:《类人型人工智能实体的刑事责任主体资格审视》,《西安交通大学学报》2019年第1期。
[14]叶良芳,马路瑶:《风险社会视阈下人工智能犯罪的刑法应对》,《浙江学刊》2018年第6期。
[15]时方:《人工智能刑事主体地位之否定》,《法律科学》2018年第6期。
[16]储陈城:《人工智能可否成为刑事责任主体》,《检察日报》2018年4月19日,第3版。
[17]王志祥,张圆国:《人工智能时代刑事风险的刑法应对》,《上海政法学院学报》2019年第2期。
[18]周铭川:《强人工智能刑事责任之否定》,《上海政法学院学报》2019年第2期。
[19]刘宪权:《人工智能时代我国刑法体系重构的法理基础》,《法律科学》2018年第4期。
[20]黄云波:《论人工智能时代的刑事责任主体:误区、立场、类型》,《中国应用法学》2019年第2期。
[21]卢勤忠,何鑫:《强人工智能时代的刑事责任与刑罚理论》,《华南师范大学学报》2018年第6期。
[22]王耀彬:《类人型人工智能实体的刑事责任主体资格审视》,《西安交通大学学报》2019年第1期。
[23]周铭川:《强人工智能刑事责任之否定》,《上海政法学院学报》2019年第2期。
[24]皮勇:《人工智能刑事法治的基本问题》,《比较法研究》2018年第5期。
[25]时方:《人工智能刑事主体地位之否定》,《法律科学》2018年第6期。
[26]赵秉志,詹奇玮:《现实挑战与未来展望:关于人工智能的刑法学思考》,《暨南学报(哲学社会科学版)》2019年1月,总第240期。
[27]恩格斯:《反杜林论》,《马克思恩格斯文集》第9卷,人民出版社2009年版,第38—39页。
[28]马克思:《1844年经济学哲学手稿》,《马克思恩格斯文集》第1卷,人民出版社2009年版,第162页。
[29][德]埃里克·希尔根多夫:《自动系统、人工智能和机器人——一个刑法角度的定位》,黄笑岩译,《法治现代研究》2019年第1期。
[30]王燕玲:《人工智能时代的刑法问题与应对思路》,《政治与法律》2019年第1期。
[31]储陈城:《人工智能时代刑法的立场和功能》,《中国刑事法杂志》2018年第6期。
[32]孙占利:《智能机器人法律人格问题论析》,《东方法学》2018年第3期。
[33]王燕玲:《人工智能时代的刑法问题与应对思路》,《政治与法律》2019年第1期。返回搜狐,查看更多
人工智能时代的社会责任思考
人类即将要进入的人工智能时代是一个什么样的生活场景呢?
简单地讲,人工智能将会成为我们日常生活不可或缺的一部分。人工智能就像互联网、就像水和电一样渗透到生活和工作的每一个方面。当然也要渗透到社会责任工作的每个方面。据有关专家研究,人工智能将会使社会责任履行变得更加容易和高效,比如区块链技术跟供应链结合起来就会让供应链社会责任履行变得更加透明,并且履责的行为和绩效将被记录并不可更改。
在带来巨大好处的时候,这也会存在潜在的风险和不利影响。而且这种潜在的风险和不利影响,如果不加以管理,可能完全超出我们的想象。如刚刚离世的著名学者史蒂芬•霍金曾说:“人工智能的崛起可能是人类文明的终结”。这说明人工智能的发展对我们人类的影响将会非同一般。人工智能的影响究竟几何?有的专家认为人工智能的发展要么让人类永生,要么让人类灭亡。可以说,人类每一次技术的飞跃,都会带来人类的大发展,同时也给人类自身带来巨大的风险和问题。这也说明要重视人工智能影响的管理,将成为摆在社会责任业界的新课题。
人工智能发展的三阶段
从技术发展层面来讲,人工智能发展一般可分为弱人工智能、通用人工智能和超级人工智能三个阶段。弱人工智能还无法达到人类的智力水平,即人工智能在人类的控制下在特定领域使用,解决特定问题。但弱人工智能同样影响巨大。比如人工智能在工业上大规模使用,将会导致工作岗位被机器人取代。如果像有的专家预测的那样,将来95%的工作岗位都会被人工智能取代。如果大部分人在大部分时间都没有工作,这个社会是一个怎样的状态,显然我们自己还没准备好。再如,在军事化用途上,将人工智能用于生产更高效的无人机杀人武器,追求的是不再需要人来指出攻击目标即可自动判定目标并执行攻击。
在通用人工智能阶段,人工智能将从狭窄的、特定领域的智能迈向更通用的智能,这个时候这些机器能在没有编码特定领域知识的情况下解决不同种类的问题,甚至能像人一样做出判断和决策。比如,谷歌Alphabet旗下的子公司DeepMind开发的AlphabetZero作为围棋弈者从零开始,面对的只是一张空白棋盘和游戏规则,通过自学使自己的游戏技能得以提高,而不是通过输入人类的对弈棋谱来训练自己。这代表着人类在建造真正智能化机器方面向前迈进了一步,因为即使在没有大量训练数据的情况下,机器也能根据规则和目的需要找出解决困难问题的方法。这在某种程度上似乎具备了所谓的“自觉意识”。有的专家认为,即使没有像人一样的自觉意识,但人类也面临将这个世界的管理权让渡给人工智能。随着人工智能的进化,他们终将认识到人类是这个世界的负担,最后理性的结果或许是清除行尸走肉的人类。一份最近的专家调查显示,可能是2040-2050年左右,有50%的概率实现人类水平的通用智能。
从技术发展的终极层面来讲,如果人的思维也是从无思维的物质开始生成的,人的意识又是从思维开始的,那么从纯理论上来讲,人工智能零部件也是无思维的物质,而这些无思维的物质最终也可能会像人一样有思维,进而也可能会像人一样具有自我意识。从而最终可能成为像人一样的一个智能物种。这就是所谓的超级人工智能时代。这个时候人类面临的挑战就更加不可预测了。因为有的专家预计,这种超级的人工智能有可能反叛人类,而跟人类来竞争、来较劲,甚至发生超级智能和人类之间的战争。这种超级智能甚至能思考人类存在于地球的必要性和合理性。
综上所述,无论是弱人工智能,还是通用智能以及超级人工智能,其潜在的风险巨大。作为发展这种人工智能主体的人来讲有责任管理好潜在风险和负面影响。在弱人工智能阶段,人工智能的各相关方是责任主体。这样看来,涉及到人工智能的各个相关方的社会责任问题。人工智能研发者、相关产品和服务的生产者、销售和服务者,也包括使用者以及政府监管部门等各相关方都肩负着重要的社会责任,防范人工智能的风险和负面作用。
应遵循的九项原则
首先,要遵循有益于人类的原则。树立人工智能要服务于人们美好生活的理念和意识。也就是人工智能的研究与开发要着眼于有益的智能方向去做。
第二,研发人工智能要遵循透明度原则。特别是研究的目的、目标和功能要向相关方和社会公开公布,以便接受社会责任监督,防止人工智能的研发走偏方向。
第三,利益相关方原则。要加强相关方之间的交流和信任,尊重回应利益相关方的利益和所求。比如研发者与政策制定部门要加强交流,适时出台相关的政策和要求,对人工智能的研发加以引导和规范;在利用大数据时要尊重相关方的合法权益和隐私,还要做到责权利相匹配。
第四,担责原则。人工智能的研发和生产者是人工智能的权益人,更重要的是其责任人,对人工智能的滥用要承担责任。确保人工智能的质量,一是要避免明显的安全缺陷;二是发生人工智能故障或者损害时,应当可以查明原因。这样一方面防止意外发生,另一方面,也能促进业界共享,防止类似的错误或者损害发生。
第五,道德伦理原则。人工智能的开发者要赋予人工智能以与人类相同的价值观。这样人工智能的目的和行为是在可以控制的范围。
第六,审慎原则。对于在要开发的人工智能的潜在风险和负面影响不能有效评估的情况下,要采取谨慎的态度,不能冒昧地推进。
第七,尊重人权的原则。人工智能的设计和运作应尊重人权,要符合人类尊严,权利,自由和文化多样性的理念。
第八,共享的原则。人工智能技术应该尽可能地使更多人受益,要尽量让更多人更广泛的共享,造福全人类。
第九,双主体责任原则。在通用人工智能以及超级人工智能阶段,除了人工智能相关方承担相应的社会责任外,人工智能系统本身作为一个智能体也应作为责任主体加以规范。