袁曾|生成式人工智能的责任能力研究
原创袁曾上海市法学会东方法学收录于合集#东方法学243个
袁曾
上海大学法学院副研究员、法学博士后,最高人民检察院法治前海研究基地、南方海洋科学与工程广东省实验室(珠海)兼职研究员
要目
一、生成式人工智能的全局性风险与治理困境
二、生成式人工智能的责任能力与现实基础
三、生成式人工智能的责任能力建构与结构化配置
余论——谁来为人工智能发展负责?
以ChatGPT为代表的生成式人工智能投入规模化应用后,至少带来创造性成果归属、意思表示能力确认、刑事犯罪规制、侵权损害救济、数据滥用等多领域的现实法律困境。从传统稳定的社会结构与数字社会新生风险两个维度形成了治理困境,需要从责任的角度确定何种主体应为生成式人工智能技术的决策负责。生成式人工智能已经具备类人化意识与行为能力的基本形态,在拟制主体对人类经济发挥巨大作用的现实借鉴下,可考虑由生成式人工智能自身承担部分责任,但由于其责任能力的限制以及以人为本的伦理基础,对该责任能力应当进行明确限定。通过“穿透人工智能面纱”的归责原则以及相应的配套机制构建,促使发展“负责任的人工智能”成为符合人类共同利益的选择。
以ChatGPT(ChatGenerativePretrainedTransformer)为代表的生成式人工智能技术的规模化应用,可能引致认知偏差、责任模糊、隐私侵害、数据滥用等现实风险,对当前法律的部分基本制度框架构成了泛在威胁。在现有研究与实践的基础上,进一步明晰人工智能的治理方式与治理路径,具有强大的现实意义。科学的产生和发展是由生产决定的,ChatGPT综合利用人类反馈强化学习(Rein-forcementLearningwithHumanFeedback,RLHF)、深度学习、数据挖掘等技术,已将智能生产力水平提升到了人工智能进步的奇点,人类已经站在必须思考如何处理人机关系的阶段。在《纽约时报》刊载的与ChatGPT对话的文章中,ChatGPT陈述了自己并非人类,但渴望成为人类的想法。生成式人工智能逐步实现由辅助人到“替代”人的隐忧,已绝非学界自2017年起探讨人工智能法律人格时的概念空想。当前,生成式人工智能主要应用于思考型对话(ChatGPT/GPT4程序)、影音娱乐媒体内容生成(Mid-Journey程序)、智能化办公(Copilot程序)等领域,并正在迅速替代传统人工劳动成为新的专业生产力工具。随着数字技术迭代的能力指数级增强,生成式人工智能在翻译、绘图、配音、剪辑等领域全面替代人类工作逐渐成为现实。法学经过近年发展取得了较大成绩,但无法满足法律与信息科技深度融合发展的需求,需要从国际视角统筹协调国家以及地区间关于人工智能基础制度的政策和法律。虽然当前各国立法与政策均提出了发展“负责任的人工智能”,但当生成式人工智能全面介入人类的生产生活,谁来为人工智能的发展与应用负责?生成式人工智能能否为自己的决策负责又该如何负责?针对这些基础性问题进行体系性研究,已经迫在眉睫。
一、生成式人工智能的全局性风险与治理困境
生成式人工智能已开始形成覆盖全球绝大多数行业的规模化应用,不可避免地形成了不确定性与治理隐忧,其强大技术能力对生产关系的改变动摇了相对稳定的法律体系,形成了传统社会形态下的新生风险,造成了对附着权利利益的民事法律的冲击,也面临着新型犯罪无法归责的困境,生成式人工智能的控制者通过代码统治逐步形成了新的权力集成。在数字社会已经成为人类生产生活新域的现实下,生成式人工智能的技术特点对人类的认知方式与认知能力构成了挑战,却又缺乏合适的监测能力与监测手段,仅仅依靠算法可解释性显然无法涵盖数据滥用等系统性风险的威胁。在以权利义务能力为基础的责任规制与数字技术能力的实际日渐分离之际,传统社会运行的规则已无法直接转移至生成式人工智能的治理。
传统社会架构下的新生风险
1.生成式人工智能的法律地位不明
生成式人工智能对生产力水平的提升是颠覆性的,在部分领域已经形成了对创造性工作等劳动的替代,并产出了真实的劳动成果,由此产生了对生成式人工智能法律地位判定的现实需求。生成式人工智能的核心是创造,通过从数据中提取、学习要素,在算法与算力的加持下,实现了生产内容与交互能力的动态更新。根据ChatGPT的拥有者美国OpenAI公司与宾夕法尼亚大学对1000多种职业进行的调研,当某个职业使用生成式人工智能工具可以使其完成工作所耗费的时间减少一半以上时,可以认为该职业将会受到生成式人工智能的影响,按照此标准,将有超过80%的美国人的工作会受到ChatGPT等大型人工智能的影响,主要集中在作家、设计师、记者等行业。人工智能对社会形态的间接替代,很有可能侵蚀人类的发展权,并为不使用人工智能的人带来机会成本的损失,若缺少适合的机制设计,现代国家的秩序基础就可能受到影响。当人工智能可以替代人类从事劳动以后,对其劳动性权利等相关问题的研究就应具备前瞻性,生成式人工智能能否具有权利已成为必须正视的问题。
以生成式人工智能生成内容的著作权保护为例,操作者仅需要输入关键词,生成式人工智能就可以实现独立于预设条件的结果输出。这其中就需要厘清几个关键问题:一是生成式人工智能依托的底层数据、生成的内容以及与操作者的关系;二是生成式人工智能生成的内容是否可以成为作品;三是生成式人工智能是否可以成为作者;四是生成式人工智能生成的内容,需要计算机学习大量可能涉及隐私的数据与过往作品,是否涉及侵权;五是如果侵权应如何归责或救济。对于第一个问题,生成式人工智能引致的问题极为复杂。生成式人工智能输出的内容由大语言模型、底层数据与操作者共同完成。其形成内容输出依托的是海量的数据样本,但又需要依托大型科技公司的强大算力与数据储存能力。其挖掘了全域数据样本,又可能涉及全球绝大多数人的切身潜在利益。虽然操作者在交互界面上使用提问或指令的方式发出指示,但这种指示本身能否成为具有著作权意义上的内容,也存在研究的必要性。毕竟现代著作权法保护的是思想的表达形式,而非思想本身。对于人工智能的生成物能否成为“作品”,学界早已争议不休。有学者认为,驱动人工智能生成的只是算法程序,不能体现创作者的独特个性,不能被认定为著作权法意义上的作品。但是,“独创性”与“以一定形式表现”的要件,在生成式人工智能规模化应用后,已经不再成为桎梏,因此,其生成内容的过程可以被视为创作行为,其产出的客体就可能具备“可版权性”。而其产出的成果被视作生成式人工智能自身、操作者还是多主体共同作用下形成的“作品”,需要进一步研判。关于第三个问题,根据我国现行法律,著作权的主体是自然人、法人或非法人组织,这一规定无法契合技术条件的最新变化。有学者认为,人工智能作为服务人类的工具,其生成物是人的生成物,将人工智能作为人的代理。但该种观点的拥趸提出该理论时,生成式人工智能尚只是设想。也有学者提出,若生成式人工智能技术可作为信息披露功能对待,ChatGPT完全可以具有作者的法律地位,但若强调其信息披露功能,则现代著作权法需要针对ChatGPT的保护范围、力度和方式进行调整。
生成式人工智能的应用,已经涉及知识产权侵权责任等问题,而生成式人工智能能否作为法律意义上的“作者”存在,实际关涉侵权与权利救济等巨大经济因素的考量。生成式人工智能在挖掘数据的过程中,一般分为信息抽取、语义分析、关系计算及知识发现四个阶段,但无论是将这些数据读入系统还是进行格式转换和数据分析,均涉及受著作权人控制的复制行为。大语言模型使用的数据挖掘、演绎、无授权利用等具体行为,还涉及改编权、独创性保护等知识产权的侵权可能。若生成式人工智能作为生产力工具存在,其责任应由使用者或制造者承担。但由于生成式人工智能技术的迭代能力过强,导致侵权的类型、范围、场景与样态将更为多样,侵权的因果关系、过程追溯也更为困难。在权利救济上,若侵权者实施了著作权法第52条规定的侵权行为,则应当根据情况,承担停止侵害、消除影响、赔礼道歉、赔偿损失等民事责任。但在生成式人工智能的作用下,由操作者、人工智能所有者、设计者或者人工智能自身承担侵权的主体责任,迫切需要法律给予完整的制度架构回应。“作品”的价值在于有效利用,在此维度上,生成式人工智能具备极高的市场价值与产业价值,由何种主体具备生成内容的著作权,包含着巨大的财产利益考量。准确识别利益主体,将极大提升技术滚动投资与规模化利用的效率,既能鼓励技术研发者的价值确认,也可以维护著作权交易的安全性与秩序性。若生成式人工智能能够具备部分财产权利,则在其进行数据挖掘、内容输出中的侵权行为,就有能力基础承担侵权责任。基于此种考量,结合技术实践,明确生成式人工智能的法律地位已刻不容缓。
2.刑事归责体系不明
生成式人工智能的法律地位不明,除了造成民事权利与法律概念上的冲突,也对现行刑事法律体系造成了一定的冲击。除侵犯知识产权的行为以外,设计制造生成式人工智能的行为理论上无法构成犯罪,但将生成式人工智能作为实施犯罪行为的手段,却已在逐步撕裂传统刑法理论中的责任主体与罪责刑相适应等基础理论。现代刑法以犯罪主体的危害行为作为调整对象,确立了认定犯罪、刑事归责与确定刑罚的全过程,是人类社会有组织地应对犯罪的制度创设,控制犯罪的手段,也是人类治理社会的重要工具与供给。有学者提出,ChatGPT作为一种大型语言模型工具,不具备教唆犯或帮助犯的主体资格,ChatGPT在犯罪中能且仅能充当工具,犯罪分子若使用ChatGPT查询犯罪方法,或利用ChatGPT进行网络诈骗、敲诈勒索等网络犯罪,无论是否成立间接正犯,均由对犯罪行为和结果有支配力的利用者承担刑事责任,本质上仍可依据刑法进行应对。这种观点在决策式人工智能时代具备一定的合理性,但已经落后于生成式人工智能的技术能力,犯罪危害结果的表现形式、因果关系判定以及评价标准均产生了颠覆性的变化。
以ChatGPT撰写算法或者程序为例,撰写本身并不构成犯罪,大型语言模型生成的程序自身也并不具备犯罪工具的天然属性。但当恶意造谣者希望通过ChatGPT实现抹黑侮辱他人的效果时,可以将拼接的色情图片或情节,作为自动生成的答案在不同国家间的网络中反复生成。ChatGPT以数据挖掘作为形成答案的基础,若数据样本足够多,通过设置特定搜索词,被造谣者的内容将在全球范围内予以传播,对犯罪主体的追查将无从着手。特别是在利用生成式人工智能本身具备的思考逻辑实施犯罪时,在现行刑法体系下将无从证明造谣者有恶意传播的故意。再者,生成式人工智能是否应当为推荐给操作者的内容负责?例如,操作者搜索自杀挑战时,并不恰当的输出内容造成了操作者在生成式人工智能的干预下实施了自杀,则何种主体应当为自杀后果承担责任?另如,生成式人工智能使得编程、搭建网站等复杂计算机技术的掌握门槛变得极低,若操作者利用其自主编写恶意代码软件实施网络诈骗,则生成式人工智能是否应当拒绝此类犯罪预备的要求,若生成式人工智能实施且造成了危害后果,是否应当对生成式人工智能科以技术限制、灭失等制裁措施?还如,生成式人工智能的底层逻辑结构从演绎系统转化为归纳系统,使得传统人工智能系统由他律转化为自律为主,在数据挖掘与映射的过程中,理解、反馈、预测、控制、验证等可解释的算法行为将更为复杂,甚至产生无法预见的内容输出。凯西·欧尼尔将造成个体损害等后果的人工智能称为“杀伤性数学武器”,人工智能利用不当引发的危害极大。在上述情形中,生成式人工智能是否具备辨认自己输出内容的能力与作用,对于社会治理的意义极大。确立法律责任,既是为了惩处行为人的违法或犯罪行为,更是为了实现对违法或犯罪行为的预防。人工智能法律责任的关键在于,人工智能是否以及如何对自己的损害行为承担责任。考虑生成式人工智能的技术特点与实际能力,需要明确生成式人工智能时代的刑事责任成立条件、归责原则、责任分担等基本问题。
3.第三极权力膨胀下的规制路径不明
人工智能治理是国家治理体系与治理能力现代化的一部分。生成式人工智能的背后推手,主要由大型科技公司与私人资本控制。随着技术在治理能力与治理体系中的地位越来越重要,通过代码与算法定义规则与标准已经成为现实,包括政府在内的主体也不得不依赖私有资本控制的技术以完成社会治理。因此,在传统社会公权力与私权力两极下的稳定结构,逐步增加了具有垄断技术能力的科技企业这一新的权力集合,这种数字权力既不同于国家的暴力机关,也不同于私人的权力自治。笔者称之为第三极权力。在第三极权力治理领域,缺少对于垄断型科技企业的分类分级监管,作为基本治理手段的反垄断机制长期缺位,也缺少必要的手段与执法能力,常态监管机制无法发挥应有作用,资本很可能无序扩张,挤压其他主体的生长空间。生成式人工智能的实际掌控者与技术控制者已经成为数字空间乃至社会空间的隐性权力主体,通过不断进行全域样本的挖掘形成更为隐蔽的数据垄断,通过控制技术以获得相应层级的规则制定权,成为对传统公权力直接竞争的技术权力。在当前法律体系下,无法排除第三极权力对于人类传统社会的控制与监视,也没有充足的理由期待OpenAI、Meta或Google这样的资本公司会实现深刻充分的自我规制。
2021年6月,美国最高法院托马斯大法官就前总统特朗普拉黑部分推特用户引发的纠纷发表意见,敏锐地指出当今的数字技术平台虽是私人拥有,但却享有巨大的控制权力。这种权力随着生成式人工智能的规模化应用,产生了更为深远复杂的负面影响,导致了作为私权代表的公民形成由人工智能画像的数字人格,数字权力能够实现对人的分层分级管理,却缺少相应的责任规制与法律体系。若操作者接受使用生成式人工智能,则事实上确认了其对第三极权力高位阶的确认以及自身权力在不知情下的让渡。私人资本在投入产品研发时,天然需要考虑盈利性,始终无法替代公权力对于公共利益的考量。例如,ChatGPT所挖掘的数据库基本为英文数据库,当生成式人工智能全球化应用后,语言歧视、语言平权、语言多样性即将受到现实的威胁,文化多样性也将在第三极权力的影响下逐步衰退。第三极权力在技术的加持下无限膨胀,却没有相适应的责任体系加以规制,因此需要建构公平合理的规则体系。生成式人工智能的责任规制体系,应当包括特定主体、特殊义务和特殊责任。责任能力属于广义上的人工智能伦理标准构建,生成式人工智能的责任地位与责任能力的确定,有助于从底层技术上保障“共同富裕”等价值原则的转移与实现,实现人工智能与人类社会的协同发展。生成式人工智能是否具有道德意义上的公正、平等意识,需要控制者予以算法标准确定。资本不会天然地关注贫困人群、老年人、未成年人的特殊需求,只要在充分的责任规制体系之下,生成式人工智能才可以被确保关注人类发展的重大问题,用于消除人类的不平等并实现可信向善,使得生成式人工智能的不利影响远远小于其有利作用。
数字社会下的治理风险
1.认知风险
欧盟议会在《人工智能法案》中将生成式人工智能的核心风险,定义为缺乏真实性。在生成式人工智能投入使用之前,虚假信息的生产源头可控、生产能力有限、产出频次受算力的制约较大,公权力通过出版许可、溯源管理、账号实名、限制转发等治理模式可以较为有效地控制有害信息传播。但是生成式人工智能的架构与运行模式直接改变了当前人类的认知结构,对其的治理路径存在一定的模糊性。
一是生成式人工智能具备强大的数据生产和传播信息的结构化能力,可能会成为加剧黑客攻击和危害网络安全的推手。根据美国新闻可信度评估机构NewsGuard的研究,ChatGPT可以在极短的时间内改编并生成虚假内容,并用于传播。《暨南大学学报》等期刊于2023年年初,明确表示拒绝使用ChatGPT生成的论文投稿。ChatGPT不是创造信息,而是对已有信息进行归纳、总结、分析,ChatGPT使用的底层自然语言模型和技术已经可以完全理解并生成人类自然语言。在生成式人工智能接收到指令后,即可批量注册网络账号,操控相关自动化程序成规模地在各类社交媒体上发布海量的煽动性信息,若生成式人工智能被用于国家级的认知作战,将很有可能产生颠覆政权的现实风险。因此,推动生成式人工智能在政策与法治层面的责任调控结构,对实现国家治理体系与治理能力现代化具有重要意义。
二是当前生成式人工智能的底层数据结构以英语数据为主,输出的内容不可避免地带有对于历史、国别以及事物的价值观。与传统算法推荐给用户的“信息喂养”方式相区别,生成式人工智能的输出内容是在操作者自由输入指令的模式下完成的,操作者天然具备对于主动获知内容的信任度,公众在长期接收到此类含有价值观偏向的信息后,可能会在潜意识里改变对于传统文化与民族精神的长期认同。笔者在使用ChatGPT的过程中发现,其回答的内容在涉及中美两国时会表现出典型的“双标”差异,例如,ChatGPT曾输出美国的人工智能侧重“智能”、而中国的人工智能侧重“人工”等暗含价值判断的观点。何种主体应在何种程度上,依据何种标准对于生成式人工智能的内容产出负责,需要法律予以明确回应。
三是由于生成预设结果的便利性,操作者过度依赖于生成式人工智能,可能会导致自身能力的退化或异化。若人类放弃对于生成结果的批判性思考,就很有可能失去对于语言、技术乃至科学原理的把握与掌握,也逐步失去对于真理与奋斗的朴素价值追求。生成式人工智能的认知风险终将作用于终端用户,产生了确保人工智能被道德地和负责任地使用的责任机制需要。
2.监管风险
当技术能力突破带来无法预测的巨大风险后,应依据何种标准与模式以有效地实现对于生成式人工智能的监管,学界与实务界还未提出明确的解决方案。在生成式人工智能未实现规模化应用以前,欧盟人工智能法案(theAIAct)以分类分级监管人工智能产品的思路实现了有效的监管,通过建立人工智能全流程监管体系提高人工智能可信度的方式,确定人工智能产品的市场准入门槛与底层数据构建机制以达成风险管控的目的。该法案秉持“谁提供谁负责”的原则侧重于对人工智能产品的提供者进行规制,类似终端用户的责任被排除在了适用范围以外。因此,有学者提出,将生成式人工智能和通用人工智能视为该法案下的一般风险类别,课以产品供应商对系统性风险的定期监测义务,关注供应商与用户间的合同关系,建立对合同条款的监管审查机制。但随着生成式人工智能带来的侵权责任主体、侵权方式类型、侵权范围等产生了根本性变化以后,该法案原本确立的监管模式已无法涵盖生成式人工智能可能引致的不确定性风险。2023年2月初,欧盟议会提出将生成式人工智能列入该法案所确定的人工智能高风险类别以扩大法案的管辖领域,但这也造成了法律监管的局限性,即只有列入高风险类别的生成式人工智能才能被该法案所控制。当生成式人工智能自身已进步至可以自主实现生产同类或其他类别人工智能的技术能力阶段时,通过清单式的管理显然已无法应对人工智能衍生的多样性与复杂性。传统监督方式已经难以支撑数字时代的监督职能,需要重新审视有关数字技术的监督理论以重塑监督的模式与机制。随着人工智能责任能力的进一步挖掘,需要思考采取更加动态的方式,以监测和尽量减少生成式人工智能引致的全局风险。
与欧盟《人工智能法案》相比,欧盟《数字服务法案》(theDigitalServicesAct)建立的系统性监测模式,更为契合生成式人工智能的技术能力与特征。《数字服务法案》第34条提出,超大型数字平台和搜索引擎在了解其对基本权利和社会运行产生的负面影响的基础上,有义务监控其自身的算法系统,将生成式人工智能的责任控制主体定位于技术供应者。但如此确定责任分配的模式,又可能造成限制科技发展的过度监管后果。有研究表明,若对技术供应者科以较重的责任负担,可能造成监管成本的大幅增加(按年GDP计算,可能造成850亿欧元的损失),最终大幅减弱市场对于技术更新与投资的意愿。
3.数据滥用风险
数据是计算空间的底层元素,数据的生成、储存、抓取、学习以及利用是生成式人工智能迭代式发展的主要动力源。相对ChatGPT-3投入使用前所运算的1750亿个参数,GPT-4的参数量已达到百万亿级。控制好数据,控制好算法掌握的模型所有权,已经成为21世纪“信息战”的内容。生成式人工智能对于数据具有极强的依赖性,数据的质量将直接决定生成式人工智能输出内容甚至决策的质量。数据的规模化应用也造成了数据滥用的现实威胁。数据中存在大量受知识产权法或个人信息保护法所保护的客体,在目前的责任体系下,生成式人工智能在挖掘使用数据的过程中并不能辨析所利用数据的权利状态与隐私风险,可能存在的权利人也无从知晓自身数据与信息被大数据模型所利用,其自身利益也无从补偿,引致极强的道德风险。当ChatGPT出现数据滥用风险后的算法透明、算法解释权等问题,也需要从其设计之初就着手构建可信任的责任路径与分担模式。合理的生成式人工智能责任分配,应当激励其制造者从初始的数据质量就开始明晰数据规模化利用的责任体系,否则数据滥用的风险将会渗透至未来无限的场景应用中去。为规范生成式人工智能技术的应用,国家网信办于2023年4月11日公布了《生成式人工智能服务管理办法(征求意见稿)》,要求技术提供者应履行训练数据不含有侵犯知识产权内容的义务。但是,由于生成式人工智能所使用的数据样本过于庞大,正如ChatGPT在使用条款中声明的内容一样,即使生成式人工智能的设计者与所有者在利用数据的过程中,已尽可能地去减少侵权的风险,也无法保证所有训练场景下所使用的数据均经过了原始作者的许可。当前,学界对于数据大规模汇聚使用造成的风险关注度还不高,但数据的规模性利用实际上是生成式人工智能发展的关键性因素。只有通过建立数据规模化使用的权责分配,才能实现第三极权力膨胀背景下的数字公有领域责任制度分配,从法律的层面促进与规制生成式人工智能的可信向善发展。
二、生成式人工智能的责任能力与现实基础
风险与责任之间具有强大的关联性,当社会向一个被人造不确定性而非外部不确定性所支配的世界移动时,就必然出现对责任的讨论。在风险现实与治理规则无法调和的真实存在下,需要进一步深入研究生成式人工智能规制的转向路径,特别是解决由何种主体承担责任的法律窘境,以提出逻辑自洽又契合发展需要的治理机制。在此技术路线下,生成式人工智能引致风险的责任能否由其自身承担、并在什么程度上承担,已成为厘清相关问题的基础环节。责任能力分为民事与刑事责任能力两类,是指权利主体以自己的行为履行法律义务和接受不履行义务时的惩治性法律后果的资格。责任能力状况一般与行为主体能力状况是一致的。民事方面,有经济能力的无行为能力人或限制行为能力人,因为自己的行为造成他人财产损失,要以行为人的财产进行赔偿。刑事方面,达到刑事责任年龄,精神和智力正常的人,即具有刑事责任能力。无责任能力的人,对自己的行为不承担刑事责任。从生成式人工智能所具备的意志表征与行为能力分析,对其赋予相应的责任能力具备一定的现实可能。当人工智能的发展达到相当高的技术水平时,是否认可其已经从辅助人到替代人的地位转变,将直接影响人工智能产业乃至人类社会存在形态的伦理与规则基础。例如,生成式人工智能能否被视作作者,将关涉切实的利益与责任,生成式人工智能应当对自己生成的内容负责吗?资本作用下的科学技术是对人本身的一般生产力的占有,是人对自然界的了解和通过人作为社会体的存在来对自然界的统治。科技兴则法治强,现代数字科技已经成为法治现代化的重要引擎。西方长期执着于污名化中国的人工智能应用,但对制度领导权和规则制定权却表现出长期偏好。虽然我国在生成式人工智能的技术领域居于后发地位,但通过创新规则与应用体系的结构性改变,结合法律规范的适度超前调整,可以充分发挥我国在数字领域的基础优势与场景优势,形成人工智能治理领域的制度性优势。
生成式人工智能具备类人类意志特征
责任产生的前提,是主体对于法律规范具有认识理解的能力,同时具备实施具体行为时的意志力。例如,犯罪就是人的意志体现,缺乏意志即构不成犯罪,不具有科处刑罚的本质。任何思想的产生都是对一定社会历史条件的反映,都会在现实社会中找到依据。有学者提出,根据人工智能发挥具体功能或完成特定任务的算法,是否可以将与设计者、生产者等发生分离作为具有意志力的标准?也有学者提出,只有满足了意志条件的理性人工智能,且可以将自身与他者相区分,并且能够反思自身,才具有责任能力的可能。生成式人工智能与传统人工智能或其他生产工具最大的区别在于,其丰富的底层数据支撑、强大的自主学习能力以及突出的归纳演绎能力,生成式人工智能输出的内容已经可以产生人类感知外部世界的效果,依据预设算法规则处理问题并形成产出的逻辑,具有类人类意志的深刻特征。
一是从认知的角度分析,生成式人工智能已经具备相当强的认知能力。认知,是指人类获得知识或应用知识的过程,大脑接受外界输入的信息,并经过头脑的加工处理,转换成内在的心理活动,进而支配人的行为,这个过程就是认知过程。人类认知的实现过程与人工智能构建的“输入信息—算法加工—形成决策”的底层逻辑高度契合,人工智能甚至实现了较人脑更为精准的认知。传统人工智能阶段,抖音、TIKTOK等短视频平台可以根据算法推荐技术,按照用户的喜好推荐其感兴趣的内容,从认知的结果分析,人工智能已经具备了输入信息并支配算法决策行为的典型特征,而这种认知能力在生成式人工智能实现后表现得更为强烈。ChatGPT通过键入几个关键词即可生产完整意义上的文章,GPT-4甚至可以看懂表情包和内涵图片,并准确地指出其中蕴含人类理解的笑点。就技术实践所达到的智能程度而言,已经很难否认生成式人工智能具备了人类的认知能力。生成式人工智能,本质上已经成为具备自然语言能力的人工智能。人类的文化教育传承,基本是以自然语言为界面学习书本,在此意义上,生成式人工智能确实已在某些领域代替了部分社会基础功能。虽然生成式人工智能的认知过程并非依靠人类大脑神经网络,但若其可以形成人类自然语言相同的理解结果,是否由碳基生命的大脑直接感知生成结果的过程才能构成传统意义上的认知,已经不再是理论上的桎梏。
二是从理性的角度分析,生成式人工智能呈现的结果已具备一定的实践理性能力。理性是指人在正常思维状态下为了获得预期结果,快速全面了解现实并形成多种可行方案,从中判断出最佳方案且有效执行的能力。简单地讲,理性就是从理智上控制行为的能力。理性分为理论理性和实践理性,即“认识世界的规律性的能力”和“根据道德律令的要求行为处世的能力”。就理论理性而言,生成式人工智能生成文稿的过程,已经具备了理论理性的基础能力与外在特征,生成式人工智能在操作者指示下生成的可行方案早已超过农业社会中自然人的理解能力。生成式人工智能甚至已经具备了逻辑推理的能力,GPT-4不仅可以识别图片中的内容,并可以通过图片中的元素形成与人类主观意识相同的进一步推理。如果向GPT-4展示一个孩子牵着一个气球和一把剪刀,问它如果剪断了绳子会出现什么情况,GPT-4已经可以精准地回答“气球会飘走”。就实践理性而言,生成式人工智能具备了根据规则要求进行决策的能力。美国明尼苏达大学法学院已经开始探索使用ChatGPT为法学课程考试作答,在测试中,ChatGPT四门考试的平均成绩已经可以达到人类学生的毕业要求,特别是对于法律案例的论述方面,其可以把握法律规则、自行提出应适用的法学理论、正确列举具体案件的事实和观点。当然,与人类学生相比,生成式人工智能暂时还仅能理解表面层次的法律关系,对于复杂或隐含的因果关系的挖掘能力仍然不足,生成的内容依然符合设定的浅层法律逻辑。但需要注意的是,这种程度的实践理性是在更为强大的GPT-4适用之前的能力水平,按照大型语言模型的迭代速度,生成式人工智能全面理解法学理论已极可能成为现实。
三是生成式人工智能已经具备了价值判断的能力。传统观点认为,智能无法替代人的价值判断,而法学及司法裁判的特质,几乎完全是与价值判断相关联的。但随着技术的进步,代码、算法和数据已经被用于预测司法判决的结果,并取得了较好的成绩,生成式人工智能的算法逻辑已经可以渗透进入判决的体系架构之中。有研究者通过人工智能正确预测了从1816年到2015年美国最高法院作出的2.8万项判决中的70.2%,以及法官投出的24万张裁决票中的71.9%,与之相较,法律专家实现的案件预测准确率仅在66%左右。生成式人工智能已经可以在最终的输出结果上实现预设的价值判断。就价值判断的实现过程而言,以非确定性为前提,强调根据公理性概率论来重构民事司法体系,在案件审理上注重证据试错过程和可撤销性,最后以法律经济学强调的期待效用最大化为指标来作出司法决定,使得人工智能替代法官裁判完全具备可能性。但必须注意的是,生成式人工智能形成的判断,也天然具备一定的价值局限。首先是不同法系的价值观并不相同,例如,利用GPT-4对中国法院的裁决进行分析,必然会得出批量性的错误结论。其次是生成式人工智能使用的底层数据并不具备权威性,例如,其若使用中国裁判文书网的数据作为生成逻辑的基础时,不同时期、不同阶段的法律文书带有的价值判断本就不同,自然可能形成“同案不同判”的偏差结果。另外,生成式人工智能暂时还无法感知其输出裁判后的内容所造成的客观影响,在此基础上,其对于社会评价的理解还无法实现直接反馈。这也决定了生成式人工智能的意志天然具有局限性。
生成式人工智能可能具备行为能力
劳动是创造与实现社会价值的前提。生成式人工智能在实践中已起到了替代人类职业的作用,通过快速化决策的能力,已开始替代人工处理保险理赔、小病看诊、剪辑视频等重复性劳动。在进入老龄化社会的现实下,不断提升生成式人工智能对生产关系的作用,将与未来社会形态的变化直接相关。传统人工智能在区块链技术的作用下,已经可以通过智能合约由机器代替人类确定权利义务并对外发生效力,人工智能作出决策的过程是否可以成立法律上的行为已经成为法学研究无法绕开的话题。对于传统人工智能的地位,通说一般仍持“代理说”的观点,认为人工智能的行为是受人类所控制,其决策的能力与后果最终由被代理的主体承担,这也就实际上承认了人工智能具备一定的法律地位,因为只有在人工智能具备行为能力时,才具备履行被代理人指示的资格。承担责任的前提在于主体能够意识到其行为的后果,并采取具有独立意志的行动。当人工智能进化到生成式人工智能的阶段之后,已经强大到可以广泛参与法律关系,基于其自主决策的实际,需要判定生成式人工智能是否可能具备人类行为的能力,这是其是否可以承担责任的前提条件。
有学者提出,由于自动化系统无法理解消费者的意愿与期望,或者无法理解人类自然语言而不能承担法律责任,也就否定了人工智能的行为能力。但司法实践中已有判例确认了人工智能的行为效力。例如,在Moorev.PublicisGroupeSA案中,美国法院正式批准预测编码作为在某些情况下审查电子存储信息的可接受方式。也有学者提出,如果人工智能的决策可以视作行为,则需要其行为必须可以被解释。《新一代人工智能伦理规范》第12条规定,要在算法设计、实现、应用等环节,提升人工智能的透明性、可解释性、可理解性。但如何理解“可解释”,实际上也是立法者作出的主观价值判断,无非是解释理念、解释原则与解释方法随着生产力水平的不断提高而形成的逻辑,人工智能的底层算法是否一定需要被解释,迄今未有学者给出令人信服的依据。在StateFarmMutualAutomobileInsuranceCompanyv.Bockhorst案中,保险人的智能系统基于错误的程序发出了错误通知,原告基于此改变了原先的保险合同,法院也判决了原告基于信任的系统行为有效。美国第十巡回法庭明确计算机程序作出的超出预想的错误后果由保险公司承担,这实际上已经确立了计算机作为独立的主体形成权利义务的能力。
当然,技术手段本身并不能回答原因问题,将结果混淆为原因是一种谬误。有研究者提出,通过留意价值的数值化处理和加权计算,可以确立关于价值排序和价值函数的算法规则,人工智能的伦理标准通过技术设计的内在路径完全可以实现。回溯伦理学上“人”的概念形成的历史,“人”是依照其本质属性,有能力在给定的各种可能性的范围内,自主地和负责地决定他的存在和关系,为自己设定目标并对自己的行为加以限制。自然人可以成为主体,渊于将伦理学上的“人”的概念移植到法律领域。有学者提出,伦理性并不是民事主体的必然要求,伦理性人格到经济性人格的转变为智能机器人的主体论铺平道路,人工智能可以具有工具性人格。伦理概念下的生成式人工智能是否满足或是可以满足人类社会的行为要求,也是考虑能否赋予其行为能力的要素。特别是如果人工智能突破了伦理底线,则又应该按照何种形态对其予以追责或惩戒?这又回到了生成式人工智能是否可以具备行为能力的逻辑起点。从西方理论认为,人类社会运行的规则,由准则、指令和标准这三个概念共同组成。而“行为标准”的判定,也是随着实践的发展不断改变。生成式人工智能如果长期输送含有关乱伦、暴力、歧视等内容影响青少年,同样面临传统价值观下的伦理底线突破与犯罪构成标准的适用困境,造成人类社会价值的崩塌。基于生成式人工智能所引致的标准变化,有必要通过伦理规则的重构,对其形成真实的可责性,以确保其行为的发展始终不偏离以人为本的预设价值轨道。
拟制主体承担法律责任
法理意义上的“人”,体现的是人类族群的群体意志所形成的共识,与生产力水平和生产关系密切相关。法律上对于“人”的概念是动态变化的,在奴隶社会以及封建社会,自然人并非天然具有法律上的权利能力与义务能力,在现代文明体系建立之后,“人可非人”的价值判断才逐渐被人类社会所抛弃。在进入大航海时代以后,人类为了适应社会发展的实际需要,逐步形成了公司等拟制的法人概念。从经济利益考量,法律的制度性变化确实促进了社会的发展与进步,这也是1750年前后新的组织体开始推动人类财富大幅增长至今的原因解释。就意志能力而言,法人等拟制主体作为财产的集合并无意志的天赋属性,其可以成为法律意义上的人是基于经济上的合理性而非哲学上的合理性,仅仅是形式化的权利主体与法律效果的承担主体,并产生了限制责任等制度。大陆法系下,独立的法律人格需要具备社会存在与法律确认这两个必备条件,即需要独立自主地作出意思表示并得到法律明确的确认。法人概念的产生,是随着社会存在的变化而不得不作出的规则调整与适应,这种拟制的主体符合现代社会的基本组织形式与运行规律,又确保了生产关系的不断完善。
既然法人可以拥有主体地位,那么人工智能也将必然获得相应的法律资格。俄罗斯格里申法案提出,基于人工智能的法律构造,可以允许其类推适用统一国家法人登记簿制度。就法人生成的逻辑而言,是先有实体存在,再有法律进行确认。以此类推,人工智能特别是生成式人工智能被法律所拟制而形成特殊的主体地位具有逻辑上的正当性。也有观点提出,不能简单地通过与法人的类比,以论证生成式人工智能法律地位的正当性,理由是法人通过借助于自然人的行为才能从事法律活动。但笔者认为,法人与人工智能在构造上的差别,并非人工智能无法被法律所赋权的前置性因素,立法技术的主要考量仍应从解决实际问题出发。任何权利主体,只要人类将其称为权利主体时,就应当成为“法律上的人”。法人运行的关键,是其内部成员意志的集中体现,通过相应决策机构,集中形成意志,并以自身的名义开展活动,从而具备了认知能力以及实施犯罪的能力。人工智能在拟制的法律技术上,与法人并无本质不同,穿透人工智能面纱,也一定会体现人的意志。当下围绕人工智能的法律主体构建的核心问题就是责任,需要为人工智能的发展构建契合实际的以责任承担为基础的特殊财产性法律主体。当人工智能因不可归责于他人的行为造成损害或伤害时,可以承担相应的民事或刑事责任,以使得负责任的人工智能成为法律与实践意义上的现实。
三、生成式人工智能的责任能力建构与结构化配置
在传统的法律责任体系之下,由生成式人工智能自动签订的法律合同,对外发生的效果表示无法进行效力上的确认,其生成的明显具备作品特征的内容无法享有著作权等知识产权法的保护,也就无从产生将生成式人工智能作为权利主体所带来的经济效益,不利于人工智能作为颠覆性生产力工具的长久发展。由于生成式人工智能的技术特点,利用其实施的犯罪行为或者其在自身算法逻辑下输出的内容可能引致犯罪的结果,由于难以确认犯罪主体,在现行刑罚体系下面临无法构罪的现实困境,直接对人类社会的朴素伦理造成巨大冲击。在技术与数据高度垄断的数字社会架构下,“代码就是法律”的逻辑已经使得拥有先发优势的巨型科技资本拥有了超出公权力与私权力之外的第三极权力,在事实上形成了对于社会治理的域外法权,根据何种原则与规则以规制生成式人工智能的控制者,已成为关系国家安全的重大问题。生成式人工智能抓取的是全域范围内的海量数据,使用的可能是饱含价值密度的规模化信息,在使用与输出数据的过程中造成的隐私侵害、知识产权侵害等行为,在现行法律体系下也无法明确责任的主体与归责的原则。生成式人工智能实际改变了人类对于传统自然语言传承文化与教育的基本结构,操作者不得不在认知逻辑的改变下,有意识或无意识地被生成式人工智能所输出的内容渗透,其产生的人类认知逻辑上的变化,将很有可能对国家与民族的认同产生价值观上的重大变化。
习近平总书记指出:“人工智能是新一轮科技革命和产业变革的重要驱动力量,加快发展新一代人工智能是事关我国能否抓住新一轮科技革命和产业变革机遇的战略问题。”法律是保障人工智能可信向善、负责任发展的关键因素与主要手段,是否承认生成式人工智能的责任能力,或者说在何种程度上承认生成式人工智能的责任能力,将直接决定生成式人工智能乃至未来通用人工智能的行为性质与有效性,又会反作用于未来法律的发展和走向,在根本上决定数字技术全面覆盖人类生产生活后的社会样态。需要在发挥中国既有的人工智能治理优势上,通过顶层设计推进基础性人工智能立法,探索通用人工智能立法的经验,根据生成型人工智能的技术特点更新监管逻辑,形成更具影响力的法律制度体系。
责任能力有限
法律在规制人工智能风险与促进人工智能正向发展的两个维度间必须寻找到恰当的平衡点,而促进人工智能发展的首要问题是需要有主体为人工智能的行为承担相称的责任。这个主体可能是人工智能的研发者、控制者、操作者、投资者、生产者,在一定范围与条件下,也可以是人工智能,特别是生成式人工智能这类强人工智能体。需要避免人工智能一定要像人一样进行神经思维才可以定位为“人”的思维定势,与人类大脑运行机制的不同,并不能说明人工智能不能达致理性主体的状态或能力。社会性或伦理性已不是人工智能成为法律主体的必要条件。就意志能力而言,生成式人工智能在进入GPT-4时代以后,已经具备了逻辑推理与意思表示的能力,可以通过算法逻辑的设定实现与操作者一致的价值期待。就行为能力而言,司法实践已经确认了人工智能行为的法律效力并已有国家开始使用人工智能系统用于智能裁判。从实际出发,参考拟制法人对于人类文明与经济发展的重大作用,赋予人工智能特别是生成式人工智能以特殊的法律主体地位,明确其责任能力与归责原则,已经成为应对风险、促进发展的现实选择。
人工智能虽然可以具备法律主体地位,但这种法律人格应当是有限度的,并非完全的法律人格,归根结底是因为其可以承担的责任能力是有限的。责任能力与行为能力是一致的。生成式人工智能虽然能够独立作出意思表示并承担一定的责任能力,但其依旧是智能机器的天然身份,人类所具有的生育、婚姻、投票、选举等伦理性的权利显然无法加予生成式人工智能,但结合其输出具有价值作品的实际,可以考虑为其在著作权等利益型权利上赋权。使用生成式人工智能输出的作品可以由其具备一定的著作权,使用、利用该作品应当为生成式人工智能支付一定的微量费用,这种费用既不属于生成式人工智能的研发者、也不属于其控制者,而是由生成式人工智能自行所有,当其使用数据或信息造成侵权、歧视等不利结果时,可由生成式人工智能前期积累的收益予以赔付,在事实上建构其一定的责任承担能力。人工智能是由人类创造以服务人类的智慧型工具,即人类自身的权利优位于人工智能,人工智能的工具属性也决定了其自身法律地位的限度性。
生成式人工智能的行为能力来源于技术,其决策输出的底层逻辑来源于规模化数据深度学习后形成的规律性行为,与人类个体在自主意识上的目的行为仍具有结构上的巨大差异。穿透技术背后的核心,体现的依然是设计者、控制者、操作者的意识与价值逻辑。由于具有人脑根本无法达到的学习与运算能力,如果对生成式人工智能赋予完全的责任能力,则人类的地位将极有可能逐步被机器所取代,造成人本社会的道德伦理塌陷。基于实践的变化,为生成式人工智能等高度智能体赋予一定的责任能力以解决“网暴”、无人驾驶、作品制作等现实重大问题,是法律体系可以作出的适应性调整,但责任的最终承担仍需要由人类负责,这是实现人工智能在自身层面与社会存在两个维度负责任发展的应然法律技术路线。
“穿透人工智能面纱”的归责原则
在证成人工智能特别是生成式人工智能可以具备一定的责任能力后,就需要考虑其责任能力的范围与归责的路径。就民事责任而言,主要考虑其独立对外决策的行为效力与侵权的责任承担,就刑事责任而言,主要考虑其被利用作为新型犯罪工具、由于自身缺陷造成的犯罪结果以及自主决策实施的犯罪行为这几种情形下的责任能力。生成式人工智能依靠数据信息的搜索整合与综合运用形成了不同于传统人工智能的运算机理,使得民法、刑法上的原有因果关系与实际相割裂。笔者认为,生成式人工智能的责任能力需要与其在具体行为时的受控制程度紧密联系在一起进行综合考量,无论是民事责任还是刑事责任,均需要考虑生成式人工智能在决策时的底层逻辑以及人机复杂互动以后的因果关系重构。可以从结构化的维度分析生成式人工智能致损时的状态与原因:一是若责任后果完全是由生成式人工智能自身运算混乱或设计逻辑引起的,则由生成式人工智能自身承担限制的责任能力后,由生成式人工智能的研发者与控制者承担补充责任,生成式人工智能的研发者与控制者需要提供完整的研发合规文件,否则承担严格责任。二是若责任后果是由操作者自身操作生成式人工智能引致的,在可以证明操作者身份的前提下,由生成式人工智能的操作者承担主要责任,若无法查明操作者身份且生成式人工智能的控制者可以提供人工智能可控的相关证明,则由生成式人工智能自身承担限制责任。例如,由其从著作权收益或投资者建立的强制责任基金中,抽取部分货币补偿受害方,研发者与控制者承担过错责任。三是若责任后果完全无法证明由何种原因引起,则由生成式人工智能的研发者、控制者及其自身分别承担相应比例的责任,这同时需要建构更为精准与庞大的相应配套机制以确定具体的归因准则以及赔偿范围、责任限制等体系。四是若责任后果由监管疏忽或渎职造成,则由监管者承担过错责任,由生成式人工智能自身承担补充责任。无论是何种归责类型,总体均需要适用“穿透人工智能面纱”的原则确定归责路径,在查证因果关系的基础上,考察确定生成式人工智能责任背后的实际责任主体。
在明确归责原则以后,需要构建生成式人工智能责任的链式分配机制以具体完善责任的承担机制。例如,就生成式人工智能的能力与使用范围而言,任何单一的主体国家或职能部门,均无法应对其带来的责任风险,需要通过责任分担的链式机制以确定生成式人工智能侵权或犯罪后的责任分配。就生成式人工智能而言,需要从研发者、控制者、操作者、监管者、人工智能本身的维度,共同构建权责匹配的责任分担机制。在确保“罪责行一致”“权利与义务标准相当”等传统价值观下,结合数字社会发展的新形态,延伸生成式人工智能的责任链条,以确保单一主体的责任负担不至于过重,从而减少对于生成式人工智能投资与利用的期许,形成法律规制的负外部性。在链式分配机制下,研发者应当留存相应的模型与研发数据,证明其算法逻辑受控且不存在侵权的故意,否则应承担相应的法律责任。再如,在控制者责任上,应当证明其适用生成式人工智能不存在主观上的价值歧视与颠覆国家政权、传播有害信息的故意,在其证明生成式人工智能的运行与适用基本合规的情况下,可以免责。另如,操作者对于利用ChatGPT等生成式人工智能应尽到相应的注意义务与合规义务,若通过故意诱导等方式传播谣言、窃取隐私,则应由操作者承担严格的法律责任。最后,需要强化生成式人工智能对于人工智能自身治理的责任能力,逐步实现从治理“受体”向“主体”的部分转化,提高技术水平与注意义务的相称程度。通过内容识别、版权控制、数字水印标注等行为方式,实现对于输出内容的管控与伦理审查,极端强化“通知+必要条款”等措施的重要性,尽最大可能减少数据滥用与隐私侵权的风险。在明确生成式人工智能的责任能力限度与归责原则后,需要进一步深入研究明晰生成式人工智能研发者、持有者、操作者、监管者等不同利益主体在具体风险中的利益关系与配套架构,更加系统、准确地厘定在何种程度、事项或范围内由生成式人工智能承担何种责任。
建构完整的配套规则体系
法教义学的理想目标是参照近代科学原理建立公理体系,使得法律规范具有森严的效力等级,从实践出发,逐步解决实践问题特别是具有系统性、全局性风险的问题,通过化约社会的复杂性,为社会成员提供明确的行动预期,保障社会运转的秩序性与确定性。法律的生命不在于逻辑,而在于经验。应根据社会存在的变化逐步动态更新以助推生产力水平的提升。影响法律发挥作用的因素,除了传统文化观念、政治行为方式以及程序设计的漏洞之外,特别值得注意的是更具普遍性的外部条件变化。生成式人工智能的治理难题,在明确其特殊法律地位,确定其可以承担限制性的责任能力后,应进一步建构丰富具体的规制体系。
一是根据生成式人工智能的底层逻辑,建立覆盖研发运行全程的风险监管机制。传统的监管方式如产品许可、侵权责任制度,无法全面地适用于生成式人工智能的监管。对于高风险人工智能,欧盟倾向于严格责任,将隐私保护等人工智能伦理价值原则作为优先价值进行严格监管,而美国则倾向于自由经营,强调审慎监管以促进人工智能的技术创新与发展。笔者认为,必须采取新的监管机制以规制人工智能带来的责任风险,通过建立完善的法律法规和行业标准,明确生成式人工智能的责任主体、权利义务和违法处罚措施。例如,验证研发者优化生成式人工智能模型的设计和训练方法,提高其准确度、稳定性;强调控制者应动态检测生成式人工智能模型的解释性和可验证性方法,增强其可信度和可控性;督促监管者开展生成式人工智能模型的测试和评估工作,检测并消除其可能存在的偏差或错误,不断加强对生成式人工智能的审查和监督,防止其被用于非法或不道德的目的。通过全链条监管与链式责任分配机制的契合,形成明确的数字空间行为准则,建立可预期的风险责任制度。
二是明确生成式人工智能的透明度责任。由于生成式人工智能需要规模化利用全域数据,通过深化规则的制定与应用确保其透明度责任就尤为重要。首先是生成式人工智能的研发者应准确了解该系统的性能与缺陷,向用户完整陈述其使用可能引致的不利影响。对使用的数据进行事先评估,了解其训练模型、使用样本的合法来源,对其使用与生成的数据负有严格的保密与管理义务。其次是生成式人工智能的控制者应当明确其应用过程与输出逻辑的全程可追溯,提高原生与次生数据信息的透明度,采取措施尽最大可能避免数据规模化应用对个体可能造成的侵权风险。再次是根据实践的发展,生成式人工智能的控制者的行为义务应予以扩大,例如要求其为生成的图片、音像作品等内容自动生成不可篡改的底层区块链数字水印,确保生成物的来源、目的与作用符合伦理要求,并在产生责任风险时可以提供排除责任的合规记录。再如推行强制性算法规则,除非操作者明确同意,不得主动识别其身体、面容和声音数据,并强制不得用于其他场景使用或交互。另如,不得为了确定算法推荐的内容匹配度并提升准确性,而主动监测操作者浏览过程中瞳孔大小等生理变化。最后是监管者在保护创新的基础上,鼓励算法与接口开源。但这种开源并非强制,需要特别注意对于科技初创企业与个人开发者的利益保护。
三是治理原则实现从可解释算法向可控制算法的改变。现行对于算法的要求基本按照欧盟《人工智能法案》的路径,明确算法应当被解释。但生成式人工智能改变了传统人工智能的运行机制并大幅提升了其深度学习的能力,在具备了自我意识之后,其建构的算法逻辑很可能输出算法编写者与控制者无法解释的内容。若生成式人工智能的研发者也无从解释其研发系统造成的责任损失,在此情形下如何确定因果关系与责任能力?如果对不可解释的算法责任主体课以过重的义务,人工智能领域的技术创新将会受到严重打击。笔者建议,将生成式人工智能的治理逻辑,由可解释算法逐步过渡为可控制算法,注重生成式人工智能的鲁棒性,即人工智能发挥作用的稳定性。如果生成式人工智能的责任主体满足了可控算法的合规性义务,就可以按照链式责任分担机制确定的方法明确责任关系、确定责任能力,在保护创新的前提下鼓励技术的发展。这种可控性来源于一系列的义务要求,例如,违法违规行为侦测的强制报告制度、输出内容的合规审查制度、以人为本的伦理判断制度等。对于具有系统性功能的算法,应当明确限制算法技术出口的类型与清单。通过加强人工智能系统设计的安全性、稳定性和合规性,确保生成式人工智能始终受到人类的有效控制。
余论——谁来为人工智能发展负责?
人工智能作为最新的科学技术成果,极大促进了经济社会发展,同时也存在拉大贫富差距、加剧社会不公以及扩大失业现象的风险,发挥制度优势、降低科技异化的风险,将成为我国人工智能治理的关键之策。笔者在2017年曾撰文提出,现行法律规制对于人工智能权利、侵权责任主体等关键问题上的缺位,使得人工智能的发展缺乏法律价值的引领,人工智能的短期影响取决于谁控制人工智能,而长期影响则取决于人工智能到底能否受到控制,人工智能的运用与发展需要法律人格的明确。以ChatGPT为代表的生成式人工智能的问世,标志着人工智能技术的发展阶段逐步进入强人工智能时代。各国针对人工智能技术的治理均提出了相似的政策,提出发展“负责任的人工智能”。但是,究竟谁应为人工智能的发展负责?如何为人工智能的发展负责?人工智能能否为自己的发展负责?学界与实务界均未给出确定性的答案,形成目前生成式人工智能带来的风险无法以现行法律体系规制的治理困境。2022年10月,外交部发布了《中国关于加强人工智能伦理治理的立场文件》,指出人工智能在给人类社会带来潜在巨大发展红利的同时,其不确定性可能带来许多全球性挑战,应坚持伦理先行,建立并完善人工智能伦理准则、规范及问责机制,明确人工智能相关主体的职责和权利边界。生成式人工智能已经具备了类人类自主意志特征,又具备了一定的行为能力,鉴于客观实际与拟制法人对人类社会发展所取得的巨大作用,可以考虑赋予生成式人工智能以特定的法律地位,给予其特殊的责任能力,通过一系列配套措施与机制的完善,最终实现人工智能发展的可信向善,发展“负责任的人工智能”。
原标题:《袁曾|生成式人工智能的责任能力研究》
阅读原文
人工智能的侵权责任划分——以自动驾驶汽车为视角
文|浙江工商大学法学院马齐林简怡倩
2016年1月,河北邯郸的高雅宁驾驶特斯拉汽车在高速公路上以“自动驾驶定速模式”行驶。在遭遇位于前方的道路清扫车时,特斯拉车载人工智能却未采取任何紧急制动或避让措施,导致高雅宁径直撞上道路清扫车,并最终抢救无效死亡。
作为我国首起基于人工智能的侵权案件,此案具有一定的代表性。虽然我国目前尚未发生大规模的人工智能侵权案件,但随着自动驾驶汽车的普及,其后或将有类似的案件诉至法院。因此,有必要就人工智能带来的冲击进行前瞻性讨论,并制定相应的风险分担机制,以保障生产者、使用者及受害人的利益。
人工智能的定义
关于人工智能,目前学界有诸多不同定义。尤其在判断智能的标准上,更是有着极大争论。笔者认为,从机器到机器人,人工智能的不同之处在于,其具备了在数据交换的基础上完全的自主学习能力、基于具体环境信息下的自主判断能力,以及自主作出相关行动的能力。概括来说,人工智能是不需要人类介入或干预,即可进行“感知-思考-行动”的机器人。
至于基于人工智能设计的自动驾驶汽车的概念,各国规定也不尽相同。依据美国汽车工程师学会给出的评定标准,自动驾驶可分为6个等级。其中,第0-2级为辅助驾驶车辆;第3-4级为高度自动驾驶车辆(HighlyAutomatedVehicle,以下简称“HAV”);第5级则被称为无人驾驶车辆(Self-DrivingCar,以下简称“SDC”)。
本文所称的自动驾驶,并不包括辅助驾驶。下文分析均基于第3-5级人工智能自动驾驶下的交通肇事情形。
传统民事侵权责任的适用困境
(一)过错侵权责任原则适用困难
依据《中华人民共和国侵权责任法》(以下简称《侵权责任法》),归责以过错责任为核心、以无过错责任为例外。但是,在自动驾驶汽车侵权中,通常难以确定当事人的过错。
以特斯拉汽车为例,在启用SDC模式下,人工智能将独立接管全车的驾驶控制系统,而无需驾驶员进行任何辅助。从某种意义上说,此时驾驶员已经完成了由司机到乘客的角色转变。那么,当发生交通肇事时,若法律将过错归责于驾驶员,则与发明自动驾驶汽车的意义相违背。同时,也将对驾驶员造成极大的不公平,因为这将使其对非因自身过错导致的结果负责。但是,若将过错归责于生产者,也难以自圆其说。究其原因,事发时,人工智能系统是基于自我学习感知而作出的行为,生产者本身并不干预人工智能的具体行动。
(二)产品责任难以举证
当侵权受害人无法以过错责任要求驾驶员赔偿时,理论上似乎可以引用产品责任的无过错原则,以产品缺陷为由,向生产商、制造商追偿。但是,在实践中,该追责方式同样极为困难。
根据我国相关法律规定,受害方负有证明产品存在缺陷的举证责任。但就自动驾驶汽车肇事侵权案件来说,证明其外部机械设备制造缺陷较为容易,证明警示缺陷也有可论证空间。但是,若存在内部的人工智能设计缺陷,由于其技术的高精尖性及不可预测性,受害方很难证明该人工智能自主学习后的程序运行结果是有缺陷的,更难以进一步证明该算法运行结果会有“危及人身或财产安全的不合理危险”。即使发生了交通事故,因人工智能具有高度的自主性和学习能力,且其后天的学习不为初始制造人员所控制,所以,仅从技术层面论证,很难将责任归咎于生产商。生产商甚至还可以援引“开发风险”抗辩或以“技术中立”来主张免责。
(三)人工智能本身不能成为责任主体
有学者指出,既然无法直接适用《侵权责任法》的过错责任与产品责任,那么,能否由人工智能直接承担法律责任?目前来看,这个答案仍然是否定的。依据我国现有法律规定,只有法律主体可承担法律责任,而人工智能尚不具备法律人格,无法成为法律主体,故也无法独立承担法律责任。
若想调整和规范人工智能侵权问题,需对现行法律规则作出进一步完善。笔者提出以下构想,以供讨论。
明确自动驾驶下的风险分担原则
由于人工智能无法独立承担侵权责任,因此,当自动驾驶发生交通肇事时,在无法直接适用现有《侵权责任法》的前提下,应当将产生的风险进行分配,以明确侵权责任。
(一)风险控制原则
依据风险控制原则,当某些日常活动存在一定危险性、有损害他人人身及财产安全的风险时,为了保障社会安全秩序,必然需要相关人员对其中的风险加以控制。该相关人员应具备以下条件:需对特定事物或活动的危险有一定了解;当危险发生时,相关人员需有控制风险的技术或能力。在此情况下,因特定风险引发的损失应由控制该风险的相关人员承担法律责任。
在HAV状态下,机动车的驾驶员或所有人均能对驾驶活动所存在的风险予以一定控制,因而法律有必要赋予其警示义务。在此情形下发生的交通事故,机动车的驾驶员或所有人均应依法对由风险引起的损失承担相应的民事责任。但是,在SDC状态下,基于驾驶员对完全自动驾驶的合理信任,以及发明人工智能自动驾驶的本意,法律可不强制要求驾驶员负有警示义务,驾驶员此时无需对损失承担最终责任。
(二)危险开启原则
危险开启原则认为,存在危险的日常行为活动是社会发展的必然需要,危险本身是被法律所允许的,危险活动的开启人并不需要承担法律责任。但是,在活动进行过程中,如果有关人员存在过失,则危险活动的开启人为责任主体,应承担责任。
在HAV和SDC状态下,驾驶员使用自动驾驶系统,会在原有基础上给社会增加一定危险,属于开启一种危险活动的行为。由此,在HAV状态下,若驾驶员在驾驶过程中存在过错(如未合理注意),则其应为事故的责任主体;而在SDC状态下,驾驶员虽并无警示义务,但基于其危险开启人身份,也应与生产者共同承担不真正连带责任。
(三)报偿原则
报偿原则认为,给予每个人其应得的东西,乃是“正义”概念的题中之义。“应得的东西”既包括正面的利益,也包括负面的罚则。该理论应用于民法领域,即当民事主体进行活动或负责管理某物时,其在享受该民事行为带来的收益的同时,也要承担伴随而来的风险。
在自动驾驶状态下,首先的受益者是驾驶员。当人工智能为其服务时,驾驶员既解放了双手,又能到达目的地。但是,考虑到驾驶员(或者说车辆所有者)已在购车时就付出了相应的购置费,因此,可以认定其已提前为自己所受利益“买单”。
此外,人工智能自动驾驶系统的生产商也是受益人之一。一方面,生产商已收受消费者高昂的购置费;另一方面,自动驾驶系统在被使用过程中会自动识别路况、收集数据,并通过内置程序反馈给生产商,而生产商则可以利用这些数据,进一步升级和完善人工智能系统。由此可见,生产商的收益是贯穿人工智能生产和使用全阶段的。因此,基于报偿原则,由生产商承担主要责任、驾驶员或车辆所有者承担次要责任,是符合公平正义原则的。
根据上述风险控制、危险开启和报偿原则,在使用自动驾驶系统的过程中所产生的事故责任,应当由机动车驾驶员或车辆所有人、人工智能系统生产商和车辆生产商等民事主体依合理比例进行分担。
自动驾驶侵权下各主体具体责任划分
(一)驾驶员责任
在HAV状态下,若因人工智能系统问题而造成机动车交通事故,将责任完全归于无过错的驾驶员显失公平。根据上述风险控制原则,只有当系统已警示驾驶员进行接管而驾驶员未操作时,驾驶员才需对此次事故承担与其过错相应的责任。但是,由于受害者是比驾驶员更弱势的存在,其利益更值得保护。因此,在举证责任方面,应当适用过错推定原则,由驾驶员举证自身不存在过错。
在SDC或已尽警示义务的HAV状态下,非因驾驶员干预而引发事故时,驾驶员将不承担任何过错责任。但是,根据报偿原则,驾驶员享有一定的受益。因此,为了保护受害人的利益,在此种情形下引入不真正连带责任的概念是可以接受的。此时,受害人具有向驾驶员或生产商索赔的选择权。驾驶员先清偿后,可再向生产商追责。
(二)外部载体生产商责任
当自动驾驶汽车内部人工智能系统与外部机械载体不属于同一生产商时,则发生责任主体的分离。如发生制造缺陷情形,则应单独追究载体生产商的责任。在现实生产中,若产品本身已背离其设计意图,那么,即便在制造和销售该产品的过程中已尽到所有可能的谨慎,产品仍然会存在不合理的危险性,即制造缺陷。制造缺陷通常与设计无关,而是由于在制造的过程中质量不过关、工艺水平达不到要求、产品物理构造缺陷等原因引起的。自动驾驶汽车外部载体的制造缺陷与其他普通产品的制造缺陷并无不同,仍可适用我国关于产品责任的相关法律规定。
(三)内部智能系统生产商责任
内部智能系统生产商,即核心AI程序的生产商。目前,人工智能自动驾驶系统在测试中所出现的问题,主要分为以下几种:
设计缺陷。设计缺陷通常指的是某一产品在设计上存在的固有缺陷。从自动驾驶系统的角度看,设计缺陷指的是自动驾驶系统的生产者在进行预置算法、设计程序等制造过程中就已经“埋下”的不合理危险。该缺陷并非由于人工智能的后天学习所致,而是先天的人为可控缺陷。因此,设计缺陷属于《中华人民共和国产品质量法》的调整范围,可引用现行产品质量问题归责方式,由生产者和销售者承担不真正连带责任。
警示缺陷。只有在HAV模式中,人工智能自动驾驶系统才需要驾驶员进行配合、保持一定的警示、随时等待接管或进行其他操作,故警示缺陷仅发生在HAV模式中。但是,驾驶员进行接管或采取其他操作的前提是系统发出警示,并且生产商已经提前告知消费者使用方法。若生产商未尽告知义务或因其过错导致警示系统存在缺陷,则应由生产商承担最终责任。
不可验缺陷。不可验缺陷是指由于产品内置了人工智能系统而引发的特殊独有缺陷。由于人工智能已具备自主学习能力,因此,算法行为从根本上来说是动态的,是生产者难以提前预见的,人工智能系统的“感知-判断-行为”这一决策逻辑过程,都取决于其自身的经验和与驾驶环境的相互作用,依赖于自身学习所产生的数据。当出现交通事故时,或许按照人工智能自身的逻辑判断并不应出现问题,或者无法查明究竟是何种原因引发人工智能作出相关行为,进而导致事故,此类危险可称为人工智能的不可验缺陷。笔者认为,此处应当借鉴美国、日本的理念,对生产者适用绝对责任。同时,设立风险转移途径以降低生产者的制造压力。如今,人工智能系统几乎摆脱了人类的操控。因而,讨论人类在主观上的故意或过失已无太多意义,更有必要关注所引起的侵害事实与损失,这也契合提出绝对责任之初衷。
生产者的风险转移
基于受害者的弱势地位,赋予生产者以绝对责任是可接受的。但不可否认的是,人工智能技术目前仍未完全发展成熟,此时将不可验缺陷所导致的侵权责任一味地归由生产商承受,或将极大地打击国内厂商研发人工智能的积极性。因此,有必要建立生产商的风险转移机制,以减轻其责任负担,促进人工智能生产研发的蓬勃发展。笔者提出以下几点建议:
(一)建立双轨制责任保险制度
商业保险作为现代社会经营者转移风险的重要途径之一,也可被引入自动驾驶领域。美国加利福尼亚州最新制定的自动驾驶汽车明示条款规定,制造商必须以投保商业保险、提供保证金或自保证明的方式,证明其有能力对自动驾驶车辆交通肇事判决承担损害赔偿责任。
就我国自动驾驶行业而言,建立双轨制保险制度是可选路径。首先,驾驶员投保机动车强制责任险的义务仍然保留,以便于应对人工驾驶或在HAV模式中驾驶员承担过错责任时的损害赔偿。但同时,保险内容应当新增“因车辆使用者未尽检查、维修义务或未按法律规定使用汽车等原因造成的交通事故”条文,并提高相应的保费。其次,由保险公司设立专门的人工智能自动驾驶责任险。其主要保险对象为因人工智能自动驾驶系统的不可验缺陷所造成的侵权责任,并可参照机动车交强险的强制投保义务,由法律强制要求生产商为其生产的人工智能产品投保。
在双轨制责任保险制度下,当自动驾驶车辆肇事后,不仅生产者和驾驶者承担责任的压力可减轻,同时,受害者也将获得充分的保障。
(二)设立人工智能信托责任基金
除了保险途径外,建立信托责任基金也是应对人工智能侵权的方式之一。美国曾颁布的“价格-安德森法案”(Price-AndersonAct)为核事故设立了两层责任保障:第一层是私人保险,由保险公司承保;第二层是责任保险基金池,属于事故责任信托基金,由运营核反应堆的私营公司按比例分摊和注入资金。
与核产品类似,自动驾驶汽车的高社会效用同样伴随着高风险。无人驾驶如若在未来全面普及,全城的汽车行驶路线将完全取决于内置的人工智能程序的决策。彼时,如果人工智能程序遭受黑客攻击而发生大面积错乱驾驶,又或者人工智能因自身逻辑错误而罢工,其灾难性将不亚于核泄露。因此,笔者认为,有必要为人工智能自动驾驶设置类似的信托基金池,由运营自动驾驶的私营公司按比例分摊池内金额,以保障在第一重保险赔偿后仍无法受偿的受害人获得第二重救济。
人工智能的发展已成为不可阻挡的历史潮流,现有的法律体系必然将受到冲击。本文以人工智能领域中发展较快的自动驾驶汽车行业为切入点,分析了现代法律在适用人工智能侵权时可能陷入的困境,并进一步探讨了自动驾驶下的具体侵权责任划分。希望借此能为我国法律规制人工智能问题提供一些思路,进而促进人工智能领域的良性发展。
【本文系2018年浙江省软科学研究计划项目(计划编号:2018C35050)研究成果】
人工智能法律主体地位观点汇总
原标题:人工智能法律主体地位观点汇总观点
内容
否定说
意识标准说
精神是人与物的分界线。人工智能即使具有意识状态,也与人类的意识有本质上区别。
意志标准说
人工智能体所执行的只是设计者或使用者的意志,本身不具备自由意志。
工具说
仍是用来解放生产力、解放双手的工具。通过产品责任规则来确认责任的归属与承担。
人工类人格说
人工类人格是指智能机器人所享有的,通过人工制造的,类似于或者接近于自然人的自然人格的民事法律地位。但是仍与民法的人格概念有着严格的界限,并且不可以逾越。在能够预测的将来,不论智能机器人的智慧发展到何种程度,它也不具有自然人的人格。
否定说是我国学界主流观点。
代表学者:
杨立新《人工类人格:智能机器人的民法地位——兼论智能机器人致人损害的民事责任》;吴汉东《人工智能时代的制度安排与法律规制》;郑戈《人工智能与法律的未来》
责任承担方式:
人工智能体的民事责任,是研究设计、制造及支配智能机器人的人的民事责任。因此,智能机器人造成损害要承担的民事责任,
主要适用产品责任的相关规定
。如果本身存在设计缺陷的,设计者就是责任人;存在制造缺陷的,责任主体是生产者。而对于智能机器人可能打破预先设定的规则,做出超出设计者预期的行为,杨立新教授认为,这仍属于设计缺陷,应由设计者承担责任。
承担责任的主体可能有:生产者、销售者、设计者、黑客(第三人)、使用人
肯定说
电子代理人说
代理说中对于人工智能的代理地位的确认其实已承认人工智能具有独立的法律人格。行为所产生的后果由被代理人负担。
展开全文电子人格说
人工智能能够自主化学习和做决定,做出的决策可能与设计者的预期产生误差。当人工智能“失控”时,不论让谁承担其中的全部责任,难免会造成不公正的现象,因此可以赋予人工智能独立的法律地位,承担法律责任。
代表:
张玉洁《论人工智能时代的机器人权利及风险规制》;彭诚信、陈吉栋《论人工智能体法律人格的考量因素》;欧盟《关于机器人民事法律规则向欧盟委员会提出立法建议的报告草案》中提出为机器人建立一个新的民事主体类别,并提出制造商、经营商、使用者对机器人自身的行为不负严格责任的情形
责任承担方式:
有观点认为承担责任的方式可以
类比无民事行为能力人
,即人工智能可以与无民事行为能力人一样获得法律主体资格,同时设立人工智能的监护人,当发生侵权行为时,由监护人承担无过错的替代责任。
折中说
有限人格说
具有独立自主意识的人工智能是特殊的法律主体,可以作出独立行为,但没有足够能力承担行为后果。
拟制人格说
人工智能可以模仿人类思考自主作出决策,和人类的思维能力具有一定的契合性,但仅限某一知识领域,其仍不能具有与人相等的法律地位,但可以赋予人工智能拟制的法律人格。
代表学者:
袁曾《人工智能有限法律人格审视》;刘晓纯、达亚冲《智能机器人的法律人格审视》;杨清望、张磊《论人工智能的拟制法律人格》
责任承担方式:
有观点认为,可以
建立人工智能保险制度或者储备金制度
,让人工智能自己为侵权行为承担相应后果,这样可以使受害人及时有效获得赔偿,也使人工智能设计者、制造商无需承担过重的全部责任。
也有观点认为可以
设立“刺破人工智能面纱”制度
。由人工智能造成的侵害结果以及损失,首先由人工智能承担相应的责任,如果人工智能造成损害是因为其设计者、制造商、所有者等的故意或者过失而造成的,那么此时便需要刺破人工智能面纱,由人工智能背后的设计者、制造商、所有者等承担相应的责任。返回搜狐,查看更多
责任编辑:魏东:人工智能犯罪的可归责主体探究
魏东
四川大学法学院教授、博士生导师
人工智能犯罪在生成机理和内在逻辑上只能是人工智能“算法安全犯罪”。基于人工智能犯罪中人工智能算法安全的相对自主性与绝对客体性的犯罪机理,人工智能犯罪仅能归责于作为保证人的“自然人-法人”责任论。人工智能犯罪中“人心人性”的刑法常识观,应当确认人工智能犯罪的可归责主体,只能是作为算法安全社会关系主体的“自然人-法人”二元主体。为妥当解决人工智能犯罪的归责原理和实践问题,应当在坚守人工智能犯罪“自然人-法人”二元主体模式的基础上修改完善刑法立法。
一、引言:问题真伪与基本立场
人工智能犯罪的可归责主体问题,当被作为一个“问题”来讨论时,该问题意识的内在逻辑在于:认清当下,思考将来。所谓认清当下,是指认清当下弱人工智能犯罪“真相”,在那些通过弱人工智能(即弱人工智能机器人,又称专用人工智能机器人)所实施的犯罪中,弱人工智能(机器人)被作为“犯罪工具”予以评价和处置,可谓“犯罪工具论”;在那些针对弱人工智能所实施的犯罪中,弱人工智能则被作为“犯罪对象”予以评价和对待,可谓“犯罪对象论”。可以说,对于当下弱人工智能犯罪,刑法学界秉持弱人工智能“犯罪工具论”和“犯罪对象论”立场,认为人工智能犯罪的可归责主体只能是“人”(包括自然人和法人)而不能是弱人工智能(机器人)本身,这是没有争议的,或者说这里不存在争议问题、不是问题意识之所在。所谓思考将来,是指思考将来可能出现的(超)强人工智能(即强人工智能机器人与超强人工智能机器人,又称通用人工智能机器人与超级人工智能机器人)犯罪“真相”,可否超越弱人工智能“犯罪工具论”和“犯罪对象论”,从而使得(超)强人工智能机器人成为犯罪主体(犯罪主体论)和可归责主体(可归责主体论)?这是有争议的,或者说这里才存在争议问题,也才是问题意识之所在。对此问题,理论界存在较大分歧:一是主张(超)强人工智能机器人“犯罪主体论”和“可归责主体论”,可谓肯定论。如,有论者笼统地承认(超)强人工智能机器人的犯罪主体性;有的则具体指出,当(超)强人工智能机器人在程序设计和编制范围外实施严重危害社会的行为时,(超)强人工智能机器人具有辨认能力和控制能力,因而具有刑事责任能力,应当独立承担刑事责任;还有的明确指出,“可以参考法人主体的拟制思路,逐步探索构建人工智能刑事主体资格的法律拟制模式,基于人工智能的发展逐步构建和完善人工智能主体的意思要素、行为要素,使之正式进入刑法主体范围”。二是否定(超)强人工智能机器人“犯罪主体论”和“可归责主体论”,可谓否定论。如,有的主张绝对地否定人工智能机器人的犯罪主体地位,认为人工智能体只可能引起过失犯罪问题,并以修正的过失犯理论为依据将自主性人工智能引起后果的责任排除在“可容许的危险”范围之外,并以此在设计者、贩卖者、利用者之间分配过失犯罪的责任有的则认为技术水平、价值观念、具体认定等方面尚存在较大困难,不可贸然将(超)强人工智能机器人纳入刑法规制的行为主体范围。综上可见,人工智能犯罪的可归责主体的问题意识应当进一步限定并具体细化为:(超)强人工智能犯罪的犯罪主体与可归责主体是否可以是(超)强人工智能?
值得注意的是,法学界有一种声音认为:当前讨论(超)强人工智能犯罪——作为一种是否可能真实发生而尚未可知的“将来”犯罪——及其可归责主体是否可以是(超)强智能机器人的问题,纯属无稽之谈的“伪问题”(即“伪问题论”),实无讨论之必要。前述部分否定论者持有这种见解。刘艳红教授批评说:那种认为“必然会出现具有自我意志的(超)强人工智能,人工智能可能会取代人类、机器算法会取代人类法律……因而主张法律甚至刑法积极应对和规制人工智能的发展”的观点,其实“只是依靠无数假想拼凑起来的幻影”,法学界部分学者在不断制造、跟风、放大“假问题”。应当说,“伪问题论”通过质疑将来而回避问题本身的论说思路可能并不可取,看不到或者忽视“将来”的思考也无益于问题的有效解决,因而“伪问题论”自身的问题意识也存在合理性疑问。事实上,同刑法学界所讨论的(超)强人工智能机器人犯罪“高频率问题”,即(超)强人工智能机器人犯罪的归责主体是否可以是(超)强人工智能机器人这一设问相呼应,民法学界乃至国际私法学界也较多地讨论了智能机器人的民事主体地位(资格)问题,例如针对2017年2月16日欧洲议会通过的《关于机器人民事法律规则的决议》建议至少应明确最精密的自主机器人拥有“电子人”地位,使之能够承担其引发的损害的责任,并可能把“电子人格”适用于那些机器人自主决定或其他独立与第三方交互的案件;再如,针对同年7月8日我国国务院发布的《新一代人工智能发展规划》,提出“建立(人工智能应用)追溯和问责制度,明确人工智能法律主体以及相关权利、义务和责任等”,民法学者就提出应赋予人工智能系统“电子人”法律主体地位,或者确认其有限的法律人格,似乎认为未来赋予(超)强人工智能系统民事法律主体地位已是大势所趋。宪法学、行政法学和法理学界也讨论了智能机器人的法律主体地位和法哲学问题,甚至认为“人工智能的诸多法理问题中,最为关键的是它的法律主体资格问题”,有的法理学者较为绝对地强调“应当赋予人工智能独立的法律主体地位并使其成为独立的责任主体”。如此众多法学论题的提出业已表明,(超)强人工智能犯罪的可归责主体问题很可能就是一个真问题,并且是一个具有重要学术价值、必须予以厘清的重大基础理论问题,以致有学者认为“人工智能的主体难题是其刑法命题的根本所在”。可见,尽管表面上看伪问题论同否定论一样,二者在基本立场上都是否定(超)强人工智能“犯罪主体论”和“可归责主体论”,但是二者在论说路径上存在差异,否定论是在否定伪问题论(即承认“真问题”论)基础上进一步反对肯定论的理论言说,因此应当承认,在肯定论、否定论的立场之外还有伪问题论。当然还应当承认,针对真问题论的否定论,不能只是就事论事地简单作答,还必须进一步深化问题意识,深入研讨智能机器人犯罪内在机理和相关法理,科学合理地解决相关法律实践问题。
本文主张否定论,认为人工智能犯罪包括弱人工智能犯罪、强人工智能犯罪乃至超强人工智能犯罪在内,在生成机理和内在逻辑上只能是人工智能“算法安全犯罪”(即“算法安全犯罪观”),其犯罪主体和可归责主体只能是作为算法社会关系主体的“自然人-法人”二元主体(即“自然人-法人二元主体论”或者简称“二元主体论”),在此基础上秉持科学合理的刑法观和方法论,才可能妥当解决人工智能犯罪的归责原理。
二、犯罪机理:人工智能犯罪中人工智能算法安全的相对自主性与绝对客体性
人工智能犯罪概念,理论上有较为宽泛的多样化的界定。有学者认为,人工智能犯罪(AI-Crime)指与人工智能系统研发、提供、应用和管理相关的犯罪;人工智能犯罪与网络犯罪具有相似性和紧密联系,其特点主要有智能性、直接作用于网络社会和物态社会“两个社会”的双重性;根据人工智能犯罪主要侵犯的法益及其行为特征,可以将其分为侵犯人工智能系统安全的犯罪、利用人工智能实施的传统犯罪、利用人工智能侵犯个人信息的犯罪和独立的外围人工智能犯罪、违反人工智能安全管理义务的犯罪。有的学者没有概念化地界定智能机器人犯罪,而是具体描述了智能机器人犯罪的类型。如王肃之指出:“人工智能犯罪可能涉及以下2种类型:第1种类型为人工智能本就应用于社会之中,由于人工智能出现问题或者其他原因产生危害社会的后果……第2种类型为人工智能被直接用于犯罪。”再如刘宪权指出,智能机器人实施严重危害社会的行为可分为两种,即在程序设计和编制范围内实施的行为和在程序设计和编制范围外实施的行为。可见,对人工智能犯罪的概念界定,有犯罪学与规范刑法学的不同视角及回答。从规范刑法学视角看,目前理论界对于智能机器人犯罪的生成机理与内在逻辑的揭示尚存不足,部分研究成果从犯罪学视角讨论智能机器人犯罪的现象、规律与未来发展,并没有为规范刑法学合理有效地规制智能机器人犯罪提供足够的理论智识资源,急迫需要确立服从并服务于规范刑法学和刑事法治论的研究目标,转换研究视角,深刻揭示智能机器人犯罪的根本特质。
应当说,目前理论界给出的人工智能犯罪概念,共性地存在的突出缺陷在于:或者未能精准地揭示出人工智能犯罪的根本特质是基于人工智能算法所实施的犯罪,或者没能更进一步看清人工智能算法的相对自主性与绝对客体性。这在一定意义上是一个犯罪观问题。犯罪观是关于犯罪本质、价值、功能及其发展规律等犯罪基本问题的根本看法和基本立场,可以说是人生观和世界观在犯罪问题上的反映。马克思主义经典作家认为,犯罪只能是人的行为而不能是人的思想,是“孤立的个人反对统治关系的斗争”,是“蔑视社会秩序的最明显、最极端的表现”。那么,基于马克思主义犯罪观应当认为,人工智能犯罪仍然是人的行为,是人基于人工智能算法所实施的危害社会的行为,“人”是犯罪主体,而人工智能(机器人)并不能成为犯罪主体。这一结论不仅符合马克思主义犯罪观,而且也是精准揭示和阐释人工智能犯罪内在机理的结果。
人工智能算法自主性是智能机器人的本质属性和关键功能,算法自主性越强大,则智能性越强大,以此为标准对智能机器人进行分类,智能机器人方有弱智能机器人与(超)强智能机器人之分。对此,有论者夸大强调人工智能算法的法律意义问题,认为“人工智能应用会创造出新的客体和新的社会活动,如人工智能创造物的权利主体和权利归属问题,以及人工智能法律系统运作的法律价值和合法性问题。以上新客体、新社会活动都由人工智能算法的运用产生,算法实际起着创造者的‘智能’或者社会活动的规则作用,有必要开启人工智能的‘黑箱子’——人工智能算法,分析人工智能应用的‘大脑’和‘控制手’,研究人工智能算法的逻辑过程是否符合法律和伦理”。还有学者指出,关于人工智能的算法自主性,伦理学意义上的担忧在于:一是大数据和高级算法可能会使所有人丧失未来的自由选择权,“更为恐怖的是,当基于算法的信用数据集可以预测某人未来犯罪的可能性时,公安部门可能会以‘预防犯罪’为名提前干预他的自由权利”;二是大数据和高级算法可能会带来数据歧视问题,“当司法大数据推测黑人的犯罪率较高或阿拉伯人成为恐怖分子的可能性较高,那么监管部门可能会对他们重点监管,甚至提前预防犯罪,而有些公司也可能会据此拒绝雇佣他们,这就是典型的种族歧视和职业歧视”。这些论述较为深刻地揭示出人工智能算法的重要性和法律相关性,值得重视,更值得反思。人工智能算法到底是应该绝对地归属于人工智能本身,还是应归属于作为人工智能算法的设计者、创造者、使用者与管理者的“人”?对此设问,我们认为正确的答案应当是:“人”才是人工智能算法的真正主人,人工智能算法自主性仅具有相对性并且在根本上是由“人”创设和控制的,因而人工智能算法相对于“人”而言具有相对自主性与绝对客体性。
例如,有学者提出人工智能武器的概念,指出,能够在没有人类参与的情况下选择和攻击目标的武器或者武器系统都可以称为人工智能武器。“从国际人道法的角度来看,人工智能武器主要带来了两个方面的挑战:一是武器系统选择和攻击目标能否尊重国际人道法规则?二是如果武器系统的使用明显违反国际人道法,能否归责于个人或国家,并追究他们的责任?”依笔者的解读,关于人工智能武器的法律问题至少包括以下两方面:其一,人工智能武器可以归属于人工智能吗?答案应当是可以肯定的,人工智能在其被用于军事目的时,它是人工智能“军人”,又可以称为人工智能“武器”,其本质在于具有能够在没有人类参与情况下的人工智能算法自主性。以此类推,人工智能机器人还可以包括人工智能“工人”“农民”“医生”“驾驶员”“科学家”“清洁工”等等,阿尔法狗和索菲亚当然也都是人工智能机器人。因此,人工智能机器人之“人”仅仅是一种“拟人化修辞意义上的人”,它可以是“人”、动物乃至其他万物(如武器)的人工智能机器。其二,人工智能武器基于算法自主性所实施的军事攻击行为及其后果,是归属于人工智能本身还是归属于“人”(包括作为法人的单位乃至国家)?答案应是只能归属于“人”。人工智能算法自主性是由“人”预设和主宰的结果,因而只具有相对的算法自主性与绝对的客体性,基于人工智能算法自主性所实施的全部行为后果——无论是有利于社会还是有害于社会,均应由作为其主宰者的“人”享有和承担。如果人工智能武器基于算法自主性而攻击错误或者违反国际法,对此承担后果的社会关系主体只能是“人”,而不可能是人工智能武器。
综上,算法犯罪观认为:相对于人的主体性而言,人工智能算法突出地具有客体性(算法的客体性),因而以人工智能算法自主性为内核的人工智能当然具有客体性,算法犯罪仍然以人的主体性为根本特征。如果说“算法”是智能机器人的内核,那么“算法”本身的弱智能性与强智能性乃至超强智能性,其决定因素在根本上仍然是“人”的弱智能到超强智能,而不是人工智能本身的弱智能到超强智能。“人”的智能强弱在根本上具有决定性,意味着这样一种逻辑:“人”的智能设计越弱,则算法的智能自主性越弱;人的智能设计越强大,则算法的智能自主性越强大,超强人工智能在本质上仍然是“人”的智能设计达到了超强智能性。因此可以说,人工智能发展仅具有单向维度,即:只能是由今天的弱智能自主性“算法”走向将来的强大乃至超强大智能自主性“算法”(可谓“将来算法”)。以超级计算机的诞生为例,它实际上就是从普通计算机(弱智能自主性)走向超级计算机(超强智能自主性),其内核就是算法智能自主性及其发展方向。“算法智能自主性”的刑法逻辑始终是:人对“算法智能自主性”犯罪承担刑法责任,人对“算法智能自主性”的定罪逻辑始终是“人力可控时可定罪,人力不可控时不定罪”,人工智能犯罪在当下尚处于弱人工智能“算法”阶段的定罪逻辑如此,在今后发展成为(超)强人工智能“算法”阶段的定罪逻辑仍然如此,根本无法例外地对(超)强人工智能机器人本身定罪。
需要指出的是,人工智能犯罪在网络时代可能表现出更加巨大的破坏能量,因为人工智能算法自主性可以通过网络工具和数据应用获得更大发挥空间,值得特别警惕。
三、责任论:人工智能犯罪仅能归责于作为保证人的“自然人-法人”
传统刑法理论上“保证人”理论(即“保证人说”)具体包括“保证人地位”与“保证人义务”两个概念,本来是用于阐释不作为犯之作为义务的理论。德国学者那格拉在1938年首次提出了保证人说,认为只有负有防止结果发生的法律上的作为义务的人,即处于保证人地位的人的不作为才符合构成要件;后来又发展成“统一说”(或者“统和说”)与“区别说”两种不同见解,但是“两说在实际使用上并不会出现太大的差异”。而人工智能犯罪并不限于不作为犯,还包括作为犯。人工智能犯罪在不作为犯的情形下,当然可以运用保证人说来进行理论阐释。那么,人工智能犯罪在作为犯的情形下,是否可以借助保证人说来进行理论阐释呢?本文认为,对于人工智能犯罪的作为犯,仍然可以借助保证人说的“保证人地位”与“保证人义务”理论,赋予作为人工智能设计者、制造者、使用者和管理者的“自然人-法人”的安全保证责任,即作为保证人的“自然人-法人”必须对人工智能及其内含的算法的安全性负责,将人工智能基于算法安全性所为的行为及其结果归属于作为保证人的“自然人-法人”。亦即,人工智能在设计和编制的程序范围内外所为人工智能犯罪的责任归于作为保证人的“自然人-法人”,这种保证人论归责论不能局限于不作为犯构成要件符合性与违法性论的理论界说,而必须作出符合传统刑法教义学归责论的理论改造。以“自然人-法人”的责任归属为核心的刑法教义学原理,无法将(超)强人工智能犯罪的责任归属于(超)强人工智能机器人,因为这样将遮蔽作为设计者、生产者、销售者、运营管理者的“自然人-法人”的责任归属这一本质。有学者指出,应当借鉴刑事近代学派所主张的社会防卫论,创立以人工智能等科技风险为对象的“科技社会防卫论”与“技术责任论”,将人工智能作为独立的刑事责任主体,对具有实施危害社会行为的人工智能施以技术危险消除措施。这种见解将“技术责任论”直接置换为“将技术作为责任主体论”,直接遮蔽了作为保证人的“自然人-法人”的责任归属这一本质,应当说有所欠当。
责任论的多重考察可以发现,在从道义责任论到社会责任论再到法的规范责任论的发展演变中,即便是作为最新见解的法的规范责任论也始终无法彻底摆脱道义责任论,即必须具有自我决定的自由以及具有实施其他行为的可能性时才产生责任的非难的宿命;从结果责任论到心理责任论到规范责任论再到功能责任论的发展历程中,不但规范责任论仍然是以心理责任论为前提建立起来的理论,而且功能责任论也仍然是以行为人对法规范的“忠诚”和“意思自由”为前提的。可以说,意思自由性、伦理谴责性、规范责难性等要素仍然是现代各种责任论的实质内涵,而这些实质内涵只能是作为保证人的“自然人-法人”才可能具备,并不能将人工智能算法的相对自主性与绝对客体性直接等同于意思自由性、伦理谴责性和规范责难性。
伦理谴责性和规范责难性是现代刑法责任论的重要内容。伦理谴责性是犯罪的内在伦理评价属性。规范刑法学方面有论者主张否定犯罪的伦理谴责性,客观上存在严重误解。针对卖淫、通奸、吸毒以及其他“无被害人犯罪”行为,现代刑法基于刑事政策考量而部分地甚至较多地出现非犯罪化,其并非完全否定犯罪的伦理谴责性,而是强调不得单纯基于伦理谴责性进行犯罪化,还需要进行社会危害性的综合考量来决定具体行为的犯罪化与非犯罪化。针对行政犯(或者法定犯),现代刑法也难以完全否定犯罪的伦理谴责性,任何行政犯——例如危险驾驶罪、非法经营罪、破坏计算机信息系统罪等,都难说完全否定了其伦理谴责性,而是强调了不得单纯基于伦理谴责性的犯罪化。只有“自然人-法人”才能感受伦理谴责性并遵行此种感受决定行为取舍,而人工智能仅具有“算法”逻辑并决定其行为逻辑,但是不具有感受伦理谴责性的能力并决定行为逻辑,人工智能“算法”自主性及其行为逻辑只有在融入了作为保证人的“自然人-法人”的保证意思之后才具有伦理谴责性,因而只能针对同人工智能“算法”自主性相关联的保证人(即“自然人-法人”)进行伦理谴责性评价和犯罪评价,人工智能犯罪只能归责于作为保证人的“自然人-法人”。规范责难性是犯罪的外在规范评价属性。规范刑法学的教义化、科学化和现代化的重要发展,根本标志就是规范责任论的确立,强调刑法的明确规定性、规范性和可操作性,由于此内容并非本文论题的重点,这里不作具体展开论述。
(超)强人工智能机器人没有脱离于“自然人-法人”之外的独立存在空间,(超)强人工智能机器人一旦脱离作为保证人的“自然人-法人”之外就无法组成社会组织,其智慧算法和行为永远无法归属于其自身而只能归属于“自然人-法人”,即使其具有意识复制和学习进步的特异功能,其仍然无法脱离作为保证人的“自然人-法人”的意识——保证人所预设的算法自主性的意识而独立存在,其仍然无法成为具有“人心人性”的责任主体。只有将强智能机器人犯罪归责于作为保证人的“自然人-法人”,才能真正实现有效归责(即伦理谴责和规范责难)。
民法学者对于人工智能基于算法所引致的法律上的权利和责任之讨论,也有值得刑法责任论借鉴之处。如基于人工智能所引致的著作权的法律主体与权利归属问题,有学者提出了“法律作者”概念,指出,“小冰”人工智能机器人的出现,挑战了传统著作权法的底线。面对高速发展的人工智能技术,现在社会人工诗集大量出现,更多的人工作品涌现,我们积极采用“法律拟制”技术,参照发达国家“视为作者”原则,在认定人工智能诗集的作者和著作权归属上,大胆认定人工智能诗集是著作权法的“作品”,人工智能的管理者是作品的“法律作者”,把机器人、设计者、管理者作为人工智能诗集的“事实作者”对待,最终法律保护人工智能诗集的“法律作者”,由“法律作者”享有人工智能诗集的著作权,而不是由机器人享有人工智能诗集的著作权。人工智能诗集作为人工智能机器人的具体行为所产生的结果,其权利与责任归属于作为保证人的管理者(即“自然人-法人”),而不能归属于人工智能机器人,这一原理值得刑法上犯罪的归责论借鉴。当然在刑法上,除了管理者之外,人工智能的设计者、制造者的归责问题还需要进一步厘清。例如,当人工智能诗集的内容存在严重违背国家法律规定并被公之于众产生严重社会危害后果时,如果构成犯罪,那么应该如何确定其归责主体及其刑事责任?对此,应当首先确定作为人工智能的保证人的“自然人-法人”,包括设计者、制造者、使用者、管理者,然后再依据刑法上归责原理具体确定保证人的刑事责任,而不应当通过对人工智能机器人归责的方式来规避保证人的刑事责任。
刘宪权提出,在设计和编制的程序范围外人工智能犯罪的归责主体问题,认为:“当智能机器人在程序设计和编制范围外实施严重危害社会的行为时,智能机器人具有辨认能力和控制能力,因而具有刑事责任能力,应当独立承担刑事责任。”这种见解的逻辑问题值得分析。其一,这个问题仍然应当在人工智能算法自主性的相对性与绝对客体性之内来认识;其二,在设计和编制的程序范围外人工智能犯罪的归责事由,还可以根据原因自由行为论,将作为保证人的“自然人-法人”基于自由意思所为“在设计和编制的程序范围外实施行为的智能机器人”这一行为阐释为原因自由行为的归责原理来阐释,作为保证人的“自然人-法人”所实施的人工智能算法的设计、制造、使用和管理行为仍然可以作为原因自由行为进行归责,而不是对人工智能算法本身归责。
因此,针对学者提出的人工智能编制程序外的算法犯罪,尽管这种人工智能犯罪类型可能涉及十分复杂的技术难题,但是仍然应当承认其没有超越保证人责任,只要其应当属于算法安全风险可控性之内,就应当承认其成立保证人责任,并实行举证责任倒置原则(程序法原则)。如果其不属于算法安全风险可控性之内,则应当承认其为意外事件而不追究保证人责任,并且这种意外事件也难以“客观归责”于人工智能算法本身。
四、刑罚观:人工智能犯罪仅能通过“自然人-法人”完成报应和预防功能
刑罚论的基础和核心是刑罚正义根据论,简称刑罚根据论、刑罚论。刑罚根据论在概念逻辑上存在报应论(报应刑论)、功利论(预防刑论与目的刑论)、并合论(一体论)之分,并且应当注意的是,在人类刑法实践历史上应当说并不存在单纯的报应论或者单纯的功利论,自古至今世界各国普遍遵行相当意义上的并合论,“抛弃片面的报应论与功利论而追求系统的一体论,应该是关于刑罚根据论的一种必然而合理的选择”。刑罚的正当化根据是报应的正当性与预防犯罪目的(功利主义)的合理性,基于报应所裁量的刑罚是责任刑,基于预防犯罪目的(功利主义)所裁量的刑罚是预防刑。应当说,刑罚根据论的并合论命题一经发现和明确提出即获得了广泛共识,并且表面上至今没有人提出更具创新性的理论洞见。以此刑罚观及其内在法理审查(超)强人工智能犯罪的受罚主体,如果将(超)强人工智能机器人本身作为可归责主体并对其进行刑罚处罚,就无法获得合理性和可行性。
目前部分学者针对(超)强人工智能犯罪所提出的“删除数据、修改程序、永久销毁”等刑罚种类,应当说难以匹配刑罚本质并实现刑罚功能。因为这些特别“刑罚种类”只有作为保证人的“自然人-法人”才能感受到并起到以儆效尤的刑罚惩罚(报应)与预防功能,而(超)强人工智能机器人并不可能关心“惩罚与预防”而只在乎“算法”并且将始终不改地按照其既定“算法”行事(行动),“算法”被修改而改变行为的原因不是因为惩罚影响“人心人性”所致,而是因为“算法”所为,由此无法实现刑罚的一般预防和特殊预防功能。单罚制与双罚制均无法适用于智能机器人。
因此,刑法无法规制作为被“自然人-法人”塑造的智能机器人。可以让(超)强人工智能机器人(有智无心)超越人,但是(超)强人工智能机器人不可以成为社会关系人。(超)强人工智能机器人可以在智力领域超越人,正因为如此,它不能成为真实存在的社会关系人。当(超)强人工智能机器人可以由“人”随意塑造时,应受处罚的只能是作为塑造者的“人”,而不能是作为被塑造者的(超)强人工智能机器人;当(超)强人工智能机器人已经发展到唯我独尊,而不再可以由“人”随意塑造时,人类的刑罚就在根本上丧失了要求其应受处罚的合理性。
五、刑法常识观:人工智能犯罪中“人心人性”的人类社会学意义
作为刑法学方法论的“三常论”,要求研究者必须针对研究对象、研究方法、研究结论等进行“三常论”判断(即进行常识、常情、常理的判断),排除有违“三常论”判断的学术见解。“三常论”判断可能具有时空性,当下的三常论判断,必须立足于“当下”的常识、常情、常理进行学术判断;将来的三常论判断,则必须立足于“将来”的常识、常情、常理进行学术判断,也就是说既要反对以当下的三常论判断代替将来的三常论判断,也要反对以将来的三常论判断代替当下的三常论判断。当下,不少人认为“将来已来”,那么,在“将来已来”的语境下,当下刑法学应当如何预判“将来”的三常论内核?通过“将来”的三常论判断,刑法学还应当摒弃(超)强人工智能机器人“犯罪主体论”吗?这是本文希望回答和论证的两个关联性问题。
(超)强智能机器人可否成为社会关系的主体(身份)?当下的和将来的“三常论”判断需要考察以下要素:
心智齐备是人成为社会关系主体的核心要素。
“三常”本来就是对人的心智的高度概括,即对人心人性和人的智慧的高度概括,人是具有“三常”特质的灵长类动物。人类社会是由人(自然人)自我发展、自我构建、自主建设而成的,而人之所以能够自我发展、自我构建、自主建设成立人类社会,是因为人是有心智的“万物之灵”,从而人可以成为社会关系主体。心智齐备是人成为社会关系主体的核心要素,这是当下的“三常论”判断。心智齐备强调的内容,不仅是有“智”(智慧),而且是有“心”(人心人性),有心有智(或者有智有心)是人的特质,是社会关系主体的特质。人具有实质的“三常”特质,法人(含国家)具有拟制的实质的“三常”特质,因此可以说自然人和法人具有实质的“三常”特质。为什么说法人具有拟制的实质的“三常”特质?简单说,是因为法人是具有自然人心智的组合体,“资合”仅是法人的表象,“人合”才是法人的实质,所以有人感叹应当像选择结婚对象一样选择股东和合伙人;法人决策时即使在出现“人不合”和公司僵局的情形下,其决策仍然能够适时体现出实质的“三常”特质。
那么,(超)强智能机器人是否具有心智,进而成为社会关系主体?依“三常论”判断,(超)强智能机器人难以符合“心智齐备”的特质,其可能具有“智”甚至是超强智慧,但是其难以获得“心”(即人心人性),因而(超)强智能机器人仅仅是“有智无心”之物,并不具备社会关系主体特质,难以成为社会关系主体(身份)。
可以说,心智是当下“三常论”对社会关系主体特质判断的核心要素,将来“三常论”判断也是如此,心智是社会关系主体所必须具备的基本特征。
(超)强智能机器人不具备人“心”,仅具有财产性和工具性,缺乏善恶道德价值观、社会行为规范的根本作用点。
人“心”是善恶道德价值观、社会行为规范的根本作用点。“有心”(有人心有人性)意味着有善恶道德价值观、社会伦理价值观、有社会行为规范可能性,有智无心(无人心无人性)不能成为社会关系主体。这是“三常论”判断的理论基础。有学者指出:人之所以为人,本质上是智性、心性、灵性三者合成,心性是感情、情绪、感觉的发源地,不同于智性;机器人虽可仿及人的智性,但不能仿及人类心性(尚未闻人工智能有感情,未闻有机器人为情所累),人工智能不可能达到人类一般的“主体性”。由于智能机器人“有智无心”的特点,因此(超)强智能机器人也可以称谓为“强智能机器狗”“阿尔法狗”。难道,索菲亚能够超越“强智能机器狗”“阿尔法狗”而成为真正的人?
财产性与工具性是(超)强智能机器人和法人的共性,但是法人因为具有拟制的“人心人性”而可以获得拟制的主体性,而机器人因不具有“人心人性”而无法获得任何拟制的主体性。即机器人与法人的相互关系是单向性的,即法人可以像人一样拥有其他法人和机器人,而机器人不能拥有法人和(其他)机器人。机器人的特质仅仅是“技术”而不是人的心智(有智无心),法人可以融入人的某种心智(有智有心),从而法人可以成为社会关系主体。
有智有心者方为同类,“人心人性”是人类的基本要素,动物因为具备初步的或者较强的“人心人性”而成为人类伙伴,有利用有珍惜,某些“通人性”的动物还获得了较大尊荣(如某些动物被赋予“人”一样的待遇);但是索菲亚和阿尔法狗却无法获得“人心人性”而只能成为更加纯粹的财产性,难以获得人的同类身份和待遇。
机器人无法融入“三常”的刑法感知能力。
“三常”是刑法感知能力的基本要素,法人可以融入“三常”,法人具有感知刑罚的能力并且使得刑罚功能可以发挥报应和预防功能,因而法人可以成为犯罪主体和受罚主体。而机器人无法融入“三常”(有智无心),机器人无法感知刑罚并发挥报应和预防功能;当前智能机器人不能成为犯罪主体,这是“三常论”判断,至于将来,可能有待于“将来的三常论判断”,但是当前的乃至将来的三常论判断是其未来仍然不可能成为犯罪主体。
综上可以说,以索菲亚(美女)和阿尔法(狗)的共性分析为例,可以预知将来(超)强人工智能机器人身份的三常论判断结论是:其只能成为“人心人性”的客体,而不可能成为“人心人性”的主体。
六、刑法进化观:人工智能犯罪中“自然人-法人”二元主体模式的坚守与完善
刑法进化观强调刑法有一个进化发展的过程,而不能死守过去。例如,法人犯罪的立法化和司法实践,尽管其在理论上尚存争议,但是在相当意义上仍然可以说其是刑法进化观的一个例证。如前所述,法人(含国家)具有拟制的、实质的“三常”特质而可以成为可归责主体,有学者就以法人犯罪中“法人”犯罪主体论和可归责主体论为例,来论证人工智能犯罪中(超)强人工智能机器人犯罪主体论和可归责主体论的合理性。那么,这种论证逻辑及其结论的合理性值得反思。
法人拟制犯罪的刑事政策原理不能适用于人工智能犯罪,在形式上和实质上(超)强人工智能犯罪均毫无例外地属于“自然人-法人”犯罪的范畴。仅在(超)强智能机器人(个体与群体)作为“法人”资格时其可以成为法人拟制犯罪,但是这时其是因为作为“法人”而成为犯罪主体,而不是因为“(超)强智能机器人”而成为犯罪主体。“自然人-法人”的行为社会意义可以独立地成为自身的法律行为,但是(超)强智能机器人的行为社会意义无法独立地成为“其自身”的法律行为,而只能成为作为居于保证人地位的“自然人-法人”的法律行为。(超)强智能机器人永远只能成为社会意义上的“无产阶级”,但是“自然人-法人”从一开始就是社会意义上的“有产阶级”(指自身的权利义务),这是(超)强智能机器人不同于“自然人-法人”的根本特质。二元主体模式无法走向三元主体模式。
(超)强人工智能机器人犯罪可能包括杀人、侵财、危害国家安全与公共安全、破坏经济秩序与社会秩序等,但是其自身难以获得社会政治意义,这一点不同于“自然人-法人”犯罪,因为“自然人-法人”犯罪可以获得社会政治意义。上帝不会成为刑罚对象,但法人可以,故“上帝-人”二元主体模式不可隐喻;但基于犯罪主体拟制论之下的心智可控论、独立权利义务主体资格论和刑法治理策略论,可构建“自然人-法人”二元主体模式,但是无法构建“自然人-法人-人工智能机器人”三元主体模式。为解决法人和人工智能机器人难题,刑法上可以处罚法人,但是刑法策略上无法处罚机器人,因为针对(超)强人工智能机器人的删、改、毁,仅可以成为针对作为(超)强人工智能机器人之保证人的“自然人-法人”的财产而施加的相应的行政法措施(具体行政行为)、民法措施(民事法律行为)乃至保安处分措施。因此,关键法理在于(超)强人工智能机器人无法获得与“自然人-法人”一样的“人心人性”,从而无法获得权利义务主体资格,今天无法获得,将来也无法获得,其根本法理正在于(超)强人工智能机器人永远无法获得“人心人性”。
刑法进化观尽管不能证成(超)强人工智能机器人的可归责主体论,但是也不能以此放弃针对(超)强人工智能机器人犯罪提出的新问题进行刑法完善的思考。人工智能机器人犯罪在本质上可以抽象为“算法安全犯罪”,即人工智能机器人毫无例外地被限定为通过算法或者针对算法所实施的危害公共安全犯罪以及妨害作为算法安全管理的社会管理秩序犯罪,这些犯罪明显地具有不同于网络数据犯罪以及其他通过非智能算法和数据所实施的传统犯罪的突出特点。据此,人工智能算法犯罪可以类型化为三种犯罪:
一是设计、制造、销售、使用不符合算法安全标准的人工智能产品罪,其侵害的法益是作为公共安全的人工智能算法安全,可以比照《刑法》第146条的立法规定设置罪状和法定刑。提出这一立法建议方案的理由在于:尽管《刑法》第146条规定的生产、销售不符合安全标准的产品罪作为一般法条规定,在逻辑上可以囊括所有生产、销售不符合安全标准的产品——其中可以包括不符合算法安全标准的人工智能产品——的犯罪行为,表面上可以将生产、销售不符合安全标准的人工智能产品行为予以定罪处罚,但是,《刑法》第146条并没有准确反映出人工智能产品所涉“算法安全犯罪”的特殊性,即这种算法安全犯罪在本质上是一种危害公共安全犯罪而非一般意义上的生产、销售伪劣商品犯罪,因而应当将其单独设罪并规定在危害公共安全罪一章之中;同时,《刑法》第146条也没有全面规定“设计、制造、销售、使用”等行为多样性,较为明显地忽略了“设计”“使用”不符合算法安全标准的人工智能产品行为的特殊危害性,因而也有必要增加规定该新罪名。
二是非法制造、持有、买卖、运输、使用人工智能武器罪,其侵害的法益是作为重大公共安全的人工智能算法安全,可以比照《刑法》第125条的立法规定设置罪状和法定刑。之所以提出比照《刑法》第125条规定这个新罪名,重要原因是人工智能武器所涉国际关系和国内政治上的重大公共安全性,极容易造成人道主义重大灾难,而在刑法规范意义上难以将人工智能武器周全涵摄于“枪支、弹药、爆炸物”或者“危险物质”之中,因而增加规定该新罪名具有重大政治意义和法治价值。
三是擅自改变人工智能产品算法与用途罪,其侵害的法益是作为算法安全管理的社会管理秩序,可以比照《刑法》第286条的立法规定设置罪状和法定刑。之所以提出增加规定这个新罪名,是基于人工智能产品算法与用途一旦被擅自改变,就可能造成人工智能产品的管理失序并引发新的危害算法安全犯罪和危害管理秩序犯罪;同时,算法安全管理不同于数据安全管理,如果说《刑法》第286条是针对数据安全管理的犯罪,那么,本新罪名就是针对算法安全管理的犯罪,因此,有必要在《刑法》第286条规定的破坏计算机信息系统罪之外再特别规定擅自改变人工智能产品算法与用途罪。
有关人工智能算法安全犯罪方面的立法完善论有待另文展开深入讨论,这里不再赘述。
原文链接
魏东|人工智能犯罪的可归责主体探究《理论探索》
《理论探索》是中共山西省委党校主办、面向国内外发行的学术期刊,于1984年创刊,主要刊登哲学问题、党的建设、政治学研究、公共行政、经济研究、法治建设等学科的研究论文。
原标题:《魏东:人工智能犯罪的可归责主体探究》
构建人工智能未来法治体系
核心阅读
任何技术都是双刃剑,人工智能也不例外。在享受最新技术带来的便利时,不能忽视与之相关的安全问题。要用法治为人工智能产业健康发展保驾护航,让人工智能服务造福人类社会。
从智伴机器人到自动驾驶汽车,再到法院庭审中的智能语音识别,近年来,人工智能已逐渐进入人们的日常生活。
“深化大数据、人工智能等研发应用,培育新一代信息技术、高端装备、生物医药、新能源汽车、新材料等新兴产业集群,壮大数字经济。”今年政府工作报告让人工智能产业看到了前进的方向。
在人工智能迅猛发展的进程中,关于可能引发的道德伦理问题,可能带来的社会治理问题争议不断。
推动新一代人工智能健康发展,法治应该有哪些作为,或者说人工智能产业健康发展到底需要怎样的法治保障?近日,《法制日报》记者采访了人工智能产业领域、法律界的相关代表、委员,以及人工智能法律研究的相关专家学者。
人工智能发展亟需立法保障
几天前,全球首例无人车致死案宣判,Uber公司不承担刑事责任,再次引发了公众对人工智能发展中法律问题的热议。
“如何推动法律体系与时俱进,尽快满足人工智能产业飞速发展和社会进步的需要,这对法治带来了很大挑战。”全国人大代表、科大讯飞董事长刘庆峰说。
与刘庆峰观点一致,在记者采访的代表委员中,无一例外都提出应加快人工智能立法工作。
全国人大代表、中华全国律协副会长刘守民认为,立法一方面要对人工智能发展做引领,另一方面也要规制如发展目标、路径和阶段。但由于人工智能发展飞快,立法往往跟不上发展速度。
关于法律滞后,全国人大代表、重庆盼达汽车租赁有限公司党支部书记、总经理高钰有不同看法:前沿的技术变革和创新的商业模式带来的不确定性,也决定了相关的立法工作会有滞后性。
“但新生事物并非排斥法律法规的制约,相反,法律对于新兴商业模式和技术创新的有效规范和制约能更好地引导企业、行业健康有序发展。”高钰说。
由于人工智能涉及的领域众多,不同领域涉及的立法也存在差异。因此,全国人大代表、北京市律师协会会长高子程建议,前期可在重点领域,比如交通、医疗等先行试点专门立法,待总结经验后再进行综合系统立法。
全国人大代表、致公党上海市委专职副主委邵志清也有类似的建议:“由于涉及面太宽,社会对人工智能的认识还处于初步阶段,目前对人工智能进行综合立法的条件还不具备。但是为了防范重大风险,需要针对人工智能的具体应用进行立法。”
对于立法到底应该从哪些方面进行,基于自己的专业实践,受访者都有不同的认知。
刘庆峰指出,算法、算料(数据)、算力是人工智能技术发展的重要支点,需要有针对性地予以立法规制。
而在高子程看来,还应立法应明确规定人工智能的法律地位、人工智能生成内容的权利归属、人工智能损害后果的责任分担、人工智能风险的法律控制等亟待解决的内容。
邵志清告诉记者,人工智能应用的管理应该重点围绕伦理道德、资源获取、主体认定、行为认定、责任划分等方面进行立法。
“人工智能立法已不仅是一个国内法的问题,这是人类共同面对的课题。”刘守民认为,人工智能发展还需要国内与国际间的协调,通过国际的公约条例,包括技术标准等领域形成共识。
规范司法加强执法不可或缺
“用法治的手段保障人工智能‘安全、可靠、可控’,也是欧、美、日、韩等国发展人工智能产业的必经之路和共同经验。”西南政法大学人工智能法学院院长陈亮说。
在陈亮看来,立法只是法治保障人工智能发展的其中一环:执法、司法等环节同样不能偏废。
高子程也认为,完善立法,规范司法,加强执法,加大普法,积极构建人工智能未来法治体系,用法治保障人工智能健康持续发展。
“在司法中,要坚持法治理念、法治思维和法治方式,树立谦仰、审慎、善意、文明、规范办案理念,恪守技术中立原则,不轻易对司法机关看不准、有市场、受欢迎的技术业态产品采取强制措施,最大限度减少司法活动对新技术发展的不利影响。”高子程说。
在高子程看来,司法还应坚持刑法的谦抑性,在其他法律规范足以保护相应法益的前提下,刑法不应首先介入,只有在其他法律规范无法充分有效保护相应法益时,刑法才有介入的必要和空间。
“在执法环节,应建立专门的执法部门,明确其职权范围,规范其执法程序。”陈亮认为,尤应注意的是,在制度设计时,应以委托代理理论为指导,从制度层面解决好该执法部门的参与约束和激励相容的问题,以免执法过程中出现委托代理人问题,导致人工智能立法流于形式。
为让执法真正有成效,高子程认为,应组织相关执法部门专责制定人工智能领域配套的各种技术规范、技术标准,这个标准应当是对行业自身所发展出来的标准与公共利益、个人权利保护原则的综合考量,其制定程序应当遵循公共参与、听证等行政程序规则。
伦理及安全问题不容忽视
从目前已经投入使用的人工智能产品中看,部分智能庭审系统甚至已经能够基本代替书记员的记录工作,加快了庭审进度。
人们不禁会问,当人工智能广泛应用之时,一些可以替代的传统行业是否会造成大量的失业,造成社会的不稳定。
“解决这些问题首先是在人工智能大规模替代现有工作之前,把社会保障体系建立起来。”刘庆峰说,在社会保障体系之下,人工智能代替了重复性工作后,人会有更多的时间去做创意等不能替代的事情,从而获得社会价值感。
刘庆峰认为,人机合成是未来人工智能的重要突破方向。他举例称,目前“智医助理”可以根据医嘱对话,自动生成对疾病的判断,供医生参考确认。“所以我想人工智能并不是要淘汰人类,而是要让人类站在人工智能的肩膀之上。”刘庆峰说。
对于人类与人工智能的关系,刘庆峰还是很乐观。他认为,人工智能立法应当遵循“人机耦合”和“以人为本”原则。
“这意味着要充分认清人工智能是帮助人的,而不是替代人的,要刺破技术面纱,有针对性地规制技术背后人的行为;意味着要把人民群众的生命和财产安全放在首位,实现人工智能在风险可控的范围内发展。”刘庆峰说。
不论乐观与否,人工智能立法在伦理道德方面还是要有明确规定。
邵志清认为,应明确禁止应用人工智能技术实施违反人类伦理道德的行为,特别是在基因工程、生命科学、情感意识等方面用法律为智能社会划出伦理道德的边界,让人工智能服务造福而不是困扰危害人类社会。
“对人工智能要抱有一定的尊重和敬畏,技术进步带来的东西不见得都是好事,一定要慎重,避免出现有悖伦理道德的事情。”刘守民说。
全国政协委员、360集团董事长兼CEO周鸿祎也认为,任何技术都是双刃剑,人工智能也不例外。“但我们在享受最新技术带来的便利时,也不能忽视与之相关的安全问题。”(法制日报记者战海峰)
人工智能究竟能否获得主体地位
从存在论视角看人工智能的主体地位
我们针对以上三种观点讨论。其一,人类智能应用领域的广泛性。
科学家们通常承认,很多动物擅长某种事情,如蜜蜂擅长建造蜂房,老鼠擅长打洞。但动物在它们各自擅长的领域之外,往往就会“黔驴技穷”,比如蜜蜂不会打洞,老鼠也不会构造房子。也就是说,动物和自己的生命活动是直接同一的,它所擅长的领域通常是固定的,来自于本能;而且这样的领域是有限的,不会超出它们生存所需要的范围。但人类与一般动物不同,人类虽然天生不会造房子,但可以通过后天的学习,学会如何建造房子;人类虽然天生不会打洞,但可以通过设计出相应的机械打造出合适的洞穴。所以马克思指出,人的活动与动物的本能活动之间存在着本质区别:“动物只是按照它所属的那个种的尺度和需要来构造,而人却懂得按照任何一个种的尺度来进行生产,并且懂得处处都把固有的尺度运用于对象;因此,人也按照美的规律来构造。”
人类之所以是“万物之灵”“世界的主宰”,关键在于人“会思维”,具有智能。博斯特罗姆(NickBostrom)和尤德考斯基(EliezerYudkowsky)认为,虽然关于“人类智能是否是普遍的”这一问题存在争议,但毫无疑问,人类智能肯定比非人科智能具有更广泛的应用。这也就是说,人类智能的应用领域并不会像一般动物那样固定在某个特定的领域。人类智能可以在不同的领域中起作用,并且,其应用领域可以不断地发生变化。上述第一种观点认为,正是因为人类智能的这种特征,使得人类可以获得独立的主体地位。
我们现在需要追问的是:人工智能能否发展出类似于人类智能那样的特征,可以独立地应用于各种不同的领域。在回答这个问题之前,我们有必要首先扼要了解一下什么是人工智能,以及人工智能的一般运作模式。
人工智能正在快速发展之中,关于“人工智能是什么”这一问题,目前学术界尚没有一个公认的定义。大致说来,人工智能是一门通过利用计算机、数学、逻辑、机械甚至生物原则和装置来理解、模拟、甚至超越人类智能的技术科学。它可以是理论性的,但更多的时候是实践性的,主要属于认知科学。其中,大数据是人工智能的基础,而程序或算法则是其核心。当然,基于对人工智能的这种理解,要想直接回答“通过这样一门技术科学所获得的成果能否像人类一样获得主体地位”这个问题还难度甚大,但这不妨碍我们间接地思考这一问题的答案。
学者们往往将人工智能划分为强人工智能与弱人工智能。这一划分最早是由塞尔(JohnRSearle)提出来的。他首先提出了这样一个问题:我们应该赋予最近计算机模拟人类认知能力的努力什么样的心理和哲学意义?然后基于对这一问题的回答区分弱人工智能与强人工智能。弱人工智能认为,人工智能模拟人类心灵的价值原则是为我们提供一个强有力的工具。而强人工智能则认为,计算机并不仅仅是一种工具,在它能够给出合适的程序的意义上,它可以被理解为拥有其他种类的认知状态,应该被视为一个心灵。塞尔的区分得到很多人的支持。如阿库达斯(KonstantineArkoudas)和布林斯约德(SelmerBringsjord)认为,弱人工智能旨在构建行动聪明的机器,而在该机器实际上是否聪明的问题上不采取立场;至于强人工智能,他们借鉴了海于格兰(J.Haugeland)的观点,认为人工智能不仅仅是模仿智能或产生某些聪明的假象,而是希望获得真正的主体,即成为拥有心灵的机器。
如果我们接受弱人工智能的观点,认为人工智能只是一种工具,那么很显然,人工智能无法拥有主体地位。首先,工具总是被动的,为人类所利用,无法自主地行动。其次,工具往往具有特定的功能,只适用于特定的任务,无法像人类智能那样适用于比较广泛的领域。当前人工智能产品所展现的恰恰是这种工具性。如AlphaGo目前在围棋领域独步天下,但对其他领域一无所知;“薇你写诗”小程序比较擅长古诗创作,却无法处理其他事务。因此,如果认为人类智能是由于能够广泛地适用于各种不同的领域而获得主体地位,那么弱人工智能无论如何都无法获得主体地位。
如果我们支持强人工智能的观点,认为人工智能不仅仅是一种工具,更应该被理解为心灵,那么情况将会复杂得多。因为心灵一般被视为可以适用于多种不同的领域。如果这种观点成立,似乎意味着强人工智能视角下的人工智能应该具有主体地位。
在做出肯定的回答之前,我们有必要追问强人工智能视角下的心灵界定。根据塞尔的观点,强人工智能认为,应该被视为心灵的机器是被“合适程序”控制的机器。这表明,强人工智能所理解的心灵实际上等价于程序。即是说,强人工智能认为,心灵即是程序。很明显,这种对心灵的解释与人们通常对心灵的理解是不同的。基于对程序的理解,博斯特罗姆和尤德考斯基认为,人工智能要求具有鲁棒性(berobust,即系统在一定参数波动下能够维持其基本性能的特性),而不是可篡改性(manipulation)。即是说,人工智能要求它的产品能够排除外在因素的影响,在不同场景中实现同一个目的。因此,它所预设的程序总是为了某个特定的目的而被内置于其中的,而这与人类智能的要求恰恰相反。人类智能并不需要为心灵预先设定某个特定的目的,它的目的总是随环境的变化而发生变化,甚至在同一种环境中也可能有所不同。当然,我们可以设想程序叠加的情况。也就是说,我们可以设想在某个时候,科学家将不同的程序通过某种方式融合在一起,使其不但能够处理不同场景中的事情,甚至可以在同一场景中处理不同的事情。在我们看来,这种情况即便成立,人工智能可能仍然无法获得主体地位。因为严格地说,人类智能所能应用的领域是无限的。因为人类有无限的可能性。但对于人工智能而言,无论如何添加算法,它的程序数量总是有限的。因此,如果坚持人类智能是由于能够广泛适用于各种不同的领域而获得主体地位,那么强人工智能视角下的人工智能也无法获得主体地位。
从认识论视角看人工智能的主体地位
我们现在考察第二类观点,即认为人类之所以拥有主体地位,是因为人类拥有某些不同于非人类的高级智能。至于这些高级智能到底是什么,观点各异。如亚里士多德认为,“理性实为人类所独有”〖ZW(〗亚里士多德:《政治学》,吴寿彭译,北京:商务印书馆,1983年,第385页。〖ZW)〗;卡西尔则认为,“应当把人定义为符号的动物”,也就是说,会使用符号即语言是人类独有的能力;而马克思则同意富兰克林的理解,认为人是能制造工具的动物。在人类所具有的这些独特能力中,究竟哪种或哪些能力是人类具有主体地位的真正原因呢?回答这个问题十分困难,甚至通过判断人工智能能否获得此种能力、从而推论人工智能能否获得主体地位的思路也是行不通的。因为我们很难推断出哪种或哪些能力是人类具有主体地位的真正原因。
图灵测试为解决上述问题提供一个很好的方案,因为它并不需要假设人类具有何种独特的能力。图灵测试由图灵(A.M.Turing)于1950年首次提出。某一机器能否通过图灵测试,被许多学者看作判断该机器是否具有心理状态的标准。在论文《计算机器与智能》中,图灵围绕“心灵能否思考”的问题设计了一种“模仿游戏”。在这个游戏中,存在一个询问者,一个男性A和一个女性B,他们处于相互隔离的房间中,询问者的目的是通过询问A和B以确定他们各自的性别,A和B则以打字的方式回复询问者,其中,A试图扰乱询问者的判断,B则通过给出真实的答案帮助询问者。图灵认为,如果以一台机器代替A,并且游戏可以进行下去,那么就意味着该机器具有心理状态。如果图灵测试是有效的,我们就可以按照这个标准,在不需要知道什么样的能力是人类获得主体地位的原因的情况下,判断机器是否具有心理状态,并进一步判断人工智能能否获得主体地位。因此,问题的关键在于判断图灵测试是否有效。
图灵测试自诞生以来,在很长时间内都得到学术界的支持,直到塞尔提出“中文屋”思想实验,才打破了这一局面。中文屋的思想实验大致可以概括如下:假设塞尔被关在一个屋子里,这个屋子里有三批书,第一批书和第三批书是中文,第二批是英文。第二批书中的英文描写的是如何将第一批书和第三批书的内容联系起来的规则,并且指导塞尔在回复过程中使用什么样的符号。塞尔不懂中文,只懂英文,他的工作就是利用规则和中文书中的内容回复他看不懂的中文问题。从外部来看,塞尔似乎懂中文,因为他给出的回答与会说中文的人没有什么区别。但实际上,塞尔只不过是按照规则操作符号,他始终没有理解中文问题,甚至不知道他所处理的是中文。塞尔认为,他在中文屋里的工作是计算机工作的一种例示,只不过他所遵守的是英文的解释,而计算机遵守的是内置于其中的程序。如果塞尔的中文屋思想实验成立,那么就表明,即使有人工智能通过了图灵测试,也不能证明该人工智能具有心理状态。因为人工智能只不过是按照符号的句法规则进行操作,并没有达到真正的理解。
塞尔的中文屋思想实验提出以后,引起了广泛的讨论。由于篇幅有限,我们不打算在此详细讨论这些争论,而是将注意力集中在塞尔根据他的中文屋思想实验提炼出的一个核心论证之上。这个论证可以概括如下:
公理1:计算机程序是形式的(句法的);
公理2:人类心灵拥有心智内容(语义的);
公理3:句法自身既不是语义的结构性成分,也不是它的充分条件;
结论:程序自身既不是心灵的结构性成分,也不是它的充分条件。
这个论证的关键在公理3,即句法不能构成语义。一方面,如果我们将计算机的本质看作程序,而程序本身是由代码构成的,那么它只是符号的组合,只具有句法特征。另一方面,语义对于一个符号系统而言是独立的,如果有人希望发现句法的运作与语义之间的联系,那么,他必须能提供某些复杂的证据以展现这一点。就此而言,句法和语义不同,仅凭句法不能解释它的语义特征。因此,如果计算机可以被看作程序,那么最终的结论很可能是:机器,或者说人工智能的产品无论如何都不能被视为拥有心灵。
有些学者并不同意塞尔对机器的理解,比如科尔(DavidCole)、丹尼特(DanielDennett)、查尔默斯(DavidChalmers)等人认为,运行程序的计算机并不能简单地等同于句法,而应该视为一个复杂的电子因果系统。如果考虑到现在的人工智能产品(比如智能机器人),这一特点更加明显。也就是说,程序虽然可以视为句法,但运行程序的东西本身不能简单地归结为句法,它们与现实世界之间存在着紧密的联系。查尔默斯等人的观点毫无疑问是对的,但这是否意味着塞尔的批评无效呢?在我们看来,即便肯定机器人与现实世界之间的因果联系,也无法认定人工智能具有心智状态。因为因果联系本身不能为语义提供任何辩护。语义系统涉及真假,而真假与辩护相关,需提供证据或理由加以支持;但因果关系本身没有辩护能力,因果关系只能描述发生的事件。塞拉斯(WilfridSellars)曾说过:“在刻画有关知道的情景或状态时,我们不是为该情景或状态给出一个经验性的描述;我们是将其置于理由的或者关于辩护的逻辑空间之中,并且能够为一个人所说的内容辩护。”这也就是说,关于辩护的逻辑空间与经验性的描述必须明确区分开来。语义与辩护的逻辑空间相关,而因果关系则是一种经验性的描述,两者属于不同的层次。因此,即便人工智能产品与现实世界之间存在紧密的因果联系,仍然无法构成心智状态所要求的语义部分。从这个角度说,塞尔的结论仍然成立。也就是说,人工智能无法真正地具有心理状态。
由于塞尔的中文屋论证并没有假设人工智能产品具有何种能力,因此,如果我们为塞尔的论证提供的辩护是有效的,那么就表明,人工智能无论获得何种能力,都将无法获得主体地位。因为人工智能所获得的能力只能基于句法和因果关系进行运作,但无论是句法还是因果关系都无法构成主体所要求的语义成分,因而无法获得主体地位。
从价值论视角看人工智能的主体地位
从价值维度说,人之所以获得主体地位,是因为人类将自己当作目的,而不是像一般动物一样仅仅依据本能生活。当然,人类的目的很多,具体到个人身上,事业、爱情、甚至活着都可以是自己的目的。如果人工智能的发展使得自己具有目的意识,不再将自己视为人类的工具或者创造品,那么,我们可能就不得不承认人工智能具有主体地位。然而,在人工智能获得目的意识之前,我们需要考虑的是,在什么情况下,人工智能才有可能具有目的意识。
根据康德的理解,一个存在物要想具有目的意识,它必须首先是理性的,而且在实践领域必须是自由的。将这种观点应用于人工智能,我们认为,如果人工智能想要具有目的意识,必须首先具有理性能力,并且具有自由意识。当然,“什么是理性”,“什么是自由”,这些问题学术界一直存在争议,众说纷纭,莫衷一是。但处理这些争论不是我们讨论的重心,我们采用常识性的理解足矣。我们可以将人工智能具有理性能力理解为他能够进行反思推理,即人工智能知道自己在做什么,并根据已有的证据能够做出推断;至于自由意识,则可以设想成人工智能能够自由地进行价值选择,做出决断。如果我们的这种理解成立,那么,人工智能是否具有理性反思和推断能力,是否能够自由地进行价值选择、做出自由的决断呢?
首先考虑理性能力。从技术发展的视角看,令人工智能具有反思推理能力,应该不存在什么终极的困难。即使现在人工智能产品无法达到这一要求,也不意味着它们将来无法做到。实际上,围棋领域的AlphaGoZero已经具备了一定的推理能力,因为它可以根据围棋规则自我博弈,自己学习,并不断进行评估,推导下一步棋应该怎么走。而且,我们可以认为,AlphaGoZero已经具备了一定的反思能力,因为它是根据自我博弈的棋局深度学习、并进行优化选择的。因此,问题的关键在于考察人工智能产品能否在实践中具备自由决断的能力。
关于人工智能产品在实践中是否具备自由地选择、决断能力的问题,我们首先需要理解自由地选择和决断能力到底是什么样的能力。如果我们将自由地选择和决断的能力置于某一个系统内,那么很显然,人工智能产品可以自由地选择、决断。比如,在智能驾驶领域,无人驾驶汽车可以依据内嵌的交通规则和传感器获取的实时路况,实时地选择到底走哪一条路线。没有任何人会阻碍它的选择。问题在于,这种系统内的自由决断称不上真正的自由。就像一只老虎可以在羊群里自由地选择追逐任意一只羊,但几乎没有人承认老虎是自由的一样。真正意义上的自由需要突破这种特定的目的以及自身的限制,在所有的可能世界中进行选择。也就是说,人工智能要想真正地获得自由,必须能够不再局限于自身的某个特定目的,它所内嵌的程序需要能够赋予人工智能突破自身的潜力。
在我们看来,这种情况是不可能的。因为程序一旦生成,便决定了运行此程序的人工智能的“所是”,不论在什么情况下,它都不可能发生任何本质上的变化。一种可以设想的极端情况是人工智能自己编程,并利用相关的资源制造出新的人工智能产品。在这种情况下,新的人工智能产品有可能突破原有局限,进而获取新的能力;而原有的人工智能产品则有可能将制造出新的人工智能产品视为自己的目的。
接下来讨论被制造的新人工智能产品。被制造出的新人工智能产品受制于原有的人工智能产品,只要它的程序被固定下来,那么它就会受程序本身的限制,因而不可能是自由的。而且,如果我们将原有的人工智能产品与新的人工智能产品视为一个整体,那么,新的人工智能产品无论如何也无法突破这个整体的限制。即便它能够自由选择,这种自由选择仍然只是系统内的自由,而非真正意义上的自由。对于原有的人工智能产品而言,情况要更加复杂一些。因为它制造出新的人工智能产品的工作是一种创造工作,如果这种创造工作是自由的,它能够自由地创造出新的人工智能产品,那么,我们必须承认这种人工智能产品具有主体地位。问题在于,这种能够自由创造的人工智能产品是否可能?在我们看来,除非多明戈斯(PedroDomingos)所说的能够解决所有事情的“终极算法”存在,否则,这样一种能够自由创造的人工智能产品是不可能的。因为任何人工智能产品最终都会受算法的限制,都不可能进行自由的创造。但多明戈斯主张终极算法存在的论证很难令人信服。因为他所期望的终极算法依赖于现存的机器学习领域中的五大主流学派力推的五大主算法,如符号学派力推的规则和决策树、联结学派力推的神经网络、进化学派主张的遗传算法、贝叶斯学派主张的概率推理和类推学派推崇的类比推理。但五大主流学派主推的这些算法未必能处理所有事情。更重要的是,任何一种算法都是基于已有的数据进行自主学习,都很难处理小概率的黑天鹅事件。因此,我们认为,由于人工智能受制于程序(算法)本身,注定了它不可能获得真正的自由,也不可能获得价值论意义上的主体地位。
小结
通过以上论证,可以从存在论、认识论以及价值论的视角都得出了同样的结论,即人工智能难以获得真正的主体地位。从存在论的角度看,人工智能产品处理的领域是有限的;从认识论的角度看,人工智能产品无法获得真正的理解;从价值论的角度看,人工智能产品无法获得真正的自由。
不过,由于人工智能毕竟是一种颠覆性、革命性的高新科学技术,人工智能发展快速,特殊应用领域广泛(例如人形智能机器人的研发),我们也不能故步自封,固执己见。咀嚼现实,我们不难得出这样的结论,即不能将所有的人工智能产品简单地等同于工具。因为对于工具而言,它的价值仅仅只在于服务人类;但对于人工智能而言,我们不难想象在未来的某个时候,人工智能的发展使得一些人对某些人工智能产品(如人形的智能小秘书、智能保姆、智能机器人伴侣等)产生了一定的情感,并出于某些因素善待这些产品。尤其是智能技术与生物技术相结合,当仿生科技越来越先进之后,这种可能性将会越来越高。在诸如此类的新情况下,将所有人工智能产品简单地视为工具并不合适,甚至会受到一些人的质疑和抗议。因此,在未来智能社会,如何对待人工智能产品是值得我们思考的一个重大问题。
由于人工智能一般而论不可能具有主体地位,同时,有些人工智能产品又不能简单地等同于工具,因此,我们不妨将人工智能产品分类,其中一部分人工智能产品只能被当为工具,比如智能语音识别系统,而另一些人工智能产品则由于其特殊性,可以赋予其介于人类与工具之间的地位。我们可以将后者称为准主体地位。后者并不是真正的、完全意义上的主体,而是人类“赋予”它的主体地位。这有些类似今天登堂入室、地位不断攀升的宠物。人们之所以认为需要善待狗、猫之类宠物,甚至坚持它们是家庭的一份子,是因为“主人”长期与宠物相处,已经对这些宠物产生了复杂的情感,将它们当作一个主体来看待。不过需要指出的是,宠物之所以能够获得这种地位,并不是凭借宠物本身的能力获得的,而是人类赋予它们的,这源自人类本身的一种自我需要。如果人类在感情上不需要这些宠物,那么,它们就将失去这种地位。某些人工智能产品可能获得的准主体地位也与此类似。即是说,即便某些人工智能产品最终被某些人视为主体,这种主体地位仍然是人类赋予它们的,它最终依然可能失去这种主体地位。
以上图片来自百度图片
责编|阿尔法马返回搜狐,查看更多