博舍

刘云:论人工智能的法律人格制度需求与多层应对 人工智能下的法律

刘云:论人工智能的法律人格制度需求与多层应对

原创刘云上海市法学会东方法学收录于话题#法学173#核心期刊173#原创首发173#东方法学32

刘云清华大学法学院博士后、助理研究员。

内容摘要

人工智能的法律人格需求是伴随着自动化技术的发展而产生的,是智能社会治理中许多具体问题都会触及的理论假设。自1992年人工智能法律人格设想被首次提出以来,它成为理论研究、立法建议和司法实践中普遍关注的话题,人工智能生成物的著作权归属、人工智能担任人类工作角色和欧洲的立法动议更促进了这一问题的讨论。人工智能的法律人格具有多维度的需求。既包括明确侵权责任、塑造权利能力等具体需求,也包括以构建社会治理新范式为目标的根本需求。不能简单地从概念上直接排除人工智能具有法律人格的可能性,也不能认为授予法律人格是唯一或者更佳的解决办法。人工智能法律人格是智能社会发展中新型治理模式的选项,以功能主义的态度来进行解释论或立法论的探讨是看待人工智能法律人格问题的正确视角,可以分别按照财产、类推适用代理、借用公司或财产法人、设立新的法律主体等方式回应人工智能带来的法律问题和挑战。即便不设立新的法律人格,在人工智能的侵权责任、合同缔约程序、代理关系认定等方面也需要作出必要的补充规定。

关键词:人工智能法律人格智能社会治理机器侵权侵权责任塑造权利能力

法律人格也称之为法律主体资格,是独立承担责任或享有权利的法律地位。人工智能可否取得法律人格是智能社会治理中悬而未决的基础命题。国务院于2017年颁发的《新一代人工智能发展规划》要求,“明确人工智能法律主体以及相关权利、义务和责任等”。2020年7月,欧洲议会法律事务委员会发布的《人工智能与民事责任》研究报告再次提出:不能完全否定赋予人工智能法律人格的可能性,但是授予法律人格也不是解决挑战的唯一办法,能否授权法律人格以及如何授予法律人格应当具备一套合理的条件。国内外的立法政策中都在考虑人工智能的法律人格问题,证明这并不是一个科幻问题或者纯粹的主观价值判断问题,而是传统法律制度在新一代人工智能技术发展背景下必须作出判断的社会治理模式选择问题。

一、智能社会治理中人工智能的法律人格争议

人工智能的法律人格问题是随着自动化技术的发展而产生的。早在20世纪60年代末,人们就开始讨论通过计算机做出的行为具有何种法律效果,最初的研究倾向于认定为一种电子化的意思表示。美国统一州法委员会在20世纪90年代拟定统一计算机信息交易示范法(草案)时开始考虑将合同订立的数据交换电文视为一种电子代理人,但是此处的电子代理人是完全按照人的指示行事的计算机程序,最终颁布的示范法也仅仅在少数州获得认可。劳伦斯·索伦在1992年首次讨论了赋予人工智能法律人格的可能与障碍,他指出:在人工智能发展处于低谷且没有高级人工智能实物的背景下,应当按照现行法进行相对保守的处理,人工智能真正普及之后就需要考虑是否赋予法律人格的问题。随着科学技术的发展,越来越复杂的人工智能实体表现出灵活多样的行为,除了参与合同签订、机械工作和决策辅助外,还可以承担“驾驶员”“作家”“家庭管家”“自动化决策者”等传统理性人的角色,这些再次引发了智能社会治理背景下拟制人工智能法律人格的讨论。

人工智能的法律人格是许多具体问题都会触碰到的理论假设。无监督的人工智能自主机器人可否拟制为人?人工智能技术自动生成作品是否可以享有著作权保护?如何对人工智能机器人进行征税?自动驾驶汽车造成他人损害该由谁来承担责任?如何为人工智能技术的发展设定伦理规范?人工智能机器人出入国家边境如何进行审查?人工智能产品的风险是否可以得到有限责任保护?……这些问题都会牵扯到赋予人工智能以法律人格来满足社会治理需求的可能性。近几年来引发人工智能法律人格问题讨论主要是三个方面的事件:

第一,人工智能生成物是否受著作权保护引发了法律人格问题的追问。美国纽约州法院于2014年在黑猩猩自拍形成的照片案例中作出裁定:尽管黑猩猩具有比较复杂的认知能力,但其不能被视为自然人,故而其照片不受著作权法保护。这一案例引发了学术界对人工智能生成物是否可以受著作权法保护的讨论。2018年12月,北京互联网法院首次在计算机系统自动生成物一案判决中指出:软件用户仅提交了关键词进行搜索,应用“可视化”功能自动生成的分析报告亦非传递软件用户思想、感情的独创性表达,故该分析报告亦不宜认定为使用者创作完成。在没有人工智能主体资格的情况下,以世界知识产权组织为代表的国内外观点不支持人工智能生成物受著作权法保护。

第二,人工智能是否可以在特定场景认定为法律上所规定的人成为现实的社会问题。2016年2月,美国国家公路交通安全管理局在给谷歌公司的回函中明确表示,根据美国联邦法律,谷歌自动驾驶汽车中的自动驾驶系统可视为“驾驶员”,这为人工智能在自动驾驶领域的落地提供了有利的条件。2017年10月,一家香港公司制造的机器人索菲亚被沙特阿拉伯授予公民身份,这引起了人工智能法律人格问题的热烈争议。此外,机器人出入国境场景下的法律适用,也成为一些学者讨论的新议题。这些现实问题都反映了智能社会治理中的法律挑战。

第三,欧洲议会法律事务委员会赋予人工智能以“电子人”身份的立法动议推动了问题的发展。欧洲议会法律事务委员会于2016年5月在《关于机器人相关民法规则的报告(草案)》中首次提出,呼吁欧洲委员会在未来的立法中探讨赋予机器人具体的法律地位的可能性,以便至少最先进的自主机器人可以被确定为具有特定权利和义务的“电子人”的地位。尽管上述建议招致了广泛批评,2017年之后发布的多个欧盟研究报告和立法议案明确否定授予人工智能以法律人格,欧洲议会在最新发布的立法建议也删除了相关规定,但是,欧洲议会法律事务委员会在2020年7月发布的报告中依然坚持其最初的建议,并对批评意见作了逐一辩驳,表明该问题依然尚未形成定论。

人工智能是否可以、是否应当取得法律人格,可以是一个没有答案的哲学问题,可以是各类群体理解人工智能社会角色的不同视角问题。同时,也是对人工智能进行立法设计、伦理指引的必答题,也是人工智能相关产业进行责任、权利分担和法律地位认定的制度选项。有哲学家提出:在没有承认人工智能具有法律人格的情况下,关于其人格的哲学辩论就无法进行,这反映出法律人格的讨论具有决定性意义。从智能社会治理需求而言,赋予人工智能法律人格的需求是否真实?所谓的法律人格需求可以通过哪些途径实现?人工智能的法律人格问题映射了哪些认识?这些都是法学研究需要且可以破解的问题。

二、赋予人工智能以法律人格的必要性

(一)明确侵权责任分配

自从蒸汽机发明以来,技术进步推动了责任制度的革新。人工智能普遍被认为是一个机遇与挑战并存的“双刃剑”技术,对人工智能引发的法律风险进行适当的责任安排成为各国立法的一项重要目标。在没有法律人格的情况下,人工智能的法律责任均按照产品责任的规则进行处理。传统的产品在制造、销售和使用过程中的状态是较为稳定的,出厂流通的技术要求和运行参数是明确的,用户使用过程中也具有较强的控制力,相应的产品责任分配较为清晰。完全封闭、独立的人工智能在运行过程中排除了用户的实质干预,产品制造商以实时连线的方式对其产品具有排他性的控制权,此种场景的人工智能责任由该唯一的制造商承担并不会产生争议。然而,多主体协同、开放式支撑的人工智能是更为常见的形式,硬件制造商、软件提供商、系统运行维护商、基础网络提供商、改造利用的用户和网络侵入者都会实质性地影响人工智能的运行,人工智能在运行过程中也会自我优化和发展,由此导致责任主体认定困难重重。此外,鉴于人工智能的独特功能,其中最突出的是“算法黑箱”问题,产品责任有时候不足以处理人工智能造成的侵害。中国首例特斯拉自动驾驶汽车致人死亡案件就表明,人工智能状态和因果关系的司法鉴定成本是昂贵且困难的。

赋予人工智能以法律人格可以让机器人独立承担责任,避免使用者和不同控制者的责任不清,也可以通过设立法人的过程提前分配相关者的责任份额。从受害者的角度而言,拟制法律人格的方法实际是建立了快速理赔通道,受害人可以高效地从引发风险的法律主体获得赔偿,而不需要经过漫长、昂贵和艰苦的过程来确定具体的责任人。欧洲议会法律委员会在2016年发布的《关于机器人相关民法规则的报告(草案)》,也基于上述原因提出了“电子人”的制度选择。为了匹配前述独立责任,人工智能主体设立人注入责任资本或者购买责任保险是必然的要求。尽管责任保险和责任资本都存在资金不足以清偿责任的问题,但相比由传统法律主体负责的思路,这种分离资产而设立新法律主体的方法在某些时候提高了实际获得理赔的可能性。与此同时,责任资金不足的问题可以通过调高责任保险、责任资本的方式弥补,也可以仿照“法律人格否认规则”避免独立责任制度被不合理地滥用,以让人工智能主体设立者在特定情形下承担补充赔偿责任。此外,由于以机器学习为代表的人工智能具有不确定的风险,赋予商业运营的人工智能以法律人格可以将这种责任予以合理隔离,这将鼓励资本对人工智能产业的投资,可能会对人工智能产业的发展带来一系列好处。

在民法上选择哪一个主体承担赔偿责任应当根据效率和有效性的功能作出判断,直接让机器人承担责任并不是在任何情况下都是明智的选择。

一方面,可能难以起到法律引导的功能。机器人并不害怕被追责,无法感知法律责任的教育意义。即使是直接对机器人施加惩罚,包括机器的断开、瘫痪和毁坏,也只会给拥有机器或对其拥有权利的当事人造成负担。

另一方面,限制人工智能制造商或设计者的责任并不构成为其拟制法律人格的正当目的。

赋予法律人格相当于为这一行业设立专门的人工智能有限责任制度,这种法律人格所产生的机器独立责任(有限责任)可能会激发错误的行为,鼓励人工智能开发人员将责任转移到他们开发的机器上,不确定的风险并不会因此而消失。即便不是有限责任的滥用,通过法定形式给人工智能这一特定行业设定有限责任制度也需要充分的论证。人工智能产业的应用领域非常广泛,这意味着不是所有人工智能领域都有通过立法进行鼓励的必要,因此社会不可能普遍地给予人工智能以责任限额/豁免。尽管各国都在抢占人工智能行业的制高点,但是否应该通过法律人格给予人工智能行业以有限责任保护,这是一个需要深思熟虑的政策问题。2020年2月发布的《欧洲人工智能白皮书》提出:在未来的监管框架中,每项义务都应由最有能力应对任何潜在风险的参与者承担。虽然人工智能的开发人员可能最适合解决开发阶段所产生的风险,但是,他们在使用阶段控制风险的能力可能会受到更大的限制,在这种情况下,部署者应承担相关义务。此外,从实在法的角度而言,即使是完全自主的技术所造成的损害,一般也可归因于自然人或现有各类法人的风险。如果情况并非如此,通过修法的方式直接针对现有法律主体分配责任也是一种选择。据此,要求人类负责人对人工智能的错误承担责任,这将激励他们创建一个更安全可控的环境,并构成智能社会中日益迫切需要的治理目标。

总而言之,授予人工智能以法律人格绝不能以不合理转嫁责任为目标。至少在人工智能发展风险还不明朗的当今,做好人工智能产业开发端的风险把控依然是最稳妥和务实的政策选择。然而,基于明确侵权责任承担主体的理由,当拟制法律人格有助于应对人工智能带来的责任复杂性问题时,这种分解、简化责任关系的策略是一种可选的制度安排。此外,随着共有产权和共同控制成为一种潜在的趋势,对人工智能的惩罚存在拔下电源、重新编程等多种多样的观点争论,目前仍然没有找到普遍接受的方法惩罚人工智能,赋予人工智能以法律人格可能成为复杂控制关系下人工智能的一种责任认定依据。

(二)以塑造行为能力、权利能力为目标

随着人工智能充当的社会角色越来越多,赋予其特定的行为能力、权利能力成为选择法律人格制度的重要考虑因素。一种误解会认为人工智能所拥有的行为能力、权利能力与人类相同,故此联想到主体认同是否会引发人工智能伦理威胁。事实上,机器人的权利有别于人类的“自然权利”,它具有法律拟制性、利他性以及功能性等权利属性。在现有的法律主体之中,不同年龄阶段的人所拥有的行为能力范围可能是不同的,金融公司和煤矿公司所具有的行为能力范围也存在明显差异,公司和人也是拥有不同权利能力的法律主体。因此,法律主体资格是依法取得的,各类法律主体所拥有的行为能力、权利能力范围也是依法限定的,赋予人工智能法律人格不意味着其可以享有基本人权中的各项权利。也即,可以根据智能社会治理的需求确定或者限定其行为能力、权利能力的范围。例如,有观点认为,人工智能应当具备订立合同、报告残酷的行为能力,结合人工智能的特点赋予获取数据和能源、升级和维护的权利能力。从人工智能目前的发展阶段而言,其可能的行为能力和权利能力需求主要是缔约能力和获利能力。

对于缔约能力的需求,爱丁堡大学计算法学教授伯克哈德·舍弗曾经列举了一个生动的例子:“假设你是一名残疾人,并且依靠家用机器人来帮助您的日常生活。该机器人要做的一件事就是监控饮食并确保您得到足够的正确食物,当它有一天发现您的蔬菜不足,并且要再订购一些。我们这时就需要确保机器人和商店之间可以订立有效的合同。我们显然不希望食品杂货店说‘我与机器进行了谈判,因此合同无效。’此时的机器人如果具有法律主体资格,那么在技术上就容易操作了。”在传统的电子交易结构中,委托交易是人利用电子媒介工具从事的活动,但是人工智能是从需求提出到完成决策都可以由机器人执行,人类用户往往没有意识到自己的作用,这里面就容易出现利用人工智能从事的行为与当事人真实意思不一致等各种争议问题。出现这一差异的根本原因在于,传统的意思表示和因果关系理论在人工智能从事的交易中进行解释的链条过长,而这种很长的链条比较容易出现链条断裂的解释冲突,一些不可预见的交易风险也会因此而产生,而直接授予人工智能以法律人格可以通过强有力的中继站来保障足够的权利能力,以此维护交易安全。不过,解决冗长交易链条的争议问题也非必须创建新的法律主体,通过相关交易法律规则的解释也可以达到定分止争的目的。例如,通过法律解释的方法认定所谓的人工智能的意思表示全部归于用户,利用人工智能从事交易的法律后果由用户承担,也可以解决前述问题。然而,如果这种传统拟制的意思表示主体无法统一地归属到现有法律主体,或者有必要让这种意思表示独立于传统的法律主体,就需要将人工智能拟制为一个中间法律主体,从而维护合同关系的稳定。

对于获利的能力需求,主要是指人工智能自主的作品可否享有著作权。人类有很长的历史质疑机器辅助创作是否可以通过版权保护。例如,早期的照片无法受到保护,因为仅通过暗箱的镜头捕获光并不是真正的作者,然而这种观点在现在已经被更改。目前,人工智能产生的新闻报告、诗歌创作、音乐创作和其他各类成果的创作已经成为普遍应用的现象。在机器学习算法应用之前的历史中,各类计算机软件仅仅是人类用户的创作工具,运用各种软件创作的用户才是所产生的任何受版权保护的作品的作者。机器仅按照计算机程序的方式生成内容,程序开发者被认为是此(可预测的)输出作品的作者。然而,机器学习的人工智能创作在初步计算模型构建后可以自行完善算法甚至修改其原有代码,这会产生人类程序员无法预见的结果输出,特别其收集数据并不断学习的能力与人类大不相同,此时产生的文学艺术作品都具有随机性,与人类自身创造性之间的因果关系变得非常微弱。目前主流观点依据现行著作权法进行解释,认为能够享有著作权的“作者”必须是人类。著作权意在促进人类的创造力而创设了激励措施,使机器在文学和艺术领域拥有作品的著作权就可能威胁人类进步。故而认为,没有人类创造力参与的机器作品不能享有著作权,机器自主创作达到一定自动化阈值就只能归入公众可以自由使用的公有领域。批评者则认为,上述观点是基于20世纪中叶思想所作的过时分析,作品本身的创造性才是其是否值得著作权保护的因素,人工智能创作机器同样需要鼓励投资人的进入,因此需要实事求是地承认人工智能的创作者地位,同时允许自然人(或法人)获得利益并控制利益,从而消除人工智能知识产权不确定性的风险。笔者认为,新一代信息技术的发展方向是共享经济,扩大公共资源的范围确实符合时代趋势。然而,在现实社会中,无主物并不利于社会效益提升,往往会陷于公地悲剧或者互相保密的不信任局面。尽管主流观点认为,人工智能生成物不应受著作权法保护,但这里的人工智能生成物主要是限制将著作权授予人工智能产品制作者,使用者在数据收集、处理等人工智能系统利用过程中具有创造性而获得的作品依然应当获得权利。如果未来出现完全自动化且具备创造性的作品生产者,指定其权利归属是法律不可回避的问题。

(三)以构建社会治理新范式为目标

法律规则是对社会实践的抽象总结,其本身应当具有扩展适用能力才能稳定法治社会的预期,故而,法律人一般倾向秉持保守主义的做法而维持现行法律主体范围不变。积极支持变革者则认为,法律面对人工智能这类高度发达的技术如果仅做微小的调整,只会徒增更大的法律复杂性。其基本逻辑是,如果人工智能对法律的方方面面都产生了深刻影响,在现行法律制度中依托现有法律主体构建各种法律关系可能导致规则过于复杂或者执行成本过高,这会导致勉强的法律解释脱离社会的真实情况,最终会成为不明智和不可持续的守旧派。为此,授予人工智能法律人格的一个根本目标就是构建新的治理结构,从而适应智能社会的法律范式变革需求。

人工智能在一定程度上不同于传统人类与工具之间的关系,不仅存在依附于人类的人机协作关系,而且出现了一系列人工智能取代人的岗位,这种工具独立性的增强使得赋予人工智能法律人格成为一种可选项。有观点认为,人工智能具有自主性、主动性,已非纯受支配之客体,在法律上应设定为“电子人”。他们认为,只有引入一个“电子人”才能确保相关法律关系的合法有效,特别是在人工智能越来越多地独立参与各种经济交易活动,缺乏法律人格将导致其参与的各种交易会出现不被认可的安全隐患。还有刑法学者指出:智能机器人可能超越程序的设计和编制的范围,按照自主的意识和意志实施犯罪行为,因而完全可能成为行为主体而承担刑事责任。这些观点的本质是认为人工智能具备了独立意识,但是“独立意思的表示”并不适宜作为机器人获得主体资格的特征标识,因为原有法律框架中的独立之意是行为主体自我决定,而人工智能到底是独立于程序设计者还是机器的使用者,会得出不确定的结论。事实上,美国纽约州法院在2014年的判决中就指出:尽管黑猩猩具有比较复杂的认知能力,但是其不能被视为法律上的“人”,不能独立地享有权利。由此可知,动物即便具有自主意识也不等于其可以获得法律上“人”的地位,而在人类社会中患有精神疾病的人、植物人、婴儿获得法律人格也不受其自主意识能力的影响,故而是否赋予人工智能法律人格与其自主意识的程度不构成必然联系,与我们的智能社会的治理结构选择具有重要关系。

人工智能的出现除了增强人类的本能,同时还创造了人类能力之外的机器智能,这种新的智能构成社会新的功能模块而被认为可以获得法律主体资格。在此背景之下,智能社会中的人类如何考虑在法律和道德基础上对待非生物实体也成为新型社会关系中需要解决的问题,否则无法维护传统的社会契约基础,人类也无法恰当地履行相关的道德义务。我们正在建立一个新的智能社会,凝聚其中的价值观将定义我们的走向。授予人工智能以法律人格可能会防止将机器人视为单纯的奴隶而造成道德上的畸变,2018年12月发布的《蒙特利尔人工智能负责任发展宣言》(MontrealDeclarationforaResponsibleDevelopmentofArtificialIntelligence)提出避免残酷对待人工智能系统和人工智能正常运行情况下的免责原则,就属于人工智能法律人格所体现的一种价值取向。从智能社会法律范式变革的底层思维而言,赋予人工智能以法律人格确实有利于构建新的治理模式和相应治理规则,甚至可以促进“代码即法律”的相关理论成为现实。但是,批评者则认为,人工智能是基于算法,其属于一种可以复制的计算机代码,此特征意味着所有人工智能都缺乏真正的自主权和判断力。它们可以由其用户,制造它们的人甚至是恶意的第三方(即黑客)所控制,从而使得赋予人工智能以法律人格将引发不可控的风险。公司法人的人格历史充分说明了这些问题并不会构成赋予法律人格的障碍,但是,该质疑确实反映出人工智能主体资格的解释和规则安排是一系列复杂的工程,这种构建智能社会法治范式的法律人格安排需要更加充足的理论准备方能得到认可。

三、人工智能法律人格框架下的多层治理模式

(一)作为财产的人工智能

由于技术创新不应总是引起法律的变化,在法律变化之前,我们必须认真对待现有规则,并且努力使新情况适应现有秩序。在首例人工智能生成的作品著作权案件中,法院的判决就明确指出:若在现行法律体系内可以对其智力、经济投入予以保护,则不宜突破民事主体的基本规范。在法律不承认人工智能法律主体资格的情况下,人工智能最容易在传统法律中找到的定位是“财产”,但其不同于完全受制于人操控的“工具”。对于这种新类型的财产,可以按照民法典侵权责任编的相关规则确定侵权后果,按照数字电文缔约的法律规则确定意思表示主体,通过控制、所有和使用该财产的人来判断相关法律行为来源和法律效果归属。

在合同法律关系方面,利用人工智能从事缔约行为的由实际使用者承担相关的法律后果。根据我国民法典第137条的规定,相对人指定特定系统接收数据电文的,该数据电文进入该特定系统时生效;未指定特定系统的,相对人知道或者应当知道该数据电文进入其系统时生效。在自动化状态下,不得仅仅因为无自然人审查或干预这些系统进行的每一动作或由此产生的合同而被否定效力或可执行性,因为该系统各类行为的启动都必然是来自传统法律主体的指定。根据我国国家标准的规范,人工智能是指利用数字计算机或者数字计算机控制的机器模拟、延伸和扩展人的智能,感知环境、获取知识并使用知识获得最佳结果的理论、技术、系统、产品以及服务。人工智能在侵权责任承担过程中,在现行法上可以分别认定为“网络服务”“场所服务”“产品”“物件”等不同的形式,分别适用网络服务提供者、网络用户、商业或公共场所经营者、产品质量侵权、物件损害等责任规则。为了明确人工智能的责任规则,应当通过修法或者法律解释的方式明确人工智能侵权的控制者责任和不同的归责原则,人工智能可解释性技术和责任鉴定技术由此成为划分责任的重要支撑。

(二)类推适用代理规则

如果创造新的法律主体是一项艰难的选项,对法律的文义解释也不足以解决社会中出现的新兴问题,那么类推适用可以算作一个广泛采用且简单易用的方法,其借助比喻的手段寻找出路。从技术的发展阶段而言,“人工代理”比“人工智能”更能准确地反映这项技术的本质,机器人也仅仅是通过代理的方式实现了人的能力的延伸。在代理关系中,人工智能可以被视为所有权人、操作员、开发者、算法训练人员、程序员、用户的代理人,委托人可以对人工智能进行监控。这一关系是从开启电源(创建代理)到关闭电源(终止代理)的代理,它可以在没有人类指示的情况下作为仆人向其主人提供持续的服务,也可以从其具有控制权的人类负责人那里接收指示和任务。

这种类推适用的基础有两个:其一,人工智能与代理人一样需要积极主动地与第三人进行互动,并且基于自己的能力作出判断和相关行为,自动化程度越高的人工智能则越是与代理人具有相似性;其二,代理提供了一个灵活可控的法律关系解释模型,在承认作为代理人的人工智能具有自主性的基础上,明确了委托人要对代理人的各类行为负责的根本原则。显然,代理规则与严格责任的发展趋势不谋而合,在欧盟于2019年4月发布的《可信赖人工智能的伦理指南》,就提出构建人工智能要维持对人类的代理,这也是将人工智能类推适用代理规则所具有的特殊价值。

在传统的民商事代理关系中,无论委托人还是代理人,均是具有行为能力和权利能力的法律主体。《美国代理法重述(第三版)》甚至在其术语条款中明确规定:不能将计算机程序视为代理程序。在这种类推适用的代理关系中,他们反对将履行代理职责的人工智能视为人,而是仅仅将它们视为代理工具。同时,对于代理工具可能超越委托人意图所造成的侵权后果,他们则主张扩大解释委托人的委托意思,并限定代理工具不具备超越权限的能力。与此同时,代理需要通过订立代理合同才能创建,代理规则中的代理人是存在代理权限和个人利益的,当其超越代理权限或者为代理人自身的利益从事相关的行为,委托人可以依法免除相关行为的法律责任。当人工智能类推适用代理规则时,就必须设定其代理合同的内容,否认人工智能的自身利益,同时认定其不存在代理权限疑问,以此实现人工智能自由决策和委托人视为责任人的目标。为了在不创建新法律主体的情况下适用代理规则,就必须对这些问题逐一作出新的解释,这一项工作的立法难度可能并不低于赋予人工智能法律人格。

总而言之,类推适用代理规则实质上给予了人工智能一种虚拟的法律主体资格,但这是一种各方都不认可的法律主体,其本质是充当委托人的“电子奴隶”。这种法律关系的设计确实能够兼顾人工智能的自主化需求和人类的风险防控目标,但是该机制设计无法通过简单的类推适用规则来解决,还必须根据人工智能的特点作出专项的法律解释或者与之有关的新立法。

(三)借用公司或财产法人的外壳

无论对法律主体资格采取“拟制说”还是“实在说”,现代法律体系中的法律主体成立条件都是根据法律规则进行设定。为了最大程度地融入现有法律制度,肖恩·拜仁在2014年提出了著名的公司制人工智能主体模式。根据肖恩·拜仁的观点,无论现行法律是否承认人工智能的法律人格,如果相关的个人和组织需要一个具有法律主体资格的人工智能,他们都可以借助现行的公司法制度来实现。

其基本方法包括四个步骤:

(1)有需求的人类或者企业按照有限责任公司的登记程序成立一家公司,最好是只有一个成员的“一人公司”;

(2)该公司的创始人按照公司决议程序通过一项经营协议,约定该公司将完全采取人工智能的自动化系统进行决策,并确定公司其他成员和行为如何受该人工智能决策系统约束的条款;

(3)公司创始人将与该人工智能系统相关的任何财产都转让给该公司所有;

(4)创始人退出公司的股东身份,从而创设了一家没有任何人类股东、完全由人工智能系统操控的公司法人。

这一方案以实际目的为出发点,在法律尚不直接承认人工智能法律主体资格的情况下,构建“零成员公司”让人工智能按照现行公司法人的方式运行,从而可以间接地实现人工智能取得法律人格所需要达成的各项目标。

对于借用公司的外壳创建人工智能的法律主体资格,得到了一些学者的支持。但也有学者提出反对意见:在现行法律制度中不存在“零成员公司”,尽管“有限责任公司”可以为各种商业模式提供一些灵活性的选择,但是,立法意图必须是人类将保留对有限责任公司运营的最终控制权。肖恩·拜仁在回应文章中进一步指出,公司制人工智能主体模式是在传统法律主体制度不足以应对的情况下所作的扩张解释,故而对于现行公司法律制度的解读不能停留在字面意思层面。在现行法律已经承认特殊例外的情况下(例如清算阶段)“零成员公司”可以继续存续,据此就应当承认“零成员公司”本身是可以存续的,现行法律也没有限制这种特殊例外情况下的存续时间。在美国法律体系下,只要任何一个州能够按照其解释理论创建“自治实体”,那么根据法律主体互认规则也会在其他地方得到承认。与此同时,这种情况下的人类创始人仍然与有限责任公司保持联系,只是为了实现人工智能的自治而自行脱离,这种结构安排可能存在被创始人破坏的脆弱特性,为此可以通过协议约定的完善来维持结构的稳定性。这种具有法律人格的人工智能在技术上也无需达到超级人工智能的水平,他们除了可以雇用人类员工以外,还可以通过目前的云计算经纪人或算法托管代理等方式保持其持续有效地运行。由此可见,公司制人工智能主体模式充分利用了合同架构的手段,通过技术措施、公司制度、合同法理论自治的方式实现了人工智能法律人格的部署,进而可以适用公司法人的各项行为能力、权利能力、管理义务和法律责任构建一个具有法律支撑的“自治实体”。

依托资产进行商业组织的设计与结构化商事交易中的“客体主体化”趋势密切相关。随着财产形态的变化和主体制度的创新,商事实践中不断涌现新的商事组织形态,如风险投资基金、对冲基金、私募基金和不动产投资信托等资产实体化。因出于保护交易安全的需要,将相关权利人对于财产的请求权进行隔离,被隔离出的资产实际发挥企业之作用。事实上,肖恩·拜仁所倡导的法人制度模式核心在于“零成员公司”,这种特征的组织也可以采取有限责任公司以外的其他主体类型,如财团法人。财团法人是指法律上对于为特定目的的财产集合赋予民事权利能力而形成的法人,我国的财团法人典型代表就是基金会。从基金会管理条例的规定看,基金会以公益为目的,没有会员,基金会的组织结构、财产管理方法等都由章程加以规定,而章程则由举办者拟定。由此可见,可以依托一定财产来设立基金会法人,而需要取得法人资格的人工智能实体本身就是一项重要财产,以此财产来设立法人在财团法人之中便可以顺理成章。

(四)设立新的法律主体资格

法律主体是法律制度之根,所有的权力、权利、义务、责任都是归根于这些法律主体。从民事主体范围的历史发展来看,民事主体的体系是不断发展的,具有包容性。人工智能是否可以获得法律主体资格,本质上也是由社会发展所决定的。从法律主体的扩展历史来看,人类取得法律主体资格与天赋人权密切相关,奴隶、妇女成为法律所承认的人都经历了漫长的权利斗争历史。公司取得法律主体资格则是为了节约交易成本而做的人为安排,特定财产取得法律主体资格则是为了促进财产有效利用(特别是鼓励公益)而做的安排。近年来,森林、山脉、河流在有些国家取得法律主体资格,如美国俄亥俄州的托莱多在2019年2月投票通过了“伊利湖权利法案”将该湖泊视为法律上拥有独立权利的人,这些做法是为了环境保护或者人文发展而做的专门立法。现代社会文化人类学甚至研究表明,宠物在未来非常容易获得法律和社会地位,这是由于宠物通常像家庭成员一样得到认可并受到这种对待。法律主体的范围并非一成不变,在具备正当理由的情况经过立法程序可以认可新的法律主体种类。

受法律主体资格扩张趋势的启发,可以借鉴适用于公司和其他非人类实体的法人资格的经验,通过新的立法授予人工智能以法律人格。为了防止法人资格被滥用的道德风险,将人工智能纳入法律主体范畴的同时,也可以设立法律人格否认规则让滥用责任限制规则的人承担风险,建立新兴的人工智能社会责任制度来确保其发展方向符合人类公认的价值,并建立人工智能登记制度和保险制度来认定和补充其作为主体的能力。我们对人工智能的控制越少,就需要更广泛的测试和更严格的治理,如借鉴公司信息公示制度,建立“人工智能阳光法”来满足相对人的知情权和公共监督的需求。本质上,赋予人工智能以法律人格是一种制度便利的选择,是从私法角度解决人工智能监管的一条路径,能够通过市场自治的方式促进人工智能的安全发展。有反对者认为,创设人工智能法律人格将导致责任制度被滥用,不利于保障人工智能产业的安全发展。公司法人创设的历史则表明,公司的出现也引发过类似的担忧,吉尔伯特和沙利文在1898年甚至写了一部名为《乌托邦有限公司》的歌剧来嘲讽当时公司法设置的有限责任制度。然而,公司在法律创设之后经过长期的发展已经成为我们社会的一个中心。尽管公司是看不见的实体,但是法律赋予公司法律人格后,通过制度上的实体掩盖实质上是让人类从各种可能的责任中脱离,员工的各种行为都是由公司出现在法庭。也即,拟制的法律主体可以成为代替人冲锋在第一线的实体,人类借助这种新的法律主体可以得到一定的自由解放。

结语

在各种鼓励或限制人工智能发展的政策、法律、伦理指南、技术标准、白皮书在全球范围内密集发布背景之下,人工智能已经并持续深入地成为我们日常生活的一部分,而人工智能是否可以成为法律上的主体是构建相关规则的基础命题。通过相关法律需求和应对方法的分析,可以断定人工智能的发展确实带来了一系列新的法律问题,但不能简单地从概念上直接排除人工智能应具有法律人格的可能性,同时也不能认为授予法律人格是唯一或者更佳的解决办法。人工智能技术如果构成对实在法的挑战,那么实在法就是无法回应的。如果实在法可以回应人工智能技术的社会问题,那么这种技术变革就没有形成挑战。法律制度可以选择解释或者修订现行法的方式满足所谓的人工智能法律人格需求,也可以采用法律人格制度来回应社会治理挑战中的问题。人工智能法律人格是智能社会发展中新型治理模式的选项,以功能主义的态度来进行解释论或立法论的探讨是看待人工智能法律人格问题的正确视角。

在讨论人工智能可否取得法律人格时,需要正确区分“人”和“法律人格”。授予人工智能法律人格的理由有两大类:基于意识自主的道德需求和基于法律关系安排的实践需求。但是,法律人需要讨论的仅仅是后者。法律人格是指私法上的权利和义务的归属之主体,即从权利义务之归属点来认识法律人格。生物意义上的人可以不是法律意义上的人,但生物意义上的人要成为法律意义上的人必须具备人格。法律人格从自然法向实定法的转换,使得人们更多地从法律关系的视角来解释其内涵,这与生物学或者哲学上具有自主意识的“人”存在本质差异。人们往往将人工智能可否获得主体资格与人类未来的发展命运相联系,认为人工智能不具有人的社会性,不能产生人类主体性所依赖的社会关系和实践基础。人工智能不具备人之心性和灵性,与具有“人类智慧”的自然人和自然人集合体是不能简单等同的,故而不足以取得独立的主体地位。这些观点显然是混淆了哲学上的“人”与法律上的“法律人格”,错误地认为,我们必须维护人类的法律主体地位,才能把握人类对整个社会发展的控制权。事实上,“法律人格”仅仅是法律对社会秩序进行安排时根据需求而总结出来的通用概念,这是法律上的拟制而非哲学上的陈述。尽管各类法律主体所拥有的法律人格都是完整的,没有部分法律人格或者全部法律人格之说,但不同法律主体所拥有的权利能力是有千差万别的,即便人工智能取得法律主体资格也不可能取得与人类同等的权利。人工智能可能在技术的不同阶段取得不同范围的法律主体资格,如何安排和取舍人工智能的各项权利义务也是是否授予人工智能法律主体资格所要考察的核心问题。

如果选择承认人工智能的法律主体资格,将等同于构建智能社会的全新法律范式,这需要科学地设置认定范围和相关的法律制度。法律人格延伸到人类之外的自然界和社会,反映了文化、科学和法律之间广泛和灵活的协作过程,可以帮助我们重构一个价值多元、治理复杂的未来社会。但是,非典型法律人格的取得必须得到社会的广泛认可,其中还必须考虑到已经存在的主体的权利,分析这种法律创新将如何符合先前的法律秩序,从而确保非典型法律人格服务于人类文明发展的共同需求。对于人工智能取得法律主体资格的条件,有人提出了6项准入标准,包括社会认可、自主智能、平等共识、适应变化、普遍信赖和公开登记。还有人提出4项综合条件,包括技术上可以划定人工智能系统的边界,经济上能够显著增加社会福利,法律上存在先于规则不足以应对而需要根本改变的需求,精神上存在道德责任和推理能力。这些条件都是值得参考的判定标准,与此同时,如果机器没有承担责任的能力(独立的财产等),那么不论是侵权或是违约带来的赔偿责任等,其实都需要链接到其他主体上来完成最终的责任分配,所以能够取得法律主体资格的人工智能必需有一定的财产基础,其可以是该人工智能本身达到法定的财产价值,或者是通过注册资金等方式取得身外的财产。关于公开登记的要求也应该是毫无疑问的,类似于汽车达到一定时速需要注册,无人机达到一定起重载荷需要注册一样,人工智能如果从事无监督的自主行为且严重影响他人权益的也应当取得注册登记方可使用。

总而言之,尽管坚决反对或者坚决支持赋予人工智能以法律人格的观点都存在,但是大多数讨论人工智能法律人格的观点都存在一种折中的趋势,他们认为是否赋予人工智能法律人格是存在条件的,而且赋予人工智能何种程度的法律人格也需要深入分析。这种折中的趋势更加有助于我们理解人工智能法律人格问题的核心。根据笔者分析可知,现行法律上对人工智能的法律人格需求并非那么迫切,但是智能社会的发展很可能会促进这一现状的变化。这意味着我们对人工智能法律地位的认识将层次递进:第一阶段是将人工智能视为财产,尽管其可以代替人从事一些行为,其法律后果都直接归系于人;第二个阶段的人工智能可以自主享有一些权利,也需要直接履行一些义务,是在当前法律主体制度不变情况下所作的具体规则修订;第三个阶段的人工智能可能会被承认为一类新的法律主体,此时需要专门的人工智能组织法。数千年的法律发展历史表现法律是可以因技术发展而产生变革的,科学将朝着所有生物都是算法、生命就是数据处理、智能与意识分离的方向发展,超智能算法将比我们更了解自己,这可能导致超级智能算法将决定社会和人类的发展方式。但是,即便未来的立法让人工智能经取得了法律主体资格,该主体背后依然是人:人可以成为其代理人,人可以成为其监护人,法律人格被否认时需要该创建人兜底,所以人类整体的安全和文明进步依然是我们法律变革中永远不变的目标。

2021年1月12日—1月19日上海市法学会官方微博开展了抽奖活动,奖品为:由丁伟主编,孙福庆、王娟副主编,上海市立法研究所出品的《上海地方立法蓝皮书(2019年)》。现将经平台审核通过的获奖名单(微博ID)公布如下:

接下来我们将赠书10本:由丁伟、孙福庆主编,王娟、郑辉副主编,上海市立法研究所出品的《“一网通办”法律规制》。

“一网通办”即“政务服务‘进一网、能通办’”,是当前上海乃至全国政务服务变革的重要抓手,是转变政府职能、创新行政管理方式、建设法治政府和服务型政府的重要载体。

该书从法治保障层面率先对该项改革涉及的法律问题作了前瞻性、系统性研究。全书由四编组成,以问题为导向,以实现目标为方向,从政务服务创新、法治保障需求、法律制度供给3个维度,系统地对“一网通办”所涉及的主要法律问题作了梳理,对“互联网+政务服务”与依法治理,政务流程的再造,公共数据的法律内涵、属性和保护路径,公共数据的采集、共享和隐私保护等作了研究。在对国家以及各地关于“一网通办”主要规定作分析的基础上,该书立足上海实践,对如何开展地方立法、加强法治保障提出了设想;还收录了全球主要国家电子政务的发展情况以及“一网通办”的相关法律法规和政策文件。

请各位读者朋友关注上海市法学会官方微博,参与本次微博抽奖赠书活动,#微博学法律#,#分享有好运#!

打开微博

扫描右侧

二维码

参与抽奖

上海市法学会欢迎您的投稿

fxhgzh@vip.163.com

相关链接

《东方法学》2021年第1期目录张文显:习近平法治思想的基本精神和核心要义黄文艺:习近平法治思想中的未来法治建设思想研究邢会强:大数据时代个人金融信息的保护与利用孙万怀:刑法修正的道德诉求杨华:海洋基本法的立法定位与体系结构崔丽丨民法典第1009条:基因人格权的创设、证成与实现冯硕:TikTok被禁中的数据博弈与法律回应荣学磊:中国法语境下共有推定规则的误读与澄清顾全:民事法律行为效力评价维度万毅:论庭前证据调查准备魏治勋:党内法规特征的多元向度来源:《东方法学》2021年第1期(总第79期)。转引转载请注明出处。

原标题:《刘云:论人工智能的法律人格制度需求与多层应对》

阅读原文

人工智能时代提出的法律问题

图集

我们已经进入人工智能时代,大数据和人工智能的发展深刻地影响着我们的社会生活,改变了我们的生产和生活方式,也深刻地影响社会的方方面面。但同时,它们也提出了诸多的法律问题,需要法学理论研究工作者予以回应。

人工智能的发展涉及人格权保护问题

现在很多人工智能系统把一些人的声音、表情、肢体动作等植入内部系统,使所开发的人工智能产品可以模仿他人的声音、形体动作等,甚至能够像人一样表达,并与人进行交流。但如果未经他人同意而擅自进行上述模仿活动,就有可能构成对他人人格权的侵害。此外,人工智能还可能借助光学技术、声音控制、人脸识别技术等,对他人的人格权客体加以利用,这也对个人声音、肖像等的保护提出了新的挑战。例如,光学技术的发展促进了摄像技术的发展,提高了摄像图片的分辨率,使夜拍图片具有与日拍图片同等的效果,也使对肖像权的获取与利用更为简便。此外,机器人伴侣已经出现,在虐待、侵害机器人伴侣的情形下,行为人是否应当承担侵害人格权以及精神损害赔偿责任呢?但这样一来,是不是需要先考虑赋予人工智能机器人主体资格,或者至少具有部分权利能力呢?这确实是一个值得探讨的问题。

人工智能的发展也涉及知识产权的保护问题

从实践来看,机器人已经能够自己创作音乐、绘画,机器人写作的诗歌集也已经出版,这对现行知识产权法提出了新的挑战。例如,百度已经研发出可以创作诗歌的机器人,微软公司的人工智能产品“微软小冰”已于2017年5月出版人工智能诗集《阳光失了玻璃窗》。这就提出了一个问题,即这些机器人创作作品的著作权究竟归属于谁?是归属于机器人软件的发明者?还是机器人的所有权人?还是赋予机器人一定程度的法律主体地位从而由其自身享有相关权利?人工智能的发展也可能引发知识产权的争议。智能机器人要通过一定的程序进行“深度学习”“深度思维”,在这个过程中有可能收集、储存大量的他人已享有著作权的信息,这就有可能构成非法复制他人的作品,从而构成对他人著作权的侵害。如果人工智能机器人利用获取的他人享有著作权的知识和信息创作作品(例如,创作的歌曲中包含他人歌曲的音节、曲调),就有可能构成剽窃。但构成侵害知识产权的情形下,究竟应当由谁承担责任,这本身也是一个问题。

人工智能的发展涉及数据财产的保护问题

我国《民法总则》第127条对数据的保护规则作出了规定,数据在性质上属于新型财产权,但数据保护问题并不限于财产权的归属和分配问题,还涉及这一类财产权的安全,特别是涉及国家安全。人工智能的发展也对数据的保护提出了新的挑战,一方面,人工智能及其系统能够正常运作,在很大程度上是以海量的数据为支撑的,在利用人工智能时如何规范数据的收集、储存、利用行为,避免数据的泄露和滥用,并确保国家数据的安全,是亟需解决的重大现实问题。另一方面,人工智能的应用在很大程度上取决于其背后的一套算法,如何有效规范这一算法及其结果的运用,避免侵害他人权利,也需要法律制度予以应对。目前,人工智能算法本身的公开性、透明性和公正性的问题,是人工智能时代的一个核心问题,但并未受到充分关注。

人工智能的发展还涉及侵权责任的认定问题

人工智能引发的侵权责任问题很早就受到了学者的关注,随着人工智能应用范围的日益普及,其引发的侵权责任认定和承担问题将对现行侵权法律制度提出越来越多的挑战。无论是机器人致人损害,还是人类侵害机器人,都是新的法律责任。据报载,2016年11月,在深圳举办的第十八届中国国际高新技术成果交易会上,一台名为小胖的机器人突然发生故障,在没有指令的前提下自行打砸展台玻璃,砸坏了部分展台,并导致一人受伤。毫无疑问,机器人是人制造的,其程序也是制造者控制的,所以,在造成损害后,谁研制的机器人,就应当由谁负责,似乎在法律上没有争议。人工智能就是人的手臂的延长,在人工智能造成他人损害时,当然应当适用产品责任的相关规则。其实不然,机器人与人类一样,是用“脑子”来思考的,机器人的脑子就是程序。我们都知道一个产品可以追踪属于哪个厂家,但程序是不一定的,有可能是由众多的人共同开发的,程序的产生可能无法追踪到某个具体的个人或组织。尤其是,智能机器人也会思考,如果有人故意挑逗,惹怒了它,它有可能会主动攻击人类,此时是否都要由研制者负责,就需要进一步研究。前不久,深圳已经测试无人驾驶公交线路,引发全球关注。但由此需要思考的问题就是,一旦发生交通事故,应当由谁承担责任?能否适用现行机动车交通事故责任认定相关主体的责任?法律上是否有必要为无人驾驶机动车制定专门的责任规则?这确实是一个新问题。

人工智能的发展还提出机器人的法律主体地位问题

今天,人工智能机器人已经逐步具有一定程度的自我意识和自我表达能力,可以与人类进行一定的情感交流。有人估计,未来若干年,机器人可以达到人类50%的智力。这就提出了一个新的法律问题,即我们将来是否有必要在法律上承认人工智能机器人的法律主体地位?在实践中,机器人可以为我们接听电话、语音客服、身份识别、翻译、语音转换、智能交通,甚至案件分析。有人统计,现阶段23%的律师业务已可由人工智能完成。机器人本身能够形成自学能力,对既有的信息进行分析和研究,从而提供司法警示和建议。甚至有人认为,机器人未来可以直接当法官,人工智能已经不仅是一个工具,而且在一定程度上具有了自己的意识,并能作出简单的意思表示。这实际上对现有的权利主体、程序法治、用工制度、保险制度、绩效考核等一系列法律制度提出了挑战,我们需要妥善应对。

人工智能时代已经来临,它不仅改变人类世界,也会深刻改变人类的法律制度。我们的法学理论研究应当密切关注社会现实,积极回应大数据、人工智能等新兴科学技术所带来的一系列法律挑战,从而为我们立法的进一步完善提供有力的理论支撑。(作者:王利明中国人民大学副校长)

+1【纠错】责任编辑:李洁琼

人工智能时代下算法治理的内核与路径

作者:唐树源(上海杉达学院法学系、知识产权法商研究中心)

随着时代生产要素的演进,当前人工智能时代的本质在于算法和数据。算法带来飞速便利的同时也带来了诸如大数据杀熟、算法黑箱、信息茧房、算法操纵等新的社会风险问题。2021年12月底,四部门联名签署对外公布《互联网信息服务算法推荐管理规定》(简称“《算法推荐规定》”),并已于2022年3月1日正式实施。基于此,有必要进一步厘清算法治理的基础内核,探究算法时代治理新路径。

一、当前我国算法治理的法律体系

当前我国算法治理的立法体系已初步建成,构建起立法层级广、多部门联动、快速扩张的法律体系。立法监管由此前聚焦在网络安全、数据信息保护转变为当前深度的治理,即人工智能时代的算法治理。

在顶层设计方面,《法治社会建设实施纲要(2020-2025年)》就提出健全算法推荐、深度伪造等新技术应用的规范管理办法。另外,《“十四五”数字经济发展规划》指出加快构建算力、算法、数据、应用资源协同的全国一体化大数据中心体系。

在法律法规依据方面,《民法典》《网络安全法》《数据安全法》《个人信息保护法》《互联网信息服务管理办法》分别从人格权、网络安全、数据安全、信息保护利用、互联网服务等角度进行了统筹性的规范。

在算法的专门性规范方向,有2021年9月发布的部门规范性文件《关于加强互联网信息服务算法综合治理的指导意见》和2022年《算法管理规定》对算法相关规范进行了全面细致的规范。

在其他规范性文件或国家标准方面,多部门对机器学习、人工智能伦理、信息合成、平台监管等多方面有间接性的规范,如《国务院反垄断委员会关于平台经济领域的反垄断指南》《国家市场监督管理总局、国家网信办、国家发展改革委、公安部、人力资源社会保障部、商务部、中华全国总工会关于落实网络餐饮平台责任切实维护外卖送餐员权益的指导意见》《新一代人工智能伦理规范》《互联网信息服务深度合成管理规定(征求意见稿)》《信息安全技术机器学习算法安全评估规范(征求意见稿)》《信息安全技术个⼈信息安全规范》等。

虽然我们已经在多个层面进行立法,但是当前算法相关立法体系还存在问题。一是立法层级分散,主要聚焦在部门规范性文件。法律法规的制定时间成本明显高于部门规章和各类规范性文件,这就导致目前针对算法这一新兴问题主要在部门规范性文件及国家标准中,容易出现强制性不够、执法监管效果打折扣、部门职责划分不清等问题。同时多部门的规范性文件给平台企业也造成无法适从、标准不统一、专项行动式的紧急应对等情形发生。二是对平台的监管主要在事后被动监管,缺乏精细化的平台监管规范。对平台的监管主要根据平台的过错、行为、责任采取行政处罚措施,而此种监管模式在于缺乏事前的过程性监管,即便现在有算法备案制度,也是主要停留在特定重要领域的算法备案,再者对于备案的算法审查逻辑和标准也需要根据算法分级分类制度及时调整。三是对算法的技术性规范监管较少,立法缺少回归算法本源。算法是一个技术概念,是“计算的方法”或“处理数据的方法”,同时算法也是具备一定的学习能力的,能够根据现有的算法基础和数据不断演变。对于这些计算机指令的技术规范当前仍缺乏立法上的规范,目前主要规范是从网络安全、法律风险等角度来规制的。

二、算法治理的内核、路径与体系建设

为了促进算法相关立法体系的完善,实现算法的精准治理,笔者认为算法治理的内核在于数据信息安全。一方面算法是在自然语言基础上建构起来的一系列程序逻辑,本质上就是且、或、非的逻辑运算。但无论算法多么复杂,其本质也是“用数据训练的模型”,也就是通过不断投喂数据来实现算法的不断运行和进化。算法离不开数据的支持,当数据的处理活动出问题,那算法必然就出问题。因此关注算法的治理,本质就是数据的安全和合理处理。

另一方面自动化决策算法引发的“大数据杀熟”等法律风险已引起越来越多的社会关注,这说明算法治理的本质还在于信息的合理利用。此外,算法的灵魂在于其正向的价值观。数据信息的利用处分需要追求正向价值观,逐步实现算法的可验证、可审核、可监督、可追溯、可预测、可信赖,同时具备普惠性、公平性和非歧视性。

需要说明的是,数据信息安全包括数据安全和信息安全两大块,数据安全就是规范数据处理活动,保障数据安全,维护各方利益,保障数据开发利用和产业发展;信息安全就是以《个人信息保护法》为主体,规范个人信息处理活动,促进个人信息合理利用,从严保护个人隐私。

明晰了算法治理的内核,才能聚焦立法规范和监管的重点,对于当前实践中算法治理的困境问题有新的解决方案。人工智能乃至整个经济社会的发展离不开海量数据和个人信息的填充,自动化决策算法充分利用数据信息发挥更大的经济和社会价值。因此,笔者认为应当构建算法治理的“两内在一外延”保障路径,两个内在要素是强化隐私保护和拓宽数据的广度、深度和精度,一个外延保障是算法安全保障机制。

一是强化隐私保护。《民法典》对于隐私权的保护是在人格权编中的,足以显示隐私保护的重要性。当下各大平台的隐私政策都在调整更新,而这一轮的更新势必会对相关平台的算法无序发展带来更多的限制。隐私保护与算法发展是相对的,强化隐私保护势必会阻碍算法的更多元化发展,但正是基于隐私保护的重要性,避免算法侵害他人合法权益。强化隐私保护可以从以下几点着手:

其一,强化隐私保护体现在立法内容、算法设计和应用、备案审查、执法监管重点、法律责任承担等方面,这是算法治理的基本理念也是底线原则。

其二,强化重点人群的隐私保护,特别是不满十四周岁的未成年人、老年人隐私保护,劳动者和消费者等群体也十分重要。按照《民法典》隐私权保护相关规定和《个人信息保护法》中敏感个人信息的相关规定进行信息保护与数据处理。个人信息处理活动满足个人信息处理的五项重要原则,还有遵照“告知-知情-同意”的核心个人信息处理规则。

其三,有关隐私保护的纠纷主要是通过私法救济的方式解决,而算法治理中涉及到的隐私保护问题就必然需要结合更多公法救济的渠道,因此更多公法治理算法时需要关注隐私保护的传统属性与公私法治理的融合问题。

二是拓宽数据的广度、深度和精度。算法治理绝不是过度强调监管惩罚,而是要强调事前的统筹管理。类似深度学习等自动化决策是需要海量数据的投喂,缺乏数据量基础、数据不精准都会导致算法算到错误的方向。如企业在进行“用户画像”的时候,当用户数据基数少或某一维度数据缺失的时候,就无法精准推送相关信息或提供相应服务。而在拓宽数据的广度、深度和精度的时候,必然要受到数据合法处理活动的限制,处理该问题的要点如下:

其一,拓宽数据的过程首要是保障数据安全,数据安全才能确保算法的安全稳定,此为数据处理的基石。

其二,建立重要数据和数据分级分类管理制度。大量数据的涌入可能会打乱算法的基本秩序,因而对数据进行分级分类是各大平台,尤其是超大型平台需要规范的。

其三,建立算法中的验证纠错机制,即对数据的质量进行验证,如抽检机制、结果预警等发现数据的缺陷,以便及时纠偏。

三是算法安全保障机制。有了前两者隐私保护和数据的基础,接下来健全算法安全保障机制就尤其重要。安全保障机制包括科技伦理审查、立法保障、安全评估监测与安全事件应急处置等多方面,形成技术、法律、管理的多重保障。具体措施包括如下:

其一,算法向善。算法备案审查的基础性要点在于科技伦理审查,此项审查的难点在于算法的不可预判性,即便当下算法规则审查合理,但随着算法本身外延式的延伸,就会导致算法的结果存在不确定性。因此,应当建立类似算法伦理工作小组的专门性组织,由科技、法律等领域专家及监管部门和第三方行业代表等共同组成,加强定期审查与跟踪监督,严防算法价值观问题。

其二,立法保障方面。当前有关算法治理的立法顶层设计已逐步完成,接下来除了算法推荐管理外的其他算法活动需要加以重视,如算法的技术研发、数据挖掘、规则内容、运营支持、人员管理等多角度构建起算法治理新格局。

其三,健全安全评估监测、安全事件应急处置等管理制度和技术措施。对企业来说,要落实算法安全主体责任,守住算法安全的第一道防线,建立健全算法机制机理审核。对监管部门和行业组织来说,制定算法安全行业标准体系,宣扬算法安全基本理念,形成全社会多渠道监督合力。

算法化的时代给各行各业带来了深刻的影响,也导致现在的组织形态发生新的动态变化。算法滥用所导致的问题可能是行业巨大的,算法治理需要跟算法开发同步开展,有效构建算法治理的“两内在一外延”保障路径,建立良好的数字营商环境,促进数字经济社会的稳步健康发展。

【本文系上海杉达学院科研基金(校基金)重点项目《民法典解决互联网权益争议机制研究》(项目号2020ZD01)和上海杉达学院科研基金(校基金)一般项目《法治思想在高校法治人才培养模式中的应用研究》(项目号2021YB11)的阶段性研究成果】

[责编:郑芳芳]

::王利明:人工智能时代对民法学的新挑战

【中文关键词】人工智能智能人;隐私权;个人信息;民法典

【摘要】我们已经进入了人工智能时代,人工智能技术的发展深刻地改变了我们的生产和生活方式,也对我国民事法律制度提出了新的挑战。人格权制度、数据财产保护、知识产权保护、侵权责任认定和承担等,都需要随着人工智能技术的发展而作出必要的调整。我国正在制定的民法典也需要与时俱进,积极回应人工智能时代的各种挑战,妥当设置相关规则、制度,在有效规范人工智能技术的同时,也为新兴技术的发育预留必要的制度空间。

【全文】

1956年夏,在一场关于机器模拟智能的研讨会上,首次提出了“人工智能”这一概念。人工智能作为一门新兴学科,其与基因工程、纳米科学共同被称为21世纪的三大尖端技术。作为引领新一轮科技革命的技术,人工智能系统在替代人类从事简单性、重复性以及危险性工作方面存在广泛的应用价值,目前在金融、安防、客服等行业领域已实现应用,并且在精确度和效率上确实已远超人工。[1]半个世纪以来,伴随着现代科技的发展,特别是移动互联网、大数据、脑科学等新理论、新技术的发展,人工智能近些年的发展极为迅速,已经成为国际竞争的新焦点和经济发展的新引擎。[2]从某种程度上而言,人工智能以信息技术为核心,“信息主权”话题[3]的探讨一定程度上也决定了人工智能未来在国际竞争中的地位。人工智能技术以信息技术为核心,直接造就了信息主权话题的探讨。[4]

我们已经进入人工智能时代,机遇与危险并存。美国电影《终结者》曾预测人工智能机器人超级战士击败人类的结果;科学家霍金生前始终认为,人工智能的发明可能是人类历史上最大的灾难。如果管理不善,人工智能确实可能成为霍金所预言的“最糟糕的发明”,会思考的机器人可能会为人类文明画上句号,这样的论断绝非危言耸听。“问题就是时代的口号”,借助于大数据的人工智能,在改变我们生产与生活方式的同时,也给我们带来了诸多法律上的新问题、新挑战。正如国务院《新一代人工智能发展规划》所言:“人工智能是影响面广的颠覆性技术,可能带来改变就业结构、冲击法律与社会伦理、侵犯个人隐私、挑战国际关系准则等问题,将对政府管理、经济安全和社会稳定乃至全球治理产生深远影响。”这些问题亟待我们予以回应并加以解决。目前对于人工智能的研究有从伦理学层面、[5]认知哲学层面[6]展开的,笔者拟就人工智能对传统民法学理论及司法实务造成的如下挑战谈下自己的看法,以期能对人工智能法律规范体系的形成有所裨益。

一、人工智能对民事主体制度的挑战

人工智能的发展催生了各种类型的机器人,这也带来了一个非常重大的法律问题,即是否应当将机器人视为法律上的人?换言之,机器人究竟应当作为法律关系的主体还是客体出现?应当将其等同于普通的机器或者动物对待,抑或将其作为“人”来看待?

人工智能研究的创始人之一明斯基指出,人工智能是“让机器从事需要人的智能的工作的科学”。2016年,世界机器人大会在北京召开,一些机器人公司展示出了各种智能机器人,智能机器人能够识别人的面孔、表情、年龄、性别,并且能够表达与人类相似的情绪和面部表情。智能机器人的智力目前虽然还不能和人类相比,但也具备了独立处理相关信息的能力和智力,有的机器人甚至已经基本达到了人类智慧的水准。2017年,沙特阿拉伯宣布授予机器人索菲亚以公民资格,由此也进一步推动了法学界对于人工智能主体地位的思考。

从智能机器人的发展现状来看,人工智能机器人已经逐步具有一定程度的自我意识和自我表达能力,可以与人类进行一定的情感交流。有人估计,未来若干年,机器人可以达到人类50%的智力。从实践来看,机器人可以为我们接听电话,从事语音客服、身份识别、翻译、语音转换、智能交通等工作,甚至可以进行案件分析。有人统计,现阶段23%的律师业务已可由人工智能完成。机器人本身能够形成自学能力,能够对既有的信息进行分析和研究,从而提供司法警示和建议。甚至有人认为,机器人未来可以直接当法官,[7]可见人工智能机器人已经不完全是一种工具,而在一定程度上具有了自己的意识,并能作出简单的意思表示。有观点甚至主张,应当承认人工智能具有法律人格。[8]这就提出了一个新的法律问题,即我们将来是否有必要在法律上承认人工智能机器人的法律主体地位?

笔者认为,从目前人工智能的发展来看,其尚未对传统民事法律主体理论提出颠覆性的挑战,我们在短时期内仍然应当坚守传统民事主体理论,而不宜将智能机器人规定为民事主体,主要理由在于:一方面,智能机器人是人类创造出来的,其产生之初即作为民事法律关系的客体而出现,其虽然可能代替人类从事相关的活动,但本质上是受其自身的算法而决定的,尚不具备人类所具有的自主思考的意识和能力。另一方面,智能机器人尚不能独立享有权利、承担义务。在智能机器人造成他人损害时,仍然应当依据《产品质量法》《侵权责任法》确定相关法律责任的承担者,即应当由其创造者或管理者承担责任。也就是说,在一定时期内,既有的法律制度和规则体系仍可有效解决智能机器人所带来的挑战,[9]而不需要承认机器人的民事地位。智能机器人进入民事主体的范畴在未来或许是可行的,因为随着未来科技的发展,智能机器人可能也会不断“进化”,不排除将来智能机器人的思维能力会进一步发展,具备与人类相当甚至超越人类的意识和思考能力,并可以在一定范围内独立地享有权利、承担义务,但在目前人工智能机器人还不能也没有必要成为民事主体。

二、人工智能对人格权保护的新挑战

人工智能的发展还涉及人格权保护的一系列问题,至少包括如下几个方面:

第一,人工智能对隐私的保护提出了新挑战。例如,伴随着人工智能技术的发展,无人机技术也蓬勃发展,无人机被形象地描述为“冰冷的观测技术产品”,可以以各种方式“进入”人们想要到达的区域。童话小说中描述的在苍蝇身上绑上摄像机去他人房间窥探他人隐私的设想,目前已经由无人机技术得以实现,这就对隐私权的保护提出了新的挑战。美国已经发生了多起无人机侵犯他人隐私的纠纷。在无人机窥探他人隐私的情形下,受害人往往难以进行举证,甚至难以确定具体的行为人,[10]这就需要法律进一步强化隐私权的保护,以更好地应对人工智能技术的发展。

第二,人工智能对个人信息的保护提出了新挑战。已经身处大数据时代,大数据记载了我们过去发生的一切和现在发生的一切,并能准确地预测我们的未来。现代社会的人就好像“裸奔”一样,我们的一切都有可能被他人“监视”,都时刻可能暴露在“第三只眼”之下,“亚马逊监视着我们的购物习惯,谷歌监视着我们的网页浏览习惯,而微博似乎什么都知道,不仅窃听到了我们心中的‘TA’,还有我们的社交关系网”。[11]无论我们走到哪里,只要携带手机,相关软件借助于Cookie技术,就可以时刻知道我们的准确定位。借助于大数据分析技术,人工智能也会对个人信息权利的保护带来威胁,一些智能机器人大规模地收集个人信息,并将其植入程序之中,也会对隐私等个人信息构成重大威胁。如何从技术层面、法律层面规范智能机器人搜集个人信息的合法性问题,将是人工智能时代的一项新挑战。例如,在全国首例利用人工智能技术侵犯公民个人信息案中,行为人即利用人工智能技术识别验证码,破解了相关的技术防范措施,并获取受害人个人信息,人工智能技术对相关技术防范措施的破解速度快至毫秒级,令人极为震惊。[12]除收集个人信息外,人工智能技术还可能被用来研究和开发以大数据为基础的各种产品,并凭借大数据无穷的潜力获取利益,从而刺激人们进一步采集、分析人们的大数据信息。随着个人信息收集和分析方式越来越先进,成本也越来越低廉,大规模的数据收集已成为常态,并会越来越普遍,这就进一步加剧了对个人信息和隐私的威胁。[13]我国《民法总则》对个人信息权利的保护作出了规定,但并没有专门规范利用人工智能收集、利用个人信息的行为,未来立法有必要专门设置相关的法律规则,防止人工智能应用过程中的数据非法收集、泄露、贩卖等问题,以有效保护个人信息的安全。[14]

第三,人工智能对肖像权的保护提出了新的挑战。人工智能技术可能借助光学技术、声音控制、人脸识别技术等新型技术,收集他人肖像,并传播、模仿他人的肖像。例如,借助于光学技术和摄像技术,人工智能可以拍摄高分辨率的照片,使得夜拍图片具有与日拍图片同等的效果,这样就使得对肖像权的获取与利用更为简便,这也对肖像权的保护提出了新的挑战。近年来,利用大数据的人工智能人脸识别技术在各领域都开始了实质性运用,从刷脸支付、整治闯红灯到抓捕逃犯,甚至公共领域的发厕纸管理之中,该技术都得到了实质利用。[15]

第四,人工智能对自然人声音、表情、肢体动作等人格利益的保护提出了新挑战。现在很多人工智能系统把一些人的声音、表情、肢体动作等植入其中,使得所开发的人工智能产品可以模仿他人的声音、形体动作等,甚至能够像人一样表达,并与人进行交流。但如果未经他人同意而擅自进行上述模仿活动,就有可能构成对他人人格权的侵害。

此外,需要指出的是,如果将来承认了人工智能机器人的主体资格,还会产生人工智能机器人人格权的保护问题。目前,刑法学理论已经开始探讨毁坏他人机器人是构成故意杀人罪还是故意毁坏财物罪。近来媒体报道,机器人伴侣已经出现,如果机器人伴侣受到虐待,其能否主张人格权受到侵害等,也需要进一步探讨。

三、人工智能对数据财产保护的新挑战

产权清晰是市场经济的基本要求之一,然而大数据和人工智能使得这一传统命题迎来新的挑战。“数据+算法”被视为人工智能技术开发的核心,数据的收集和分析技术的发展成为人工智能进行机器学习和开发的基本方法。目前,大数据已经是人工智能的一种重要分析工具,其得力于传感器与微处理器的硬件支撑。[16]借助于大数据分析技术,人工智能可以进行相关的演练和操作。从人工智能的技术原理来看,其也有赖于大数据分析系统的支持,人工智能功能的强弱在很大程度也取决于其所包含数据库的多少,人工智能需要依赖大量来自不同主体的数据,数据的抓取和利用在人工智能行业无处不在。数据在人工智能技术开发中的应用价值越来越高,但数据的开发和利用都需要明晰数据的产权主体和内容,规范数据的移转和利用。因此,人工智能的发展需要解决财产法面临的新问题。

人工智能利用的数据主要有三类,分别是个人所有的数据、私人企业和组织所有的数据和公共机构管理的数据。有观点认为:数据财产权的基本原则是谁的数据归谁所有,没有任何主体指向的数据是公共资源。[17]但是人工智能不仅会储存收集的原始数据,而且可以对收集的各种数据进行加工,产生衍生数据。与此同时,数据的占有和转移占有是无形的,同时也是没有有效的权属证明。所以,在大数据时代,法律所遇到的一个严峻挑战即应当如何确认数据的权利归属,既要保护被搜集人的个人信息权,又要保护数据开发者、合法利用者的数据财产权,迄今为止,如何对数据进行确权并且构建起权利内容和权利转移制度尚未解决,需要法律予以尽快完善。

现行《物权法》把物权分为动产和不动产,而数据难以按照此种方法进行分类,故而学界一直争议数据属于物权还是债权。我国《民法总则》第127条对数据的保护规则作出了规定,一方面,数据在性质上属于新型财产权,但数据保护问题并不限于财产权的归属和分配问题,还涉及这一类财产权的转移、利用、保管等法律问题。在利用人工智能时如何规范数据的收集、储存、利用行为,避免数据的泄露和滥用,并确保国家数据的安全,也是亟需解决的重大现实问题。[18]另一方面,人工智能的应用方式和应用范围在很大程度上取决于其算法,如何有效规范这一算法,避免侵害他人权利,也需要法律制度予以应对。例如,人工智能通过分析在网络交易中取消订单的频繁程度,可以得出关于一个人社会信用状况和交易能力的评价结果,此种评价结果可能对个人的经济生活产生重大影响。目前,人工智能算法本身的公开性、透明性和公正性的问题,是人工智能技术发展的核心问题,但目前并未受到充分关注。

四、人工智能对知识产权保护的新挑战

人工智能的发展也涉及知识产权保护的问题。一方面,机器人已经能够自己创作音乐、绘画,机器人写作的诗歌集也已经出版,这也对现行知识产权法提出了新的挑战。例如,百度已经研发出可以创作诗歌的机器人,微软公司的人工智能产品“小冰”已于2017年5月出版人工智能诗集《阳光失了玻璃窗》,在日本,机器人创作的小说甚至还通过了日本文学奖的初审,有的机器人甚至会谱曲、作画,这些作品已经可以在市面上销售,这就提出了一个问题,即这些机器人创作作品的著作权究竟归属于谁,是归属于机器人软件的发明者,还是机器的所有权人,还是赋予机器人一定程度的法律主体地位从而由其自身享有相关权利?正如前文已经论述,现阶段的人工智能技术的发展尚不足以被承认为民事主体,故而现阶段也不适合承认机器人完成的作品可以归一个实践工具所有,只能承认由机器人的所有者享有知识产权。当然,在未来人工智能在创作领域可能技术更加成熟,已经达到了类似人类或者超越人类的能力,那么可否在创作领域承认人工智能的民事主体地位和权利能力,这也是可以进一步讨论的。

另一方面,智能机器人要通过一定的程序进行“深度学习”“深度思维”,在这个过程中有可能收集、储存大量的他人已享有著作权的信息,这就有可能构成非法复制他人的作品,从而构成对他人著作权的侵害。人工智能机器人能够存储大量的信息,而按照一些国家的规定,存储他人享有著作权的信息本身,就构成对他人著作权的侵害。人工智能实际上就是一种机器模仿人的智力活动的技术,但如果人工智能机器人利用获取的他人享有著作权的知识和信息创作作品,如创作的歌曲中包含他人歌曲的音节、曲调等,也可能构成剽窃。

在人工智能侵害他人知识产权的情形下,究竟应当由谁承担责任、如何承担责任,本身也是一个问题。如果认为机器人具有主体资格,那么其承担责任的财产又来自何处?如果认为机器人不具有主体资格,究竟应当按照产品责任追究生产者、销售者的侵权责任,还是应当由机器人的主人来承担相应责任?这些问题均值得进一步研究。

五、人工智能对侵权责任认定的新挑战

人工智能的发展还涉及侵权责任的认定问题。人工智能引发的侵权责任问题很早就受到了学者的关注,随着人工智能应用范围的日益普及,其所引发的侵权责任认定和承担问题将对现行侵权法律制度提出越来越多的挑战。[19]无论是机器人致人损害,还是人类侵害机器人,都是新的法律责任。

在实践中,机器人致人损害的案例已经发生,2015年7月,德国大众汽车制造厂一名21岁的工人在安装和调制机器人时,被机器人“出手”击中胸部,并被碾压在金属板上。无独有偶,2016年,Google无人驾驶汽车在美国加州山景城测试时,与一辆公交大巴相撞,后经法院认定,Google公司在此次事故中负有责任。我国也出现了人工智能机器人伤人的事件,据报载,2016年11月,在深圳举办的第十八届中国国际高新技术成果交易会上,一台名为小胖的机器人突然发生故障,在没有指令的前提下自行打砸展台玻璃,砸坏了部分展台,并导致一人受伤。[20]表面上看,机器人是人制造的产品,在造成他人损害时,应当由机器人的研发者负责,似乎在法律上没有争议。但机器人又不同于普通的产品,对普通的产品而言,追踪产品的生产者较为容易,而对人工智能机器人而言,其是依靠自身的算法在运作,有其自身独特的运作程序。因此,在人工智能机器人造成他人损害时,不能简单地认定由该机器人的生产者承担责任,而应当由该程序的发明者承担责任,而人工智能机器人的运作程序可能是由多个主体共同开发的,很难确定具体的程序研发个人或者组织,这就给确定人工智能机器人的责任带来了困难。

人工智能的发展催生了无人驾驶技术,这也对道路交通事故责任提出了新的挑战。[21]伴随着无人驾驶技术在各国的运用,这一问题已经显现。前不久,深圳已经测试无人驾驶公交线路,引发了全球关注。浙江省拟于2022年建成支持自动驾驶的首条超级高速公路。但值得我们考虑的问题是,一旦无人驾驶汽车发生交通事故,应当由谁承担责任?能否适用现行机动车交通事故责任认定相关主体的责任?法律上是否有必要为无人驾驶机动车制定专门的责任规则?这确实是一个新问题,但已经现实发生,美国时间2018年3月20日,UBER无人驾驶汽车在美国亚利桑那州发生了全球首例无人驾驶撞死行人的案件,案发地州政府紧接着宣布该州范围内永久性停止UBER无人驾驶测试,该案最终以和解方式结案,并未形成相应的裁判规则。笔者认为,对此应当区分不同情况,分别认定相关主体的责任:如果无人驾驶的汽车是因为汽车本身的技术故障引发交通事故,此时,受害人应有权根据《侵权责任法》《道路交通安全法》的规定要求驾驶者承担侵权损害赔偿责任。如果交通事故是因驾驶操作系统程序出现问题,发生交通事故,此时完全由驾驶者承担责,可能有违公平,也过于苛责。究竟如何分配责任,值得进一步探讨。在无人驾驶技术日益普及的情形下,还有必要引入保险制度,即规定新类型的“无人驾驶强制责任保险制度”,为受害人提供必要的权利救济。[22][23]

此外,有一个问题值得考虑,就是未来可能出现的飞行汽车所带来的道路事故责任,应当如何加以认定?根据媒体的相关报道,有谷歌飞行之父之称的塞巴斯蒂安-特伦宣布,谷歌有望在五年之内让飞行汽车飞行于天空的计划得以实现。[24]一旦飞行汽车的计划真的实现,可以预计汽车的飞行可能将颠覆道路交通规则,其在法律定位上究竟是作为一类新型航空器得以出现,从而根据航空事故责任来进行责任界定,还是仍然按照机动车交通事故责任来加以确定,这一问题非常值得探讨。

结语

人工智能时代已经来临,其不仅改变人类生产和生活方式,也会对人类的法律制度产生深刻的影响。21世纪初,华裔著名经济学家杨小凯就提出:如果中国仅仅重视技术模仿,而忽视制度建设,后发优势就可能转化为后发劣势。[25]因此,我们不能仅注重技术的引用,而忽视其可能带来的负面效果。我们的法学理论研究应当密切关注社会现实,积极回应大数据、人工智能等新兴科学技术所带来的一系列法律挑战,从而为我们立法的进一步完善提供有力的理论支撑。“不谋万世者,不足以谋一时”,法治不仅仅是要考虑当下,也要考虑未来。法治要提供制度环境安排,为新兴科技等的发育预留法律空间。特别是要充分认识和拥抱科学技术对社会生产和生活带来的结构性、革命性的影响,尽早观察和预测未来法律发展的方向,促进良法制定,以良法保障和促进人工智能技术的健康发展,消除其对人类社会可能产生的副作用。因此,我国现行正在编纂的民法典应当考虑到人工智能可能带来的各种新挑战,并制定相应的法律规则,以体现出民法典与时俱进的品格,并真正地应对未来的技术发展,成为一部21世纪的民法典。

【注释】中国人民大学法学院教授,博士生导师;中国人民大学民商事法律科学研究中心研究员。

[1]参见中国电子技术标准化研究院:《人工智能标准化白皮书(2018版)》,第1页。

[2]参见国务院《新一代人工智能发展规划》(国发〔2017〕35号)第一部分。

[3]参见许志华:《网络空间的全球治理:信息主权的模式建构》,《学术交流》2017年第12期。

[4]参见许志华:《网络空间的全球治理:信息主权的模式建构》,《学术交流》2017年第12期。

[5]参见徐英瑾:《具身性、认知语言学与人工智能伦理学》,《上海师范大学学报》(哲学社会科学版)2018年第1期。

[6]参见魏屹东:《人工智能的适应性表征》,《上海师范大学学报》(哲学社会科学版)2018年第1期。

[7]参见高奇琦、张鹏:《论人工智能对未来法律的多方位挑战》,《华中科技大学学报》(社会科学版)2018年第1期。

[8]参见袁曾:《人工智能有限法律人格审视》,《东方法学》2017年第5期。

[9]参见李晟:《略论人工智能语境下的法律转型》,《法学评论》2018年第1期。

[10]参见我们应该如何看待无人机侵犯大众隐私的问题,https://baijia.baidu.com/s?old_id=470904,2018年2月12日。

[11][英]维克托、迈尔-舍恩伯格:《大数据时代》,盛杨燕等译,浙江人民出版社2013年版,第193页。

[12]参见人工智能成窃取公民个人信息案“帮凶”!系全国首例,载http://www.sohu.com/a/197343129_99931689,2018年2月12日。

[13]参见张宪丽、高奇琦:《人工智能时代公民的数据意识及其意义》,《西南民族大学学报》(人文社科版)2017年第12期。

[14]参见吴汉东:《人工智能时代的制度安排与法律规制》,《法律科学》(西北政法大学学报)2017年第5期。

[15]参见人脸识别系统半个月抓住3名逃犯还有哪些用途?,http://news.163.com/17/0604/07/CM2PVCQ70001875P.html,2018年2月2日。

[16]参见王博、郝银钟:《大数据条件下司法公开对我国法官制度的新要求》,《学术交流》2017年第12期。

[17]吴晓灵:《大数据应用不能牺牲个人数据所有权》,《清华金融评论》2016年第10期。

[18]参见郑戈:《人工智能与法律的未来》,《探索与争鸣》2017年第10期。

[19]参见朱体正:《人工智能时代的法律因应》,《大连理工大学学报》(社会科学版)2018年第2期。

[20]《深圳高交会出现中国首例机器人伤人事件》,《联合早报》2016年11月18日。

[21]陈晓林:《无人驾驶汽车致人损害的对策研究》,《重庆大学学报》(社会科学版)2017年第4期。

[22]中国首条超级高速公路2022年要通车不用担心超速,http://news.163.com/18/0224/06/DBD1HH7L0001875N.html,2018年3月31日。

[23]Uber与无人车撞死行人案受害人家属和解赔偿金额未公布,https://xw.qq.com/tech/20180329012517/TEC2018032901251700,2018年3月31日。

[24]谷歌自动驾驶汽车之父:飞行汽车将在5年内飞翔天空,http://tech.qq.com/a/20180212/024798.htm,2018年2月13日。

[25]参见涂子沛:《数据之巅》,中信出版社2014年版,第337页。

【期刊名称】《东方法学》【期刊年份】2018年【期号】3

人工智能行业法律现状和发展

原标题:人工智能行业法律现状和发展|章鱼通

一、人工智能(简称“AI”)定义能模仿人类思维、行为的智慧机器,AI是人的逻辑能力(分类总结推理判断)、决策能力和机器存储、运算能力,以及大数据的有序结合,三者缺一不可。

AI的运行依赖大数据,没有数据,AI不是无从施展身手,而是根本无法存在,可以说AI就是人机优势互补,对数据收集、存储、分发、加工、使用、处理的全程。

其应用于语音识别、语言处理、无人驾驶、机器视觉、机器学习等自身开辟的新领域,和智慧政务、智慧城市、智慧医疗、智慧物流、智慧工厂等改造后的传统领域。

二、AI现行法律

现在尚无成体系的AI法律体系,2017年7月20日公布的《新一代人工智能发展规划》国发〔2017〕35号是中国AI发展的纲领性文件,其战略目标分三步走,提到“到2025年初步建立人工智能法律法规、伦理规范和政策体系,形成人工智能安全评估和管控能力。”

2019年3月4日,十三届全国人大二次会议发言人表示“全国人大常委会已将一些与人工智能密切相关的立法项目,如《数据安全法》、《个人信息保护法》和修改《科学技术进步法》等,列入本届五年的立法规划。同时把人工智能方面立法列入抓紧研究项目,围绕相关法律问题进行深入的调查论证,努力使人工智能创新发展,努力为人工智能的创新发展提供有力的法治保障。”

AI立法从数据开始,是有内在逻辑的。现《数据安全法》、《个人信息保护法》已经公布法律草案。

三、AI立法思路

立法目的:为AI的广泛应用奠定法律基础。

立法目标:保证AI安全、可控。

立法顺序:数据安全是AI行业健康发展的基本要求和最低要求,参考分散于网信办等各部门的数据法律、规范性文件、政策文件,制定《数据安全法》、《个人信息保护法》,确保数据从收集到处理全链条安全。

通过法律实践倒逼法律成型,研究分析自动驾驶、服务机器人等已实际应用场景下的AI法律问题,制定《人工智能法》,规定AI的法律主体、权利义务、刑民责任承担。

最后评估该法能否解决其他行业应用场景下的AI法律问题,适时修改,如果难以兼容,可能会就不同行业单列章节。

四、对人工智能的法律主体、权利义务、刑民责任承担的预测

1、不同于自然人、法人,AI不能成为享有权利,承担义务的法律主体,其性质上属于财产,将作为知识产权登记在自然人、法人名下。AI名下无法登记财产,也无法承担债务。

2、权利人对AI行使登记(申请确认知识产权)、使用(自用)、收益(对外许可使用,收取知识产权使用费)、处分(转让、抵押、作为公司设立出资)等权利。

3、AI的收益由权利人享有,引发的不利后果由权利人承担,类似饲养的羊驼参加商业活动,报酬归主人所有,羊驼吐口水、咬人导致的赔礼道歉、赔偿损失等法律责任由主人承担。责任承担是AI行业的核心问题,利益冲突很激烈。举例,当自动驾驶导致交通事故,造成财产损失和人员伤亡,那么责任由谁承担、如何分配,汽车企业、AI权利人还是消费者,或者地图导航企业、5G运营商?这个责任是刑事责任还是民事责任,刑事责任的话,AI公司(如百度)的法人要刑拘吗?,公平责任还是赔偿责任,赔偿责任的话,过错责任还是无过错责任,连带责任还是按份责任;除归责原则外,还涉及举证责任的分配,这些都需要立法机关权衡AI行业发展和公众权益后,作出具体规定。

五、安全可控的实现和影响

1、AI企业需自查自纠,反复试验验证,确保AI产品、服务安全可控;AI如应用于重要场合,需事先经过第三方机构的安全可控评估,第三方机构可能由工信部设立。

2、在技术上,一家公司的AI服务足以覆盖全国,但算法出错、AI失灵的风险也将随之扩散至全国,为实现安全可控,政府天然支持AI行业反垄断,重要细分领域的第一可以生存,第二、第三也能。

章鱼通(www.zhangyutong.net)人工智能产业对接平台。返回搜狐,查看更多

责任编辑:

人工智能下的法律新世界

去年发生在德国大众汽车制造厂的“机器人杀人”事件以及Google无人驾驶汽车在美国加州山景城测试时,与一辆公交大巴发生碰擦事件均令人类感到惶恐,引起人们对人工智能可能危害人类的生命与健康,侵犯人类的尊严和隐私,甚至破坏人类的自由等忧虑。根据美国联邦法律,用于自动驾驶的人工智能系统可以被视为司机。那么是“司机”、谷歌,还是驱动汽车的算法、感应器以及所有控制系统应该来负责交通事故呢?避免类似事件的发生必然需要要完善相关法律法规。

应对策略

人工智能法律系统的创制无论对于立法、司法还是行政管理都会产生重大的影响。当人工智能法律体系逐渐完善时,很多法律问题自会迎刃而解。例如因人工智能系统的故障造成对人类的伤害等等。我国的人工智能法律系统仍处于初级阶段,其研制开发远落后于西方发达国家。因此一方面,我国应尽快建立一个完备的法律信息系统,及时公布各类相关法律法规以及最新学术成果,为司法人员提供及时的法律事实和统计数据,并建立完善的索引功能,便于检索查询。另一方面,我们要在已有成果的基础上努力突破法律解释模拟、启发式程序、自然语言理解、价值推理模拟等方面的固有局限找到最优策略。

对于涉及人工智能的有争议的案件中,我们会发现最根本的问题是我国目前缺乏一套专门针对“人工智能”定罪量刑的法律体系。仅仅针对个案,采取必要的法律解释和审判是不能从根本上解决问题的。首先,应该明确研发者、运营者和使用者各自的权利和义务,确保具体案件中法律责任承担的清晰性。其次,对“人工智能”是否能够成为法律主体应该划定出清晰的标准。同时,建立维护个人数据和隐私权的合理机制,加强人工智能程序审查机制等等。

人工智能参与处理法律案件

人工智能的出现与发展不仅会产生相应的法律问题,同时它作为一种工具也可以应用于司法实践活动中,一定程度上能够促进案件解决的效率和司法公正。

2016年由IBM研发的世界首位人工智能律师ROSS日前就职于纽约Baker&Hostetler律师事务所,帮助处理公司破产等事务。ROSS平台是基于IBM的认知计算机沃森(Watson)建立的,这台机器可以理解自然语言、回答问题、提出假设并监督法律体系的发展。律师们可用自然语言提问,就像在与同事对话。ROSS则可以“通读法律”、收集证据、做出推论,然而给出基于证据的高度相关性答案。随着被使用范围越来越广,ROSS的性能将继续获得提高。此外,ROSS还在记录法律体系的变化发展情况,特别是当涉及到某位律师的具体案例时。

人工智能充当“法律人”的优点在于:首先,它的记忆和检索的功能非常强大,能够为司法审判提供相对统一的推理和评价标准,从而辅助法官做出具有一贯性的判决。其次,机器没有物质欲望和感情生活,不会受到外界的干扰和侵蚀,较多地排除了人为的因素,相当程度上会减少某些不公正的司法审判现象。

其次,人工智能运用于司法实践活动中,能够提高司法审判的工作效率。由于人工智能法律系统具备强大的记忆和检索功能,可以弥补人脑记忆和认识能力有限、记忆不准确、检索不全面的缺陷,解放法官和律师的部分劳动,从而让他们集中精力处理更为复杂的法律推理活动。另一方面,在司法人员的职业生涯中,难免要完成大量重复的机械工作,此时人工智能可以代替司法人员解决这些工作,从而极大地缩短其工作时间和压力。

欢迎加入未来科技学院产学研通讯录

未来科技学院成立以来,已经邀请国际和国内著名科学家、科技企业家,投资人300多人参与学院建设,并形成了近5万人的专业人士社群,为了更好的加强未来科技学院专家,专业人士和企业家学员的联系沟通,我们建立的未来科技学院产学研通讯录,欢迎大家加入,共享未来科技学院的专家专业人士企业家和投资人资源。

人工智能学家招募翻译志愿者

对志愿者的要求

我们希望您对人工智能、脑科学等前沿科技领域感兴趣,有良好的翻译能力,有时间投入到翻译工作中,且乐于分享。

志愿者有什么福利

在文章中对译者进行个人品牌宣传。2.共享未来科技学院专家资源。3.有机会参加线下活动。

感兴趣朋友请扫码联系负责人关正伟返回搜狐,查看更多

版权声明:本文内容由互联网用户自发贡献,该文观点仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌抄袭侵权/违法违规的内容,一经查实,本站将立刻删除。

上一篇

下一篇