博舍

人工智能的侵权责任划分——以自动驾驶汽车为视角 人工智能著作权侵权案件有哪些类型的案例

人工智能的侵权责任划分——以自动驾驶汽车为视角

文|浙江工商大学法学院马齐林简怡倩

2016年1月,河北邯郸的高雅宁驾驶特斯拉汽车在高速公路上以“自动驾驶定速模式”行驶。在遭遇位于前方的道路清扫车时,特斯拉车载人工智能却未采取任何紧急制动或避让措施,导致高雅宁径直撞上道路清扫车,并最终抢救无效死亡。

作为我国首起基于人工智能的侵权案件,此案具有一定的代表性。虽然我国目前尚未发生大规模的人工智能侵权案件,但随着自动驾驶汽车的普及,其后或将有类似的案件诉至法院。因此,有必要就人工智能带来的冲击进行前瞻性讨论,并制定相应的风险分担机制,以保障生产者、使用者及受害人的利益。

人工智能的定义

关于人工智能,目前学界有诸多不同定义。尤其在判断智能的标准上,更是有着极大争论。笔者认为,从机器到机器人,人工智能的不同之处在于,其具备了在数据交换的基础上完全的自主学习能力、基于具体环境信息下的自主判断能力,以及自主作出相关行动的能力。概括来说,人工智能是不需要人类介入或干预,即可进行“感知-思考-行动”的机器人。

至于基于人工智能设计的自动驾驶汽车的概念,各国规定也不尽相同。依据美国汽车工程师学会给出的评定标准,自动驾驶可分为6个等级。其中,第0-2级为辅助驾驶车辆;第3-4级为高度自动驾驶车辆(HighlyAutomatedVehicle,以下简称“HAV”);第5级则被称为无人驾驶车辆(Self-DrivingCar,以下简称“SDC”)。

本文所称的自动驾驶,并不包括辅助驾驶。下文分析均基于第3-5级人工智能自动驾驶下的交通肇事情形。

传统民事侵权责任的适用困境

(一)过错侵权责任原则适用困难

依据《中华人民共和国侵权责任法》(以下简称《侵权责任法》),归责以过错责任为核心、以无过错责任为例外。但是,在自动驾驶汽车侵权中,通常难以确定当事人的过错。

以特斯拉汽车为例,在启用SDC模式下,人工智能将独立接管全车的驾驶控制系统,而无需驾驶员进行任何辅助。从某种意义上说,此时驾驶员已经完成了由司机到乘客的角色转变。那么,当发生交通肇事时,若法律将过错归责于驾驶员,则与发明自动驾驶汽车的意义相违背。同时,也将对驾驶员造成极大的不公平,因为这将使其对非因自身过错导致的结果负责。但是,若将过错归责于生产者,也难以自圆其说。究其原因,事发时,人工智能系统是基于自我学习感知而作出的行为,生产者本身并不干预人工智能的具体行动。

(二)产品责任难以举证

当侵权受害人无法以过错责任要求驾驶员赔偿时,理论上似乎可以引用产品责任的无过错原则,以产品缺陷为由,向生产商、制造商追偿。但是,在实践中,该追责方式同样极为困难。

根据我国相关法律规定,受害方负有证明产品存在缺陷的举证责任。但就自动驾驶汽车肇事侵权案件来说,证明其外部机械设备制造缺陷较为容易,证明警示缺陷也有可论证空间。但是,若存在内部的人工智能设计缺陷,由于其技术的高精尖性及不可预测性,受害方很难证明该人工智能自主学习后的程序运行结果是有缺陷的,更难以进一步证明该算法运行结果会有“危及人身或财产安全的不合理危险”。即使发生了交通事故,因人工智能具有高度的自主性和学习能力,且其后天的学习不为初始制造人员所控制,所以,仅从技术层面论证,很难将责任归咎于生产商。生产商甚至还可以援引“开发风险”抗辩或以“技术中立”来主张免责。

(三)人工智能本身不能成为责任主体

有学者指出,既然无法直接适用《侵权责任法》的过错责任与产品责任,那么,能否由人工智能直接承担法律责任?目前来看,这个答案仍然是否定的。依据我国现有法律规定,只有法律主体可承担法律责任,而人工智能尚不具备法律人格,无法成为法律主体,故也无法独立承担法律责任。

若想调整和规范人工智能侵权问题,需对现行法律规则作出进一步完善。笔者提出以下构想,以供讨论。

明确自动驾驶下的风险分担原则

由于人工智能无法独立承担侵权责任,因此,当自动驾驶发生交通肇事时,在无法直接适用现有《侵权责任法》的前提下,应当将产生的风险进行分配,以明确侵权责任。

(一)风险控制原则

依据风险控制原则,当某些日常活动存在一定危险性、有损害他人人身及财产安全的风险时,为了保障社会安全秩序,必然需要相关人员对其中的风险加以控制。该相关人员应具备以下条件:需对特定事物或活动的危险有一定了解;当危险发生时,相关人员需有控制风险的技术或能力。在此情况下,因特定风险引发的损失应由控制该风险的相关人员承担法律责任。

在HAV状态下,机动车的驾驶员或所有人均能对驾驶活动所存在的风险予以一定控制,因而法律有必要赋予其警示义务。在此情形下发生的交通事故,机动车的驾驶员或所有人均应依法对由风险引起的损失承担相应的民事责任。但是,在SDC状态下,基于驾驶员对完全自动驾驶的合理信任,以及发明人工智能自动驾驶的本意,法律可不强制要求驾驶员负有警示义务,驾驶员此时无需对损失承担最终责任。

(二)危险开启原则

危险开启原则认为,存在危险的日常行为活动是社会发展的必然需要,危险本身是被法律所允许的,危险活动的开启人并不需要承担法律责任。但是,在活动进行过程中,如果有关人员存在过失,则危险活动的开启人为责任主体,应承担责任。

在HAV和SDC状态下,驾驶员使用自动驾驶系统,会在原有基础上给社会增加一定危险,属于开启一种危险活动的行为。由此,在HAV状态下,若驾驶员在驾驶过程中存在过错(如未合理注意),则其应为事故的责任主体;而在SDC状态下,驾驶员虽并无警示义务,但基于其危险开启人身份,也应与生产者共同承担不真正连带责任。

(三)报偿原则

报偿原则认为,给予每个人其应得的东西,乃是“正义”概念的题中之义。“应得的东西”既包括正面的利益,也包括负面的罚则。该理论应用于民法领域,即当民事主体进行活动或负责管理某物时,其在享受该民事行为带来的收益的同时,也要承担伴随而来的风险。

在自动驾驶状态下,首先的受益者是驾驶员。当人工智能为其服务时,驾驶员既解放了双手,又能到达目的地。但是,考虑到驾驶员(或者说车辆所有者)已在购车时就付出了相应的购置费,因此,可以认定其已提前为自己所受利益“买单”。

此外,人工智能自动驾驶系统的生产商也是受益人之一。一方面,生产商已收受消费者高昂的购置费;另一方面,自动驾驶系统在被使用过程中会自动识别路况、收集数据,并通过内置程序反馈给生产商,而生产商则可以利用这些数据,进一步升级和完善人工智能系统。由此可见,生产商的收益是贯穿人工智能生产和使用全阶段的。因此,基于报偿原则,由生产商承担主要责任、驾驶员或车辆所有者承担次要责任,是符合公平正义原则的。

根据上述风险控制、危险开启和报偿原则,在使用自动驾驶系统的过程中所产生的事故责任,应当由机动车驾驶员或车辆所有人、人工智能系统生产商和车辆生产商等民事主体依合理比例进行分担。

自动驾驶侵权下各主体具体责任划分

(一)驾驶员责任

在HAV状态下,若因人工智能系统问题而造成机动车交通事故,将责任完全归于无过错的驾驶员显失公平。根据上述风险控制原则,只有当系统已警示驾驶员进行接管而驾驶员未操作时,驾驶员才需对此次事故承担与其过错相应的责任。但是,由于受害者是比驾驶员更弱势的存在,其利益更值得保护。因此,在举证责任方面,应当适用过错推定原则,由驾驶员举证自身不存在过错。

在SDC或已尽警示义务的HAV状态下,非因驾驶员干预而引发事故时,驾驶员将不承担任何过错责任。但是,根据报偿原则,驾驶员享有一定的受益。因此,为了保护受害人的利益,在此种情形下引入不真正连带责任的概念是可以接受的。此时,受害人具有向驾驶员或生产商索赔的选择权。驾驶员先清偿后,可再向生产商追责。

(二)外部载体生产商责任

当自动驾驶汽车内部人工智能系统与外部机械载体不属于同一生产商时,则发生责任主体的分离。如发生制造缺陷情形,则应单独追究载体生产商的责任。在现实生产中,若产品本身已背离其设计意图,那么,即便在制造和销售该产品的过程中已尽到所有可能的谨慎,产品仍然会存在不合理的危险性,即制造缺陷。制造缺陷通常与设计无关,而是由于在制造的过程中质量不过关、工艺水平达不到要求、产品物理构造缺陷等原因引起的。自动驾驶汽车外部载体的制造缺陷与其他普通产品的制造缺陷并无不同,仍可适用我国关于产品责任的相关法律规定。

(三)内部智能系统生产商责任

内部智能系统生产商,即核心AI程序的生产商。目前,人工智能自动驾驶系统在测试中所出现的问题,主要分为以下几种:

设计缺陷。设计缺陷通常指的是某一产品在设计上存在的固有缺陷。从自动驾驶系统的角度看,设计缺陷指的是自动驾驶系统的生产者在进行预置算法、设计程序等制造过程中就已经“埋下”的不合理危险。该缺陷并非由于人工智能的后天学习所致,而是先天的人为可控缺陷。因此,设计缺陷属于《中华人民共和国产品质量法》的调整范围,可引用现行产品质量问题归责方式,由生产者和销售者承担不真正连带责任。

警示缺陷。只有在HAV模式中,人工智能自动驾驶系统才需要驾驶员进行配合、保持一定的警示、随时等待接管或进行其他操作,故警示缺陷仅发生在HAV模式中。但是,驾驶员进行接管或采取其他操作的前提是系统发出警示,并且生产商已经提前告知消费者使用方法。若生产商未尽告知义务或因其过错导致警示系统存在缺陷,则应由生产商承担最终责任。

不可验缺陷。不可验缺陷是指由于产品内置了人工智能系统而引发的特殊独有缺陷。由于人工智能已具备自主学习能力,因此,算法行为从根本上来说是动态的,是生产者难以提前预见的,人工智能系统的“感知-判断-行为”这一决策逻辑过程,都取决于其自身的经验和与驾驶环境的相互作用,依赖于自身学习所产生的数据。当出现交通事故时,或许按照人工智能自身的逻辑判断并不应出现问题,或者无法查明究竟是何种原因引发人工智能作出相关行为,进而导致事故,此类危险可称为人工智能的不可验缺陷。笔者认为,此处应当借鉴美国、日本的理念,对生产者适用绝对责任。同时,设立风险转移途径以降低生产者的制造压力。如今,人工智能系统几乎摆脱了人类的操控。因而,讨论人类在主观上的故意或过失已无太多意义,更有必要关注所引起的侵害事实与损失,这也契合提出绝对责任之初衷。

生产者的风险转移

基于受害者的弱势地位,赋予生产者以绝对责任是可接受的。但不可否认的是,人工智能技术目前仍未完全发展成熟,此时将不可验缺陷所导致的侵权责任一味地归由生产商承受,或将极大地打击国内厂商研发人工智能的积极性。因此,有必要建立生产商的风险转移机制,以减轻其责任负担,促进人工智能生产研发的蓬勃发展。笔者提出以下几点建议:

(一)建立双轨制责任保险制度

商业保险作为现代社会经营者转移风险的重要途径之一,也可被引入自动驾驶领域。美国加利福尼亚州最新制定的自动驾驶汽车明示条款规定,制造商必须以投保商业保险、提供保证金或自保证明的方式,证明其有能力对自动驾驶车辆交通肇事判决承担损害赔偿责任。

就我国自动驾驶行业而言,建立双轨制保险制度是可选路径。首先,驾驶员投保机动车强制责任险的义务仍然保留,以便于应对人工驾驶或在HAV模式中驾驶员承担过错责任时的损害赔偿。但同时,保险内容应当新增“因车辆使用者未尽检查、维修义务或未按法律规定使用汽车等原因造成的交通事故”条文,并提高相应的保费。其次,由保险公司设立专门的人工智能自动驾驶责任险。其主要保险对象为因人工智能自动驾驶系统的不可验缺陷所造成的侵权责任,并可参照机动车交强险的强制投保义务,由法律强制要求生产商为其生产的人工智能产品投保。

在双轨制责任保险制度下,当自动驾驶车辆肇事后,不仅生产者和驾驶者承担责任的压力可减轻,同时,受害者也将获得充分的保障。

(二)设立人工智能信托责任基金

除了保险途径外,建立信托责任基金也是应对人工智能侵权的方式之一。美国曾颁布的“价格-安德森法案”(Price-AndersonAct)为核事故设立了两层责任保障:第一层是私人保险,由保险公司承保;第二层是责任保险基金池,属于事故责任信托基金,由运营核反应堆的私营公司按比例分摊和注入资金。

与核产品类似,自动驾驶汽车的高社会效用同样伴随着高风险。无人驾驶如若在未来全面普及,全城的汽车行驶路线将完全取决于内置的人工智能程序的决策。彼时,如果人工智能程序遭受黑客攻击而发生大面积错乱驾驶,又或者人工智能因自身逻辑错误而罢工,其灾难性将不亚于核泄露。因此,笔者认为,有必要为人工智能自动驾驶设置类似的信托基金池,由运营自动驾驶的私营公司按比例分摊池内金额,以保障在第一重保险赔偿后仍无法受偿的受害人获得第二重救济。

人工智能的发展已成为不可阻挡的历史潮流,现有的法律体系必然将受到冲击。本文以人工智能领域中发展较快的自动驾驶汽车行业为切入点,分析了现代法律在适用人工智能侵权时可能陷入的困境,并进一步探讨了自动驾驶下的具体侵权责任划分。希望借此能为我国法律规制人工智能问题提供一些思路,进而促进人工智能领域的良性发展。

【本文系2018年浙江省软科学研究计划项目(计划编号:2018C35050)研究成果】

“人工智能著作权”案

当前,人工智能(AI)作为“新基建”七大板块中的重要组成部分,为经济社会发展提供了新路径、新动能。党中央高度重视人工智能领域科技创新,并要求推进互联网、大数据、人工智能同实体经济深度融合,做大做强数字经济。

该案系北京互联网法院成立以来受理的涉及人工智能技术应用的第一案,国内外尚无在先案例可参考,亦无明确的理论作为支撑,是对互联网司法的一次考验。作为该案的主审法官,为了对人工智能有更加全面直观的了解,我查阅了相关资料和新闻报道,并向有关专家请教。令我感到惊讶的是,我们每个人的工作生活实际上已经与“人工智能”紧密融合,人工智能“创作”的音乐、诗歌和绘画更是屡见不鲜。与此同时,该领域的很多法律问题目前尚无定论,但司法不能拒绝裁判。

案件审理过程中,为了查清楚本案“行业司法大数据分析报告”的生成过程,我们主持双方进行了勘验,最终认为根据现有的科技产业发展水平和权利保护体系,要构成著作权法意义上的作品,首先要保证其创作者是“人”而非机器或程序,将人工智能生成的内容作为作品提供保护缺乏法律依据。因为著作权法的根本价值在于激励文化创作与传播,人工智能无论多么“智慧”,都无法像人一样受到法律机制的鼓励。这一认定完全符合我国著作权法立法目的和民法典关于民事主体的基本规范。至此,裁判双方争议问题似乎已经解决。但通过案件办理,我意识到很多无法回避的问题还需要主动探索和积极应对。北京互联网法院多次邀请专家进行研讨和交流,在此过程中讨论最多的问题是:既然人工智能软件生成物无法作为作品受保护,是否就意味着可以被任何人随意使用呢?人工智能软件生成物往往凝结了软件研发者和使用者的投入,如果不赋予一定的权益保护,将不利于对投入成果的传播,无法发挥其效用。上述问题不解决,就难以为人工智能预留基本的创新空间,阻碍新技术、新业态的发展。

人工智能的法律三问 人工智能侵权责任如何认定

原标题:人工智能的法律三问(数字化时代的法治问题②)

“你怎么知道自己是机器人?”

“索菲亚”回答:“你不必担心我们机器人,你们人类又怎么知道自己就是人类呢?”去年,人工智能机器人“索菲亚”成为全球首位被赋予法律公民身份的机器人。

当前,科学技术巨大进步推动人工智能迅猛发展。人工智能带来的生产生活方式深刻变革,给法律制度带来哪些挑战?现行法治体系又该如何调整和应对?

人工智能生成物是否具有知识产权?

“微明的灯影里,我知道她的可爱的土壤,使我的心灵成为俘虏了……”这段诗句的创作者不是传统意义上的“人”,而是人工智能产品“微软小冰”。2017年5月,“微软小冰”创作诗集《阳光失了玻璃窗》出版,作为历史上第一部完全由人工智能创作的诗集,它的出版带来一个新问题――人工智能生成物是否具有知识产权?

中南财经政法大学知识产权研究中心主任曹新明认为,根据现行法律,知识产权成果是指“人类创造出来的成果”,人工智能并不能成为知识产权意义上的权利主体。“但是,如果将‘人工智能’创造活动类同于科学研究的‘电脑’,即把人工智能生成物视为通过人工智能创造的智慧成果,那么人工智能生成物又确实具备‘知识产权作品’的某些属性。”

“问题的关键在于对‘人工智能’的法律定性。”曹新明表示,目前学界对这一问题主要有“工具”和“虚拟人”两种观点。“工具”即把人工智能视为人的创造物和权利客体;“虚拟人”是法律给人工智能设定一部分“人”的属性,赋予其能够享有一些权利的法律主体资格。

“即便承认人工智能生成物具有知识产权,其权利归属也是一个亟待解答的问题。”曹新明认为,如果将人工智能视为“工具”,人工智能生成物的权利可归属于设计开发者,或者所有权人,或者使用权人以及多个权利人共有。如果将人工智能视为“虚拟人”,则可以把人工智能生成物看作民法意义上的“孳息”,比如将人工智能视为“母鸡”,那么人工智能生成物就是“母鸡”下的“蛋”,“蛋”自然归“母鸡”所有者拥有。

此外,创造人工智能生成物,往往会通过一些程序进行“深度学习”,其中可能收集、储存大量的他人已享有的知识产权信息,这就可能构成对他人知识产权的侵害。曹新明认为,“在这种涉嫌构成侵害知识产权的情形下,究竟应当由谁承担责任,也是一个新问题。”

人工智能可以替代司法者吗?

近年来,人工智能在司法领域的应用逐渐深入:2016年12月,名为“睿法官”的北京法院智能研判系统上线,为法官提供办案规范和量刑分析等精准信息,用大数据推进法律适用和裁判尺度的统一;2017年5月,全国首个“刑事案件智能辅助办案系统”在上海诞生,在对上海几万份刑事案件的卷宗、文书数据进行“深度学习”后,已具备初步的证据信息抓取、校验和逻辑分析能力……

“利用人工智能,可以帮助司法者得到类似案件的全部先例以及法律、法规、司法解释等裁判规则,从而减轻他们的工作负累、促进准确适用法律。”中国社会科学院法学研究所研究员支振锋认为,通过数据采集、整理、分析、综合,人工智能在促进司法者依法、全面、规范收集和审查证据,统一司法尺度、助力司法公正等方面,的确大有可为。

但是,这是否意味着人工智能将替代司法者,实现独立断案?显然不可以。

“人工智能只是实现司法正义的辅助手段,切不可本末倒置,这是我们始终应该铭记的一条基本原则。”在上海交通大学凯原法学院院长季卫东教授看来,如果过分依靠人工智能自动生成判决、根据大数据矫正法律决定的偏差等,难免形成审判主体的多重结构,事实上形成程序员、软件工程师、数据处理商等主体和司法者共执司法的局面。

“此外,如果让人工智能超出辅助性手段范畴,全面应用于审判案件,那就有可能把司法引入歧途。”季卫东认为,在案件事实曲折、人际关系复杂、掺杂伦理和感情因素的场合,如何依据法理、常识和人情做出判断并进行妥善裁决,其实是一种微妙的艺术,需要依靠法官的理性综合分析。“即使人工智能嵌入了概率程序,具有深度学习能力,也难以保证做出公正合理、让人信服的个案裁判。”

支振锋也认为,就目前的发展情形看,人工智能还没有取代司法者的可能,尤其是作为涉及情感与理性、规范与价值的法律诉讼,如果交给人工智能,这在法律和伦理上,都很难得到支持。“应防范对人工智能形成‘路径依赖’,人工智能越发达,越应强调司法者的职业伦理。”支振锋说。

人工智能侵权责任如何认定?

2016年11月,在深圳举办的第十八届中国国际高新技术成果交易会上,一台名为“小胖”的机器人突然发生故障,在没有指令的情况下,自行砸坏了部分展台,并导致一人受伤。

人工智能应用范围的日益普及,其引发的侵权责任认定和承担问题,是对现行侵权法律制度提出的又一个新的挑战。

“从现行法律上看,侵权责任主体只能是民事主体,人工智能本身还难以成为新的侵权责任主体。即便如此,人工智能侵权责任的认定也面临诸多现实难题。”在清华大学法学院教授程啸看来,侵权发生后,谁是人工智能的所有者,就应当由谁负责,在法律上似乎并不存在争议。“然而人工智能的具体行为受程序控制,发生侵权时,到底是由所有者还是软件研发者担责,值得商榷。”

与之类似的,当无人驾驶汽车造成他人损害侵权时,是由驾驶人、机动车所有人担责,还是由汽车制造商、自动驾驶技术开发者担责?法律是否有必要为无人驾驶汽车制定专门的侵权责任规则?这些问题都值得进一步研究。

“现实中,人工智能侵权责任的归责原则,可能更多涉及危险责任或无过错责任。”程啸认为,例如无人驾驶汽车致害,无论从产品责任还是机动车交通事故责任上看,都可以适用无过错责任。但未来需要考虑的是,人工智能技术的运用,其本身是否属于高度危险作业(如无人机),从而决定了是否适用高度危险作业致害责任。

“当前,人工智能侵权责任中的因果关系、过错等要件的判断也变得日趋复杂。”程啸还举例说,此前曝光的一些APP“大数据杀熟”和“算法歧视”,由于代码的不透明,加之算法本身的自我学习和适应能力,使得“将算法歧视归责于开发者”变得很困难。

在程啸看来,针对人工智能带来的新问题、新挑战,在法律制度的研究方面未雨绸缪,将为以后的司法实践赢得主动。“人工智能已经到来,只是在生产生活的各个领域分布不均。我们不应等到未来分布均匀、人工智能已完全融入生产生活的方方面面时,才想起来从法律进行规范。”程啸说。

(责编:赵光霞、宋心蕊)

分享让更多人看到

版权声明:本文内容由互联网用户自发贡献,该文观点仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌抄袭侵权/违法违规的内容,一经查实,本站将立刻删除。

上一篇

下一篇