博舍

人工智能的侵权责任划分——以自动驾驶汽车为视角 人工智能版权归属国内还是国外

人工智能的侵权责任划分——以自动驾驶汽车为视角

文|浙江工商大学法学院马齐林简怡倩

2016年1月,河北邯郸的高雅宁驾驶特斯拉汽车在高速公路上以“自动驾驶定速模式”行驶。在遭遇位于前方的道路清扫车时,特斯拉车载人工智能却未采取任何紧急制动或避让措施,导致高雅宁径直撞上道路清扫车,并最终抢救无效死亡。

作为我国首起基于人工智能的侵权案件,此案具有一定的代表性。虽然我国目前尚未发生大规模的人工智能侵权案件,但随着自动驾驶汽车的普及,其后或将有类似的案件诉至法院。因此,有必要就人工智能带来的冲击进行前瞻性讨论,并制定相应的风险分担机制,以保障生产者、使用者及受害人的利益。

人工智能的定义

关于人工智能,目前学界有诸多不同定义。尤其在判断智能的标准上,更是有着极大争论。笔者认为,从机器到机器人,人工智能的不同之处在于,其具备了在数据交换的基础上完全的自主学习能力、基于具体环境信息下的自主判断能力,以及自主作出相关行动的能力。概括来说,人工智能是不需要人类介入或干预,即可进行“感知-思考-行动”的机器人。

至于基于人工智能设计的自动驾驶汽车的概念,各国规定也不尽相同。依据美国汽车工程师学会给出的评定标准,自动驾驶可分为6个等级。其中,第0-2级为辅助驾驶车辆;第3-4级为高度自动驾驶车辆(HighlyAutomatedVehicle,以下简称“HAV”);第5级则被称为无人驾驶车辆(Self-DrivingCar,以下简称“SDC”)。

本文所称的自动驾驶,并不包括辅助驾驶。下文分析均基于第3-5级人工智能自动驾驶下的交通肇事情形。

传统民事侵权责任的适用困境

(一)过错侵权责任原则适用困难

依据《中华人民共和国侵权责任法》(以下简称《侵权责任法》),归责以过错责任为核心、以无过错责任为例外。但是,在自动驾驶汽车侵权中,通常难以确定当事人的过错。

以特斯拉汽车为例,在启用SDC模式下,人工智能将独立接管全车的驾驶控制系统,而无需驾驶员进行任何辅助。从某种意义上说,此时驾驶员已经完成了由司机到乘客的角色转变。那么,当发生交通肇事时,若法律将过错归责于驾驶员,则与发明自动驾驶汽车的意义相违背。同时,也将对驾驶员造成极大的不公平,因为这将使其对非因自身过错导致的结果负责。但是,若将过错归责于生产者,也难以自圆其说。究其原因,事发时,人工智能系统是基于自我学习感知而作出的行为,生产者本身并不干预人工智能的具体行动。

(二)产品责任难以举证

当侵权受害人无法以过错责任要求驾驶员赔偿时,理论上似乎可以引用产品责任的无过错原则,以产品缺陷为由,向生产商、制造商追偿。但是,在实践中,该追责方式同样极为困难。

根据我国相关法律规定,受害方负有证明产品存在缺陷的举证责任。但就自动驾驶汽车肇事侵权案件来说,证明其外部机械设备制造缺陷较为容易,证明警示缺陷也有可论证空间。但是,若存在内部的人工智能设计缺陷,由于其技术的高精尖性及不可预测性,受害方很难证明该人工智能自主学习后的程序运行结果是有缺陷的,更难以进一步证明该算法运行结果会有“危及人身或财产安全的不合理危险”。即使发生了交通事故,因人工智能具有高度的自主性和学习能力,且其后天的学习不为初始制造人员所控制,所以,仅从技术层面论证,很难将责任归咎于生产商。生产商甚至还可以援引“开发风险”抗辩或以“技术中立”来主张免责。

(三)人工智能本身不能成为责任主体

有学者指出,既然无法直接适用《侵权责任法》的过错责任与产品责任,那么,能否由人工智能直接承担法律责任?目前来看,这个答案仍然是否定的。依据我国现有法律规定,只有法律主体可承担法律责任,而人工智能尚不具备法律人格,无法成为法律主体,故也无法独立承担法律责任。

若想调整和规范人工智能侵权问题,需对现行法律规则作出进一步完善。笔者提出以下构想,以供讨论。

明确自动驾驶下的风险分担原则

由于人工智能无法独立承担侵权责任,因此,当自动驾驶发生交通肇事时,在无法直接适用现有《侵权责任法》的前提下,应当将产生的风险进行分配,以明确侵权责任。

(一)风险控制原则

依据风险控制原则,当某些日常活动存在一定危险性、有损害他人人身及财产安全的风险时,为了保障社会安全秩序,必然需要相关人员对其中的风险加以控制。该相关人员应具备以下条件:需对特定事物或活动的危险有一定了解;当危险发生时,相关人员需有控制风险的技术或能力。在此情况下,因特定风险引发的损失应由控制该风险的相关人员承担法律责任。

在HAV状态下,机动车的驾驶员或所有人均能对驾驶活动所存在的风险予以一定控制,因而法律有必要赋予其警示义务。在此情形下发生的交通事故,机动车的驾驶员或所有人均应依法对由风险引起的损失承担相应的民事责任。但是,在SDC状态下,基于驾驶员对完全自动驾驶的合理信任,以及发明人工智能自动驾驶的本意,法律可不强制要求驾驶员负有警示义务,驾驶员此时无需对损失承担最终责任。

(二)危险开启原则

危险开启原则认为,存在危险的日常行为活动是社会发展的必然需要,危险本身是被法律所允许的,危险活动的开启人并不需要承担法律责任。但是,在活动进行过程中,如果有关人员存在过失,则危险活动的开启人为责任主体,应承担责任。

在HAV和SDC状态下,驾驶员使用自动驾驶系统,会在原有基础上给社会增加一定危险,属于开启一种危险活动的行为。由此,在HAV状态下,若驾驶员在驾驶过程中存在过错(如未合理注意),则其应为事故的责任主体;而在SDC状态下,驾驶员虽并无警示义务,但基于其危险开启人身份,也应与生产者共同承担不真正连带责任。

(三)报偿原则

报偿原则认为,给予每个人其应得的东西,乃是“正义”概念的题中之义。“应得的东西”既包括正面的利益,也包括负面的罚则。该理论应用于民法领域,即当民事主体进行活动或负责管理某物时,其在享受该民事行为带来的收益的同时,也要承担伴随而来的风险。

在自动驾驶状态下,首先的受益者是驾驶员。当人工智能为其服务时,驾驶员既解放了双手,又能到达目的地。但是,考虑到驾驶员(或者说车辆所有者)已在购车时就付出了相应的购置费,因此,可以认定其已提前为自己所受利益“买单”。

此外,人工智能自动驾驶系统的生产商也是受益人之一。一方面,生产商已收受消费者高昂的购置费;另一方面,自动驾驶系统在被使用过程中会自动识别路况、收集数据,并通过内置程序反馈给生产商,而生产商则可以利用这些数据,进一步升级和完善人工智能系统。由此可见,生产商的收益是贯穿人工智能生产和使用全阶段的。因此,基于报偿原则,由生产商承担主要责任、驾驶员或车辆所有者承担次要责任,是符合公平正义原则的。

根据上述风险控制、危险开启和报偿原则,在使用自动驾驶系统的过程中所产生的事故责任,应当由机动车驾驶员或车辆所有人、人工智能系统生产商和车辆生产商等民事主体依合理比例进行分担。

自动驾驶侵权下各主体具体责任划分

(一)驾驶员责任

在HAV状态下,若因人工智能系统问题而造成机动车交通事故,将责任完全归于无过错的驾驶员显失公平。根据上述风险控制原则,只有当系统已警示驾驶员进行接管而驾驶员未操作时,驾驶员才需对此次事故承担与其过错相应的责任。但是,由于受害者是比驾驶员更弱势的存在,其利益更值得保护。因此,在举证责任方面,应当适用过错推定原则,由驾驶员举证自身不存在过错。

在SDC或已尽警示义务的HAV状态下,非因驾驶员干预而引发事故时,驾驶员将不承担任何过错责任。但是,根据报偿原则,驾驶员享有一定的受益。因此,为了保护受害人的利益,在此种情形下引入不真正连带责任的概念是可以接受的。此时,受害人具有向驾驶员或生产商索赔的选择权。驾驶员先清偿后,可再向生产商追责。

(二)外部载体生产商责任

当自动驾驶汽车内部人工智能系统与外部机械载体不属于同一生产商时,则发生责任主体的分离。如发生制造缺陷情形,则应单独追究载体生产商的责任。在现实生产中,若产品本身已背离其设计意图,那么,即便在制造和销售该产品的过程中已尽到所有可能的谨慎,产品仍然会存在不合理的危险性,即制造缺陷。制造缺陷通常与设计无关,而是由于在制造的过程中质量不过关、工艺水平达不到要求、产品物理构造缺陷等原因引起的。自动驾驶汽车外部载体的制造缺陷与其他普通产品的制造缺陷并无不同,仍可适用我国关于产品责任的相关法律规定。

(三)内部智能系统生产商责任

内部智能系统生产商,即核心AI程序的生产商。目前,人工智能自动驾驶系统在测试中所出现的问题,主要分为以下几种:

设计缺陷。设计缺陷通常指的是某一产品在设计上存在的固有缺陷。从自动驾驶系统的角度看,设计缺陷指的是自动驾驶系统的生产者在进行预置算法、设计程序等制造过程中就已经“埋下”的不合理危险。该缺陷并非由于人工智能的后天学习所致,而是先天的人为可控缺陷。因此,设计缺陷属于《中华人民共和国产品质量法》的调整范围,可引用现行产品质量问题归责方式,由生产者和销售者承担不真正连带责任。

警示缺陷。只有在HAV模式中,人工智能自动驾驶系统才需要驾驶员进行配合、保持一定的警示、随时等待接管或进行其他操作,故警示缺陷仅发生在HAV模式中。但是,驾驶员进行接管或采取其他操作的前提是系统发出警示,并且生产商已经提前告知消费者使用方法。若生产商未尽告知义务或因其过错导致警示系统存在缺陷,则应由生产商承担最终责任。

不可验缺陷。不可验缺陷是指由于产品内置了人工智能系统而引发的特殊独有缺陷。由于人工智能已具备自主学习能力,因此,算法行为从根本上来说是动态的,是生产者难以提前预见的,人工智能系统的“感知-判断-行为”这一决策逻辑过程,都取决于其自身的经验和与驾驶环境的相互作用,依赖于自身学习所产生的数据。当出现交通事故时,或许按照人工智能自身的逻辑判断并不应出现问题,或者无法查明究竟是何种原因引发人工智能作出相关行为,进而导致事故,此类危险可称为人工智能的不可验缺陷。笔者认为,此处应当借鉴美国、日本的理念,对生产者适用绝对责任。同时,设立风险转移途径以降低生产者的制造压力。如今,人工智能系统几乎摆脱了人类的操控。因而,讨论人类在主观上的故意或过失已无太多意义,更有必要关注所引起的侵害事实与损失,这也契合提出绝对责任之初衷。

生产者的风险转移

基于受害者的弱势地位,赋予生产者以绝对责任是可接受的。但不可否认的是,人工智能技术目前仍未完全发展成熟,此时将不可验缺陷所导致的侵权责任一味地归由生产商承受,或将极大地打击国内厂商研发人工智能的积极性。因此,有必要建立生产商的风险转移机制,以减轻其责任负担,促进人工智能生产研发的蓬勃发展。笔者提出以下几点建议:

(一)建立双轨制责任保险制度

商业保险作为现代社会经营者转移风险的重要途径之一,也可被引入自动驾驶领域。美国加利福尼亚州最新制定的自动驾驶汽车明示条款规定,制造商必须以投保商业保险、提供保证金或自保证明的方式,证明其有能力对自动驾驶车辆交通肇事判决承担损害赔偿责任。

就我国自动驾驶行业而言,建立双轨制保险制度是可选路径。首先,驾驶员投保机动车强制责任险的义务仍然保留,以便于应对人工驾驶或在HAV模式中驾驶员承担过错责任时的损害赔偿。但同时,保险内容应当新增“因车辆使用者未尽检查、维修义务或未按法律规定使用汽车等原因造成的交通事故”条文,并提高相应的保费。其次,由保险公司设立专门的人工智能自动驾驶责任险。其主要保险对象为因人工智能自动驾驶系统的不可验缺陷所造成的侵权责任,并可参照机动车交强险的强制投保义务,由法律强制要求生产商为其生产的人工智能产品投保。

在双轨制责任保险制度下,当自动驾驶车辆肇事后,不仅生产者和驾驶者承担责任的压力可减轻,同时,受害者也将获得充分的保障。

(二)设立人工智能信托责任基金

除了保险途径外,建立信托责任基金也是应对人工智能侵权的方式之一。美国曾颁布的“价格-安德森法案”(Price-AndersonAct)为核事故设立了两层责任保障:第一层是私人保险,由保险公司承保;第二层是责任保险基金池,属于事故责任信托基金,由运营核反应堆的私营公司按比例分摊和注入资金。

与核产品类似,自动驾驶汽车的高社会效用同样伴随着高风险。无人驾驶如若在未来全面普及,全城的汽车行驶路线将完全取决于内置的人工智能程序的决策。彼时,如果人工智能程序遭受黑客攻击而发生大面积错乱驾驶,又或者人工智能因自身逻辑错误而罢工,其灾难性将不亚于核泄露。因此,笔者认为,有必要为人工智能自动驾驶设置类似的信托基金池,由运营自动驾驶的私营公司按比例分摊池内金额,以保障在第一重保险赔偿后仍无法受偿的受害人获得第二重救济。

人工智能的发展已成为不可阻挡的历史潮流,现有的法律体系必然将受到冲击。本文以人工智能领域中发展较快的自动驾驶汽车行业为切入点,分析了现代法律在适用人工智能侵权时可能陷入的困境,并进一步探讨了自动驾驶下的具体侵权责任划分。希望借此能为我国法律规制人工智能问题提供一些思路,进而促进人工智能领域的良性发展。

【本文系2018年浙江省软科学研究计划项目(计划编号:2018C35050)研究成果】

各国人工智能的政策和挑战

六是开展前沿技术研究。

2、欧盟

欧盟重点关注工业、制造业、医疗、能源等领域,强调发挥创新创造力,应用人工智能使制造业及相关领域智能升级。与美国类似,欧盟较早对人工智能进行研发,并通过颁布政策、扶助资金、推出国家级计划、建立重点科研实验室等行为支持人工智能技术和产业发展,如2018年颁布的《人工智能合作宣言》。

作为数字欧洲计划和地平线2020计划中的重要环节,人工智能相关项目也将受到数十亿欧元的投资。与美国对比,首先,欧盟更加重视人工智能的道德和伦理研究,并在多份文件中表明人工智能发展要符合人类伦理道德,如2020年3月颁布的《走向卓越与信任——欧盟人工智能监管新路径》明确提出,为解决能力不对等和信息不透明,保障人民相关权利,需要建立人为监督的监管框架,重视数据安全和隐私保护。其次,欧盟对人工智能的应用侧重更加细化,不同于美国的全方位领先,欧盟希望借助自身在制造业、工业、汽车等领域的优势,利用人工智能技术进行产业强化升级,如《欧盟2030自动驾驶战略》。

3、日本

日本由于面临严峻的少子化、老龄化等问题,着重研究人工智能在机器人、医疗、汽车交通等领域的应用。日本生育率长期低迷、老龄化水平长期位居世界第一,1992年日本劳动年龄人口占比见顶,2008年日本人口总量见顶,这对日本经济、社会发展产生了深远的负面影响,包括养老、健康等挑战。

以2016年发布的《日本下一代人工智能促进战略》为起点,日本不断推出相关政策规划,围绕基础研究-应用研究-产业化三个方面,其中日本总务省下设的信息通信技术研究所和文部科学省进行人工智能理论和技术研发,经产省解决应用场景问题,经产省建立的人工智能研究中心(AIRC)促进产学研合作,主要承担成果转化和推广。

4、中国

中国人工智能呈三阶段逐步推进,重视与制造业和服务业的融合。自2015年起,我国人工智能相关政策从智能制造时期、互联网+时期,到智能+国家战略时期演变。

政策重心从核心技术攻克到实际场景应用,从特定行业到跨界融合,从单项技术到人机协同。与美国和欧盟类似,我国也强调建立相关试点项目,包括技术示范试点、政策试验和社会实验。

二、挑战与建议

在数字经济浪潮下,5G如同信息高速公路,为庞大数据量和信息量的传递提供了高速传输信道,补齐了制约人工智能、大数据、工业互联网等在信息传输、连接规模、通信质量上的短板;人工智能如同云端大脑,依靠高速公路传来的信息学习和演化,完成机器智能化进程;工业互联网如同桥梁,依靠高速公路连接人、机、物,推动制造走向智造。人工智能具有明显的溢出效应,将与5G、数据中心等一起推动数字经济时代的产业转型升级,是当前及未来各国科技竞赛的制高点。

大国科技实力是国家实力的核心,能否抓住智能时代的变革机遇,是中国建设现代化强国的关键。总体而言,我国人工智能产业仍处于发展初期,面临基础研发欠缺、技术和场景尚未融合、传统基础设施跟不上技术发展等问题。如何解决这些问题,特提出三点建议:

首先,为人工智能发展做好软性支撑,做好人才培养、前沿技术研究和联络合作。加强国内高校开展相关课程、培育本土人才;积极吸引海外科研人员、聚集全球人才。对照美国对科研人才的吸引措施,中国应抓住这一机遇,在研究经费资助、个人税收、签证、户口、子女教育等一系列领域推出引进海外高端人才的一揽子政策,切实解决科研人员后顾之忧,并为其科研、创业提供更大力度的支持。加快科教体制改革,建立市场化、多层次的产学研协作体系。由国家主导加大基础研究投入,由企业主导加大试验开发投入,多类主体形成合理的科研分工。

其次,为人工智能发展做好硬性保障,加快信息化基础设施建设,并对传统物理基础设施进行智能化升级。与铁路、公路、机场三者构成工业时代的基础设施不同,云计算、大数据、人工智能、5G、区块链等将是未来重点,所覆盖的新基建包括两方面,一类是以数字中心、基站等为代表的信息化设备,另一类是公路、铁路等传统基建设备。为应对未来的数字挑战,需要从这两方面入手,一方面加快宽带网络、5G网络等建设,另一方面加强对传统铁路、机场等公共场景例如传感器、控制平台、云平台等智能化配备。为后续技术发展做好数据收集、传输、沟通、分析的硬件基础。

再次,重视人工智能技术所带来的人伦道德问题,从立法和监管两个角度跟上技术革新。人工智能的发展离不开数据,由于大部分的数据是公开透明、自由流通的虚拟产物,会引发由数据所属而产生的权责问题,这也涉及到数据的安全、知识产权保护和隐私问题。例如,企业可以通过消费者的上网浏览信息来分析倾向喜好,进行精准推送,企业降低营销费用的同时消费者可以更好的获得信息或者产品,然而这一行为是否征得消费者同意、是否涉及侵犯个人隐私也值得考虑。由于数据的生产和使用涉及消费者、平台、运营商、服务商等多个环节,数据在每个环节被加工整合,难以使用传统的商品产品标准去统一管理,这对相关立法和监管造成阻碍。因此,要关注人工智能人伦道德、技术标准、人工智能与人类社会关系等问题,以人为本,重视数据安全。

忙碌中欣赏沿路美丽,平淡中品尝三餐美味。幸福是一种心态,执一份简朴,不盲目攀比;守一份淡然,不苛责强求。发现身边的美好,拥有幸福的生活。返回搜狐,查看更多

版权声明:本文内容由互联网用户自发贡献,该文观点仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌抄袭侵权/违法违规的内容,一经查实,本站将立刻删除。

上一篇

下一篇