博舍

浅谈人工智能产品侵权责任承担 人工智能产品侵权责任问题研究论文

浅谈人工智能产品侵权责任承担

浅谈人工智能产品侵权责任承担DiscussionontheInfringementLiabilityofArtificialIntelligenceProductsDOI: 10.12677/DS.2023.91041,PDF,HTML,XML, 被引量下载:78  浏览:527 作者:谢锶娴:上海对外经贸大学,上海关键词:人工智能;法律人格;侵权责任;ArtificialIntelligence;LegalPersonality;InfringementLiability摘要:随着科技的进步和社会实践的发展,人工智能产品开始渗透到社会生活的方方面面,由此而带来的社会问题、法律争议也逐渐引起社会各界的广泛关注。就人工智能侵权而言,随着技术的不断发展成熟,人工智能产品逐步取得类人化的“思考能力”。这种情况下,人工智能产品是否会突破其客体性?倘若赋予人工智能产品以拟制人格,在立法上是否具有可行性,其具体条件而何,以及其适应社会发展的必要性何在?本文将围绕上述问题进行讨论,并尝试就人工智能产品侵权责任承担问题浅谈一点自己的看法。Abstract:Withtheprogressofscienceandthedevelopmentofsocialpractice,artificialintelligenceproducts(“AIproducts”)havebeguntopenetrateintoallaspectsofourlives,andthesocialproblemsandlegaldisputesbroughtaboutbythemhavegraduallyarousedexten-siveattentionfromallwalksoflife.Asfarastheinfringementisconcerned,whichismadebyartifi-cialintelligenceproduct.TheAIproductshavegraduallyacquiredthe“thinkingability”ofhumani-zation,withthecontinuousdevelopmentandmaturityoftechnology.Underthiscircumstance,willartificialintelligenceproductsbreakthroughitsobjectivity?IftheAIproductsareendowedwithlegalpersonality,whetherit’sfeasibleinlegislation,whatarethespecificconditionsandwhereisthenecessityforittoadapttosocialdevelopment?Thispaperwillfocusontheissuesmentionedabove,andtrytotalkaboutmyownviewsontheinfringementliabilityofartificialintelligenceproducts.文章引用:谢锶娴.浅谈人工智能产品侵权责任承担[J].争议解决,2023,9(1):293-302.https://doi.org/10.12677/DS.2023.91041

1.引言

随着现代科学的不断进步以及人类在人工智能领域研究的不断深入,人工智能产品的智能化程度越来越高。未来不论,单就现阶段而言,已经有人工智能产品开始出现某些在以往历史时期一直被认为只有自然人具有的特性。然而在当前立法背景下,尚且没有一部法律能够给人工智能这种新型科技产品以准确的法律定性,因此,在解决人工智能产品侵权系列法律问题时,存在较大的法律适用困境和争议。故而,以发展的眼光来看,人工智能法律体系的构建,已经愈发成为一个重要的课题。本文将以人工智能的侵权责任承担为着眼点,从人工智能产品法律地位的视角出发,尝试对人工智能产品从设计到终端使用乃至报废回收整个流程中可能出现的相关侵权责任主体问题、责任承担问题等浅谈自己的一点看法[1]。

2.人工智能概述

在研究法律制度之前,首先要对产品本身以及其所在的行业具备一定的基础性了解,而后,在这实体基础之上再对其法律规制进行讨论。在概述阶段,我们从最基本的概念入手,到其阶段划分,最后再对人工智能产品的特征以及其应用稍作了解。

2.1.人工智能的概念

人工智能在科学体系中属于计算机科学的一个分支,最早在上个世纪五十年代时由科学家正式提出,20世纪70年代以来成为三大尖端科学之一[2]。其原理是通过人类的设计和一定的计算机算法,实现对人类思维的一般科学模拟,并在该种模拟思维的指引下完成一定的智能行为。由于人类思维的复杂性,因此在研究人工智能的过程中涉及的基础学科也相应复杂。总的来说,人工智能是一门在计算机科学、信息学、哲学、语言学等多种学科基础上发展起来的一门新兴综合学科[3]。

2.2.人工智能的阶段

根据不同的标准,人工智能阶段划分不一而尽。而单就独立于人类的程度而论,学术界有人将人工智能分为三个阶段:弱人工智能、人工智能和超人工智能阶段[4]。在弱人工智能阶段,人工智能产品的行为依据是人类事先设计、编写的程序。人工智能产品作为人类为实现一定目的而依靠计算机编程所创造的产物,本身并不具备自我思考的能力。换言之,该阶段的人工智能产品就其本质而言,与一般辅助工具并无二致。进入人工智能阶段,人工智能产品将通过更为进步的编程算法获得“深度学习”的能力。在这一阶段,人工智能产品的运行已经不必依赖于人类的指令,而是根据自身所适用的领域以及所处之实际境况自主作出决策,从而实现运行的完全独立。但是,该阶段的人工智能产品并不具备自身设计和再生产的能力,因此尚不足以实现与人类的完全脱离。而到了超人工智能阶段,人工智不仅能够实现各方面行为的完全自主性,还能够依据自身的“思考能力”和行动能力独立创造出新的人工智能产品。这也就意味着人工智能完成了自身生产再造的独立[4]。从种程度而言,此时的人工智能产品具备了较大的失控风险。因此,一直以来,社会上对于人工智能技术是否应该发展至超人工智能阶段存在着较大争议。笔者考量了各方观点,秉着一般人类内心朴素的想法认为,为了人类长远的繁衍生息、为了社会长期的平稳运行,法律上确有必要出台相应立法,对人工智能产业的发展作出必要的限制,以避免失控局面的发生。故而,鉴于笔者保守的人工智能产业发展观,本文所讨论的重点并不包含学术分类中超人工智能阶段的人工智能产品。

就目前的技术水平而言,人工智能尚且处于弱人工智能向人工智能的过渡阶段,绝大多数的人工智能仅能就本领域实现水平较低的智能化。但无可否认的是,随着技术的不断进步,人类确实已经逐渐生产出一些智能化特征更为明显的产品。因此,讨论人工智能产品侵权制度,是立法的必行之势。

2.3.人工智能产品

人工智能产品,顾名思义就是依照人工智能技术而创造出的产品。人工智能被分为三个技术阶段,故而每一阶段的产品因为技术成熟程度的不同而具有不同的智能程度、类人化特征。因此笔者认为,在研究人工智能产品的法律地位时,务必要注意阶段特性,应该根据每一阶段的不同本质对智能产品进行区分性法律地位探析。

2.3.1.人工智能产品的特征

其一,在弱人工智能阶段,人工智能产品依靠预先编写的程序而行为。其表面上虽具备一定的智能性,但究其本质是依靠人类预设的大量可能性和产品内部储存的大数据完成的一般指令项下的行为。亦即,这一阶段的人工智能仅是凭借缜密的数据计算而产生的“假象智能”,本质上与完成一般计算机指令并无区别。

其二,在人工智能阶段,人工智能产品通过程序设计和深度学习的能力而被赋予类似于人的“思考能力”,在实际境况中能够脱离操纵者而自主决策,在运行上实现了完全意义上的独立。因此,该阶段的人工智能产品从行为和表征上看,开始具备一定的类人特征。并且,随着智能化的提高,产品的类人特性也将逐步明显。

其三,在超人工智能阶段,人工智能产品从运行到思维,再到自身的设计再造已经实现全面独立。此时,除却自然人的生理因素,人工智能产品从外在表现以及内在运行中已经具备高度的拟人表现。

2.3.2.人工智能产品的应用

1)人工智能产品在计算机领域的应用

计算机处理的信息量之大不是人力可以企及的,因此人工智能应运而生。在计算机领域,人工智能凭借其自身缜密的数据运行,加之智能化的思考能力,可以出色地填补人类天然的缺陷。不但保证大数据的平稳、准确运行,更能科学地抉择最优算法,实现效率与准确的双赢[5]。就现阶段而言,曾经一战成名的人工智能机器人——“阿尔法狗”(AlphaGo)就是一个很好的例子。“阿尔法狗”(AlphaGo)是谷歌(Google)旗下产品,其主要的原理是“深度学习”。研发团队通过程序的设计为“阿尔法狗”(AlphaGo)构建下围棋的“思维神经网”,通过这个“思维神经网”,“阿尔法狗”(AlphaGo)得以缜密计算落子概率以及对手棋路。依靠这种强大的计算能力和缜密的逻辑思维,“阿尔法狗”(AlphaGo)曾击败人类围棋世界冠军李世石。

2)人工智能产品在医疗领域的应用

在医疗领域中投放人工智能技术主要有以下几点应用。其一,利用人工智能的大数据分析技术,使医药自身的研究以及药物与病症相对应的准确度得以提高。其二,应用人工智能的先进技术对患者进行医学检查,从而辅助医生确诊以及随时监测患者的病情。其三,直接使用人工智能产品模拟医生的思维对病患进行病情诊断,确保病患得到及时的医学治疗[6]。医疗领域是人类社会生活的重要领域,自然人之间的医患关系尚且紧张,更何况引进了人工智能产品的应用。因此,立法者在进行人工智能产品侵权责任立法时,需要更为详细、全面地考虑到立法可能会带来的法效果。

3)人工智能产品在自动化领域的应用

自动化涉及的领域广泛,在农业、工业、商业、服务业等均有涉及,本文不加赘述,仅举两个与当下社会生活最为贴近的例子以供参考。其一,智能汽车领域。智能汽车的研发需要集成多种学科技术,广义的智能汽车技术是以信息技术和通讯技术为背景,通过车载监控设备以及道路监控设备实时监控道路环境,再通过互联网和卫星定位技术等降低事故发生率,从而实现汽车的自动驾驶或是半自动驾驶[7]。其二,工厂流水线中,机器设备的自动化。在加工制造业中,很多操作精细化程度高,人力往往难以达到要求。此时,借助人工智能技术实现产业流水线的自动化不仅能够更高程度地达到产品所需的精度标准,同时能够极大提高产品生产的效率。而且随着技术的进步,自动化流水线的应用已经不再局限于工业、制造业,在快递服务行业应用的包裹分装自动化也成为一种新的趋势。

4)人工智能产品在服务领域的应用

人工智能在服务领域的应用越来越广泛。通信行业中应用智能客服,酒店业中引进机器人作为侍应生。但是在囿于技术限制,服务领域的人工智能产品的智能化还不能完全达到服务标准,因此企业往往会在应用人工智能产品的岗位上同时配备人工服务,用以弥补智能产品的服务缺陷。但随着技术的不断成熟,我们不难想见,在未来的发展中,人工智能在服务领域的应用将得到大大延展[8]。

3.人工智能产品的法律地位

明确法律地位是分析法律关系的前提。同样的,在研究人工智能侵权责任体系之前,首先要对人工智能产品的法律地位有一个明确的认识。在此基础上,才能够探究其后的法律适用框架。那么,现阶段中的法律体系中,人工智能产品处于一种怎样的地位,随着技术的进步这种地位是否有必要予以法律上的变化,这些都是我们需要讨论的问题,也是人工智能侵权责任体系构建时不可避免的前提。

3.1.现行法律制度的缺位

首先,人工智能产品作为人类发明生产出来的产品,是一种物的存在,因此其具有天然的客体性。然而,由于人工智能产品具有智能化的特点,能够自主决策完成行为。并且,随着技术的进步,智能化程度将越来越高,其体现出来的智能特性也在逐渐挑战传统意义上我们对物的定义。而根据现行法律规定,民事法律关系的主体限定于自然人、法人和非法人组织,对于人工智能这种新型产品显见不存在适用的余地。故而,随着科技的发展和实践中人工智能侵权案件的发生,其法律地位存在较大的争议空间。亦即,在现行法律框架下,由于法律本身具有的滞后性,人工智能产品在法律适用上将会出现一定的制度缺位。在这种情况下,把握时代的潮流,探讨人工智能产品的法律定位以及其配套侵权责任体系其实具有较大的实务意义和立法前瞻性。

3.2.现阶段人工智能产品的客体性

3.2.1.产品的客体性

民事法律关系以权利为核心,权利的主体是人,包括自然人和法人。而客体则是权利所指向的对象[9]。传统意义上的产品在法律上被称之为“物”,是民法上典型的客体。

3.2.2.现阶段人工智能产品的客体性

现阶段的人工智能技术处于弱人工智能向人工智能过渡的时期,技术进步迅猛,人工智能产品的智能化程度参差不齐。但就整体而言,产品运行仍旧是严格依据计算机指令进行,智能化程度较低,本质上未超出传统上物的定义。因此笔者认为,现阶段的人工智能产品综以客体视之当无疑议。但由于过渡阶段的特殊性,因此随着时间的推移,人工智能领域可能会存在某些产品率先突破客体性,从而引起赋予其法律人格的可能。

3.3.人工智能产品的法律地位前瞻性探析

当下,技术发展迅猛,智能化程度得到长足提升的阶段离我们并不遥远。因此,站在前瞻性的角度,我们也有必要对此短期未来阶段的人工智能产品进行法律地位的探析。当技术发展到人工智能阶段,人工智能产品已经能够实现运行的完全独立。智能产品为了实现指令目标,能够自主决策而不再限于机械化地执行预先编程结果。在这种情况下,智能产品的智能化程度得到极大提升,其行为表现上具备了类人化色彩。并且,技术的成熟人工智能产品的应用也将越来越广,其参与民事生活的领域也越来越宽泛。那么当人工智能产品发生民事侵权行为时,我们是否要将其作为主体看待?

笔者认为,探讨未来阶段人工智能产品法律地位时,我们需要兼顾立法可能性和社会发展的实际需要。就人工智能产品的法律主体地位而言,在制度确立上具备立法可能性,但却缺乏社会需求的必要性,亦即在立法上缺乏必要性。下文将分而述之。

立法可能性探究。笔者认为在短期未来阶段赋予人工智能产品以法律拟制人格具有立法可能性的理由主要有两点。其一,该阶段的人工智能产品已经具备一定的自我思考能力,能够根据实际境况自主决策,其运行已经脱离人类而实现完全的独立。因此,在这个阶段,进行人工智能产品法律人格拟制已经能够排除技术障碍,即智能产品所达到的技术水平已经使得它具备相当的法律上所称之意思能力,亦即,人工智能产品开始具备一定的类似于人类的民事行为能力。故而,其实体技术支撑已经允许法律上在相应的、限定的范围内赋予人工智能产品以法律人格[10]。其二,现行立法中有法人制度作为借鉴。二者虽然存在差异,但就实质而言,都是法律人格拟制。因此,人工智能产品法律人格拟制在立法上存在一定的制度先例,则相应的,其立法理论障碍相对较小。总的来说,在立法可能性探究上,笔者主要关注两点:产品本身的智能化程度以及法律人格拟制的理论支撑。且笔者认为,至技术发展至人工智能阶段,上述所谈两点皆不能成为立法之阻碍因素。

但值得注意的是,立法上的可能性成立并不意味着立法之必行,一项新设法律的背后往往需要更大的综合效益支撑。即该项制度的设立能够顺应社会发展的需要,能够对社会规制起到相当的弥补作用。亦即其必要性之所在。

立法必要性探究。就立法必要性而言,笔者亦将分成两点进行论述。其一,现行制度框架下,侵权行为法律体系已经较为完备。以人工智能产品的客体性为基础,《民法典》侵权责任编和《产品质量法》的相关规定已经可以基本处理人工智能产品侵权责任的实务问题。故而,法律上仅仅需要在具体条款中作出人工智能相应的特殊规定即可,而并无变更其法律地位的必要。其二,责任能力是侵权责任体系确立中非常重要的考量因素,也是法律在赋予人工智能产品以拟制人格所须考虑的必要因素之一。但以笔者的观点,人工智能技术虽然在不断发展,其产品独立能力也在不断提升,然而就绝大部分产品而言,其独立性都将受限于各自的适用领域。亦即人工智能产品仅在某一或某些领域能到达到高度的智能化,但不可能如同自然人般实现领域不受限制的、全方位的独立。因此,在这种情况下,人工智能产品能够获取自身独立财产的余地很小,亦即,绝大部分人工智能产品本身其实并不具备相应的责任能力用以支撑其主体地位之成立。

综上所述,笔者认为,随着技术的进步和产品独立性的提高,法律赋予人工智能产品以拟制人格其实并不存在太大的立法障碍,但是综合其立法之后的实务效益考量,笔者认为这种拟制人格在将来较长的时间内似无必要。毕竟,人格拟制的基础是责任能力,因此,在人工智能产品普遍不具备责任能力的情况下,其人格拟制的意义也就十分有限了。

4.人工智能产品侵权责任承担制度探析

前文所述,笔者认为,对于人工智能产品而言,法律不必变更其法律地位,而是以其客体性为基础,在现行侵权法律体系中进行细化、特殊化规定即可。但基于人工智能产品主体地位的立法可能性,故而下文讨论之基础将不以人工智能产品的客体地位为限。

其实,无论人工智能产品的法律地位而何,其制度构建都离不开传统侵权责任体系基础。

在传统侵权法律关系中存在着双方主体,被害人和加害人。在研究侵权责任承担时,问题之关键是责任由何者承担。对于这个问题,各国法律具有一个相对通行的原则,即一般情况下被害人须自受其损,仅在特殊理由发生时,才能请求加害人承担损害赔偿。而所称之特殊理由,是指应将损害归由加害人承担而使其负有赔偿责任的事由,学术上称之为归责原则[11]。归责原则在研究侵权行为时,居于核心地位。故而,我们在探析人工智能产品侵权责任承担制度时也会围绕这点展开,以此为核心,笔者将尝试探析其相关主体,以及各自适用的归责原则,最后再讨论构成要件等问题。

4.1.人工智能产品侵权的责任主体

人工智能产品从设计、生产、销售到终端使用的过程中,经手主体众多,因此当相关主体出现前文所述之特殊理由时,则有可能成为责任主体。

4.1.1.产品设计研发者

就人工智能产品而言,其内部的程序设计相当于它的大脑,是产品进行运作和深度学习的基础,更是人工智能产品安全运行的灵魂所在。实践中,人工智能产品侵权,多是由于系统故障造成[12]。因此,将产品设计研发者纳入责任主体考量,应为合理。且由于产品设计研发者对整个产品的设计、构造起着至关重要的作用,其专业性较强、注意义务较重,因此从这个角度看,在后续设置归责原则时,应当予以适用较为严格的归责原则。

4.1.2.产品生产者

当人工智能产品进入到生产环节,则应由生产商履行相应的义务。在生产环节,采取何种生产标准、提供何种生产环境、在生产过程中应当注意的操作事项等等都由生产商负责。倘若其中某一环节出现瑕疵而导致产品侵权事项,则生产商可能成为侵权责任主体。同时,生产环节亦是对人工智能产品的质量、性能、安全性等各方面参数起关键性影响的环节,因此在生产者的归责原则适用上,也应相应严格。

4.1.3.产品销售者

单就人工智能产品销售者而言,其本身与技术无涉,仅仅是作为买卖合同主体而参与到民事活动中。由此可见,当发生侵权时,让产品销售者承担责任的余地较小,但若其在交易过程中发生须承担侵权责任之特殊事由,则产品销售者亦能成为责任主体之一。

4.1.4.产品所有者及其实际操作者

当人工智能产品进入到终端使用环节,往往会出现两方主体:产品所有者和产品的实际操作者。而就侵权行为而言,由于现阶段智能产品的智能化程度普遍有限,因此,侵权的最终完成往往表现为前述二者操作下的结果。故而,在讨论人工智能侵权责任主体时,产品所有者及其实际操作者其实无可避免。且退一步而言,即便智能化达到一定的成熟程度,产品所有者和产品的实际操作者仍然有可能承担侵权责任,只是在特殊事由上或稍有不同或是存在一定的免责事由。仅举自动驾驶汽车为例,自动驾驶汽车的驾驶模式可分为自动驾驶和半自动驾驶。在半自动驾驶状态下,驾驶员有可能因过失驾驶行为而承担侵权责任,而在自动驾驶模式下,驾驶员可能因为并无实际驾驶而不发生过失驾驶事由,但除非驾驶员能够证明自己是合法地使用自动驾驶模式,否则仍可能需要承担侵权责任。关于此点,德国在2017年通过的《德国道路交通法修正案》上已有规定[13]。

4.1.5.人工智能产品本身

在人工智能产品作为法律关系客体的基础下,产品本身作为责任主体的前提也就相应不存在。但有的观点认为,当人工智能产品作为主体时,其可能由于自主决策之疏忽或其他基于自身事由而产生侵权行为。在这种情况下,人工智能产品作为当事一方,于特殊事由的归责上成立合法主体,故而亦当可能成为侵权责任之主体。

4.1.6.其他

除了上述几类常见的主体外,实践中还可能出现其他的侵权责任主体。比如,当人工智能产品曾被维修过,那么其经手的维修师可能会成为责任主体。再如,在自动驾驶汽车领域,除了智能汽车本身的程序设计外,在自动驾驶过程中还应用到了互联网技术、卫星定位技术、环境监控等技术。那么当侵权行为和这些技术故障存在因果关系时,相关技术的责任人也应当考虑其成为侵权责任主体的可行性。

4.2.人工智能产品侵权责任的归责原则

从理论角度考虑,无论是加害方还是受害方,只要具备法律主体资格,皆有可能成为责任承担者。而当法律参与其中,对责任进行分配时,首先需要一套归责原则。就现行的侵权行为立法体系而言,中国施行的是以过错责任为原则、无过错责任和公平责任为补充的归责原则制度体系。因此,在现行法律框架不变前提下,笔者将依据上述三项归责原则进行论述。

4.2.1.过错责任原则

过错责任原则细分之下又分为两种情形:过错原则和过错推定原则。根据过错原则之规定,在法律没有另行特殊规定的情况下,侵权行为人要为其过错承担责任,反之,无过错则无责任。实践中的侵权案件中,适用最广泛的即是该条该款。而对于过错推定责任原则,其本质仍是侵权人就其过错承担责任,只是在举证责任的分配上进行了责任倒置。其背后的立法目的是衡平当事人权利义务,保障实质公平。因此,法律中适用过错推定原则的情形都要经过特殊规定,主要有无民事行为能力人在学校、幼儿园或者其他教育机构学习、生活期间受到的人身损害的、动物园管理责任、建筑物、构筑物或者其他设施脱落、坠落造成他人损害等情形[14]。

由此可见,过错责任是一般归责原则,除法律特殊规定外予以适用,而特殊规定的基础则是特殊立法考量、立法目的。因此,将这套思维套入到人工智能产品侵权的过错责任原则中,我们发现其立法原理是一样的。其一,原则上,人工智能侵权行为中所涉及的所有过错主体均须对自身的过错行为负责;其二,涉及特殊立法考量时,法律需要另行明文规定,始得适用过错推定原则。在人工智能产品侵权的归责原则适用中,除人工智能产品外的传统侵权主体能够在现行法律制度中找到相应的规定,而就人工智能产品本身侵权而言,笔者认为,应当类比自然人侵权,适用过错原则。但当人工智能产品兼具其他身份或适用于特殊领域之时,则又可比照现行制度之过错推定原则。但总体而言,人工智能产品作为主体而侵权时所涉之主体、情形诸多,究竟何者在何种情形之下应当具体适用何种过错责任原则,实在需要更多、更深的法律分析和研究,不在本文讨论范围之列。

4.2.2.无过错责任原则

无过错责任原则即不论侵权人过错与否,只要侵权人的行为与受害人损害之间存在因果关系则侵权人需要承担侵权责任。无过错责任原则作为过错责任原则的补充,其适用需要经过法律特殊规定。现行立法中适用无过错责任原则的情形主要有:产品缺陷致人损害、高度危险作业致人损害、环境污染致人损害、饲养的动物致人损害等。笔者认为,在人工智能产品侵权归责原则适用中,产品设计研发者、互联网系统研发者以及产品生产者可以依照现行法律适用无过错责任。

4.2.3.公平责任

公平原则的适用以双方均无过错为前提,是为解决双方经济实力悬殊情形下法律的实质公平问题。在实践中多由法官自由裁量而成,本文不做过多论述。仅为体系之完整性,在此闲赘一笔。

4.3.人工智能产品侵权的构成要件探讨

适用的归责原则不同,则构成要件会有相应的不同。过错责任原则项下适用侵权四要件:主观过错、侵权行为、因果关系、损害结果。而适用无过错责任原则的特殊侵权中,只要满足人工智能产品的侵权行为所导致之损害后果,与其行为存在因果关系即可[4]。

4.4.人工智能产品侵权的责任承担

当侵权责任主体为除智能产品本身外一般传统主体时,自可参照现行法律规定。但当讨论到人工智能产品本身承担侵权责任时,则有两点值得特别注意。

其一,责任承担的基础是相应的责任能力。因此,人工智能产品本身承担侵权责任的讨论价值仅限于具备一定责任能力的智能产品。亦即,仅在人工智能产品具备责任能力的前提下,法律始得具有讨论其责任承担问题的意义。

其二,人工智能产品之法律主体地位乃由法律拟制而成,因此其法律人格存在天然限制。故则,当法律裁判其承担侵权责任时,其责任财产应以何者为限?对于此点,笔者认为可以参照现行法人制度,为人工智能产品创设一套“刺破面纱”制度。原则上以人工智能产品自有财产为限,只有在法定情形下才可揭开其“面纱”,由产品的所有权人承担连带清偿责任[10]。为解决产品本身清偿能力不足的问题,法律还可以规定相关的强制保险制度[15]。且基于人工智能产品主客体可能合一的特殊性,该强制保险制度的设计应当综合参照现行法律中关于人保、物保的规定,制定出一套切实可行的人工智能强制保险制度。

5.域外相关案例及立法探析

2018年3月,Uber自动驾驶汽车在美国亚利桑那州的坦贝市进行测试时,撞上一名横穿马路的女性行人并最终导致其死亡。这不是无人驾驶汽车第一次发生事故。事实上,自人工智能产品问世以来,侵权事件时有发生。从上个世纪发生在日本的机器人伤人事件到近年来多次发生的自动驾驶汽车交通事故,这些事情无一不在提醒我们,关于人工智能产品侵权的立法已经迫在眉睫。

在人工智能领域,关于自动驾驶汽车的立法已经走在前沿,美、德及欧盟国家在早几年即有相关立法出台。2016年9月,美国国家公路和交通安全管理局(NHTSA)发布更新版的自动驾驶汽车政策指南,用以明确联邦及各州对自动驾驶汽车的监管事项[16]。美国的部分州也已通过立法,确立了自动驾驶汽车侵权中原始生产者、改造者之间的责任分担[17]。2017年5月12日,德国议会通过《德国道路交通法》修正案,承认了自动驾驶汽车的上路资格,德国成为最早允许自动驾驶上路的少数几个国家之一。而英国则将立法重心放在自动驾驶汽车的保险事项上,以期被侵权人能够从保险公司处获得赔偿。

为了顺应技术的发展和社会现实的需要,世界各国开始积极研究人工智能产品的立法事项,但总体而言,无论是在人工智能的立法范围还是立法深度,世界各国都还处于探索阶段,各国的立法都还需要极大推进。

6.立法建议

人工智能领域的立法是科技进步所必需的产物,随着其产品智能化的提高,确立其主体地位成为可能;随着其更为广泛、更为深刻地参与到民事活动中,其配套法律体系的完善也随着形成必行之势。但是立法行为是综合考量的结果,立法上的可能性不一定发展成为必然性。就人工智能侵权责任体系而言,笔者从一开始就持有保守态度,认为经过法律条文的细化、特殊化规定,则现行之客体性基础仍能适应技术和社会发展的需要。但从立法可能性上分析,笔者又不排斥人工智能主体地位成为法律现实的可能。并且认为,只要从法律配备上进行完善,立法可能也能成为立法现实。只是后者观点,并不存在足够的现实必要性作为立法支撑。这两种态度的背后反应了不同的立法价值,笔者的观点囿于本身的学识、经验,必定存在不可估量的残缺。故而笔者只能就自己所见、所想略表一点想法,而在实际立法中,必定是要更加全面地考量不同立法所带来的绝然不同的法效果、社会效果。

7.总结

因此,总的来说,保留人工智能产品的客体地位是一种相对保守的做法,但在其后的制度完善和实务适用中对立法者、司法者的挑战较小。而确立人工智能产品法律主体的地位则是一种制度创新,在后续的侵权责任制度构建时,更多得则是制度的发现和重新归类,立法挑战较大,司法上也将可能出现一定时期的不适应性。但不可否认地是,无论采用何种选择,随着科学技术的不断进步,人工智能产品总是会不断地挑战同时期的法律规定。而这,是技术发展不可逆转的洪流。面对这样的困境,立法者应当抓住核心,以不变应万变,以传统法律框架为基础,结合技术发展、时代特性进行最优的、必要的选择、调整和创新,最终制定出符合社会潮流、时代进步、人民需求的良善之法。

参考文献

[1]王利明.人工智能时代对民法学的新挑战[J].东方法学,2018(3):4-9.[2]刘威衡.刍议人工智能的现状及其发展趋势[J].通讯世界,2018,25(12):300-301.[3]段明赫.人工智能的发展现状及应用[J].通讯世界,2018,25(12):223-224.[4]刘小璇,张虎.论人工智能的侵权责任[J].南京社会科学,2018(9):105-110+149.[5]王欣宇.人工智能发展中的应用与反思[J].电脑迷,2018(12):150[6]潘奔翔.刍议人工智能的发展前景[J].中国新通信,2018,20(22):144.[7]吴东盛,陈青,陈芷衡.智能汽车未来的发展趋势[J].发展改革理论与实践,2018(3):19-22+18.[8]徐楷明.浅析人工智能的应用与发展[J].通讯世界,2019,26(1):310.[9]王泽鉴.民法总则[M].北京:北京大学出版社,2009:195.[10]袁曾.人工智能有限法律人格审视[J].东方法学,2017(5):50-57.[11]王泽鉴.侵权行为[M].第三版.北京:北京大学出版社,2016:11.[12]马雪萌.人工智能时代的侵权责任研究——以无人驾驶汽车为例[J].法制与社会,2018(19):48-49.[13]谢薇,肖飒.自动驾驶汽车的交通事故损害赔偿责任[J].长安大学学报(社会科学版),2018,20(4):25-35.[14]赵银仁,何源,火煜雯,刘超.侵权行为归责原则的历史演进[J].网络财富,2009(18):171-172.[15]梁鹏.人工智能产品侵权的责任承担[J].中国青年社会科学,2018,37(4):11-14.[16]美国交通部.联邦自动驾驶汽车政策[Z].2016:38.[17]张童.人工智能产品致人损害民事责任研究[J].社会科学,2018(4):103-112.

医疗人工智能面临四方面的主要法律问题

2021年4月24日,国家卫生健康委员会医院管理研究所、《中国数字医学》杂志社、社会科学文献出版社共同发布了《人工智能蓝皮书:中国医疗人工智能发展报告(2020)》。

医疗人工智能面临的法律问题,其核心或者出发点是对大数据与核心算法的规制。因为大数据与核心算法是医疗人工智能的灵魂与表现形式。然后确立规制医疗人工智能的基本原则。医疗人工智能基本原则是安全、有益、平等,最终目的是以人为本。还有一个问题是医疗人工智能的知识产权问题。在确定了出发点与最终目的之后,就从以下几个方面进行规制。

1. 是否可以确立医疗人工智能(或者“机器人医生”)的法律人格

医疗人工智能的法律人格问题可以分为两个层面:一个是是否必须确定医疗人工智能法律人格的问题;另一个是如何确立医疗人工智能的法律人格的问题。人工智能通过深度学习,逐渐呈现出一些“自主性”的特征。“机器人是人吗?”这个问题变得越来越重要。因为人工智能的民事主体身份的确认是明确其法律行为、法律责任、归责原则等问题的基础。在传统的民法体系中,民事主体有自然人、法人、非法人组织、国家与国际组织。深度学习的强人工智能是否可以被赋予有限的民事能力,是否能以“机器人”的名义位列民事主体是一个重大的法律问题。

2. 如何设定医疗人工智能的诊疗规则

法律是以国家名义颁布的、以权利义务为内容的、以国家强制力保障的主体的行为规范。无论是设定医疗人工智能的民事主体身份,还是把医疗人工智能当作医生的医疗辅助手段,都必须有相关的法律文件对医疗人工智能的诊疗行为进行规制,例如,关于机器人手术的相关法规,2012年,国家卫计委印发的《机器人手术系统辅助实施心脏手术技术规范(2012年版)》和《机器人手术系统辅助实施心脏手术技术培训管理规范(2012年版)》。但实际上,手术机器人不仅做心脏手术,还做脑部、胸部、腹部、四肢等多部位手术,但其他的相关法律法规的设立还在摸索初期,国际公认的手术机器人标准也尚未形成。

3. 法律责任归责原则与承担方式

医疗人工智能导致医疗损害的责任认定要从两个层面去进行法律架构:一个是法律责任的归责原则;另一个是法律责任的承担方式。医疗人工智能有可能因硬件故障、程序漏洞、深度学习后的自主性等引发医疗事故,例如,在英国2015年首例“达·芬奇”手术机器人心瓣修复手术中,机械手臂乱动打到医生的手,还把病人心脏放错位置,戳穿了患者的大动脉。我国《侵权责任法》规定:“责任医师或医疗机构对患者在医疗服务中所受的损害有过错的,医疗机构应承担赔偿责任。医疗器械产品缺陷导致的医疗损害,由医疗机构和生产者承担连带赔偿责任,适用无过错责任原则。”很显然,《侵权责任法》考虑到了由医疗器械导致的损害的责任承担问题。但是在由具有自主性、独立性和拟人性的医疗人工智能导致的医疗损害的案件中,谁是责任主体、应用什么归责原则,却是一个新问题。

4. 风险防范问题

(1)隐私风险

患者个人的医疗数据包括个人基本信息,比如姓名、年龄、性别、住所、籍贯、工作单位、联系方式等,还包括身体指标、既往病史、诊疗记录、生物基因信息等健康信息。这些相关的隐私信息如何收集,如何储存,如何使用,如何在保障患者知情权的情况下,合法获取患者的疾病信息都是重要的法律问题。

(2)数据安全

医疗人工智能的深度学习需要收集并分析海量的数据资源。而这些数据资源关系到国计民生,甚至国家战略决策,一旦泄露后果不堪设想,例如,2015年我国深圳某基因科技服务有限公司、某医院与英国牛津大学开展合作研究,研究中国人类遗传资源。在合作过程中,中国公司把人类遗传资源信息通过网络传递到国外,且没有经过相关部门的批准与许可,因此收到科技部的行政处罚书。2016年,英国伦敦皇家自由医院为了研究肾脏医疗新方法,约160万名患者的相关信息被该医院交给“深度思维”公司,因为侵犯患者隐私,侵犯患者知情同意权,“深度思维”公司数据来源的合法性和正当性受到质疑,同时皇家自由医院也因传递患者信息这一行为被英国信息委员会要求整改。因此如何充分利用大数据以供人工智能的深度学习同时保护好大数据安全也是一个期待解决的法律问题。

(3)医疗人工智能深度学习后的“自主性”导致的风险

上海交通大学江晓原教授认为人工智能的发展的会对人类造成远期、中期、近期的三大威胁。“近期威胁是大规模失业与人工智能的军事化应用。中期威胁是人工智能的失控与反叛。远期威胁是至善全能的人工智能消解人类的生存意义。”人工智能通过大数据的喂养与“自主性”地深度学习,成为各个领域的实际控制者。民众不知不觉地被无形的、强大的算法技术管控与统治,无法抗拒。如被算法控制的打车平台、自动驾驶与导航系统、银行对个人或者企业的信任风险评估体系、互联网的广告分发系统、媒体软件的内容推送系统、犯罪预警系统、股票与基金模型等,其中一些具有偏见与歧视的算法被数据科学家称为“数学毁灭武器”。尤其是人工智能的反叛与失控可能会给人类带来毁灭性的打击,因此如何防范人工智能深度学习后的“自主性”导致的风险是一个极其重要的法律问题。

(4)伦理风险

人工智能有可能因为设计者的偏见与歧视,或者经过深度学习后习得了偏见与歧视,这种有意或者无意的偏见与歧视会导致不公平,或者对某些特定群体不利。因此我们要防止技术的滥用和异化,尽量避免歧视与偏见,避免损害生命体的尊严。在真实世界中,昂贵的医疗人工智能诊疗新技术的应用有可能侵犯贫困患者平等的生命健康权利;优生优育计算软件有可能剥夺某些缺陷胎儿的生存权利;利用医疗数据软件指导开发的某些药物与医疗器械有可能不利于某些特定人群、种族、性别等。算法的不透明,有可能严重影响消费者利益,甚至有可能通过辅助决策与执行影响公共政策。当然还有战争机器人的伦理问题等。

(参见《人工智能蓝皮书:中国医疗人工智能发展报告(2020)》p127-131,社会科学文献出版社2020年12月)

 

人工智能“作品”,著作权谁属

原标题:人工智能“作品”,著作权谁属

树影压在秋天的报纸上/中间隔着一片梦幻的海洋/我凝视着一池湖水的天空……

这么优美的诗句不是出自哪个诗人之手,而是来自人工智能――微软“小冰”。2017年5月,“小冰”创作的诗集《阳光失了玻璃窗》正式出版,这部诗集是“小冰”在学习了519位诗人的现代诗、训练超过10000次后创作完成的。

除了微软“小冰”,其他公司也开发了众多人工智能产品用于创作各类文学和艺术“作品”。例如,谷歌开发的人工智能DeepDream可以生成绘画,且所生成的画作已经成功拍卖;腾讯开发的DreamWriter机器人可以根据算法自动生成新闻稿件,并及时推送给用户。这些由人工智能创作的成果从外观形式来看,与人类创作的成果没有任何区别,而且也很难被察觉并非由人类所作。可以说,与以往技术创新相比,人工智能技术对著作权法提出的挑战是最根本,也是最全面的――

一是人工智能的主体资格问题。根据我国著作权法的规定,作者包括自然人作者以及法人作者;前者是指创作作品的公民,后者是指作品在由法人主持,代表法人意志创作,并由法人承担责任时,将法人视为作者。要承认人工智能是作者,事实上也就意味着要在著作权法上创设一种新的独立法律主体,这将遇到极大的法律和伦理障碍,在相当长的一段时间内恐怕都难以实现。

二是人工智能生成物的作品资格问题。著作权法基本理论认为:作品应当是人类的智力成果,也只有人的智力活动才能被称为创作。在人工智能生成物的著作权问题引起广泛关注之前,法学界曾讨论过动物产生的内容可否构成作品的问题。例如:在美国,一只黑猕猴使用摄影师的相机拍摄了几张自拍照,其著作权问题甚至引发了两起诉讼。为此,美国版权局还专门发布相关文件,强调只有人类创作的作品才受保护。有学者认为,人工智能生成物并非人类作者的智力成果,因此不构成作品。也有学者认为,人工智能生成物是由人类作者设计的作品生成软件产生的成果,实际上是人机合作的智力成果,并没有违背著作权法的人格主义基础。

三是人工智能生成物的权利归属问题。目前提出的方案主要有3种。第一种方案是承认人工智能生成物是作品,但是不给予保护,将其投入公有领域。主要理由是著作权法的立法目的在于鼓励作品的创作和传播,而机器无须激励。第二种方案是创设一种新的邻接权制度,以区分人工智能生成的作品与人类创作的作品。第三种方案是在现行著作权法框架下,通过法律解释的方式作出适当的法律安排。至于是将著作权归属于人工智能的所有者、研发者还是使用者,意见尚未统一。

四是人工智能生成物的侵权问题。人工智能在进行“机器学习”过程中,需要使用大量已有作品。例如,“小冰”是在学习了众多现代诗之后创作的诗集,其中必然会有一些作品仍然处于著作权保护期内。那么,在未经作者授权的情况下,对其作品进行商业性利用是否构成侵权?普遍观点认为,为了促进人工智能发展,应当将“机器学习”过程中使用他人作品的行为作为例外处理。

对于上述问题的争论,以往都处于纯理论层面。让人振奋的是,在今年4月26日世界知识产权日当天,北京互联网法院对国内首例人工智能作品争议案作出了一审判决,为理论探讨提供了新鲜的实践素材。

对于主体资格问题,北京互联网法院认为,尽管随着科学技术的发展,人工智能生成物在内容、形态,甚至表达方式上日趋接近自然人,但根据现实的科技及产业发展水平,尚不宜在法律主体方面予以突破。就人工智能生成物可否构成作品问题,法院强调指出:虽然由人工智能生成的分析报告具有独创性,但是自然人创作仍应是作品的必要条件。在该案中,分析报告既不是由人工智能的研发者(所有者)创作,因为其并未输入关键词来启动程序;也不是人工智能的使用者创作,因为该报告并未传递其思想、感情。分析报告是人工智能利用输入的关键词与算法、规则和模板结合形成的,应当被认定为是由人工智能“创作”的。然而,构成作品的前提条件必须是自然人创作,因此,该分析报告不是著作权法意义上的作品。不过,法院也认为,应给予人工智能生成物以一定的法律保护,因为其具备传播价值。

笔者认为,对于人工智能生成物的著作权定性这一极具争议的问题,作为社会稳定器的法院采取相对保守、平衡的立场,是合适的。需要指出的是,如果人工智能生成物不被承认是作品,相关主体出于利益最大化的考量,很有可能会采取隐瞒相关成果是人工智能创作的事实,因为从外观形式上无法区分文学艺术作品究竟是人类还是人工智能创作。

有关人工智能生成物的著作权问题,有的国家已积累了一些经验。英国《1988年版权、外观设计和专利法案》规定,对于计算机生成的文字、戏剧、音乐或艺术作品而言,作者应是对该作品的创作进行必要安排的人。对计算机生成作品进行“必要安排”的人,可能包括人工智能的投资者、程序员、使用者,也可能是上述主体共同构成。因此该条款具有一定的开放性,赋予了法院较大的自由裁量权。

从历史来看,知识产权法领域一些重大的理论突破与制度创新,都是通过法院经由个案,通过不同观点的交锋、碰撞,甚至结论“反转”,最终达成共识来推动的。笔者相信,人工智能生成物的法律性质问题也将如此。未来,将有更多相关争议进入法院,让业界有更多的机会展开讨论,毕竟“真理越辩越明”。

(作者:万勇,系中国人民大学法学院教授)

(责编:龚霏菲、王珩)

分享让更多人看到

版权声明:本文内容由互联网用户自发贡献,该文观点仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌抄袭侵权/违法违规的内容,一经查实,本站将立刻删除。

上一篇

下一篇