人工智能的侵权责任及其责任主体
272人工智能的侵权责任及其责任主体韩 雪 中国民航大学摘要:随着社会与科技的进步,人工智能的应用时代已经来临。初期的人工智能仅仅是作为一种被设置好运行算法的工具,其作用往往是单一的,更多的是作为“机器”这种“物”的存在。然而,随着时代的发展,初级人工智能逐步向高级人工智能过渡。笔者认为高级人工智能虽然依旧是被人类提前设计好运行算法,但并非人类一直控制的工具,而是可以随着指令、环境和情形的变化自主地做出判断选择。高级人工智能应当具有部分人格,其造成的侵权责任应当使用公平责任原则,实行替代责任制可能将成为一种解决人工智能侵权的办法。关键词:人工智能;侵权;责任主体;归责原则中图分类号:D923.7 文献识别码:A 文章编号:1001-828X(2019)034-0272-03一、关于人工智能的概论随着科技的不断发展,人工智能的应用时代已经来临。初期的人工智能作为人类创造的具有辅助性功能的工具确实为我们的生活带来了极大的便利。早期的人工智能仅仅是作为一种被设置好的运行算法的工具,同时算法本身便是运行规则。它的作用往往是单一的,更多的是作为“机器”这种“物”的存在。然而,无论人们接受与否,人类目前即将处于的正是这种初级的人工智能向高级的人工智能过渡的时代,所谓的高级人工智能是指虽然依旧是被人类提前设计好的运行算法,但并非人类一直控制的工具。该类人工智能可以随着指令、环境和情形的变化自主地做出判断,并根据自己的运行算法做出判断选择。例如,苹果公司设计的智能虚拟手机助手Siri,当用户对智能助手Siri发出指令时,Siri本身的软件会评估所接受到的命令,并做出相应的判断,将选择后的信息进行传送,这就是典型的高级人工智能。如果说初级的人工智能的算法是“感知命令——做出行动”的话,那么高级的人工智能的算法则是“感知命令——自主判断——做出行动”。虽然现阶段的人工智能仍旧不能完全脱离人类的控制与操作,但比起初级人工智能单纯“接受命令”和“做出反馈”,已经有了“自主判断并做出选择”这一不受人类控制的运行过程。此时的人工智能已经不仅仅是作为机器这种“物”的存在,而是拥有了像人脑一样对感知的信息进对筛选的过程,相比起“机器”的称谓,“机器人”形容高级的人工智能更为贴切。对人工智能而言,这无疑是质的飞跃。严格意义上,人工智能可以分为弱人工智能和强人工智能。弱人工智能是指人类设计并创造的人类智能的某些方面,其不能完全脱离人类的控制运行。前文论述的无论是初级人工智能还是高级人工智能都属于弱人工智能的范畴。简而言之,前文所举例的Siri就是依赖在手机软件中复杂的弱人工智能,并与互联网云端复杂的弱人工智能相联接,创造了一个具有用户友好型的高级弱人工智能项目。强人工智能则是具有与人类相当或者超过人类智能的智力水平,因而能够像人类一样解决任何问题,运行已经完全不需要人类的控制的。当然,目前来讲,强人工智能仍然是尚未实现的幻想。本文所论述的主要是弱人工智能之中的高级人工智能。二、关于人工智能的侵权任何新技术的出现都会引发新的问题,人工智能的发展亦是如此。据报道,谷歌的一个图片软件曾经将黑人标记成了大猩猩,黑人认为受到了种族歧视。2016年3月23日,微软公司的人工智能机器人塔娅上线,出乎意料的是,它一开始和网民聊天就被教坏了,成为了一个集反犹太人和种族歧视等观念于一身的不良少女,上线不到一天就被微软公司下线[1]。此外,除了社会问题,人工智能的出现与发展必然会对现行的侵权责任的法律制度带来不小的冲击与挑战。比如事故当事人将损害结果归咎于人工智能的侵权案例中最著名的就是全球定位系统的侵权案[2]。2009年,一个司机根据全球定位GPS的所提供的指令将车子开到了悬崖边上的一条极为狭窄的小路上,并将自己困在那里。事后据当地居民描述那条路是一条人都不能下马的路,最后该司机不得不报警求助。2012年,一个司机穿过并将车开进了有“不得进入”标志的一条道路,占用了其他机动车的道路,一方面是因该标志被庄稼掩盖,另一方面,全球定位系统也并未对该标志进 行识别与提示是司机违反交通规定的重要原因。尽管现行法院认为这些事故中,全球定位系统侵权的可责性是有限的,事故当事人并不能将责任归咎于人工智能而实现自身完全免责。但是,人工智能的不断发展使得其愈发深入我们的生活,不难预测未来我们是依赖人工智能的。因此,由于对人工智能的信赖,这样的问题必然会层出不穷。所以,我们可以设想一下这种场景:如果有一款专门用来帮助用户进行数据整理的人工智能,该人工智能可以对数据进行收集,之后分析筛选,最后对数据进行整合与处理,但是在分析筛选的过程中,将有用的数据视为缓存垃圾一并清理了,对用户造成了损害结果。从这个场景来看,该人工智能的设计创造者在编辑运算方法时的初衷是善意的,并不存在造成损害结果的故意,设计初衷就是为了解决用户的数据处理问题,但是出问题的是在人工智能“接受信息与指令”后“自主选择”的部分。即使运算方法是提前编辑的,但是该人工智能“自主选择”的部分无疑是不可控的,即使是运算的设计者也无从知晓人工智能在进行“自主选择”后作出怎样的反馈。那么在这种具有损害事实的情境下,该人工智能是否造成侵权,责任主体是该人工智能还是其设计创造者,侵权责任又应该由谁来承担?(一)侵权责任的归责原则根据2016年联合国科教文组织通过的《关于机器人伦理的初步草案报告》显示,该报告将智能产品(机器人)视为通常意义上的科技产品,对智能产品及其技术造成的损害,可由产品责任的相关制度予以调整[3]。在这种情况下,人工智能的侵权责任可以按照特殊侵权责任中的产品责任即无过错责任原则进行责任的确定以及追责,不需要证明过错的存在。但是,该报告仅仅是针对无独立意识的弱人工智能产品,那么拥有独立意识的人工智能被视为通常意义上的科技产品显然是不合理的。当然,本文对强人工智能不做论述。但是笔者认为,对于弱人工智能中的高级人工智能的侵权责任也不应当适用无过错责任原则。高级人工智能较之初级人工智能有了“自主选择”这一运算过程,虽然算法仍是由人类提前设定的,但是具体的运行过程与变量显然是不可控的。正是因为有了“自主Copyright©博看网 www.bookan.com.cn. All Rights Reserved.探寻生成式人工智能算法规制的思路
转自:经济参考报
近日,由中国人民大学法学院、中国人民大学未来法治研究院主办的“生成式人工智能算法规制——《生成式人工智能服务管理办法(征求意见稿)》学术研讨会议”召开,来自政府相关部门、高校研究机构、人工智能产业界的专家参加了本次研讨会。5月18日,第七届世界智能大会在天津开幕。大会期间举办开幕式、高峰会、平行论坛、智能科技展、智能体验等系列活动。智能科技领域的院士专家和企业家聚焦智能网联车、生成式人工智能、脑机交互等前瞻课题,深入探讨AI与经济、社会、人文等领域的热点话题。新华社记者孙凡越摄■中国人民大学未来法治研究院执行院长张吉豫:可以以发展、安全和法治三个关键词概括对ChatGPT为代表的大规模语言模型的系列关注。第一,生成式人工智能技术是划时代的发展,大模型在互联网、数据等架构上可能形成新的层次,深刻影响产业的发展和未来技术的进步。第二,从数据、算法、系统集成等角度来看,生成式人工智能的发展、创新中伴随着风险与挑战。第三,为调节好发展和安全之间的冲突,构建以人民为中心的智能社会法律秩序,对于推动人工智能技术健康有序发展具有重要意义。■百度公司副总裁吴梦漪:结合《生成式人工智能服务管理办法(征求意见稿)》的几个看法:一是将开放API和通过API调取功能认定为内容生产者可能提高了对合规义务的要求。二是将生成式人工智能认定为具有舆论属性和社会动员能力的互联网信息服务,可能泛化了适用范围。三是从实践的角度,内容生成的准确性与生成式人工智能技术原理存在冲突。因此,初始阶段监管层面的重点应从追求内容准确性转向对违法利用行为的打击。四是需要辩证看待数据的好坏。生成式人工智能具有一定的创作性,海量的训练数据有利于提高技术的发展速度,希望监管的重点在于生成式人工智能产品的质量,不宜对训练数据和技术路线做过于详尽的规定。五是综合考虑生成式人工智能服务的人机对话特点,简化对真实身份信息要求的规定。■腾讯研究院首席数据法律政策专家王融:对生成式人工智能的规制的几个建议。第一,生成式人工智能可能是未来新的信息时代最为基础的工具,超越了单纯的互联网信息服务,应以全新视角去看待。第二,制定规章是必要的,但是目前法律规范本身可能还需要进一步讨论新的问题;输出信息的质量方面有很强的市场自驱力;而大模型时代的底层网络安全和数据安全,发展更为优先。第三,三个月的模型优化训练期限在实践中难以落地,不妨考虑其他多种技术手段。最后,在AI发展领域,风险浮现是渐进式的,市场主体和监管主体应在共同目标和接近的立场下协同解决问题。■中国人民大学法学院教授王利明:应正视ChatGPT引发的问题,思考法律上如何积极应对。首先,面对生成式人工智能引发的人格权和知识产权方面的问题,立法过于超前可能会阻碍技术的发展和创新,通过发布管理办法或制定相关措施积累经验,条件成熟后再立法可能是相对稳妥的办法。对ChatGPT引发的侵权问题,提出五点建议:一是在价值取向上积极支持人工智能产品的开发。二是ChatGPT不同于自动驾驶等一般产品,让服务提供者承担无过错责任会阻碍技术发展,不符合鼓励技术创新的价值取向。三是可借鉴医疗事故责任的减免规则,因技术水平限制而导致难以消除的漏洞时,可以适当减轻甚至免除服务提供者的责任。四是加强和强化服务提供者对个人隐私信息的安全保障义务。五是关于ChatGPT的幻觉回答导致的侵权责任分配问题,应区别平台大规模生成与用户恶意诱导的情形。■中国社会科学院大学副教授刘晓春:从四方面提出监管的建议。一是监管必要性,若在新技术场景下,原有体系能解决大部分问题,就缺乏专门规制的必要性。生成式人工智能的重要风险点在内容层面,如果生成的内容没有传播,是否存在风险仍存在疑问;如果已经传播,则要考虑原有的治理系统是否能够解决问题。二是监管有效性,其核心问题是公权力对产业的治理或干预是否能真实、有效地达到基于监管必要性的风险治理目的。三是结合我国现有产业背景考虑监管技术的应用场景。未必每个企业都研发大模型,但是在应用层面具有各自极大的拓展商业的可能性,应为应用层面的商业模式留出发展的空间。特别是在对内容生产者的定义上不应拓宽。四是从立法基础的角度考虑协调性。比如,在实名制问题上与网络安全法相协调,在算法的评估和备案问题上,也应基于现有的机制协调。■对外经济贸易大学副教授许可:《生成式人工智能服务管理办法(征求意见稿)》与之前的法律、现有的实践和技术存在四大矛盾。第一,新法和旧法的矛盾。《互联网信息服务深度合成管理规定》中的深度合成技术和《生成式人工智能服务管理办法(征求意见稿)》中的深层次人工智能技术之间有何异同尚不明确,未来执法过程中可能产生矛盾。第二,域外效力和属地管辖之间的矛盾。《生成式人工智能服务管理办法(征求意见稿)》涉及的内容超出了《个人信息保护法》覆盖范围,部门规章是否能设立超出上位法的域外管辖权存在疑问。第三,网络信息内容安全管理和通用技术规制之间的矛盾。将通用性的人工智能限制在网络信息内容上,可能出现规制工具和规制目标的不匹配。实际上,在不同的场景下,生成式人工智能的风险因形态而异,如何判断其风险,需要模块化判断。第四,全流程安全要求和技术内在特征的矛盾。全流程的管理和生成式人工智能的特性不符,例如,预训练数据的合法性难以实现,数据与最后信息生成之间也并不存在直接映射关系。■对外经济贸易大学副教授张欣:在监管对象上,我国的人工智能企业此前多集中在应用层,在基础层和技术层分布相对较少。在监管方式上,面向生成式人工智能的产业链特点,可以提升监管的互操作性、一致性。在监管创新上,一方面应注重监管的韧性,另一方面应积极探索以模块化监管为代表的新型监管方式。对《生成式人工智能服务管理办法(征求意见稿)》的四点修改意见:第一,进一步厘清第2条对“生成式人工智能”的定义。第二,面向产业链特点明确第5条中“产品生成内容生产者”的范围,不宜通过一刀切的方式让所有行为主体都承担产品内容生产者的责任。第三,第7条关于预训练数据和优化训练数据来源的准确性问题可以适当调整,只要在可接受的技术水平条件下,组织和企业履行了相应义务,可认为符合人工智能准确性原则。第四,第15条关于防止再次生成的期限和防止再次生成的方式聚焦于技术过程,目前的技术手段上难以达成,可以转换为从结果监管的角度防止被用户举报的不合法合规的内容再次出现。■中国人民大学法学院教授万勇:在生成式人工智能对著作权法合理使用制度的挑战方面,生成式人工智能可能涉及著作权法上的复制权、演绎权和向公众传播权。但是,目前的合理使用类型难以适用于人工智能技术。其次,为了解决相关的问题,应人工智能产业发展的合理使用制度改革,主要有两种解决方案:一是重塑理论基础,提出“作品性使用”与“非作品性使用”的概念,为了数据挖掘目的而使用作品,只有部分情形属于“非作品性使用”;二是改造制度规范,包括增设具体例外条款或引入开放式例外条款。建议修改《著作权法实施条例》,引入专门例外,兼顾产业发展和著作权人的权利。■中国人民公安大学法学院教授苏宇:处于追赶中的国内生成式人工智能在风险治理之外也非常需要制度支持。生成式人工智能大模型面临算法解释难、算法审计难、算法标准形成难、算法影响评估难、算法认证难等问题。《生成式人工智能服务管理办法(征求意见稿)》的主要考量问题是信息内容安全问题,在安全保障方面设计了“六重叠加”的机制,包括输出端的生成结果控制、输入端的数据来源和数据信息内容限制、扩展的内容生产者责任、用户举报与主动监管结合、宽泛的信息提供义务、与算法推荐和深度合成等已有立法的有限衔接等。其中部分机制存在不同程度的安全冗余。除此之外,还有需要充分考虑的治理要点,包括生成代码的单独归类、训练数据的必要区分、输出结果的类型提示、数据来源合法性的具体界定等。总体来说,对生成式人工智能的法律治理,大幅度降低无效或低效风险冗余应当是机制设计的重要目标。■中国信通院高级工程师程莹:生成式人工智能第一大特点是通用目的性。作为新底层基础平台,AIGC供应链被拉长,研发者是否应承担责任,研发者、平台方、B端用户、C端用户等如何分担责任成为关键问题。征求意见稿第5条应对各个主体进行精细划分。第二个特点是内容生成性,带来了知识产权、虚假信息等问题。未来生成式人工智能代表了知识调用方式的变迁,将掌握绝大多数信息来源,相较于深度合成的重点标识义务,负有更高算法评估、自我审查等义务。然而,一刀切要求训练数据和生成结果的真实性可能与生成式人工智能的技术本质存在一定冲突。第三个特点是数据依赖性,这是人工智能一直以来的典型特征,但是呈现了新的形式,例如中文语料库输入不足带来的文化偏见、数据虹吸效应带来的数据泄露风险等,相关法律义务应注意保持与上位法要求的一致性。■中国科学技术信息研究所助理研究员刘鑫怡:英国的监管框架是基于人工智能应用场景来规范人工智能应用,而非规范人工智能技术,并不为整个行业或技术设定规则或风险级别。在监管依据上,在不确定的技术应用和治理中探索可量化、可定性的成本收益及影响,这对我国监管政策的出台有启发意义。在目前的大模型监管上存在难点。主要包括三方面:一是技术的局限性导致目前难以达到治理的高标准;二是大模型治理的方式和限度难以把握;三是目前多样化治理工具没有完全发挥作用。随着多模态大模型的研发和广泛应用,未来的风险问题会逐步深化。建议在统筹发展与安全的基础上,构建全生命周期的差异化监管机制,加强人工智能重点领域关键环节监管。同时倡导“以技治技”,开展安全可信技术的治理。海量资讯、精准解读,尽在新浪财经APP