博舍

人工智能与法治实践应引起更多关注与思考 人工智能与法律的对话PDf 网盘

人工智能与法治实践应引起更多关注与思考

人工智能的未来向何处走?人工智能与未来的法治构建关系怎样?7月10日,2020世界人工智能大会法治论坛将在上海举行,本届法治论坛主题为“人工智能的权利义务与法治实践”。

这一话题在沪上司法界和出版界已经引起关注和讨论。今年7月,上海人民出版社举办法治论坛系列活动“人工智能与法治”专题月读书会,邀请上海市法学会党组书记、会长,二级大法官崔亚东,与东方卫视首席记者、新闻评论员、主持人骆新一起,详解“上海刑事案件智能辅助办案系统”(简称“206系统”)的研发始末、功能应用及其最新发展等问题,探讨现阶段法律人的新任务。

如何让人民群众在每一个司法案件中都能感受到公平正义?上海政法系统用三年时间的努力,以一套软件的投入使用回答了这一问题——“推进以审判为中心的诉讼制度改革软件——上海刑事案件智能辅助办案系统”的诞生,是运用人工智能新技术破解司法难题、推动司法改革的成功实践。上海人民出版社出版的《人工智能与司法现代化》一书记录下这一推动司法现代化实践的全过程。

“人工智能是把双刃剑,带来发展的同时也迎来了风险与挑战。”崔亚东认为,虽然该系统的智能性使其从工具变成了助手,但并不能替代民警办案、法官判案。为此,上海法学界作出积极回应:通过举办高端论坛、发布《人工智能未来法制构建上海倡议》(2018)、发表《世界人工智能法治蓝皮书》(2019)、建立人工智能跨学科的人才培养等行动,服务国家人工智能战略的实施和上海“四个高地”建设,提出人工智能未来法治构建的新命题。

崔亚东说,人工智能的发展需要法治作为保障,建立人工智能法治体系,打造人工智能法治高地很有必要。他认为,智联世界,无限可能,人工智能技术的前景是广阔的。现阶段将辅助办案系统由刑事推广至民商事、行政领域,在民法典颁布实施的背景下,意义重大、作用深远。只有主动拥抱新科技、运用新技术,走好融合发展的道路,才能促进司法文明与公正,真正实现“在每一个案件当中都能让人民感受到公平与正义”。

在以“人工智能、大数据与国家治理”为主题的读书会上,华东政法大学人工智能与大数据指数研究院院长高奇琦围绕“人工智能与政府治理创新”展开讲述。高奇琦认为,人工智能会给政府治理带来革命性影响,可称之为“政府效率革命”。长远来看,人工智能的大量应用会减少行政成本,短期来看却未必,新基础设施的投入使用会造成数据存储成本和运行成本的增加。换个角度看,政府作为治理的客体,在运用大数据和人工智能技术时,也要关注智能时代的政府权力边界、避免政府治理异化、数据权力与数据饥渴、数据存储的权力图谱、公民隐私与政府数据的限度等方面的问题。

上海交通大学凯原法学院副教授、上海数据治理与安全产业专业委员会专家何渊分享了对“人工智能的限度及治理的五大风险”的思考。尽管目前的人工智能是一种弱人工智能,但并不意味着它没有任何治理风险,何渊重点分析了人工智能的五大治理风险:隐私保护、数据泄露、伦理问题、数据战争、国家能力。他强调,“国家数据能力是未来国家不可或缺的治理能力。具体来说,应避免互联网公司的数据技术能力替代国家的认证能力;大数据不能任由互联网巨头肆意收集而没有监管;互联网如果没有法律的约束,个人的隐私将不复存在;若无监管,互联网公司恐会变成国家无法控制的巨兽。”

据悉,上海人民出版社自2018年以来已连续三年推出人工智能与法律领域的系列图书——“独角兽法学精品·人工智能”丛书,该套丛书包括人工智能、大数据、区块链、算法等与法律交叉领域的最新学术前沿内容。目前,该丛书第三辑即将推出,包括《数据的边界:隐私与个人数据保护》《驯服算法:数字歧视与算法规制》《人工智能与法律的对话2》三本译著。上海人民出版社将于8月中旬的上海书展期间举办系列活动。(光明日报全媒体记者颜维琦)

来源:光明日报客户端

人工智能的数据合规与法律责任

2016年联合国科教文组织通过的《关于机器人伦理的初步草案报告》显示,该报告将智能产品(机器人)视为通常意义上的科技产品,对智能产品及其技术造成的损害,可由产品责任的相关制度予以调整。在这种情况下,人工智能的侵权责任可以按照特殊侵权责任中的产品责任即无过错责任原则进行责任的确定以及追责,不需要证明过错的存在。但是,该报告仅仅是针对无独立意识的弱人工智能产品,那么拥有独立意识的人工智能被视为通常意义上的科技产品显然是不合理的。

(三)人工智能的分类

本文将人工智能分为两大类讨论:人工智能数据和人工智能产品(机器人、自动驾驶车辆等)。但这样的分类不是绝对的,两者存在交叉重合。这样的分类方便对人工智能生成物进行法律责任的讨论。

人工智能数据是立足于数据信息。大数据时代,人工智能本身就是数据信息的集合与处理的一个行为与过程,同时又可以生成更具有经济价值的信息。这些数据信息可为个人、企业乃至国家提供助力,其法律责任主要围绕个人信息保护和利用,商业秘密等进行讨论。

人工智能产品,主要包括机器人、自动程序设计等,人工智能产品的法律责任主要是人工智能产品发生侵权行为时,讨论人工智能产品民事主体的归责原则,承担侵权责任的民事主体,不同民事主体承担的范围责任等问题。

二、人工智能数据相关概念

(一)大数据概念

大数据也称海量数据,它是相对于小数据、一般数据而言的,它是由数量巨大、结构复杂、类型众多的数据组成的数据集合,在云计算或人工智能数据处理与应用模式基础下,通过数据的集成共享和交叉复用形成的信息资产。[6]

数据的应用分这三个步骤:数据、信息、知识。数据本身不是有用的,必须要经过一定的处理。数据十分杂乱,经过梳理和清洗,才能够称为信息。信息包含很多规律,从信息中将规律总结出来,称为知识。[7]

大数据的生成的每个阶段都可能借助人工智能分析整理。杂乱的数据通过人工智能分析整理成为企业可以运用的数据信息。这里我们讨论的就是借由人工智能整理生成的有经济价值的数据信息。

(二)数据分类

数据可以分为个人数据、企业数据和公共数据三类。[8]这里简要介绍一下个人数据和企业数据的含义。值得注意的是,这种数据分类依据的是产生数据时所牵涉的主体,并不是指数据由哪类主体所掌控。

个人数据,1995年欧盟出台的《数据保护指令》中定义为所有能够识别身份的与个人信息相关的数据,包括能够直接识别个人身份的明确信息,以及将多项信息综合后进而能够间接识别个人身份的信息(如经济文化水平、身体状况、社会角色等)。企业数据指能体现出企业所有相关信息的数据。政府数据是指政府在各种行政活动过程中产生的数据如交通数据。[9]

三、人工智能数据采集涉及的法律问题

(一)数据采集的分类

依据收集信息主体以及是否符合法律规定,可将人工智能数据采集分为授权采集以及未授权采集(不当采集)两类。授权采集是按照法律的规定合法采集数据信息,然而一旦人工智能不当采集数据时,法律风险随着而来。

不当采集是指运用人工智能采集信息时未获得当事人同意和授权的采集。人工智能为不当采集信息的行为有多种表现方式,会产生相应的法律风险。

第一、窃取行为(获取行为)。未经其他平台允许,窃取其数据信息为己所用。这种行为未经他人允许,在窃取过程中极易侵犯其他平台的商业秘密,或者平台用户的个人隐私。若情节严重,还可能构成刑事犯罪。

第二,侵入行为。数据采集时,未经其他平台允许,擅自侵入其他平台计算机信息系统内部。这种侵入行为可能引发各类法律责任,甚至具有构成犯罪的可能性。根据侵入计算机信息系统的性质的不同,对技术使用者的行为要求也具有不同。若采集时非法侵入了国家事务、国防建设、尖端科学技术领域的计算机信息系统,则只要实施了侵入行为即构成非法侵入计算机信息系统罪。

第三,破坏行为。人工智能收集信息时,对计算机信息系统功能或计算机信息系统中存储、处理或者传输的数据和应用程序进行破坏,或者故意制作、传播计算机病毒等破坏性程序,影响计算机系统正常运行,后果严重的行为。这类行为轻者承担民事责任,重则构成破环计算机信息系统罪,受到刑事处罚。

(二)不当采集数据的法律风险

1.民事责任

(1)侵犯个人隐私

当人工智能获取其他平台系统数据信息,可能涉及侵犯公民的个人隐私。“探索云盘搜索”案中,被告人马某、莫某在用户不知情,且未经百度网站授权的情况下,利用“探索云盘搜索”的插件自动抓取用户存储于百度网盘的分享链接的地址和提取码,将该信息收录于自己研发的网站上用于牟利。那些被下载了“探索云盘搜索”插件的用户不知道该软件中的插件具有非法获取自己百度网盘内数据信息的属性,其私人信息被窃取。

在民事领域,公民隐私权被侵犯的,有权依据侵权责任法要求侵权人承担侵权责任,侵权行为危及他人人身、财产安全的,被侵权人可以请求侵权人承担停止侵害、排除妨碍、消除危险等侵权责任。侵害他人人身权益,造成他人严重精神损害的,被侵权人可以请求精神损害赔偿。

(2)不正当竞争

人工智能获取其他网站未公开的数据信息,获取网站“内网”客户信息进行不正当竞争,“不劳而获”或“搭便车”,超出合理使用限制,对于原网站造成了实质性替代损害其商业利益,这些行为构成不正当竞争。我国《关于审理不正当竞争民事案件应用法律若干问题的解释》[10]中将符合条件的客户名单纳入商业秘密保护范畴。《反不正当竞争法》十二条规定经营者利用网络从事生产经营活动,应当遵守本法的各项规定。经营者不得利用技术手段,通过影响用户选择或者其他方式,实施妨碍、破坏其他经营者合法提供的网络产品或者服务正常运行的行为。在北京集奥诉刘某清、北京青稞不正当竞争纠纷案[11]中,北京青稞未经北京奥聚允许,直接将集奥的用户信息爬取整合为己所用。法院认为由于双方当事人都是从事大数据服务,向客户提供精准广告服务,二者之间存在直接的竞争关系。北京青稞爬取北京集奥的网络用户和上网信息,并且对数据进行整理、挖掘和分析,形成一定的数据库,用以商业用途,该行为损害了集奥公司的合法权益,应承担赔偿责任。

“女装网撞库”案件[12]中,两位原告是“女装网”的运营方及管理者,“女装网”作为女装行业门户网站,集商务、资讯服务于一体,以服务经销商和女装企业为核心,构建女装行业专业口碑的交流互动平台。被告C网络科技公司系“中服网”的经营者。后两原告发现被告以“撞库”方式非法获取、使用“女装网”上的账号及密码登录“女装网”并查看经销商数据库信息,导致杭州A科技公司、杭州B科技公司客户的流失,削弱了两公司的市场竞争优势,损害了两公司的核心竞争力,严重扰乱了服装网站行业的竞争秩序。法院认定涉案经销商数据信息可给两原告带来直接的经济利益,属于应当受法律保护的权益。从案情分析,C公司确实违反诚实信用原则和公认的商业道德。原被告双方当事人的商业模式、企业定位、用户群体存在高度重合性,互联网服装领域是直接竞争关系,所以涉案被控侵权行为确实给杭州A科技公司、杭州B科技公司造成了损害。经审理判定被告浙江C网络科技公司立即停止侵权,并赔偿原告杭州A科技公司、杭州B科技公司经济损失共计350000元,同时承担消除影响的民事责任,一并驳回其他诉讼请求。

2.刑事责任

(1)非法获取计算机信息系统罪

人工智能未经授权获取其他平台的隐私数据,如破解了对方服务器的防抓措施收集信息的或者采用技术手段抓取被他人服务器中存储的视频数据,情节严重。依据《刑法》第二百八十五条规定违反国家规定,侵入前款规定以外的计算机信息系统或者采用其他技术手段,获取该计算机信息系统中存储、处理或者传输的数据,或者对该计算机信息系统实施非法控制,情节严重的,处三年以下有期徒刑或者拘役,并处或者单处罚金;情节特别严重的,处三年以上七年以下有期徒刑,并处罚金。

以上海某品、侯某强等非法获取计算机信息系统数据罪案[13]为例,被告单位上海某品公司于2016年至2017年间采用技术手段获取被害单位北京字节跳动服务器中存储的视频数据,并由侯某强指使被告人郭某破解北京字节跳动网络技术有限公司的防抓取措施,使用“tt_spider”文件实施视频数据抓取行为,并将结果存入到数据库中的逻辑。在数据抓取的过程中使用伪造的device_id绕过服务器的身份校验,使用伪造UA及IP绕过服务器的访问频率限制。上海某品恶意破解字节跳动的防抓系统,获取字节跳动的商业数据信息,侵害了其商业利益。法院依法判处上海某品、侯某强非法获取计算机信息系统罪。

(2)侵犯公民个人信息罪

人工智能窃取信息时极易侵犯公民个人信息,受到我国《刑法》第二百五十三条规定的侵犯公民个人信息罪的惩罚。该罪规定违反国家有关规定,向他人出售或者提供公民个人信息,情节严重的,构成侵犯公民个人信息罪。

在杨某、朱某铭侵犯公民个人信息罪一案[14]中,被告人杨某在新晃侗族自治县通达路通达鑫苑某单元某房间内负责提供电脑和组装电脑,利用电脑从“SOSO云”等网络搜索引擎上下载原始“淘宝账号+密码”和“支付宝账号+密码”等形式的公民个人信息,然后通过远程控制软件传送到新晃侗族自治县原交警队宿舍某房间内的电脑上,并远程控制电脑对原始公民个人信息进行“撞库”加工;被告人杨某某负责看护和查看原交警队宿舍某房间内的电脑是否正常运行,如电脑运行出现问题就通知被告人杨某过来维修,以及对被告人杨某传送过来的原始公民个人信息数据进行“扫存”和“撞库”加工,并把加工后的公民个人信息数据传送给被告人杨某;被告人朱某铭负责提供电脑以及对被告人杨某传送过来的原始公民个人信息数据进行“扫存”和“撞库”加工,并把加工后的公民个人信息数据传送给被告人杨某。此后,被告将获得的这些公民个人信息高价出售,获利颇丰。法院判决时认定杨某、朱某铭等人侵害的公民个人信息数量巨大,情节特别严重,其行为构成侵犯公民个人信息罪。

四、人工智能利用数据涉及的法律问题

(一)人工智能利用数据的方式

人工智能通过整合、发布、共享、交易等方式使用数据信息的过程,可概括为对数据的利用。这些利用方式包括:整合数据信息;发布数据信息;使用数据信息;授权他人使用数据信息;与他人为数据交易等行为。这里对人工智能数据利用的列举并非穷尽,随着科技的进步,数据的利用可能会有越益深入的发展。

首先,人工智能对个人数据的储存、处理、披露必须获取个人的同意。而缺乏同意的处理只有在例外情形下,如为了实现数据主体利益、履行公共职责、保护第三人核心利益、实现公共利益、控制者或第三人的正当利益才能进行处理。

其次,数据主体一直拥有多项对自身数据的权利,数据主体拥有对于数据的访问权、更正权、擦除权(“被遗忘权”)、限制处理权、数据携带权、一般反对权和反对仅仅基于自动化的个人决策的权利。对于这些权利,数据控制者或处理者不得要求数据主体放弃这些权利以换取服务。

再次,人工智能主体,即个人信息的控制者与处理者必须承担“通过设计的数据保护和默认的数据保护(dataprotectionbydesignandbydefault)”[15]的责任。控制者应当有一套固有的数据保护机制,而不只是采取一些临时性和个案性的保护措施。控制者和处理者应当采取“适当技术与组织措施,以便保证和风险相称的安全水平”。[16]

最后,当数据主体认为自己受到侵害时,有权向我国的司法机构提起诉讼,要求数据控制者或处理者遵守数据主体的权利,并且在数据控制者或处理者违反数据主体权利时进行赔偿。

总结一下,个人信息数据使用必须经过本人的许可,人工智能可以在用户授权的范围之内获得这些信息数据的使用权。如果人工智能收集的数据要在处理后进行交易,则需要在服务条款中将这一内容告知用户,否则会造成侵权。同时,由于在我国可识别的个人信息是禁止买卖的,所以原则上能够交易的大数据必须是经过清洗之后不能识别用户身份的数据集(可称之为匿名数据集)。[17]关于匿名数据集的归属问题,大多数学者认为匿名数据集的财产权利应由收集数据的人工智能(大数据控制人)享有。

(二)不当利用的法律风险

若是人工智能利用数据的过程中存在不法行为,则可能引发一系列法律责任。这些行为和法律责任包括:

一、泄露信息,未经数据所有人授权,擅自向他人泄露数据信息或者公开数据信息,如公开用户肖像、隐私等。此时可能因构成侵犯公民个人隐私,侵犯他人著作权而承担民事赔偿责任。

二、非法提供谋取利益的,未获得授权而泄露他人的数据信息谋取利益的。谋取利益达到一定数量,可能触犯刑法,构成侵犯公民个人信息罪。除此以外,还可能受到有关部门的行政处罚。

三、滥用数据,如利用信息进行不正当竞争,未经他人允许使用他人数据信息进行不正竞争的。

1.侵犯公民个人隐私/侵犯公民个人信息罪

平台利用人工智能将获得的用户信息公布分享的,将可能承担侵犯隐私的民事责任,如赔礼道歉,消除影响以及赔偿损失。如果情节严重,造成较为严重的社会后果的,可能构成公民个人信息罪,受到《刑法》第二百五十三条“违反国家有关规定,向他人出售或者提供公民个人信息,情节严重的”的规范。

汪某、蔡某坤侵犯公民个人信息罪案中[18],被告人汪某于2015年至2017年6月间,在湖北省武汉市,使用手机、电脑通过QQ、QQ邮箱、微信等网络工具,向被告人蔡某坤、姚某国、陆某、程某峰等人,出售含有车牌号码、车辆品牌、机动车所有人、身份证号码、住所地址、手机号码、车辆识别代码等信息的公民个人信息5899555条,非法获利人民币5万元。《最高人民法院最高人民检察院关于办理侵犯公民个人信息刑事案件适用法律若干问题的解释》规定,刑法第二百五十三条之一规定的“公民个人信息”,是指以电子或者其他方式记录的能够单独或者与其他信息结合识别特定自然人身份或者反映特定自然人活动情况的各种信息,包括姓名、身份证件号码、通信通讯联系方式、住址、账号密码、财产状况、行踪轨迹等。向特定人提供公民个人信息,以及通过信息网络或者其他途径发布公民个人信息的,应当认定为刑法第二百五十三条之一规定的“提供公民个人信息”。最终法院判处涉案人员侵犯公民个人信息罪。

2.行政处罚

人工智能非法向他人提供公民个人信息的,根据《全国人大常委会关于加强网络信息保护的决定》保护“能够识别公民个人身份和涉及公民个人隐私的电子信息”,对出售或者非法向他人提供公民个人电子信息的行为,依法给予警告、罚款、没收违法所得、吊销许可证或者取消备案、关闭网站、禁止有关责任人员从事网络服务业务等处罚。

五、企业数据与商业秘密

依靠人工智能生成的企业数据与商业秘密的关系,目前尚是一个未被学者充分讨论的话题。有两个问题是需要被正视的。其一,人工智能所“知晓”的经营和技术信息算不算商业秘密?其二,人工智能自主实施的侵犯其他主体商业秘密的行为算不算侵权行为,侵权责任应该由谁承担?

首先讨论第一个问题。人工智能具备近似于人类的思维方式,还有“深度学习”的能力。在人工智能帮助人类处理生产、经营活动的时候,它能通过强大的“大数据”分析能力,归纳和发现生产、经营活动的规律,为人类提供改进生产、经营活动的方法。那么问题就在于形成于人工智能的这些信息是不是商业秘密。商业秘密,我国是利用《反不正当竞争法》予以保护的。根据《反不正当竞争法》规定:商业秘密,是指不为公众所知悉、具有商业价值并经权利人采取相应保密措施的技术信息和经营信息。由此可知,商业秘密的本质是技术信息和经营信息,还需具备“实用性”、“秘密性”和“保密性”的特征。

商业秘密,即商业秘密包括经营秘密与技术秘密两方面内容。经营秘密是指未公开的经营信息,即生产经营销售活动有关的经营方法、管理方法、产售策略、客户名单、标底及标书内容等专有知识。技术秘密是指未公开的技术信息,即与产品生产和制造有关的技术诀窍、生产方案、工艺流程、设计图纸、化学配方、技术情报等专有知识。[19]可见,商业秘密的本质是信息,重点在于信息的实用性和未公开性。无论这些信息是由人所知晓的,还是储存于纸张、物件还是系统之内,都不影响我们对其是否构成商业秘密的判断。以此作为判断标准,人工智能对既有的技术和经营信息进行改进后生成的新的信息一般不会对外公开,由于改进提升了信息的价值和实用性,所以信息的受益者都会采取必要的保密措施。结合这些特征,可以判断人工智能所“知晓”的具有实用性的未公开的经营和技术信息是商业秘密。可以类比于著作权中的“作品”,商业秘密可以由人工智能创作出来,但谁可以对其拥有权利?我们认为,由于人工智能缺少法律所规定的主体资格,该商业秘密应由制造或运用该人工智能的主体所拥有。其次,如何处理人工智能侵犯其他主体商业秘密的问题。因为人工智能行为的自主性,有时候不受人类的控制,那么这就会产生人工智能自主侵犯他人商业秘密的可能性。

《反不正当竞争法》规定的侵犯商业秘密的情形规范的是经营者或相关第三人的行为。显然,人工智能不可能成为经营者或相关第三人;假如经营者或相关第三人利用了人工智能(即将其作为侵权的工具)侵犯他人的商业秘密,才可以直接援引此条追究经营者的侵权责任。但是在人工智能自主侵犯他人商业秘密的情况下,如何判断侵权行的有无乃至责任的归属呢?我国《侵权责任法》没有与之直接对应的规范,但是我们类比其中有关无民事行为能力人侵权、产品侵权以及饲养动物侵权的规则,推断出尽管人工智能本身没有侵权责任能力,但是人工智能创造者、使用者、所有者对人工智能的行为有监督和管理的职能,特别是使用者,理应承担人工智能造成的后果。

六、人工智能产品的法律责任分配

人工智能产品主要指已经符合我国产品规定的人工智能产物,主要包括自动驾驶;人脸检测和识别;语言识别;机器人相关运用;自然语言处理的应用;智能搜索/推荐等。[20]这些产品牵涉多种主体,在社会生活中有越来越广泛地运用。

(一)人工智能发展中的民事责任主体与归责原则

1、人工智能产品侵权民事责任主体

明确了人工智能非法律主体,人工智能的民事责任主体就能明确是在与人工智能相关的“人”上。在人工智能发展的民事法律关系中,主要的民事主体是设计者、生产者、销售者和使用者等。[21]

设计者是人工智能技术应用的研发者。[22]设计者通过研究人工智能软件推动人工智能的发展和应用。人工智能软件既是人工智能的表现形式,又是人工智能应用的技术基础。

生产者是人工智能技术应用的实践者。[23]生产者通过设计者提供的人工智能软件,安装在产品之上,构成一体,形成人工智能产品,并且推向市场,为人类生活和社会发展服务。销售者是人工智能成果的推广者。销售者通过自己的行为,将生产者生产的人工智能产品推向市场,应用于社会生产、生活中,使其发挥效益,创造新的财富,满足人们的生产、生活需求。

使用者是应用人工智能产品的民事主体。[24]之所以使用“使用者”而不使用“消费者”的概念,是因为生产所需购买商品的人不属于消费者。无论是为生产还是为生活需要,购买人工智能产品使用,满足自己的需求,就可以称为人工智能产品的使用者。

所有者,所有者是人工智能的所有人,之所以提出来讨论是因为可能存在所有者和使用者分离的情形。

2、人工智能产品侵权的归责原则

归责原则是强调责任人承担侵权责任的依据和基础,也是处理侵权纠纷案件所应遵守的基本准则。《侵权责任法》第6条和第7条确立了由过错责任原则和无过错责任原则组成的归责原则体系。过错责任原则是以侵权人主观上有过错为承担责任的充分必要条件的,《侵权责任法》第6条分两款对该原则作出了规定。第一款规定了过错责任,第二款规定了推定过错责任。但推定过错责任只能适用于法律有特别规定的情形。无过错责任原则是作为过错责任原则的补充而存在的,因而其也只能在法律规定的情形下方得以适用。

2016年,联合国科教文组织通过了《关于机器人伦理的初步草案报告》,该报告将智能产品视为通常意义上的科技产品,对智能产品及其技术造成的损害,可由产品责任的相关制度予以调整。因而,智能机器人系统存在的瑕疵造成他人权益的损害,可根据产品责任予以追责,产品责任属于无过错的严格责任,只要产品存在缺陷,生产者就应当承担侵权责任,无需证明其存在过错。下面根据人工智能民事主体进行分析。

(1)设计者的归责原则

我国产品责任法系并无明确规定人工智能产品设计者承担责任,结合现行法律背后的立法目的及人工智能技术发展的实践经验,人工智能产品的设计者适用过错归责原则较为合理。

(2)生产者的归责原则

根据危险控制理论和利益既得理论,要求人工智能生产者承担无过错责任,是毋庸置疑的。但并非所有的人工智能产品侵权案件,其生产者都需要承担无过错责任。只有在人工智能产品存在缺陷的情况下,生产者才承担无过错责任。

(3)销售者归责原则

当人工智能体进入市场流通,在消费者购买后出现侵权行为,销售者按照我国法律的规定,承担过错责任原则。

(4)使用者或所有者的归责原则

在人工智能侵权案件中,对人工智能产品的使用者适用错过归责原则更贴合侵权法体系的框架。在人工智能产品侵权案件中,使用者是对人工智能产品最直接的控制人,其同样具备能够避免危险的能力。人工智能产品的生产者需要为制造缺陷产品承担无过错责任,是因为生产者比使用者更熟悉产品的性能与特征,因此对其要求更高。人工智能产品的使用者虽然有能够控制危险源的能力,能够预见和避免侵权行为的发生,但对其要求比生产者要低一些,适用过错归责原则更为合理。

(二)人工智能产品中不同主体承担的具体责任

人工智能侵权构成要素复杂。现阶段人工智能的技术框架主要是以机器学习和深度学习为中心构建的。从软件层面,人工智能系统作出的判断、决策等行为,实际上是对人工智能模型输入一定数据而得到的函数输出结果,其基本模型可以用“输出=人工智能模型(基础算法+训练材料)+输入”表示。[25]侵权的输出结果实际受到基础算法、训练材料和输入行为三个要素的影响,这三个要素可能独立导致侵权结果,也可能相互作用累积引起侵权,这使得具体侵权案件的归责难度加大。特别是,现有的司法人员普遍没有接受过人工智能技术相关培训,而技术人员少有精通法律的,对人工智能侵权的事实认定和法律认定都非常困难。

1、设计者承担责任

人工智能体设计者是研发、设计人工智能的单位或者个人,设计者身为人工智能的启蒙者,理应将其视为自己的“孩子”,承担监护人的替代责任。在设计者宜以过错归责为原则的基础下,应该将风险合理分担,不同的阶段设计者承担的风险责任不同:其一,在研发人工智能体期间如果发生实验事故或者其他侵权行为,侵权责任应当由设计者独自承担严格责任,设计者的主观恶性不影响对受害者的侵权损害赔偿,即有损害就赔偿。其二,当人工智能体投入生产、销售和使用时,具体判断其产品缺陷情况,如前文所述,人工智能体进入流通时,依当时水平可以被公众所发现的缺陷可能性由设计生产者承担过错责任,对未来不可预知的风险适用设计生产者是否尽到合理义务的责任。

2、生产者承担责任

在我国《侵权责任法》中对产品责任的主体进行了划分,但是因为人工智能体具有独立性、高风险性的特质,会造成承担产品责任要求的主体唯一性适用存在问题。故在分析人工智能体侵权生产者责任中,我们可以借鉴德国产品责任模式,具体明确何者承担生产者责任。在《德国产品责任法》第1条中规定,产品责任的承担主体是产品生产者,且根据该法第4条第1款的规定,产品生产者也包括产品的原材料和零部件的供应商。德国强调产品的生产分工不能给诉讼中的受害人造成不利的影响,所以在人工智能体生产过程中的所有参与主体都应当具备可责性。并且拟制的生产者也应当属于产品责任主体,拟制的生产者指产品进口商。其承担责任是由于人工智能体产品属于高科技产品,往往会存在从国外进口的现象,因为会存在转卖的情况会使生产者变得复杂且难以追查,即使查明责任人也需要困难的跨国诉讼过程。下面进行具体分析。

(1)成品的生产者

从生产者的角度来看,那些通过制造及将人工智能产品置于销售过程的生产者,把控着产品的整个生产过程,他们了解产品存在的制作过程及危险,要求他们保障产品的质量是理所应当的。若人工智能产品存在缺陷,这种由产品所带来的危险是人工智能产品生产者应当遇见与避免的。消费者虽然是人工智能产品的占有人和管理人,但他并不了解人工智能技术和实际运作的理论,也不可能对人工智能产品内部结构进行改编和控制,相较之下,消费者对人工智能产品的控制与掌握能力较低,人工智能产品的生产者基于合同契约精神本就有着保障产品质量的义务,若他明知产品存在缺陷,而放任将产品销售给消费者。那么消费者因人工智能产品存在缺陷而导致其权益受损,这些人工智能成品的生产者应承担责任。另一方面,这些人工智能产品的生产者从交易中获益,要求他来承担存在缺陷的人工智能产品招致的责任也是合理的。

(2)次生产者

随着生产技术的提高,生产商们大多形成了流水业生产,大大提高了生厂过程的专业化程度,而生产者之间的分工、合作成为了不可或缺的一种生厂方式,特别是机器人、汽车等极具复杂的产品的生产与制造,均非单个制造者可以独立完成,而产品的零部件通常是由许多关联企业进行生产的。这些极其精细的人工智能生产中,哪怕是一个小小的零部件存在着缺陷,都会导致整个产品的质量出现问题。而对于产品而言,原材料质量的好坏同时也决定着人工智能产品的整体质量的好坏。产品的生产者需要对产品的缺陷承担责任,但能证明这些缺陷是由产品的特定原材料、零部件或半成品等引起的,受害者当然可以就这部分请求相应的生产者承担赔偿责任。

因此这些次生产者,即原材料的提供者与关键部位零件的生产者在确定产品是否存在缺陷、如何分担责任等方面与成品生产者有着同等的地位。简而言之,如果人工智能产品的缺陷是由零部件本身的制造或设计所导致的,应当将将这些次生产者也纳入生产者的范围中,承担侵权责任。

(3)准生产者

那些将名字、商标、其他识别特征的标示用于人工智能产品之上的人,可以将其看作是准生产者。因为交易当事人会根据产品上标有的标识,如商标、商号、企业名称等认定产品是由特定的生产者制造.既然将他人制造出来的人工智能产品冠以自己的商标或商号在市场上出售,也就表明了制造的本意,而且一般民众也会认为产品上商标或商号专属人是产品的制造者。如果要求消费者在购买产品前还需要识别产品的真正的制造者,此要求未免过于苛刻。且在产品上标注自己商标或企业商的人本意就是让消费者产生他就是产品的制造者。因此这些在人工智能产品上标示自己商标或商号的人应当以准生产者的方式来承担生产者的责任。

3、销售者承担责任

当人工智能体进入市场流通,在消费者购买后出现侵权行为,应按照我国《侵权责任法》中第42条规定了销售者的责任,因销售者的过错使产品存在缺陷,造成他人损害的,销售者应当承担侵权责任。所以,如果销售者的原因使人工智能体发生侵权行为,销售者应承担过错责任。除销售者过错外,其对不能指明存在产品缺陷的人工智能体的供货来源,需要替产品的设计生产者承担替代责任。同时,如果因为销售的配套仓储或者运输人员的过错导致人工智能体发生侵权行为,由该责任主体承担过错责任。

4、使用者承担责任

人工智能体出现的首要目的是为了更好的服务人们,带给消费者更好的体验感,其可被视为人们的意志的延伸,人们可以远程控制人工智能体去实现很多事情,故存在消费者故意或者过失而导致人工智能体侵权行为的发生。

首先,如果人工智能体的侵权行为发生并不是因为产品缺陷,而是使用者自身所导致,那么此时人工智能体的设计生产者和销售者就不再承担任何责任,由使用者承担责任。

其次,当人工智能所有者与使用者相分离时,其责任主体应当是承租人或者借用人。在人工智能产品出租或者出借的情形下,人工智能产品的所有者已经丧失了对人工智能产品的实际操控,故人工智能产品运行的风险已实际转移到承租人或借用人身上。在此过程中,人工智能产品因侵权导致他人权益受损时,也应该由人工智能产品的使用者即承租人或借用人来承担。人工智能产品的所有者虽然因为出租、出借行为获得部分利益,但他对此后人工智能产品运行中的风险是无法预测的,也无控制,如果因此要求人工智能产品所有者对这部分侵权承担责任,显然有失公平。同样,在发生盗窃、抢劫或抢夺情形时,导致人工智能产品的实际控制人发生并更时,应当由盗窃人、抢劫人或抢夺人承担侵权责任。

5、所有者承担责任

在人工智能产品脱离其所有者控制后,其所有者并不是完全不承担侵权责任。当人工智能产品的所有者对侵权损害结果的发生存在过错时,他应该就其过错承担相应的责任。而人工智能产品所有者对人工智能侵权行为承担责任的情况主要有以下两种:

一是在出租、出借之前人工智能产品已存在缺陷或者自行改装人工智能产品。人工智能所有者明知人工智能产品存在缺陷会增加危险仍出租、出借给承租人或借用人,或者所有者私自改变人工智能产品的程序、性能等改装行为可能引起侵权事故发生的,人工智能产品的所有者都应该承担相应的责任。

二是人工智能所有者明知承租人或者出租人没有运作人工智能产品的资质仍出租或出借。像操作无人机、自动驾驶车辆等都一部分的人工智能产品,都需要使用者具备相应的资质,若人工智能的所有者在出租或者出借之前并未核查承租人或借用人的资质,所有者应该就此承担相应的侵权责任。

简而言之,在出租、出借的人工智能产品导致他人权益损害的情况下,由产品的承租人、借用人承担侵权赔偿责任;若人工智能产品的所有者存在过错,由受害者有自主选择权,受害者可以请求人工智能产品的使用者承担全部责任,使用者在承担责任后就所有者过错部分向人工智能产品的所有者进行追偿:受害者也可以请求人工智能产品的所有者和使用者承担连带责任,双方根据过错比例共同承担侵权赔偿责任。人工智能产品被盗窃、抢劫或抢夺后发生的侵权行为,原人工智能产品的所有者不承担责任。

(三)共同侵权责任分配

人工智能体可能会存在涉及多个责任主体的侵权行为,将责任细化并合理分配给适格主体其应担责任具有必要性。根据现行侵权责任法规定,侵权行为的责任形态可以分为不真正连带责任或者连带、按份责任。

第一,不真正连带责任,是指多数行为主体违反法定义务,对同一受害者实施加害行为,或者不同的行为主体基于不同的行为而致使同一受害者的民事权益受到损害,各行为主体产生的同一内容的侵权责任各负全部赔偿责任,并因行为人之一的责任履行而使全体责任人的责任归于消灭,或者依照特别规定多数责任人均应当承担部分或者全部责任的侵权责任形态。当人工智能体侵权行为以人工智能体产品自身缺陷为前提时,人工智能体的设计者和生产者承担不真正连带责任,两者都是侵权责任承担主体,受害者可以择一起诉。当一方先行赔付后,发现真正责任归于另一方,可以进行事后追偿。

第二,连带、按份责任。人工智能体的监管机关和产品的设计、生产者承担连带责任,因为人工智能体作为高风险产品,应该有监管机关进行实质性审查,当出现经审批后进行销售的人工智能体出现产品生产时可以发现的产品设计或者质量缺陷而造成损害的事件,让人工智能体监管部门与具体责任人承担连带责任,这样不但可以保障人工智能体的安全可靠性,还可以增进公信力。

另一方面,人工智能体是一种精密复杂的高科技产物,其零件可能会分包给其他生产主体,如果出现零件质量瑕疵致损,得以明确责任的由该责任主体承担,无法明确哪个零件和损害结果具有因果关系,亦或所有零件都符合标准规定的合理误差,但误差叠加起来会存在损害问题,因此可适用共同危险行为来进行责任认定。同时因为不同的零件分包商存在不同的市场地位,需要根据各自的市场份额来分担责任,这样能确保社会公平的实现。

注释:

[1]孙玥:《论人工智能的发展现状及前景》,载《中国科技财富》。

[2]同上

[3]钱思雯:《弱人工智能时代的法律回应——构建以产品责任为核心的责任分配体系》,中国科技论坛。

[4]谢媛:《人工智能创作内容的法律定性及其保护》,载《福建论坛:人文社会科学版》。

[5]刘小璇,张虎.《论人工智能的侵权责任》,载《南京社会科学》。

[6]赵司晨:《大数据时代个人信息侵权的责任承担》,硕士论文

[7]徐小龙:《一种基于P2P网络技术的复合知识云模型》,载《南京邮电大学学报(自然科学版)》

[8]李扬,李晓宇:《大数据时代企业数据边界的界定与澄清——兼谈不同类型数据之间的分野与勾连》,载《福建论坛:人文社会科学版》。

[9]冯登国:《大数据安全与隐私保护》,载《计算机学报》。

[10]《关于审理不正当竞争民事案件应用法律若干问题的解释》将符合以下条件的客户名单也纳入商业秘密保护范畴:1、具有长期稳定交易关系的客户名单,包括名称、联系方式以及交易的习惯、意向、内容等,是区别于公知信息的特殊信息,具有价值性。2、采取合理保密措施的(保密协议、保密制度、电脑设置密码等),构成商业秘密。3、离职员工使用客户名单引诱老东家的客户、抢夺交易机会,新东家明知员工的行为而使用客户名单的,共同侵害老东家的商业秘密。

[11]https://www.itslaw.com/detail?initialization=%7B"category"%3A"CASE"%2C"id"%3A"f374136a-60f0-468a-ac94-8f9296864b84"%2C"anchor"%3Anull%2C"detailKeyWords"%3A%5B"北京青稞"%5D%7D#content_null,访问于2020年4月11日;本案案号:(2015)京知民终字第00318号

[12]http://www.jcrb.com/ajpd/tpjj/201911/t20191105_2072824.html,访问于2020年4月15日。

[13]https://www.itslaw.com/detail?initialization=%7B"category"%3A"CASE"%2C"id"%3A"41ecc634-4872-45c0-860c-ce334896dc3d"%2C"anchor"%3Anull%2C"detailKeyWords"%3A%5B"上海晟品"%5D%7D#content_null,访问于2020年4月9日;本案案号:(2017)京0108刑初2384号

[14]https://www.itslaw.com/detail?initialization=%7B"category"%3A"CASE"%2C"id"%3A"fd47297c-12f9-47d5-ae23-7e9352da5a58"%2C"anchor"%3Anull%2C"detailKeyWords"%3A%5B"杨国、朱伟铭"%5D%7D#content_null,访问于2020年4月13日;本案案号:(2017)湘1227刑初31号

[15]郑志峰:《个人信息保护》,载《华东政法大学学报》

[16]同上

[17]王融:《关于大数据交易核心法律问题——数据所有权的探讨》,载《大数据》。

[18]https://www.itslaw.com/detail?initialization=%7B%22category%22%3A%22CASE%22%2C%22id%22%3A%22dc4cc484-d73a-4bd9-846d-ce9f8d42afab%22%2C%22anchor%22%3Anull%2C%22detailKeyWords%22%3A%5B%22%E4%BE%B5%E7%8A%AF%E5%85%AC%E6%B0%91%E4%B8%AA%E4%BA%BA%E4%BF%A1%E6%81%AF%E7%BD%AA%22%5D%7D#content_null,访问于4月20日;案号:2018苏06刑终342号;

[19]刘哲:《谈商业秘密及其法律保护》,载《经营与管理》

[20]郭娅妮:《弱人工智能产品责任探析》,载《百科论坛电子杂志》

[21]叶美琪:《人工智能产品侵权责任研究》,硕士论文;

[22]同上

[23]同上

[24]同上

[25]刘宇博:《基于云计算的人工智能训练平台的研究与设计》,载《北京邮电大学》

(作者:楼奇、方明、徐悦,天元律师事务所)返回搜狐,查看更多

重磅:人工智能与法律的未来

在工业化时代,用机器来取代人的劳动已经成为一个普遍现实,马克思和恩格斯的经典著作中有许多对这种现实中工人阶级悲惨处境的描述,和对造成这种状态的生产关系和社会制度的批判。1920年,捷克作家卡雷尔·卡佩克(KarelCapek)创作了《罗素姆的万能机器人》(Rossumoviuniverzálníroboti)剧本,发明了如今通用的Robot(机器人)这个词汇,它的辞源是波兰语中的强迫劳动(Robota)和工人(Robotnik)。如果说工业化时代的机器(无论是不是人形的)所取代的只是人的一部分体力劳动,那么作为工业化升级版的人工智能则是这个过程的自然延伸,它旨在取代人的一部分脑力劳动。

人类一直在试图强化自己的能力。比如,过目不忘一直是中国传统文人最为欣赏和希望得到的能力之一。《三国演义》中的张松,在接过杨修递给他的《孟德新书》并快速浏览一遍之后,说这哪里是什么新书,分明是战国时无名氏所作,为曹丞相所抄袭。杨修不信,结果张松把该书内容背出,一字不差。但如今的人工智能已经能够轻松地做到这些,乃至更多。

人工智能实际上已经可以将脑力劳动和体力劳动、感知和思维、决策和执行结合到一起,从而更像是一个完整的人。至于是否具有“人形”已经不再重要了,任何关于“人工智能”的拟人化想象都是不必要的。有了物联网、大数据和云计算作为支撑(或组成部分)的人工智能,可以通过它的感官(遍布各处的传感器)获得千里之外的数据,利用自己无比强大的记忆力(联网计算机和云存储)来沉淀和消化数据,利用自己远胜于人类的计算能力(算法和基于“神经网络”技术的深度学习)来处理数据,并在此基础上作出判断和“决策”。

目前,人工智能正以惊人的速度在两大领域推进:一是“合成智能”(syntheticintellects),即我们通常所说的机器学习、神经网络、大数据、认知系统、演进算法等要素的综合应用。它不是传统意义上的编程,也就是说,它突破了“机器只能做程序员编排它去做的事情”这一局限,你只要给它一大堆人类穷其一生也无法浏览完的数据(在互联网的帮助下,这意味着你只要把它联网并通过编程使它具有搜索功能),包括人类智力根本无法理解的无结构数据,再设定某个具体的目标,最终系统会产生什么结果完全不可预见,不受创造者控制。围棋智能体AlphaGo先后打败李世石和柯洁,并以“独孤求败”的姿态“宣布退役”,只是合成智能小试牛刀的一个例子。

另一个领域是“人造劳动者”(forgedlabors),它们是传感器和执行器的结合,可以执行各种体力劳动任务,从海底采矿、外空维修到战场杀敌。当然,离我们生活最近的例子是自动驾驶。这两个领域的结合不仅意味着“机器人”的“头脑”和“四肢”都是很强大的,还意味着“机器人”的大脑、感官和手足是可以分离的,手脚(执行器)可以延伸到离大脑(中央处理器)十万八千里的地方。在“万物联网”的时代,只有不联网的东西才不在人工智能的可控制范围之内。

正因为如此,越来越多的人开始表示出对“人工智能”的担忧。乐观派认为人工智能是对人类能力的强化,它本身仍然处在人类的控制之下,因为它没有“自我意识”和情感。没有我执,也便没有“贪、嗔、痴”,不会对人类构成威胁。甚至不能算是真正的智能,因为智能的内核是“主体的自由”以及主体对这种自由的自我认知和主动应用。但即使我们承认乐观派对事实的描述和判断是正确的,也已经有了担心的由头。

人工智能显然不成比例地强化了一部分人的能力,即那些站在人工智能发展前沿的“大数据掌控者”和人工智能开发企业的能力,同时使越来越多的人变成难以保护自己的隐私和自由并面临失业风险的弱者。换句话说,以前可以自认为比蓝领工人社会等级更高的白领脑力劳动者,如今也变成了新的随时可能被机器所替代的劳工。当强弱悬殊越来越大,而且强者对弱者的剥削和控制越来越以“物理法则”而不是赤裸裸的暴力面目出现时,“强者为所能为,弱者受所必受”的局面就会成为普遍现象。自由与必然之间的关系,因人工智能的出现而越发成了一个由社会分层(阶级)决定的事务:越来越少的人享有越来越大的自由,越来越多的人受到越来越强的必然性的束缚。

由于法治迄今为止被证明是保护弱者权益、使人避免落入弱肉强食的丛林法则支配的最有效机制,所以,当人工智能所带来的新风险被许多人感知到的时候,人们自然希望法律能够因应这种风险提供新的保障。但法律自身也面临着人工智能的猛烈冲击。

人工智能对法律应对社会变迁的传统模式的挑战

法律是人的有限理性的产物,法律规则本身也体现并顺应着人的局限性。正如麦迪逊所言:“如果人都是天使,就不需要任何政府了。如果是天使统治人,就不需要对政府有任何外来的或内在的控制了。”这个说法当然针对的是人的贪婪和野心,但也拓展到人的有限认知和计算能力。即使一个人充满善意,他也可能因为自己的能力所限而对自己和他人造成伤害。而法律规则的设计和执行,都会把这种有限能力纳入考虑。实际上,人类社会所有的规则,包括游戏规则,都是有局限的人为有局限的人设计的。

下过围棋的人都知道“金角银边草肚皮”这个基本的布局规则,这个规则的理由有两个:一是效率,在角上无论是做眼还是吃掉对方棋子需要的步数都最少,在角上,做一个真眼需要三步棋,吃掉对方一个子只需要两步棋。二是计算能力,给定的边界越多,需要考虑的可能性越少。效率考量使得AlphaGo在布局阶段与人类高手相比并没有太大的区别,仍然是先占角后取边。但在序盘和中盘阶段,AlphaGo却更敢于向中腹突进,这是与它更强大的计算能力相适应的。

实际上,由于人认识到自己的局限性,所以在设计规则的时候所考虑的都是所谓常人标准,即以具有中等智力和体力水平的正常人作为规则可行性的判断标准。而且,为了形成稳定的社会秩序,法律往往还会设置比常人标准更低一些的安全线。从这个意义上讲,法律是一种保守的社会力量,不以满足具有创新精神和创新能力的人士追求“更快、更高、更好”的野心为目的。梁漱溟先生所说的“经济进一步,政治进一步,循环推进”,也适用于法律。法律调整经济-社会关系的方式从来都是回应性的。在技术发展和社会-经济结构变化缓慢的农业社会和早期工业化社会,这种保守倾向使法律发挥了很好的维持社会稳定的作用。

但在人工智能时代,它却使法律滞后于技术和经济的发展,使那些把握先机的人获得了巨大的边际回报。比如,互联网金融和电子商务在中国的迅猛发展就是在相关法律缺位的情况下发生的,等到立法者开始制定规则来规范这个领域,法律所约束的只是后来者,并且自然地巩固了先占者的垄断地位。同时,先占者又利用已经积累起来的经济、技术和资源(数据)优势,开始抢占未被法律规制的新领域。如此层层递进,最终使得循规蹈矩、永远在法律规定的范围内活动的人们与他们之间的差距越来越大。

同时,正如石油是工业化时代最宝贵的资源一样,数据是人工智能时代最重要的资源。掌控的数据越多,供人工智能“学习”的资源就越多,也就越容易在这个领域取得突破性的进展。这一事实导致了这样几个结果:

第一,它使个人的隐私和自由变得非常脆弱。这一点我已经在此前的一篇文章中做了详细分析,这里不再赘述。(详见:郑戈:在鼓励创新与保护人权之间——法律如何回应大数据技术革新的挑战|反思大数据)

第二,它使得传统制造业和其他与互联网没有直接关联的行业处在很明显的劣势。因为人工智能不是一个传统意义上的新“行业”,也不是一种覆盖人类生活全部领域的技术。最早进入互联网领域的企业因其行业特性而自然成了“大数据掌控者”,而人工智能对大数据的依赖又使得它们自然成了人工智能领域的先驱,进而,它们又可以利用自己在人工智能方面的优势介入所有传统行业,包括农业。

比如,通过在农作物上安装生物传感器来获得比实验室作业更加直接和可靠的植物生长数据,从而获得农业科技方面的突破。实际上,这并不是一种假设,而是谷歌和阿里巴巴等公司正在做的事情,“精准农业定点解决方案”(PrecisionAgriculturePointSolutions)和“植物云”等概念都对应着某种特定的商业模式。无论是政府还是社会对这种新生事物都有一种好奇和乐见其成的心态,希望看到结果后再采取行动,而当结果发生时,且不论它本身是好是坏,这些大数据掌控者全方位的优势必然已经形成。

第三,由于这些企业已经掌握了比政府所掌握的更多的关于公民(作为消费者)的信息,热衷于建设智慧城市、智慧政府、智慧法院的公权力部门也不得不求助于它们,浙江省法院系统求助于淘宝来获得当事人真实住址信息,只是一个还不那么“智能”的例子。这将模糊公权力与私权力之间的边界,使政府本来应该监管的对象成为政府的合作伙伴乃至实际控制者。

第四,这些掌握人工智能应用技术的企业,可以用人工智能来分析任何数据,包括消费者行为数据、政府决策数据、立法数据和法院判决数据,并生成对策。这些对策有些要求线下的人际沟通,而有些则完全可以通过线上操控来完成,比如谷歌和百度的搜索结果排序,京东、亚马逊和淘宝的有针对性的商品推荐,等等,从而诱导个人消费行为和政府决策行为、立法行为。而这种诱导往往以非常隐秘的、合乎人性的方式展开,不会让人觉得有什么不好的事情正在发生。

由此导致的结果便是,人们都“自愿服从”于某种他们看不见的力量,而这种力量借助“人工智能”的超强“脑力”使得法律和监管完全找不到对象,乃至被它牵着鼻子走。用脸书(Facebook)创办人扎克伯格的话来说,我们正在进入“算法”而不是法律统治人的时代。而算法在表面上就缺乏法律的无偏私性和一般性:它毫不遮掩地服务于设计者植入其中的目的。

第五,一旦人工智能被应用于本来就充满流动性、风险与不确定性的金融市场,便可能带来既无创新价值,又危害巨大的灾难性后果。2010年5月6日,美国股市发生了“闪电崩盘”,一万亿的资产价值瞬间蒸发,股价齐跌9个百分点,道琼斯指数急落1000点。美国证券交易委员会(SEC)花了半年的时间才搞清楚发生了什么:原来是不同炒家的计算机程序在相互竞争的过程中导致了失控,在这个被称为高频交易的神秘世界里,这些系统可以“迅雷不及掩耳”地收割小型获利机会,还可以相互探测和利用彼此的交易策略。

像这样的人工智能对决不仅存在于股票市场,还存在于任何投机性的多方博弈市场。事后追责型的法律对策,无法阻止人们在巨大利益的引诱下,利用人工智能进行这种损害范围无法控制的赌博式行为。

在人工智能所带来的人类生活世界的一系列改变中,以上只是几个比较突出的直接挑战传统法律应对模式的例子。随着人工智能应用领域的不断扩大(这是必然会发生的),它对现代法律体系的冲击会越来越强烈。

然后,习惯于在固定的思维框架(法律教义)中来思考问题的法律人,很难跳出这种框架去面对和理解日新月异的社会事实。在下面一节,我将以欧盟的“机器人法”立法建议以及美、德两国的无人驾驶立法为例,来说明这种传统思维方式在应对人工智能问题时的局限性。

人工智能对法律职业的冲击

(一)人工智能的“法律人格”

1942年,美国科学家和科幻小说作家伊萨克·阿西莫夫,在短篇小说《转圈圈》中提出了“机器人的三条律法”:第一,一个机器人不得伤害一个人类,也不能因为不作为而允许一个人类被伤害;第二,一个机器人必须遵守人类施加给它的规则,除非这些规则与第一律法相冲突;第三,一个机器必须保护自己的生存,只要这种自我保护不与第一或第二律法相冲突。但机器人发现自己无法同时遵守第二和第三条律法,因此它陷入了不断重复自己先前行为的循环。

这种情况不会发生在人身上,也不会发生在其他生命体身上,因为,正如霍布斯所说,自我保存是第一自然法。人会本能地在自我保存与勿害他人之间选择前者。逆此而行的利他主义行为有时也会发生,但要么是道德教育或宗教信仰的结果,要么是出于保护后代的延伸性自我保存目的。只有严格按照人类植入其程序(算法)之中的规则来行事的机器人,才会陷入这种无解的怪圈。

在阿西莫夫提出机器人三大律法的前一年,德国工程师康拉德·楚泽刚刚发明世界上第一台能执行编程语言的计算机Z3,这套继电器式计算机只能存储64个单词的内容,而且运行速度极其缓慢。显然,阿西莫夫还很难想象今天任何一部普通个人电脑的计算能力和存储空间,更不用说互联网和云计算了。因此,他把机器人想象为一个具象化的、能够伤害人的身体也能被人伤害的物体是可以理解的,而且实际上已经是非常有远见的。但如今的法学家们仍然以这种拟人化的想象来理解机器人,试图制定规范来约束它们的行为,甚至赋予它们法律主体资格,这便显得有些不合时宜了。

2016年,欧洲议会向欧盟委员会提出报告,要求制定民事规范来限制机器人的生产和市场流通。其中第50(f)项建议:“从长远来看要创设机器人的特殊法律地位,以确保至少最复杂的自动化机器人可以被确认为享有电子人(electronicpersons)的法律地位,有责任弥补自己所造成的任何损害,并且可能在机器人作出自主决策或以其他方式与第三人独立交往的案件中适用电子人格(electronicpersonality)。”

但在如何落实这种“法律人格”所必然带来的民事行为能力和责任能力规则时,这份报告并没有提出具体的方案。如果机器人对人造成了损害,究竟是适用罗马法中的“缴出赔偿”(noxoededitio)原则(即把机器人交给受害者或其家属处置),还是让机器人支付赔偿金或坐牢(在这种情况下,最终承担责任的仍然是机器人的“主人”,因为机器人不可能有独立的收入,限制它的“自由”则等于剥夺了其“主人”的财产权)?

由此可见,机器人无论以何种方式承担责任,最终的责任承担者都是人,这使得它的“法律人格”显得多余和毫无必要。

实际上,这份报告在具体的规则设计部分也自动放弃了适用机器人“法律人格”的努力,比如,它提议制造商为他们的机器人购买强制性保险。此外,还要设立专门的基金来补充保险机制,主要的出资人也是制造商、经销商和其他利益相关者。这套保险机制的覆盖范围不仅是机器人,还包括机器管家、无人驾驶汽车和无人机等。该报告还提议设立专门的“欧洲机器人和人工智能局”来管理被归类为“智能机器人”的机器。这体现了传统的官僚机构思维方式。

这份报告指出,机器人的销售在2010—2014年间增加了17%。涉及机器人的专利申请在十年间增加了三倍。德国人均拥有机器人的数量已位居全球第三,仅次于韩国和日本。仅在2015年,全球销售的机器人就达到50万个左右。预计到2018年,全球将有230万个机器人在活动。但它并没有提供这些机器人实际造成损害的数量和类型。

德国主要的工程和机器人行业协会VDMA发表了反驳声明,指出政治家的担心是科幻小说看多了的结果,目前人工智能给人类带来的好处远远多于坏处,立法者不应该仓促出台规制措施来阻碍工业4.0的发展。在具有无限潜力的人类发展领域,充分的讨论是有必要的,但没有必要制定出详细的法律规则。

(二)自动驾驶汽车

2017年5月,德国联邦议会和参议院通过了一部法案,对《道路交通法》进行了修改。它允许高度自动化和完全自动化的汽车作为交通工具上路。但为了符合1968年《维也纳道路交通公约》第八条“每一部车辆在行驶时都必须有驾驶员在位”的规定,它没有允许自动驾驶汽车变成“无人驾驶”汽车。它规定,当自动驾驶系统启动之后,司机可以转移注意力,比如去读书或上网,但她必须保持足够的警觉,以便在系统发出请求时恢复人工控制。它还要求高度或完全自动化汽车安装记录驾驶过程的黑匣子,在没有卷入交通事故的情况下,黑匣子信息必须保存半年。如果自动驾驶模式正在运行过程中发生了事故,责任在于汽车制造商。但如果自动驾驶系统已经发出了请求人工控制的信号,责任便转移到了汽车上的驾驶人员身上。

在这部法律通过之前,法学家弗尔克·吕德曼(VolkerLudemann)教授曾经在联邦议会发表专家意见,指出法律草案有四个缺陷,这些缺陷虽然后来部分得到了修正,但其给司机带来的不确定性以及隐私问题却仍然存在。

在新法下,司机不知道该怎样做才能避免法律责任,自动驾驶汽车无法实现真正的“无人驾驶”,也就是车上只有乘客而没有驾驶员,阻碍了自动驾驶汽车的商业化发展。试想,如果一个人花比传统汽车贵得多的价钱购买了自动驾驶汽车,却时刻必须保持警觉,而且要在自动驾驶系统控制汽车操作一段时间后瞬间介入,应付紧急情况,这实际上对驾驶员提出了更高的要求。

新法把自动驾驶汽车造成人身伤亡的最高赔偿额度提高到1000万欧元,比原来的最高赔偿额度增加了一倍。虽然这笔赔偿在多数情况下将由保险公司支付,但保险公司无疑会提高保费,这也增加了自动驾驶汽车车主的负担。此外,黑匣子信息保留半年的规定也增加了个人数据和隐私被滥用的风险,因为自动驾驶汽车上遍布的传感器和摄像头会记录下非常多的个人私密信息。

与德国立法模式相对照,2017年9月在美国众议院通过的《自动驾驶法》(SelfDriveAct)则采取了一种完全不同的思路。它没有改变现有的道路交通规则和与事故责任相关的侵权法规则,而是用宪法和行政法的思维方式划分了联邦与各州之间在规制自动驾驶汽车方面的责任,明确了交通部在确立自动驾驶汽车硬件安全标准、网络安全标准、公众知情标准等方面的具体义务和履行时间表。

其中第12条强化了隐私权保护,要求制造商和经销商只有在提出了满足一系列具体要求的“隐私权保障计划”的前提下,才可以供应、销售或进口自动驾驶汽车。这些要求旨在确保自动驾驶汽车的车主和使用者对自己的个人数据和隐私有充分的控制能力,不至于在自己不知情的情况下任由制造商或程序设计者使用自己的个人数据。这部法律目前还没有在参议院获得通过,其内容还可能会有进一步修改,但基本框架应该不会有大的改变。

(三)算法设计者必须遵守的伦理规范

与上述约束自动驾驶汽车制造者和使用者的规范不同,德国交通部长任命的伦理委员会最近提出的一个报告,展现了一种完全不同的思路:要求算法(即软件)编写者遵守一系列伦理法则。其中提出了20条伦理指导意见,核心是把人的生命放在首位。比如,其中第七条要求:在被证明尽管采取了各种可能的预防措施仍然不可避免的危险情况下,保护人的生命在各种受法律保护的权益中享有最高的优先性。因此,在技术上可行的范围内,系统必须被编程为在权益冲突时可以接受对动物和财产的损害,如果这样可以防止人身伤害的话。第八条规定,诸如伤害一个人以避免对更多人的伤害这样的伦理难题不能通过事先编程来处理,系统必须被设定为出现这种情况下请求人工处理。

法律如何更加“智能”地应对人工智能

正如尼古拉斯·卡尔所指出的那样,人工智能是历史悠久的人类工程学的最新发展,而人类工程学是艺术和科学结合的产物,它是为人类追求真善美的目的而服务的。人类不能被人工智能不断增长的能力牵着鼻子走,乃至被带入完全不受人类控制的未来。在笔者看来,为了更好地应对人工智能带来的新风险,在保护创新的同时确保人类生活的美善品质,可能的法律发展包括以下几个向度。

首先,现有的法律模式没有摆脱传统的具象化乃至拟人化思维方式,仅仅将有形的智能化机器或“机器人”纳入规制范围。但是,正如本文已经明确指出的那样,这些有形的机器只是人工智能的一种表现形态,即“人造劳动者”,它们都受一种无形的、弥散化的智能的控制,这种被称为“合成智能”的由算法、网络和大数据组成的无形、无界的存在,才是人工智能的智能所在。

正如李彦宏等敏锐地指出的那样:“……也许真要靠算法的顶层设计来防止消极后果。人工智能技术可能不只是理工科专业人士的领域,法律人士以及其他治理者也需要学习人工智能知识,这对法律人士和其他治理者提出了技术要求。法治管理需要嵌入生产环节,比如对算法处理的数据或生产性资源进行管理,防止造成消极后果。”这种“顶层设计”,我们可以称之为“人工智能社会的宪法”,它的制定或生成需要法律人和程序员、人工智能专家的合作,以便使算法进入法律,法律进入算法,从而使人工智能的基础操作系统符合人类的伦理和法律。

其次,为了做到这一点,政府应当在发展人工智能方面加大投入,吸收更多的人工智能人才参与立法、行政和司法工作,避免使自己远远落后于商业力量。这在我国比较容易做到,因为顶尖的大学和科研机构都是国家资助和管理的。如果这些人才中大多数都转而为商业机构服务,不仅无法体现社会主义的优越性,也不利于让人工智能向服务于社会公共利益的方向发展。

再次,从现有的各国立法模式来看,欧盟和德国直接修改民事规则和交通法规的做法,是在事实不清、需要解决的问题不明朗的情况下做出的仓促选择,既不利于鼓励创新,也不利于保障公民的权利。在目前这个阶段,比较稳妥的方案是美国式的公法模式,指定一个现有的政府部门负责确立相关的行业技术标准、安全标准和个人数据保护标准,而这个标准不应当是自上而下武断强加的,而应当是对行业自身所发展出来的标准与公共利益、个人权利保护原则的综合考量,其制定程序应当遵循公共参与、听证等行政程序规则。

最后,德国的自动驾驶汽车程序设计伦理规范是一个可取的思路。由于人工智能的核心在于算法,算法的设计决定着智能化机器的“行为”。而对于普通人和大多数立法者、执法者和司法人员来说,算法是一个“黑箱”,人们只能看到它所导致的结果,却无法看到它的运作过程。

制定相关规则来约束算法设计者的行为,在发生可疑后果的时候要求程序员用自然语言来解释算法的设计原理,并且追究其相关责任,这显然是一种治本之法。但正如德国模式也只是把这种思路落实为建议性的伦理规范一样,这种规则变成法律仍有很大难度,需要立法者、执法者、司法者和公众都有一定的人工智能知识,能够及时发现可能由算法导致的危害性后果。

在人工智能知识像“普法”一样被普及开来之前,一个过渡性的做法是设立由相关领域专家和法律职业人士共同组成的伦理委员会或“人工智能法院”,按照风险防范而不是纠纷解决的思路来处理相关规则的落实问题。返回搜狐,查看更多

版权声明:本文内容由互联网用户自发贡献,该文观点仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌抄袭侵权/违法违规的内容,一经查实,本站将立刻删除。

上一篇

下一篇