博舍

应对新兴科技带来的伦理挑战 人工智能与基因编辑的法理挑战

应对新兴科技带来的伦理挑战

基因技术、3D打印、人工智能、大数据、纳米技术等新兴科技在为人类社会带来巨大便利的同时,也可能带来巨大风险和挑战。例如,人工智能技术可以让人类从一般的智能活动中解脱出来,集中精力从事各种创新性发现、发明活动。然而,人工智能系统一旦失去控制或被不正当利用,就有可能对人类构成重大威胁。因而,人们在享受新兴科技带来的便利的同时,必须保持审慎态度,有效应对新兴科技可能带来的伦理挑战。

新兴科技所带来的伦理影响纷繁复杂,且彼此之间相互影响、相互作用,加之相关经验和知识积累不够充分,导致人们目前对新兴科技可能引发的伦理挑战还难以精准预测和把握,这加剧了新兴科技使用中的不确定性。例如,当今困扰许多国家甚至全世界的粮食、营养、能源、环境保护和防病治病等问题也许可以通过合成生物的技术来解决。如果将合成的基因组置于细胞内,制造出新的能源、新的可生物降解塑料、清洁环境的新工具、富有营养的蛋白质以及药物和疫苗,那么,由合成细胞产生的产品不仅是全新的,而且更干净、更好、更便宜。然而,与其他新兴技术一样,合成生物技术既可为人类造福,也可能带来风险隐患。合成生物技术具有较简便实用、容易掌握、成本低廉等特点,但也有可能被恶意利用,甚至制造出流行的病毒。这说明,为了更好地发展、利用合成生物技术,有必要对其可能带来的伦理风险作出预判和防范,并进行正确引导。

新兴科技的迅猛发展还可能导致一些新的伦理问题。当人类作出涉及未来的决策时,人工智能技术往往能够发挥一定的积极作用。人工智能技术能够在大数据中发现并总结出人们行为的规律,然后据此预测某人或某群体未来采取某种行动的可能性。比如,消费者有多大可能购买某种商品,什么人可能担任企业的高级执行官,某种疾病在某一地区或国家发生的概率有多大,等等。在此基础上,人工智能技术会引导人们作出相应的干预策略。但也要看到,人工智能技术所发现的规律一般是根据大数据识别出来的,而大数据往往是人们以往行为留下的信息,根据这种以往行为留下的信息预测未来行为,很可能发生偏差或造成偏见,出现伦理问题。

因此,在制定关于新兴科技的创新、研发、应用政策和战略时,不能简单采取“技术先行”或“干了再说”的办法,而要充分考虑新兴科技可能引发的伦理风险和挑战。对科技的管理不能仅仅着眼于效益和产出,还应着眼于能否实现基本的伦理价值,如科技成果能否增进人民的健康、能否保护环境以及维护社会安全等。这就要求在立项之前对新兴科技进行充分的伦理研究,伦理学工作者要为制定合适的监管办法积极提供伦理学根据。

新兴科技具有设备精密、技术复杂、知识结构繁复等特点,这使得科技工作者大多集中精力于科学技术问题,往往无暇关注所涉及的伦理、法律等问题。此外,还有极个别科技工作者受利益驱动做出有悖伦理规范的行为。这就要进一步加强对科研活动的伦理规范和监督,有效防范相关伦理风险。

随着新兴科技的迅猛发展,伦理学工作者不能坐而论道,也不能对科技发展中的问题就事论事,而要将理论与实际联系起来,运用伦理学的理论和方法加以分析研究。可以先研究制订一套初步的、暂行的伦理规范和管理办法,随着相关知识、经验不断丰富而适时加以调整和完善,将新兴科技可能引发的伦理风险降到最低。此外,还应将科技工作者和科学共同体的自我监督同政府主管部门以及相关立法机构的监管有机结合,严格实行问责制和公开制,以有效应对新兴科技可能引发的伦理挑战。

(作者为中国社会科学院哲学研究所研究员)

《人民日报》(2019年05月27日09版)

(责编:任妍、夏晓伦)

分享让更多人看到

崔文成:浅谈人工智能的法律地位

原创崔文成上海市法学会收录于话题#法学106#核心期刊106#原创首发106#上海法学研究72

崔文成中国政法大学研究生院硕士研究生。

内容摘要

关于人工智能的法律地位,学者主要持客体说和主体说两种,也有学者持折中说观点。主要从三派学者的观点入手,通过对学者观点的整合分析,并以此为视角阐述人工智能的法律主体地位的原因和制度设计,以期能支持人工智能的法律主体地位。

关键词:营商环境电商平台自律管理

随着人工智能的不断发展,其在社会生活中所处的地位愈加重要,人工智能法律地位的讨论愈发激烈。关于人工智能的法律地位是主体说还是客体说的争议,不同的专家学者对其有各自的看法并进行了相关的论述。笔者旨在通过对现有几位学者关于人工智能的法律地位争论观点的分析整合,阐述人工智能的法律主体地位的原因和制度设计,支持人工智能的法律主体地位。

学界目前理论

(一)

客体说

1

工具说

人工智能是法律关系客体,不具有法律主体地位,是客体说的主要观点。其具体划分根据所持理由的不同有所区别,本文主要涉及工具说,软件代理说和道德能力缺乏说。

该说认为人工智能本质是工具,是人创造出来的,目的是为人类服务,其不能成为法律关系主体。在涉及人工智能的法律问题中,对于其致人或物损害的问题,可以适用产品责任的归责原则。也即在人工智能领域,涉及的追究责任的主体包括所有参与人工智能产生、设计和使用的主体。当然,该学说存在着局限性。第一,工具说针对的是当下弱人工智能提出的,缺乏与人工智能不断发展相匹配的思考,这也是客体说的普遍问题。第二,该学说无法对已经获得国籍或者户籍的人工智能现状进行合理化解释。第三,产品责任的归责原则可能会对生产者、使用者等的积极性产生影响。

学者认为首先从哲学基础与法理根据两方面分析法律主体,认为法律主体需具有理性以及实体性基础、实益性基础和法技术基础三方面,否定人工智能具备成为法律主体的哲学和法理依据。之后,对人工智能的法律地位进行主体地位的否定和客体地位的合理性两方面的分析,以肯定人工智能的自主性,但是,出于对人工智能的规制的需要,需得从法律上认为其是法律上的特殊物而赋予其法律客体地位。

2

软件代理说

该观点认为人工智能是软件代理,不具备法律主体地位,只起到中间的媒介功能——传递信息。其具有和工具说相同的局限性,也就是没有看到人工智能不断向上的发展趋势,尤其是在人工智能具有深度学习和类人化神经元思考能力之后,其自身的算法已不是单纯的软件所能替代的。

3

道德能力缺乏说

该学说认为人工智能是法律客体的原因在于其定义了法律主体地位的特征,也就是,只有具备道德认知能力的人才具有法律主体地位。然而,要知道,“道德主体必然为法律主体,但法律主体未必是道德主体”,二者存在根本不同。既然人工智能由人类创造和设计,如果人类在创造过程中将“道德能力”的相关算法内置于人工智能之中,使得具备遵守道德规范的能力,是否还可以以人工智能的道德能力缺乏而否认其法律主体地位就有待商榷了。

(二)

主体说

1

代理人说

该学说认为人工智能处于代理人的地位,代理人是法律关系中的主体人,也即人工智能具有法律主体地位。换而言之,人工智能的“所有者”,可能是用户也可能是操作者,其与人工智能是法律代理关系中的被代理人与代理人的关系。当代社会,欧盟的法律提出“非人类的代理人”的概念。俄罗斯的法律中,提出了“机器人-代理人”的概念,也就是赋予人工智能法律地位,规定其对财产拥有的自主权利,可以对属于自己的债务负责,进一步说,其在法律上被赋予了民事权利和民事义务。

2

电子人格说

电子人格说支持人工智能具备“电子人”地位,也就是说人工智能具备法律人格,其人格是电子人格。欧盟议会法律事务委员会在2017年其向欧盟委员会提交的相关报告中提到,从长期发展的角度为人工智能创立独特的法律地位,最起码应当将具备“自主性”的机器人承认其“电子人”地位,使其承担与行为性质相适应的损害赔偿责任,所谓“自主性”是指人工智能自主决定或者与自主决定相类似性质的行为引发的案件。

我国学者郭少飞也持此观点。该学者通过对人工智能时代的人机关系的分析,厘定“电子人”的概念,并从法律论证和法外考量两方面对“电子人”法律主体地位进行阐述。其对“电子人”主体的法律论证包括实践基础、法史基础和本体分析三部分;在经济、社会、文化、伦理、哲学等多方面对“电子人”主体进行法外考量,从法律的历史、人工智能的本身、现实以及社会生活的主要方面,充分肯定人工智能在电子人格定义范围内法律主体地位的现实性和可行性。

3

有限人格说

该学说基于人工智能并不能完全承担责任的地位和能力的认定,认为其具有“有限”人格。也就是有限人格说肯定人工智能具备法律主体地位,但是其地位存在有限性。这就涉及进一步对“有限”一词进行分析和界定,明确人工智能法律人格有限性的所在。

学者袁曾持有限人格说的观点。学者首先对人工智能的法律人格规制缺位现状进行了阐述;其次从人工智能的法律主体特殊性、法律权利和法律责任三方面肯定其法律人格;进而,又通过对人工智能相关的域外立法分析、适用特殊的法律规制标准以及责任分配侵权规制三方面明确人工智能法律人格的有限性;最后对人工智能的有限人格进行归责、防范风险、监管和立法方面的规制设置。

4

人格拟制说

该学说认为应通过法律拟制赋予人工智能与胎儿一样的法律人格。但是,法律拟制在无立法予以确认的前提下,在现行法的框架之内,人工智能的法律主体地位不能确定。

学者杨清望,张磊持法律人格拟制说。学者们首先从历史和现实两个角度阐述人工智能被赋予独立法律人格的必然性,同时从四个方面阐述人工智能被赋予法律人格的必要性:第一,人工智能已经是一种“真实”“独立”且“自主”的存在。第二,人工智能具有独立自主的行为能力和责任能力。第三,有效管控人工智能风险的必要手段是确定人工智能法律人格。第四,人类出于自我权利保障目的,人工智能应当被赋予法律人格。之后,从人与人工智能天然不平等关系、人工智能的“应用”路径和人工智能承担有限的法律责任后果三部分论证拟制法律人格是人工智能法律人格的定性与定位。最后,提出了对人工智能法律地位的立法建议,包括:法律拟制法律人格;参考法人设立建立登记备案制;承认人工智能的有限责任。

(三)

折中说

折中说认为需要区分人工智能的强弱程度,弱人工智能与法律客体相适应,强人工智能则赋予法律主体资格。

学者彭诚信,陈吉栋持该种观点。学者们首先肯定人工智能的法律人格,并对有关学说进行了介绍。之后阐述了人工智能法律人格的应然考量因素,包括实质性要件和形式性要件两部分,所谓实质性要件也就是意志能力和物质性要件,所谓形式性要件也就是符合法律的认可原则。最后,对人工智能法律人格在现行法以及以发展的眼光对待的未来立法两方面进行具体阐述——我国现行法中,学者们认为应将部分弱人工智能认定为权利客体,再对部分符合一定条件的强人工智能肯定其法律主体地位;对于未来立法,需要确定人工智能的法律主体要件以及制定“人工智能发展法”。

学者观点分析

通过以上分析可以发现,学者们对待人工智能法律地位的态度,不论是持客体说的观点还是持主体说的观点,大多从三个方面对人工智能的法律地位进行阐述。第一,人工智能是否具有独立性和自主性。第二,人工智能是否具有自主独立的行为能力和责任能力。第三,人工智能法律地位的确定——主体资格或者客体资格——是对人工智能风险进行控制的必要手段。

以上述几位学者的观点为例,持客体说的学者的看法是,首先,独立性和自主性是人工智能所不具备的,其认知能力具有有限性,不可能成为具有自我意识,深谙自身目的的理性主体。人工智能通过算法认识事物,而算法本身由人类设定或者人类推动其生成,其对世界的认知很大程度上局限于此,不具备独立性。尽管人工智能有超强的学习能力,但这能力也受制于算法,人工智能依据算法行事,围绕算法进行活动,用以达到人类对其预设的目的。其次,人工智能不具有独立自主的行为能力和责任能力。如上所说,人工智能不具备独立性和自主性。同时,人工智能主体地位并不能解决人工智能创造出的物的归属,也不能解决人工智能损害赔偿责任的承担。有观点认为,人工智能行为是其主体的法律行为要件,而其主体包括人工智能的研发者、制造者以及使用者等。换句话说,人工智能是其主体借助的工具,是其主体行为的延伸。而将人工智能的损害赔偿责任分配给人工智能的法律人格,为相关责任人规避责任提供了机会,可能会造成投机行为等不良后果。更为有意思的是,人工智能并没有独立的财产,其怎么能承担法律责任?最后,确定人工智能的法律客体地位是有效管控人工智能风险的必要手段。当所处地位不平等时,就会产生剥削和压迫,就像人类刚刚进入资本时代时,工厂主和雇佣工人地位不平等,双方无法实现平等的意思自治,而超人工智能与人类并不处于一个级别。也就是说,人工智能的智力越强,其所蕴含的风险越大,如果不加以控制,其所产生的后果不是我们所能承受的。

与客体说相对立,持主体说的学者认为人工智能的独立性和自主性是其首要特征。人工智能最初即使是受人类的算法控制,其在运行过程中也产生了自主性和独立性。“自主是一种不受外部控制、能够自我决定并付诸行动的独立状态”。随着科技的不断进步,人工智能在分析问题与解决问题的过程中,其本身技能的进步,学习能力的增强,涉足的范围的扩展,面临问题的复杂,其解决问题的方式更加不可控制,甚至超越其本身的设计者的想象。其次,人工智能具有独立自主的行为能力和责任能力。如上所说,人工智能具备独立性和自主性,其在自主运行过程中的自我思考和自主学习,具有一定的主观能力,充分体现了其行为能力。而对于其承担责任的责任能力,有为人工智能强制投保责任险和设立人工智能储备基金两种路径选择,降低人工智能生产和使用过程中相关责任承担的风险,提高其对人工智能研究的积极性以及人工智能独立承担风险的能力。最后,人工智能风险需要由赋予人工智能法律人格,予以有效控制。新鲜事物的出现必然会对原有的社会生活和社会秩序造成冲击,而人工智能的出现将人类从很多生产生活领域的劳动中解放出来,极大地改变了人们的生活,这必然会引起对传统社会伦理道德和社会秩序的冲击。所以,需要将人工智能纳入统一的技术和伦理规范体系之中进行规制,并建立相应的法律制度机制来降低人工智能可能带来的风险和危害,而这一切的前提是赋予人工智能法律人格。

围绕着对人工智能法律地位的考量,不同观点的学者看待问题的角度不同。其一,针对人工智能的独立性和自主性,客体说的观点倾向于人工智能的工具性更加明显,即使看起来是具有独立性和自主性,但归根究底仍是人类创造的产物。而主观说的观点则倾向于人工智能即使是人类创造的产物,但其由于自主运行和自主学习,已经产生不容否认的独立性和自主性。其二,针对人工智能具有独立自主的行为能力和责任能力,不可否认的是,第一个问题的解释直接关联第二个问题的答案。客体说的观点从假设如果赋予人工智能法律主体地位出发,分析得出其并不能解决现存的关于人工智能的相关法律问题的角度,对该问题予以否认。而主观说则为人工智能能承担责任而提出了多种解决方式,从结果成立反推前提成立。其三,对于人工智能风险控制的不同观点,充分体现了客体说和主观说价值观的核心,人工智能的发展是一把双刃剑,如果控制不好,对人类来说,其带来的后果无法预料。从目前的情况来看,大数据时代,人工智能的法律风险存在于个人信息保护、法律伦理、侵权以及刑事犯罪等领域。除了法律风险之外,还存在着道德风险。客体说认为需要对人工智能的发展持高度警惕态度,认为需要对其的法律地位予以客体化确认,对其进行控制,以防人工智能能力的发展过于迅速,以至于超出人类的预期,造成人类反被人工智能控制的糟糕境遇。主观说的支持者则认为主体制度本身是一种价值判断,主体资格承认的多元化,最终都是对人格自由的尊重,人工智能的发展程度我们无法预料,如果我们希望未来人工智能能够善待人类的话,那么人类应该出于“拥有同情与关爱之良善本性”的善待人工智能。从上述分析可以得知,对于人工智能的法律地位的认定,更多的是一种价值判断和倾向选择。

人工智能的法律主体地位

人工智能对海量数据的汇总、整合、分析和学习,尤其在我们正处于大数据时代的背景之下,越发促进了人工智能向强人工智能的发展,为其法律主体地位的确定添砖加瓦,量变产生质变。

对现有人工智能法律地位观点的梳理以及几位学者观点的分析,笔者认为应当赋予人工智能法律主体地位。笔者通过对人工智能具有法律主体地位的原因和对相关制度设计两方面,阐述人工智能的法律主体地位的正当性和合理性。

(一)

原因

1

现行法律缺乏对人工智能法律地位的指向性态度

随着人工智能的不断发展,目前官方政府和相关组织未对人工智能的法律地位予以明确肯定或者否定,这在一定程度上激发了对其地位争议的同时,也使得其发展欠缺法律价值的指引。“人工智能的短期影响取决于谁控制人工智能,而长期影响则取决于人工智能到底能否受到任何控制,人工智能的运用与发展需要法律人格的明确。”而人工智能的法律主体地位必将随着其发展而被肯定,这符合社会历史发展的客观规律。以法人为例,团体的形成远早于法人制度被法律拟制为法律主体地位,而其之所以没有在刚出现的时候即被承认主体地位,是因为其发展还不够成熟,人类需要通过时间来适应其产生、发展及演变过程中对传统经济、法律制度和社会伦理的冲突,通过恰如其分的方式明确其法律地位以及在实践中不断完善相应的具体制度。不能否认,人工智能的发展过程会与法人制度的形成在一些方面有相似性,但是,如果承认人工智能的法律主体地位,也即在现行法律上承认了非人类的主体地位。这与法人制度有所不同,法人之所以定义中称之为“人”,还是于法人由自然人组成,其决策还是由自然人做出相关。

2

现行法律法规对人工智能法律地位未加以确定

法律客体说和法律主体说对人工智能的法律地位各执一词,尤其突出的是,如果人工智能确定为法律客体地位,其做出的出于自我判断的行为后果是否能单纯的归属于产品责任归责原则;而如果人工智能确定为法律主体地位,其的规制能否与现行法律体系逻辑和传统伦理社会相适应。新事物的产生、发展和完善必将对传统的制度和价值产生冲击,二者可能的相悖只是一时的,在新事物的发展势不可挡的前提下,因为不相匹配产生的法律问题总是要由法律解决,出于解决的需要,法律体系逻辑和社会伦理将逐渐与之相适应。

3

欠缺人工智能的发展匹配的具体规则

智能法律地位学说的研究中,每个具体学说的局限性都不能逃脱缺乏具体规则限定的樊笼。不同学说下,对人工智能的损害赔偿问题等没有确切的规定,即使是在支持赋予人工智能法律主体地位的学说下,对其具体规则的规制,比如说其是否具有独立财产,怎样具有独立财产也有所欠缺。如果力图使理论与实际相匹配,就需要通过具体的规则解决学说的概括性和抽象性问题,既与人工智能的发展匹配,又与社会生活的发展相匹配。

4

人工智能的法律主体地位通过现实实践予以肯定

近年来日本的宠物机器人获得户籍;美国承认自动驾驶汽车中的自动驾驶系统的“驾驶员”地位;沙特政府授予“女性”机器人公民身份。种种国家的举措和法律文件的现状表示,虽然目前各国未承认人工智能的法律主体地位,但一些国家已经承认人工智能的主体地位,笔者相信,承认人工智能主体地位的范围还会继续扩大。

以上,笔者从法律和实践的不同角度,通过现行法律缺乏对人工智能的法律地位的指向性态度、对人工智能的法律地位未加以确定、欠缺与人工智能发展相匹配的具体规则以及现实中人工智能的法律主体地位的确定四方面说明要赋予人工智能法律主体地位的原因。

(二)

制度设计

1

人工智能财产要件的实现路径

人工智能是否能够承担责任,与其是否独立拥有财产密切相关,而人工智能无法独立拥有财产也是法律客体说否认其主体地位的重要理由。人工智能独立拥有财产,目前有两种方式:第一,是保险制度。通过为人工智能投保强制责任保险,使得每个人工智能都具有保险,当人工智能需要承担责任时,以保险金额进行支付,其他人工智能的生产者、设计者、使用者等不用承担应负责任之外的责任。第二,是储备基金。该基金的适用对象是不太可能造成重大生命和财产损失的人工智能,意外发生事故时,用人工智能储备基金作为获得赔偿的某种方式。

需要注意的是人工智能独立承担责任与其生产者、设计者、使用者因其算法或者使用等原因造成的责任不相冲突,因为人工智能的独立运算和决策所造成的超过其生产者、设计者、使用者预期造成的责任由人工智能独立承担;而因人工智能生产者、设计者、使用者因其算法或者使用等原因造成的责任则由相应的责任人承担。

2

法律风险防范机制

人工智能主要分为弱人工智能和强人工智能两类,而弱人工智能由于不具备自主性,与法律客体说相符,通过现有法律可以区分具体情形,解决其造成损害的责任分配问题。而强人工智能则具有不断加强的自主学习能力和逻辑运算能力,推动人工智能向着类人的方向发展,法律风险防范机制主要针对强人工智能,当然也不能说弱人工智能完全不需要防范风险。

人工智能法律风险主要涉及个人信息保护、法律伦理、侵权三个方面,下文主要从这几个方面分析防范机制。

首先,人工智能的发展与大数据密不可分,而针对个人生活习惯和生活信息的精准化、个性化服务则是人工智能的发展方向之一,这本身就存在着极大的安全隐患。这需要从个人信息范围的界定,保障获取个人信息的有效性,坚持数据统计结果与所有权相分离的原则对个人信息进行保护。

其次,数据的规模性和量化促进人工智能的学习能力和其本身的发展,而数据本身的质量并不能保证人工智能的学习不会接触到不良信息。另外人工智能本身深度学习能力如何,以及其怎样学习,怎样决策,都不再受人类控制。这就需要优化数据算法,过滤不良信息,同时提升人工智能的危险鉴别能力;需要成立伦理审查委员会,对人工智能研发人员的伦理问题进行实质审查并对人工智能产品进行伦理审查。

最后,人工智能作为被人类适用的产品本身就存在安全隐患,更不用说时有发生的人工智能毁损财物、致人损伤的事件。区分人工智能的强弱程度,在弱人工智能侵权的情况下,使得《侵权责任法》《产品质量法》等法律的规定做出与弱人工智能相适应的解释,生产者、销售者和使用者分别承担不同的责任。而在强人工智能侵权的情况下,则需要采取一定的制度设计确定强人工智能的独立财产或与之相匹配的相关制度,以降低强人工智能设计者、生产者或者使用者的责任,有效地防范风险。

3

制定《人工智能发展法》

随着人工智能的迅速发展,与国家发展战略的需要相匹配的需要,需要加快人工智能相关法律规定的修订和完善,从法律层面对相关行为的性质进行界定,尤其是《人工智能发展法》。与人工智能发展的现状以及未来可能发展的预期相结合,对人工智能的相关法律制度进行纲领性与具体化并存的制定,尤其针对人工智能的法律地位以及相应的配套措施,以及对人工智能进行监管的体系和流程。将人工智能的发展与社会伦理和社会价值相匹配,强化对人工智能的保护和监管,即使赋予其法律主体地位,也要防止其权利被滥用。

以上,笔者通过人工智能财产要件的实现路径、法律风险防范机制和制定《人工智能发展法》三部分来简要提及对人工智能法律主体地位的相关制度设计,确保其法律主体地位能发挥应有的作用。

结论

人工智能的发展是社会进步、经济发展的必然结果,而人工智能的发展又需要相关法律制度与其相匹配。人工智能的法律主体地位是人工智能不断向前发展的必然结果,笔者通过对人工智能的法律地位的学说和观点进行整合分析,从人工智能的法律主体地位原因和制度设计两方面阐明人工智能的法律主体地位的合理性和正当性。因现行法律缺乏对人工智能的法律地位的指向性态度、对人工智能的法律地位未加以确定、欠缺与人工智能发展相匹配的具体规则和现实中人工智能的法律主体地位的确定四方面原因需要确立人工智能的法律主体地位。另外,为保证人工智能的法律主体地位,从人工智能财产要件的实现路径、法律风险防范机制和制定《人工智能发展法》三部分来完善人工智能的法律主体地位。总之,笔者认为应承认人工智能的法律主体地位。

上海市法学会欢迎您的投稿

fxhgzh@vip.163.com

相关链接

罗培新:疫病境外输入压力日增,外国人可到中国免费医疗?国民待遇,绝不应等于“国民的”待遇罗培新:医护人员“集体放弃”抗疫补助?法理事理情理,理理皆输罗培新:境外输入压力剧增,赖账不付者,道义与法律双输,将开启人生的至暗时刻沈海星:民法典中离婚经济补偿制度的改善及司法适用徐颜:试论B2B电商合同的法律规制安子元:论法定代表人越权担保的私法效果安晨曦:公司解散清算中的义务重构石冬青:融资租赁出租人取回权行使障碍及其应对来源:《上海法学研究》集刊2020年第7卷(中国政法大学、西南政法大学商法文集)。转引转载请注明出处。

原标题:《崔文成:浅谈人工智能的法律地位》

阅读原文

::王利明:人工智能时代对民法学的新挑战

【中文关键词】人工智能智能人;隐私权;个人信息;民法典

【摘要】我们已经进入了人工智能时代,人工智能技术的发展深刻地改变了我们的生产和生活方式,也对我国民事法律制度提出了新的挑战。人格权制度、数据财产保护、知识产权保护、侵权责任认定和承担等,都需要随着人工智能技术的发展而作出必要的调整。我国正在制定的民法典也需要与时俱进,积极回应人工智能时代的各种挑战,妥当设置相关规则、制度,在有效规范人工智能技术的同时,也为新兴技术的发育预留必要的制度空间。

【全文】

1956年夏,在一场关于机器模拟智能的研讨会上,首次提出了“人工智能”这一概念。人工智能作为一门新兴学科,其与基因工程、纳米科学共同被称为21世纪的三大尖端技术。作为引领新一轮科技革命的技术,人工智能系统在替代人类从事简单性、重复性以及危险性工作方面存在广泛的应用价值,目前在金融、安防、客服等行业领域已实现应用,并且在精确度和效率上确实已远超人工。[1]半个世纪以来,伴随着现代科技的发展,特别是移动互联网、大数据、脑科学等新理论、新技术的发展,人工智能近些年的发展极为迅速,已经成为国际竞争的新焦点和经济发展的新引擎。[2]从某种程度上而言,人工智能以信息技术为核心,“信息主权”话题[3]的探讨一定程度上也决定了人工智能未来在国际竞争中的地位。人工智能技术以信息技术为核心,直接造就了信息主权话题的探讨。[4]

我们已经进入人工智能时代,机遇与危险并存。美国电影《终结者》曾预测人工智能机器人超级战士击败人类的结果;科学家霍金生前始终认为,人工智能的发明可能是人类历史上最大的灾难。如果管理不善,人工智能确实可能成为霍金所预言的“最糟糕的发明”,会思考的机器人可能会为人类文明画上句号,这样的论断绝非危言耸听。“问题就是时代的口号”,借助于大数据的人工智能,在改变我们生产与生活方式的同时,也给我们带来了诸多法律上的新问题、新挑战。正如国务院《新一代人工智能发展规划》所言:“人工智能是影响面广的颠覆性技术,可能带来改变就业结构、冲击法律与社会伦理、侵犯个人隐私、挑战国际关系准则等问题,将对政府管理、经济安全和社会稳定乃至全球治理产生深远影响。”这些问题亟待我们予以回应并加以解决。目前对于人工智能的研究有从伦理学层面、[5]认知哲学层面[6]展开的,笔者拟就人工智能对传统民法学理论及司法实务造成的如下挑战谈下自己的看法,以期能对人工智能法律规范体系的形成有所裨益。

一、人工智能对民事主体制度的挑战

人工智能的发展催生了各种类型的机器人,这也带来了一个非常重大的法律问题,即是否应当将机器人视为法律上的人?换言之,机器人究竟应当作为法律关系的主体还是客体出现?应当将其等同于普通的机器或者动物对待,抑或将其作为“人”来看待?

人工智能研究的创始人之一明斯基指出,人工智能是“让机器从事需要人的智能的工作的科学”。2016年,世界机器人大会在北京召开,一些机器人公司展示出了各种智能机器人,智能机器人能够识别人的面孔、表情、年龄、性别,并且能够表达与人类相似的情绪和面部表情。智能机器人的智力目前虽然还不能和人类相比,但也具备了独立处理相关信息的能力和智力,有的机器人甚至已经基本达到了人类智慧的水准。2017年,沙特阿拉伯宣布授予机器人索菲亚以公民资格,由此也进一步推动了法学界对于人工智能主体地位的思考。

从智能机器人的发展现状来看,人工智能机器人已经逐步具有一定程度的自我意识和自我表达能力,可以与人类进行一定的情感交流。有人估计,未来若干年,机器人可以达到人类50%的智力。从实践来看,机器人可以为我们接听电话,从事语音客服、身份识别、翻译、语音转换、智能交通等工作,甚至可以进行案件分析。有人统计,现阶段23%的律师业务已可由人工智能完成。机器人本身能够形成自学能力,能够对既有的信息进行分析和研究,从而提供司法警示和建议。甚至有人认为,机器人未来可以直接当法官,[7]可见人工智能机器人已经不完全是一种工具,而在一定程度上具有了自己的意识,并能作出简单的意思表示。有观点甚至主张,应当承认人工智能具有法律人格。[8]这就提出了一个新的法律问题,即我们将来是否有必要在法律上承认人工智能机器人的法律主体地位?

笔者认为,从目前人工智能的发展来看,其尚未对传统民事法律主体理论提出颠覆性的挑战,我们在短时期内仍然应当坚守传统民事主体理论,而不宜将智能机器人规定为民事主体,主要理由在于:一方面,智能机器人是人类创造出来的,其产生之初即作为民事法律关系的客体而出现,其虽然可能代替人类从事相关的活动,但本质上是受其自身的算法而决定的,尚不具备人类所具有的自主思考的意识和能力。另一方面,智能机器人尚不能独立享有权利、承担义务。在智能机器人造成他人损害时,仍然应当依据《产品质量法》《侵权责任法》确定相关法律责任的承担者,即应当由其创造者或管理者承担责任。也就是说,在一定时期内,既有的法律制度和规则体系仍可有效解决智能机器人所带来的挑战,[9]而不需要承认机器人的民事地位。智能机器人进入民事主体的范畴在未来或许是可行的,因为随着未来科技的发展,智能机器人可能也会不断“进化”,不排除将来智能机器人的思维能力会进一步发展,具备与人类相当甚至超越人类的意识和思考能力,并可以在一定范围内独立地享有权利、承担义务,但在目前人工智能机器人还不能也没有必要成为民事主体。

二、人工智能对人格权保护的新挑战

人工智能的发展还涉及人格权保护的一系列问题,至少包括如下几个方面:

第一,人工智能对隐私的保护提出了新挑战。例如,伴随着人工智能技术的发展,无人机技术也蓬勃发展,无人机被形象地描述为“冰冷的观测技术产品”,可以以各种方式“进入”人们想要到达的区域。童话小说中描述的在苍蝇身上绑上摄像机去他人房间窥探他人隐私的设想,目前已经由无人机技术得以实现,这就对隐私权的保护提出了新的挑战。美国已经发生了多起无人机侵犯他人隐私的纠纷。在无人机窥探他人隐私的情形下,受害人往往难以进行举证,甚至难以确定具体的行为人,[10]这就需要法律进一步强化隐私权的保护,以更好地应对人工智能技术的发展。

第二,人工智能对个人信息的保护提出了新挑战。已经身处大数据时代,大数据记载了我们过去发生的一切和现在发生的一切,并能准确地预测我们的未来。现代社会的人就好像“裸奔”一样,我们的一切都有可能被他人“监视”,都时刻可能暴露在“第三只眼”之下,“亚马逊监视着我们的购物习惯,谷歌监视着我们的网页浏览习惯,而微博似乎什么都知道,不仅窃听到了我们心中的‘TA’,还有我们的社交关系网”。[11]无论我们走到哪里,只要携带手机,相关软件借助于Cookie技术,就可以时刻知道我们的准确定位。借助于大数据分析技术,人工智能也会对个人信息权利的保护带来威胁,一些智能机器人大规模地收集个人信息,并将其植入程序之中,也会对隐私等个人信息构成重大威胁。如何从技术层面、法律层面规范智能机器人搜集个人信息的合法性问题,将是人工智能时代的一项新挑战。例如,在全国首例利用人工智能技术侵犯公民个人信息案中,行为人即利用人工智能技术识别验证码,破解了相关的技术防范措施,并获取受害人个人信息,人工智能技术对相关技术防范措施的破解速度快至毫秒级,令人极为震惊。[12]除收集个人信息外,人工智能技术还可能被用来研究和开发以大数据为基础的各种产品,并凭借大数据无穷的潜力获取利益,从而刺激人们进一步采集、分析人们的大数据信息。随着个人信息收集和分析方式越来越先进,成本也越来越低廉,大规模的数据收集已成为常态,并会越来越普遍,这就进一步加剧了对个人信息和隐私的威胁。[13]我国《民法总则》对个人信息权利的保护作出了规定,但并没有专门规范利用人工智能收集、利用个人信息的行为,未来立法有必要专门设置相关的法律规则,防止人工智能应用过程中的数据非法收集、泄露、贩卖等问题,以有效保护个人信息的安全。[14]

第三,人工智能对肖像权的保护提出了新的挑战。人工智能技术可能借助光学技术、声音控制、人脸识别技术等新型技术,收集他人肖像,并传播、模仿他人的肖像。例如,借助于光学技术和摄像技术,人工智能可以拍摄高分辨率的照片,使得夜拍图片具有与日拍图片同等的效果,这样就使得对肖像权的获取与利用更为简便,这也对肖像权的保护提出了新的挑战。近年来,利用大数据的人工智能人脸识别技术在各领域都开始了实质性运用,从刷脸支付、整治闯红灯到抓捕逃犯,甚至公共领域的发厕纸管理之中,该技术都得到了实质利用。[15]

第四,人工智能对自然人声音、表情、肢体动作等人格利益的保护提出了新挑战。现在很多人工智能系统把一些人的声音、表情、肢体动作等植入其中,使得所开发的人工智能产品可以模仿他人的声音、形体动作等,甚至能够像人一样表达,并与人进行交流。但如果未经他人同意而擅自进行上述模仿活动,就有可能构成对他人人格权的侵害。

此外,需要指出的是,如果将来承认了人工智能机器人的主体资格,还会产生人工智能机器人人格权的保护问题。目前,刑法学理论已经开始探讨毁坏他人机器人是构成故意杀人罪还是故意毁坏财物罪。近来媒体报道,机器人伴侣已经出现,如果机器人伴侣受到虐待,其能否主张人格权受到侵害等,也需要进一步探讨。

三、人工智能对数据财产保护的新挑战

产权清晰是市场经济的基本要求之一,然而大数据和人工智能使得这一传统命题迎来新的挑战。“数据+算法”被视为人工智能技术开发的核心,数据的收集和分析技术的发展成为人工智能进行机器学习和开发的基本方法。目前,大数据已经是人工智能的一种重要分析工具,其得力于传感器与微处理器的硬件支撑。[16]借助于大数据分析技术,人工智能可以进行相关的演练和操作。从人工智能的技术原理来看,其也有赖于大数据分析系统的支持,人工智能功能的强弱在很大程度也取决于其所包含数据库的多少,人工智能需要依赖大量来自不同主体的数据,数据的抓取和利用在人工智能行业无处不在。数据在人工智能技术开发中的应用价值越来越高,但数据的开发和利用都需要明晰数据的产权主体和内容,规范数据的移转和利用。因此,人工智能的发展需要解决财产法面临的新问题。

人工智能利用的数据主要有三类,分别是个人所有的数据、私人企业和组织所有的数据和公共机构管理的数据。有观点认为:数据财产权的基本原则是谁的数据归谁所有,没有任何主体指向的数据是公共资源。[17]但是人工智能不仅会储存收集的原始数据,而且可以对收集的各种数据进行加工,产生衍生数据。与此同时,数据的占有和转移占有是无形的,同时也是没有有效的权属证明。所以,在大数据时代,法律所遇到的一个严峻挑战即应当如何确认数据的权利归属,既要保护被搜集人的个人信息权,又要保护数据开发者、合法利用者的数据财产权,迄今为止,如何对数据进行确权并且构建起权利内容和权利转移制度尚未解决,需要法律予以尽快完善。

现行《物权法》把物权分为动产和不动产,而数据难以按照此种方法进行分类,故而学界一直争议数据属于物权还是债权。我国《民法总则》第127条对数据的保护规则作出了规定,一方面,数据在性质上属于新型财产权,但数据保护问题并不限于财产权的归属和分配问题,还涉及这一类财产权的转移、利用、保管等法律问题。在利用人工智能时如何规范数据的收集、储存、利用行为,避免数据的泄露和滥用,并确保国家数据的安全,也是亟需解决的重大现实问题。[18]另一方面,人工智能的应用方式和应用范围在很大程度上取决于其算法,如何有效规范这一算法,避免侵害他人权利,也需要法律制度予以应对。例如,人工智能通过分析在网络交易中取消订单的频繁程度,可以得出关于一个人社会信用状况和交易能力的评价结果,此种评价结果可能对个人的经济生活产生重大影响。目前,人工智能算法本身的公开性、透明性和公正性的问题,是人工智能技术发展的核心问题,但目前并未受到充分关注。

四、人工智能对知识产权保护的新挑战

人工智能的发展也涉及知识产权保护的问题。一方面,机器人已经能够自己创作音乐、绘画,机器人写作的诗歌集也已经出版,这也对现行知识产权法提出了新的挑战。例如,百度已经研发出可以创作诗歌的机器人,微软公司的人工智能产品“小冰”已于2017年5月出版人工智能诗集《阳光失了玻璃窗》,在日本,机器人创作的小说甚至还通过了日本文学奖的初审,有的机器人甚至会谱曲、作画,这些作品已经可以在市面上销售,这就提出了一个问题,即这些机器人创作作品的著作权究竟归属于谁,是归属于机器人软件的发明者,还是机器的所有权人,还是赋予机器人一定程度的法律主体地位从而由其自身享有相关权利?正如前文已经论述,现阶段的人工智能技术的发展尚不足以被承认为民事主体,故而现阶段也不适合承认机器人完成的作品可以归一个实践工具所有,只能承认由机器人的所有者享有知识产权。当然,在未来人工智能在创作领域可能技术更加成熟,已经达到了类似人类或者超越人类的能力,那么可否在创作领域承认人工智能的民事主体地位和权利能力,这也是可以进一步讨论的。

另一方面,智能机器人要通过一定的程序进行“深度学习”“深度思维”,在这个过程中有可能收集、储存大量的他人已享有著作权的信息,这就有可能构成非法复制他人的作品,从而构成对他人著作权的侵害。人工智能机器人能够存储大量的信息,而按照一些国家的规定,存储他人享有著作权的信息本身,就构成对他人著作权的侵害。人工智能实际上就是一种机器模仿人的智力活动的技术,但如果人工智能机器人利用获取的他人享有著作权的知识和信息创作作品,如创作的歌曲中包含他人歌曲的音节、曲调等,也可能构成剽窃。

在人工智能侵害他人知识产权的情形下,究竟应当由谁承担责任、如何承担责任,本身也是一个问题。如果认为机器人具有主体资格,那么其承担责任的财产又来自何处?如果认为机器人不具有主体资格,究竟应当按照产品责任追究生产者、销售者的侵权责任,还是应当由机器人的主人来承担相应责任?这些问题均值得进一步研究。

五、人工智能对侵权责任认定的新挑战

人工智能的发展还涉及侵权责任的认定问题。人工智能引发的侵权责任问题很早就受到了学者的关注,随着人工智能应用范围的日益普及,其所引发的侵权责任认定和承担问题将对现行侵权法律制度提出越来越多的挑战。[19]无论是机器人致人损害,还是人类侵害机器人,都是新的法律责任。

在实践中,机器人致人损害的案例已经发生,2015年7月,德国大众汽车制造厂一名21岁的工人在安装和调制机器人时,被机器人“出手”击中胸部,并被碾压在金属板上。无独有偶,2016年,Google无人驾驶汽车在美国加州山景城测试时,与一辆公交大巴相撞,后经法院认定,Google公司在此次事故中负有责任。我国也出现了人工智能机器人伤人的事件,据报载,2016年11月,在深圳举办的第十八届中国国际高新技术成果交易会上,一台名为小胖的机器人突然发生故障,在没有指令的前提下自行打砸展台玻璃,砸坏了部分展台,并导致一人受伤。[20]表面上看,机器人是人制造的产品,在造成他人损害时,应当由机器人的研发者负责,似乎在法律上没有争议。但机器人又不同于普通的产品,对普通的产品而言,追踪产品的生产者较为容易,而对人工智能机器人而言,其是依靠自身的算法在运作,有其自身独特的运作程序。因此,在人工智能机器人造成他人损害时,不能简单地认定由该机器人的生产者承担责任,而应当由该程序的发明者承担责任,而人工智能机器人的运作程序可能是由多个主体共同开发的,很难确定具体的程序研发个人或者组织,这就给确定人工智能机器人的责任带来了困难。

人工智能的发展催生了无人驾驶技术,这也对道路交通事故责任提出了新的挑战。[21]伴随着无人驾驶技术在各国的运用,这一问题已经显现。前不久,深圳已经测试无人驾驶公交线路,引发了全球关注。浙江省拟于2022年建成支持自动驾驶的首条超级高速公路。但值得我们考虑的问题是,一旦无人驾驶汽车发生交通事故,应当由谁承担责任?能否适用现行机动车交通事故责任认定相关主体的责任?法律上是否有必要为无人驾驶机动车制定专门的责任规则?这确实是一个新问题,但已经现实发生,美国时间2018年3月20日,UBER无人驾驶汽车在美国亚利桑那州发生了全球首例无人驾驶撞死行人的案件,案发地州政府紧接着宣布该州范围内永久性停止UBER无人驾驶测试,该案最终以和解方式结案,并未形成相应的裁判规则。笔者认为,对此应当区分不同情况,分别认定相关主体的责任:如果无人驾驶的汽车是因为汽车本身的技术故障引发交通事故,此时,受害人应有权根据《侵权责任法》《道路交通安全法》的规定要求驾驶者承担侵权损害赔偿责任。如果交通事故是因驾驶操作系统程序出现问题,发生交通事故,此时完全由驾驶者承担责,可能有违公平,也过于苛责。究竟如何分配责任,值得进一步探讨。在无人驾驶技术日益普及的情形下,还有必要引入保险制度,即规定新类型的“无人驾驶强制责任保险制度”,为受害人提供必要的权利救济。[22][23]

此外,有一个问题值得考虑,就是未来可能出现的飞行汽车所带来的道路事故责任,应当如何加以认定?根据媒体的相关报道,有谷歌飞行之父之称的塞巴斯蒂安-特伦宣布,谷歌有望在五年之内让飞行汽车飞行于天空的计划得以实现。[24]一旦飞行汽车的计划真的实现,可以预计汽车的飞行可能将颠覆道路交通规则,其在法律定位上究竟是作为一类新型航空器得以出现,从而根据航空事故责任来进行责任界定,还是仍然按照机动车交通事故责任来加以确定,这一问题非常值得探讨。

结语

人工智能时代已经来临,其不仅改变人类生产和生活方式,也会对人类的法律制度产生深刻的影响。21世纪初,华裔著名经济学家杨小凯就提出:如果中国仅仅重视技术模仿,而忽视制度建设,后发优势就可能转化为后发劣势。[25]因此,我们不能仅注重技术的引用,而忽视其可能带来的负面效果。我们的法学理论研究应当密切关注社会现实,积极回应大数据、人工智能等新兴科学技术所带来的一系列法律挑战,从而为我们立法的进一步完善提供有力的理论支撑。“不谋万世者,不足以谋一时”,法治不仅仅是要考虑当下,也要考虑未来。法治要提供制度环境安排,为新兴科技等的发育预留法律空间。特别是要充分认识和拥抱科学技术对社会生产和生活带来的结构性、革命性的影响,尽早观察和预测未来法律发展的方向,促进良法制定,以良法保障和促进人工智能技术的健康发展,消除其对人类社会可能产生的副作用。因此,我国现行正在编纂的民法典应当考虑到人工智能可能带来的各种新挑战,并制定相应的法律规则,以体现出民法典与时俱进的品格,并真正地应对未来的技术发展,成为一部21世纪的民法典。

【注释】中国人民大学法学院教授,博士生导师;中国人民大学民商事法律科学研究中心研究员。

[1]参见中国电子技术标准化研究院:《人工智能标准化白皮书(2018版)》,第1页。

[2]参见国务院《新一代人工智能发展规划》(国发〔2017〕35号)第一部分。

[3]参见许志华:《网络空间的全球治理:信息主权的模式建构》,《学术交流》2017年第12期。

[4]参见许志华:《网络空间的全球治理:信息主权的模式建构》,《学术交流》2017年第12期。

[5]参见徐英瑾:《具身性、认知语言学与人工智能伦理学》,《上海师范大学学报》(哲学社会科学版)2018年第1期。

[6]参见魏屹东:《人工智能的适应性表征》,《上海师范大学学报》(哲学社会科学版)2018年第1期。

[7]参见高奇琦、张鹏:《论人工智能对未来法律的多方位挑战》,《华中科技大学学报》(社会科学版)2018年第1期。

[8]参见袁曾:《人工智能有限法律人格审视》,《东方法学》2017年第5期。

[9]参见李晟:《略论人工智能语境下的法律转型》,《法学评论》2018年第1期。

[10]参见我们应该如何看待无人机侵犯大众隐私的问题,https://baijia.baidu.com/s?old_id=470904,2018年2月12日。

[11][英]维克托、迈尔-舍恩伯格:《大数据时代》,盛杨燕等译,浙江人民出版社2013年版,第193页。

[12]参见人工智能成窃取公民个人信息案“帮凶”!系全国首例,载http://www.sohu.com/a/197343129_99931689,2018年2月12日。

[13]参见张宪丽、高奇琦:《人工智能时代公民的数据意识及其意义》,《西南民族大学学报》(人文社科版)2017年第12期。

[14]参见吴汉东:《人工智能时代的制度安排与法律规制》,《法律科学》(西北政法大学学报)2017年第5期。

[15]参见人脸识别系统半个月抓住3名逃犯还有哪些用途?,http://news.163.com/17/0604/07/CM2PVCQ70001875P.html,2018年2月2日。

[16]参见王博、郝银钟:《大数据条件下司法公开对我国法官制度的新要求》,《学术交流》2017年第12期。

[17]吴晓灵:《大数据应用不能牺牲个人数据所有权》,《清华金融评论》2016年第10期。

[18]参见郑戈:《人工智能与法律的未来》,《探索与争鸣》2017年第10期。

[19]参见朱体正:《人工智能时代的法律因应》,《大连理工大学学报》(社会科学版)2018年第2期。

[20]《深圳高交会出现中国首例机器人伤人事件》,《联合早报》2016年11月18日。

[21]陈晓林:《无人驾驶汽车致人损害的对策研究》,《重庆大学学报》(社会科学版)2017年第4期。

[22]中国首条超级高速公路2022年要通车不用担心超速,http://news.163.com/18/0224/06/DBD1HH7L0001875N.html,2018年3月31日。

[23]Uber与无人车撞死行人案受害人家属和解赔偿金额未公布,https://xw.qq.com/tech/20180329012517/TEC2018032901251700,2018年3月31日。

[24]谷歌自动驾驶汽车之父:飞行汽车将在5年内飞翔天空,http://tech.qq.com/a/20180212/024798.htm,2018年2月13日。

[25]参见涂子沛:《数据之巅》,中信出版社2014年版,第337页。

【期刊名称】《东方法学》【期刊年份】2018年【期号】3

::杨延超:推动人工智能与法学的深度融合

 

回首人工智能法学在我国的发展,可以追溯到我国著名学者钱学森最早提出的构想。钱学森在1981年就人工智能与法学的结合方面提出总体性的构想。然而遗憾的是,接下来的几十年里我国并未对此展开深入研究。人工智能法在我国的研究才刚刚开始,暂未形成像国外那样具有影响力的法律成果。

在人工智能法律的研究中,首要的就是需要构建一个“人工智能法”的法律体系。这个法律体系主要是回答“人工智能法”到底研究什么的问题。人工智能法律体系主要会涉及两个方面的问题:第一,人工智能引发哪些新的法律问题,比如无人驾驶,以前是没有的,人工智能时代,新的现象产生了新的问题,这些法律问题该如何解释和规范;第二,如何利用人工智能技术推动法律公平正义的实现,比如通过机器学习让机器人学会裁量案件,如此,用人工智能寻找法律公平正义的路径和方法,也是人工智能时代需要解决的问题。

 

人工智能发展对法律体系带来冲击

 

如今,人工智能引发的新的法律问题有哪些呢?

——人工智能正在重构法律关系下的权利义务模型。

所谓法律事实,即能够引发法律关系产生、变更或者消灭的事实。科技发展对于法律的直接

影响,往往是从它所催生的法律事实开始的,印刷术的发展催生“复制”为一个重要的法律事实,甚至催生了“版权”(Copyright)的诞生;互联网的发展同样也产生了一些新的法律事实,如电子商务区别于传统的当面交易,最终也催生了《电子商务法》的产生。传统技术条件催生的法律事实,更多体现在提升工作效益领域,并没有改变传统法律事实所产生的权利义务模型,如人骑马撞人与开车撞人,都需要根据其过错责任原则来确定其赔偿责任;电子商务或是传统交易都是依据《合同法》的原理来解决相关权利义务问题。然而,人工智能所催生的法律事实,却从根本上改变了传统的权利义务模型,如无人驾驶与传统交通工具的升级有本质区别,在这一新型权利义务模型中,司机“过错”的概念将被彻底消除,产生事故的归责原则也将发生彻底改变,这一改变甚至会影响到以“过错责任原则”作为立法基石的传统《道路交通安全法》。人工智能所催生的新的法律事实,还包括机器人医疗、机器人创作等,这些法律事实所产生的权利义务模型从本质上区别于传统情况,机器人甚至还将作为“法律主体”参与到新型的法律关系当中。

——人工智能引发的法律主体制度新问题。

机器人能否成为法律主体,这是人工智能时代面临的首要法律问题。这一问题甚至又引发了在以下场景中的权利、义务问题:第一,机器人签约,谁来享受权利承担义务?机器人客服的广泛应用,机器人直接与客户签约的情况越发普遍,在这一场景下,谁应当享受权利承担义务也成为需要回答的法律问题。第二,机器人导致他人损害,谁来承担侵权责任?当机器人广泛参与到生产生活中,机器人导致他人损害的情况时有发生,其法律责任亦应由谁来承担,同样也是迫切需要解决的问题。第三,在继承、赠与等法律关系中,机器人能否作为法律主体享受相关权利?对这一问题的回答,同样归咎于对机器人法律主体地位的认知。

传统的工具论将机器人作为主体的“工具”来看待,按此认识,机器人将不具备法律上的主体地位,然而,越来越多的机器人决策甚至决策本身已经超越了设计者的认识。传统的“工具论”再难以将机器人的行为完全归于设计者。为此,法律上也产生了“代理说”“电子人格说”等系列法律学说。事实上,关注机器人的法律主体,与其是否真正具有类似人的“意识”无关,从本质上是要梳理其背后的权利义务关系,在错综复杂的利益面前,“让上帝的归上帝”“让恺撒的归恺撒”。在人工智能时代,必要时,可以针对机器人的人格缔造全新的学说,不同于自然人,不同虚拟人格的法人,专属于机器人的法律人格学说。

——人工智能引发的主体权利、义务新问题。

科学技术作为第一生产力,从根本上决定了生产关系。人工智能在改变生产生活模式的情况下,也在改变着这个时代的权利、义务关系。人工智能将现实的物理世界又延伸到虚拟世界,传统的物理人格也同时映射到虚拟世界当中,人每一天都在制造数据,数据在虚拟世界中完成新的人格建构,公民的隐私权受到前所未有的挑战。机器人大量取代现有工种,大批人员面临失业,劳动者的工作权益也遇到巨大危机。机器人广泛地参与到文学艺术创作当中,机器人亦是艺术家的观念被渐渐认可,这对传统艺术以及艺术家的权利也将产生深远影响。

在人工智能时代,人的权利和自由被严格限制在代码所确定的空间当中。在这样的时代,代码即为法律的特征将淋漓尽致地彰显出来。人的自由是被代码严格控制的,你能做什么,你不能做什么,你做了坏事将面临什么样的处罚都是由代码最终决定的。“智能合约”的广泛运用,还会将人的权利义务写入不可篡改的分布式代码当中,甚至违约后的强制执行同样是由代码完成的。在这样的时代,为权利而斗争,即为代码而斗争。

 ——人工智能引发的法律客体新问题。

 人工智能还将引发对传统法律客体的系列反思,尤其是对于法律上“财产”“数据”等概念的反思。

第一,大数据在法律上该如何保护?数据库往往被纳入版权法的保护范畴,各国版权法还进一步规定,数据库编排的独创性同时作为数据库受到法律保护的重要前提。然而,人工智能时代对数据算法不断优化,以至于对数据库编排独创性的要求越发降低,机器人甚至对非结构性的数据也能产生较好的计算结果。这一切都使传统数据库的保护规则发生重大变化,如何在人工智能时代保护大数据规则,为其重设保护条件,这也成为数据保护中的首要问题。第二,机器人创造物与人创造物之间的区别?“独创性”标准系作品能否获得版权保护的必要条件,尽管英美法系和大陆法系对于作品独创性的表述各有不同,但总体上要求系人创作的作品才存在“独创性”。然而,机器人已经广泛地参与到文学艺术创作中,并且随着算法的提升,机器创作物所彰显的“独创性”甚至超越人类,那么对于机器人创作物的法律地位也有必要重新定位,仅仅因为系机器人创作物就将其排除在法律保护之外的做法已难以达到法益保护之目的。第三,物联网语境下的物权概念的重构?物权与债权系民法上的两项基本权利,二者的根本区别也在于是否存在相对方,物权概念中没有相对方,故而又称为“对世权”;债权概念存在相对方,故而又称为“相对权”。物联网语境下,任何物都将身处在物理世界与网络世界中。无人驾驶车辆卖给了你,车辆真的是你的吗?厂家依然享有对车辆的最终控制权。这一切对物的绝对权概念不再“绝对”和“彻底”,相反任何物都无法割舍与厂家的相对关系,传统物权概念有必要重新解构和建构。

——人工智能引发的法律责任新问题。

在人与人直接发生法律关系的场景下,法律责任的判定会相对清晰,比如在处理违约关系时,法官只需要判断行为人到底有没有违约;在侵权关系中,法官只需要判断侵权人是否存在过错。然而,人与人之间的关系一旦增加了机器人角色,法律责任的承担也将变得更加复杂。比如在智能投顾的法律关系中,给客户提供服务的不再是自然人而是机器人,那么,因机器人决策而产生的法律纠纷到底又应当由谁来承担责任呢?这时,需要评价的将不再是人的过错,而是机器人的“过错”,或者为客户提供机器人的企业的过错。再比如,在无人驾驶中,传统的司机过错的概念也将彻底消失,传统的对司机过错的交通事故评价原则也将改变,不再是司机是否尽责,而转为无人驾驶车辆是否合格。总之,在人工智能时代,大量的工作将由机器人完成,传统的人的过错责任原则也将迭代为“产品质量责任原则”。

——人工智能对传统民法的挑战。

民法为人类社会构建了两大关系的权利义务模型:一为财产关系;二为人身关系。人工智能的到来,对这两大关系都构成了挑战:第一,在财产关系中,传统“物”的概念将被彻底动摇。根据民法之“外在性”原则,人(自然人)之外物,一旦具备价值和稀缺特点,即可构成法律意义的“财产”。然而,如果按照传统民法的财产规定,将机器人确定为法律意义上的财产,又无法从根本上解决机器人的自主决策,以及通过机器学习所体现出来的超越发明者的行为意志问题。机器人是财产还是主体的困惑一直伴随着人工智能法律研究的始终。第二,在人身关系中,机器人或将打破传统的人身关系规则。随着人工智能的发展,人对于机器人的情感寄托会越发厚重,与机器人结婚或者通过遗嘱由机器人继承财产的案例也将不再是新闻,“自然人”作为人身关系主体的格局将被彻底打破,如何在机器人语境下重构人类社会的人身关系,同样是当下迫切需要解决的问题。

 ——人工智能对刑法的挑战。

 刑法中有两个关键词,一个是定罪,一个是量刑。这两件事,机器人都可以做,而且都可以比人做得更好。机器人可以通过机器学习对被告人的行为给予准确评价,并可以基于此前大量同类判决,总结法官在类似案件中的经验,从而更“理性”地给被告人定罪量刑。一旦机器人在定罪量刑中发挥重要作用,原有对证据的辩论也将转变为对机器人算法的辩论。对于不符合当事人预期的机器人判决,律师的辩护意义也将集中在机器人算法的合理性方面。然而,算法黑洞的难题也将呈现在刑事辩护中。立法中有必要赋予当事人基于算法黑洞的辩护权,并有权请求对算法予以审计,以及让该算法的工程师提交接受证质和接受询问。总之,人工智能时代,辩护律师与机器人之间的角逐也或将成为影响判决走势的关键所在。

——人工智能对金融法的挑战。

机器人对金融法的挑战体现在两个方面:“中心化”与“去中心化”的挑战。第一,中心化的挑战。人工智能广泛地参与到金融决策和金融监管领域,金融管理体现出更加“中心化”特征。智能投顾将取代传统的投资顾问,通过数据算法完成对客户的投资决策,那么,在这一过程中,智能投顾的法律权利和责任有必要重构。与此同时,人工智能还将被广泛应用于金融监管领域。何为操纵市场?如何确立其因果关系以及确定损失金额?这一切都将借助人工智能完成。毫无疑问,人工智能也将破解传统金融法中由于欠缺数据和算法而形成的法律难题,并且更加科学地完成市场监管。那么,在这一过程中,人工智能在市场监管中的地位、作用、监管原则都有必要在法律中予以确定。第二,去中心化的挑战。去中心化的区块链技术的广泛应用,数字货币的诞生,同时催生了金融体系的“去中心化”特征。“去中心化”彻底颠覆了传统金融法律体系,尤其是去中心化数字货币的诞生,催生了数字货币与传统法币共存的立法格局。然而,数字货币的法律属性到底是什么?是商品、货币、证券抑或是其他,当前世界各国还在广泛讨论中,并在尝试中继续完善,这将彻底颠覆传统的货币国家主权原则。总之,在人工智能时代,传统金融法将面临来自“中心化”智能算法与“去中心化”区块链技术的双重挑战。

——人工智能对知识产权法的挑战。

知识产权法旨在保护科技创新和艺术创作,知识产权法涉及两方面的重要内容,一个是权利的保护,另一个是作品(科技成果)的合理使用,这两方面的平衡共同建构了现代知识产权法律制度。然而,人工智能彻底动摇传统“作者”与“发明者”概念。不仅自然人可以创作,机器人也可以创作,而且表现出更为“精湛”的艺术造诣。在人工智能时代,谁是作者的概念有必要重新诠释,传统知识产权制度中的“精神权利”在机器人语境下也需要重新建构。与此同时,机器人创作还在撼动传统“严苛”的合理使用制度。机器人创作解放了传统的“作者”,大幅降低了其创作成本,提高了其创作效率,从利益平衡的视角来看,这些变化也将最终改变知识产权法的合理使用制度。

——人工智能对于其他部门法的挑战。

人工智能也将对其他法律产生深远影响,如在《电子商务法》中,基于大数据完成交易各方相关权利义务的评价,交易大数据将最终呈现出交易各方是否存在“过错”;如在《产品质量法》中,基于智能算法完成产品质量的评判,针对产品质量是否合格,企业也将提交其存储在终端的数据作为证据支持;在《侵权责任法》中,还将利用机器学习最终完成损害赔偿数额的计算;在《民事诉讼法》中,基于人工智能的研究,法律也将重构诉讼中“受理”“送到”“告知”等相关制度。总之,人工智能已全面来袭,作为法律人,无论你是否愿意,都有必要正视人工智能对于法律的巨大挑战。

 

利用人工智能技术推动法律公平正义

 

1.在大数据立法过程中,利用人工智能实现立法科学化。

 立法实质上是完成三件事:第一,找准社会中存在的主要法律问题;第二,针对这些问题作出法律规范;第三,明晰违反法律的制裁措施。人工智能可在这三个方面发挥有效作用:第一,借助大数据和人工智能可以帮助立法精准找到社会生活中存在的主要法律问题。第二,借助人工智能可以分析当前的法律规范是否实际发挥了作用,还可以通过人工智能模型来模拟哪种规范形式更容易达到预期效果。第三,人工智能可以计算出最恰当的惩罚措施。惩罚涉及违法成本的计算,过低的违法成本无益于违法惩治,过高的违法成本又将显失行为与惩罚的对等性,由此也将影响法律的权威。人工智能通过法律效果的模拟,可以帮助立法者发现惩罚措施变化时,法律效果对应变化的情况,由此找到最佳法律效果的惩罚边界。

 2.在执法过程中,利用人工智能提高执法的效率和科学。

 做好执法工作,需要做好以下几件事情:第一,对于违法行为要能即时监测;第二,要能够高效处理相关违法事实。人工智能恰好可以在这两个方面发力:第一,在人工智能时代,人在物理世界中的行为又将体现为虚拟世界中的数据,对数据的监测亦能反映对人行为的监测,因此人工智能对于数据的评价也将成为对人的行为的评价,比如在金融领域,对于主体市场操纵的评价,恰恰是通过对买卖股票的市场大数据综合分析完成的;在银行、商贸领域,对主体是否存在市场欺诈的评价,同样也是基于对其大数据的综合分析后得出的结论。并且随着机器人分析能力的增强,机器人甚至可以根据一个人的行为动作分析出其暴力倾向,这些都将公民置身于违法监测的框架体系中。当然,这一过程也涉及公民隐私保护的话题,机器监测与隐私保护的平衡也是人工智能时代一个亟须解决的话题。第二,人工智能时代对违法行为处理也将更加高效和人性化。以交通违规处罚为例,全程几乎都可以由机器人完成。机器人可以发现哪一台车辆闯了红灯,机器人可以根据车牌识别找到车主,机器人还可以识别违法情况并根据法律规定自动作出处罚(如扣分和罚款的决定),机器人还可以将处罚决定以短信或其他方式通知事主。这不仅高效,而且也很人性化,让事主能第一时间就知晓处罚结果,而非惶惶不可终日。同时,事主还可以随时调取处罚决定及附带录像证据,这也保障了事主对自身权益的维护。

 3.在司法过程中,利用人工智能更好实现司法的效率和公平。

一个公正的司法包含如下几个方面:第一,对于案件事实的认定要客观公正,实事求是。案件事实是作出司法裁判的基础,事实认定错误,势必导致裁判结果不当。第二,对于法律的适用要准确,无论是民事中涉及赔偿数额的判罚,还是刑事案件的具体量刑,都要与当事人的行为相符合,过轻过重的处罚均是非正义的。第三,对于正义的裁判要及时,迟来的正义即“非正义”。人工智能在这几个方面都具有超乎寻常的优势和发展潜力:第一,人工智能可以帮助法官还原事实。原本在法律界,事实只能被证明却不可以被还原,然而,在人工智能时代,事实本身亦是数据在历史长河中的表现形式,对数据的恢复亦是对事实的恢复。时间戳的应用可以帮助法官固定历史上的事实;笔迹鉴定的机器学习可以帮助还原签名的真实性;大量的数据(通信数据、生理数据、生产数据、生活数据)还将从广泛意义上还原案件的真实情况。第二,人工智能可以帮助法官更准确地适用法律。机器人对于此类案件的学习,可以总结出既往判例中法官的经验、对案件考量的要点、赔偿数额的多少等,机器人据此作出的裁判可以为法官提供更加精准的参考,这样,人工智能便让孤立的案件与既往的所有案件发生关联,从而为法官准确适用法律提供权威参考。第三,机器人的广泛应用将让司法更加高效,自动应答机器人、撰写机器人、档案管理机器人等广泛地参与到立案、庭审、文书撰写等各个环节,可以更加高效地提升审判效率,在最短时间内将正义还给当事人。

4.为实现公民守法,利用人工智能更好地提升公众的法律意识。

遇事找律师,也将成为普通民众的第一思维惯性。在普通民众看来,法律总是很专业的,需要由专业的人来解决。正是这种专业的惯性让普通民众与法律之间隔岸相望。未来,机器人势必将在“两岸”之间搭起桥梁,让普通民众与法律直接沟通。我在法律机器人实验室工作的过程中,甚至将这种场景作为法律机器人研究的重要方向,试想,如果有一天,有一个可以24小时提供咨询服务的机器人,公众可以随时与其友好沟通,而且还是完全免费的,公众与法律之间“最后一公里”的鸿沟将被彻底打破。

当然,要打造一个24小时可以提供咨询服务的律师并不是一件简单的事情,它需要对算法和数据的全面升级,或者说强人工智能时代的到来。当下,有关法律机器人的研究正朝着这个方向迈进,尽管机器人还不能像律师一样为公众提供完全的法律服务,但在撰写、搜索、简单咨询领域的尝试已经正在一步步拉近公众与法律的距离。通过机器人,公众可以了解法律的精神;通过机器人,公众可预测自己行为的后果;通过机器人,公众可行使诉讼的权利(如撰写诉状);通过机器人,公众还可以完成自主的法律培训,全面提升自己的法律素养。

 

 

 作者:杨延超,中国社会科学院法学研究所研究员、科技与法研究中心主任、法律与人工智能实验室首席顾问。

来源:《人民邮电》2020年11月20日。

版权声明:本文内容由互联网用户自发贡献,该文观点仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌抄袭侵权/违法违规的内容,一经查实,本站将立刻删除。

上一篇

下一篇