::王利明:人工智能时代对民法学的新挑战
【中文关键词】人工智能智能人;隐私权;个人信息;民法典
【摘要】我们已经进入了人工智能时代,人工智能技术的发展深刻地改变了我们的生产和生活方式,也对我国民事法律制度提出了新的挑战。人格权制度、数据财产保护、知识产权保护、侵权责任认定和承担等,都需要随着人工智能技术的发展而作出必要的调整。我国正在制定的民法典也需要与时俱进,积极回应人工智能时代的各种挑战,妥当设置相关规则、制度,在有效规范人工智能技术的同时,也为新兴技术的发育预留必要的制度空间。
【全文】
1956年夏,在一场关于机器模拟智能的研讨会上,首次提出了“人工智能”这一概念。人工智能作为一门新兴学科,其与基因工程、纳米科学共同被称为21世纪的三大尖端技术。作为引领新一轮科技革命的技术,人工智能系统在替代人类从事简单性、重复性以及危险性工作方面存在广泛的应用价值,目前在金融、安防、客服等行业领域已实现应用,并且在精确度和效率上确实已远超人工。[1]半个世纪以来,伴随着现代科技的发展,特别是移动互联网、大数据、脑科学等新理论、新技术的发展,人工智能近些年的发展极为迅速,已经成为国际竞争的新焦点和经济发展的新引擎。[2]从某种程度上而言,人工智能以信息技术为核心,“信息主权”话题[3]的探讨一定程度上也决定了人工智能未来在国际竞争中的地位。人工智能技术以信息技术为核心,直接造就了信息主权话题的探讨。[4]
我们已经进入人工智能时代,机遇与危险并存。美国电影《终结者》曾预测人工智能机器人超级战士击败人类的结果;科学家霍金生前始终认为,人工智能的发明可能是人类历史上最大的灾难。如果管理不善,人工智能确实可能成为霍金所预言的“最糟糕的发明”,会思考的机器人可能会为人类文明画上句号,这样的论断绝非危言耸听。“问题就是时代的口号”,借助于大数据的人工智能,在改变我们生产与生活方式的同时,也给我们带来了诸多法律上的新问题、新挑战。正如国务院《新一代人工智能发展规划》所言:“人工智能是影响面广的颠覆性技术,可能带来改变就业结构、冲击法律与社会伦理、侵犯个人隐私、挑战国际关系准则等问题,将对政府管理、经济安全和社会稳定乃至全球治理产生深远影响。”这些问题亟待我们予以回应并加以解决。目前对于人工智能的研究有从伦理学层面、[5]认知哲学层面[6]展开的,笔者拟就人工智能对传统民法学理论及司法实务造成的如下挑战谈下自己的看法,以期能对人工智能法律规范体系的形成有所裨益。
一、人工智能对民事主体制度的挑战
人工智能的发展催生了各种类型的机器人,这也带来了一个非常重大的法律问题,即是否应当将机器人视为法律上的人?换言之,机器人究竟应当作为法律关系的主体还是客体出现?应当将其等同于普通的机器或者动物对待,抑或将其作为“人”来看待?
人工智能研究的创始人之一明斯基指出,人工智能是“让机器从事需要人的智能的工作的科学”。2016年,世界机器人大会在北京召开,一些机器人公司展示出了各种智能机器人,智能机器人能够识别人的面孔、表情、年龄、性别,并且能够表达与人类相似的情绪和面部表情。智能机器人的智力目前虽然还不能和人类相比,但也具备了独立处理相关信息的能力和智力,有的机器人甚至已经基本达到了人类智慧的水准。2017年,沙特阿拉伯宣布授予机器人索菲亚以公民资格,由此也进一步推动了法学界对于人工智能主体地位的思考。
从智能机器人的发展现状来看,人工智能机器人已经逐步具有一定程度的自我意识和自我表达能力,可以与人类进行一定的情感交流。有人估计,未来若干年,机器人可以达到人类50%的智力。从实践来看,机器人可以为我们接听电话,从事语音客服、身份识别、翻译、语音转换、智能交通等工作,甚至可以进行案件分析。有人统计,现阶段23%的律师业务已可由人工智能完成。机器人本身能够形成自学能力,能够对既有的信息进行分析和研究,从而提供司法警示和建议。甚至有人认为,机器人未来可以直接当法官,[7]可见人工智能机器人已经不完全是一种工具,而在一定程度上具有了自己的意识,并能作出简单的意思表示。有观点甚至主张,应当承认人工智能具有法律人格。[8]这就提出了一个新的法律问题,即我们将来是否有必要在法律上承认人工智能机器人的法律主体地位?
笔者认为,从目前人工智能的发展来看,其尚未对传统民事法律主体理论提出颠覆性的挑战,我们在短时期内仍然应当坚守传统民事主体理论,而不宜将智能机器人规定为民事主体,主要理由在于:一方面,智能机器人是人类创造出来的,其产生之初即作为民事法律关系的客体而出现,其虽然可能代替人类从事相关的活动,但本质上是受其自身的算法而决定的,尚不具备人类所具有的自主思考的意识和能力。另一方面,智能机器人尚不能独立享有权利、承担义务。在智能机器人造成他人损害时,仍然应当依据《产品质量法》《侵权责任法》确定相关法律责任的承担者,即应当由其创造者或管理者承担责任。也就是说,在一定时期内,既有的法律制度和规则体系仍可有效解决智能机器人所带来的挑战,[9]而不需要承认机器人的民事地位。智能机器人进入民事主体的范畴在未来或许是可行的,因为随着未来科技的发展,智能机器人可能也会不断“进化”,不排除将来智能机器人的思维能力会进一步发展,具备与人类相当甚至超越人类的意识和思考能力,并可以在一定范围内独立地享有权利、承担义务,但在目前人工智能机器人还不能也没有必要成为民事主体。
二、人工智能对人格权保护的新挑战
人工智能的发展还涉及人格权保护的一系列问题,至少包括如下几个方面:
第一,人工智能对隐私的保护提出了新挑战。例如,伴随着人工智能技术的发展,无人机技术也蓬勃发展,无人机被形象地描述为“冰冷的观测技术产品”,可以以各种方式“进入”人们想要到达的区域。童话小说中描述的在苍蝇身上绑上摄像机去他人房间窥探他人隐私的设想,目前已经由无人机技术得以实现,这就对隐私权的保护提出了新的挑战。美国已经发生了多起无人机侵犯他人隐私的纠纷。在无人机窥探他人隐私的情形下,受害人往往难以进行举证,甚至难以确定具体的行为人,[10]这就需要法律进一步强化隐私权的保护,以更好地应对人工智能技术的发展。
第二,人工智能对个人信息的保护提出了新挑战。已经身处大数据时代,大数据记载了我们过去发生的一切和现在发生的一切,并能准确地预测我们的未来。现代社会的人就好像“裸奔”一样,我们的一切都有可能被他人“监视”,都时刻可能暴露在“第三只眼”之下,“亚马逊监视着我们的购物习惯,谷歌监视着我们的网页浏览习惯,而微博似乎什么都知道,不仅窃听到了我们心中的‘TA’,还有我们的社交关系网”。[11]无论我们走到哪里,只要携带手机,相关软件借助于Cookie技术,就可以时刻知道我们的准确定位。借助于大数据分析技术,人工智能也会对个人信息权利的保护带来威胁,一些智能机器人大规模地收集个人信息,并将其植入程序之中,也会对隐私等个人信息构成重大威胁。如何从技术层面、法律层面规范智能机器人搜集个人信息的合法性问题,将是人工智能时代的一项新挑战。例如,在全国首例利用人工智能技术侵犯公民个人信息案中,行为人即利用人工智能技术识别验证码,破解了相关的技术防范措施,并获取受害人个人信息,人工智能技术对相关技术防范措施的破解速度快至毫秒级,令人极为震惊。[12]除收集个人信息外,人工智能技术还可能被用来研究和开发以大数据为基础的各种产品,并凭借大数据无穷的潜力获取利益,从而刺激人们进一步采集、分析人们的大数据信息。随着个人信息收集和分析方式越来越先进,成本也越来越低廉,大规模的数据收集已成为常态,并会越来越普遍,这就进一步加剧了对个人信息和隐私的威胁。[13]我国《民法总则》对个人信息权利的保护作出了规定,但并没有专门规范利用人工智能收集、利用个人信息的行为,未来立法有必要专门设置相关的法律规则,防止人工智能应用过程中的数据非法收集、泄露、贩卖等问题,以有效保护个人信息的安全。[14]
第三,人工智能对肖像权的保护提出了新的挑战。人工智能技术可能借助光学技术、声音控制、人脸识别技术等新型技术,收集他人肖像,并传播、模仿他人的肖像。例如,借助于光学技术和摄像技术,人工智能可以拍摄高分辨率的照片,使得夜拍图片具有与日拍图片同等的效果,这样就使得对肖像权的获取与利用更为简便,这也对肖像权的保护提出了新的挑战。近年来,利用大数据的人工智能人脸识别技术在各领域都开始了实质性运用,从刷脸支付、整治闯红灯到抓捕逃犯,甚至公共领域的发厕纸管理之中,该技术都得到了实质利用。[15]
第四,人工智能对自然人声音、表情、肢体动作等人格利益的保护提出了新挑战。现在很多人工智能系统把一些人的声音、表情、肢体动作等植入其中,使得所开发的人工智能产品可以模仿他人的声音、形体动作等,甚至能够像人一样表达,并与人进行交流。但如果未经他人同意而擅自进行上述模仿活动,就有可能构成对他人人格权的侵害。
此外,需要指出的是,如果将来承认了人工智能机器人的主体资格,还会产生人工智能机器人人格权的保护问题。目前,刑法学理论已经开始探讨毁坏他人机器人是构成故意杀人罪还是故意毁坏财物罪。近来媒体报道,机器人伴侣已经出现,如果机器人伴侣受到虐待,其能否主张人格权受到侵害等,也需要进一步探讨。
三、人工智能对数据财产保护的新挑战
产权清晰是市场经济的基本要求之一,然而大数据和人工智能使得这一传统命题迎来新的挑战。“数据+算法”被视为人工智能技术开发的核心,数据的收集和分析技术的发展成为人工智能进行机器学习和开发的基本方法。目前,大数据已经是人工智能的一种重要分析工具,其得力于传感器与微处理器的硬件支撑。[16]借助于大数据分析技术,人工智能可以进行相关的演练和操作。从人工智能的技术原理来看,其也有赖于大数据分析系统的支持,人工智能功能的强弱在很大程度也取决于其所包含数据库的多少,人工智能需要依赖大量来自不同主体的数据,数据的抓取和利用在人工智能行业无处不在。数据在人工智能技术开发中的应用价值越来越高,但数据的开发和利用都需要明晰数据的产权主体和内容,规范数据的移转和利用。因此,人工智能的发展需要解决财产法面临的新问题。
人工智能利用的数据主要有三类,分别是个人所有的数据、私人企业和组织所有的数据和公共机构管理的数据。有观点认为:数据财产权的基本原则是谁的数据归谁所有,没有任何主体指向的数据是公共资源。[17]但是人工智能不仅会储存收集的原始数据,而且可以对收集的各种数据进行加工,产生衍生数据。与此同时,数据的占有和转移占有是无形的,同时也是没有有效的权属证明。所以,在大数据时代,法律所遇到的一个严峻挑战即应当如何确认数据的权利归属,既要保护被搜集人的个人信息权,又要保护数据开发者、合法利用者的数据财产权,迄今为止,如何对数据进行确权并且构建起权利内容和权利转移制度尚未解决,需要法律予以尽快完善。
现行《物权法》把物权分为动产和不动产,而数据难以按照此种方法进行分类,故而学界一直争议数据属于物权还是债权。我国《民法总则》第127条对数据的保护规则作出了规定,一方面,数据在性质上属于新型财产权,但数据保护问题并不限于财产权的归属和分配问题,还涉及这一类财产权的转移、利用、保管等法律问题。在利用人工智能时如何规范数据的收集、储存、利用行为,避免数据的泄露和滥用,并确保国家数据的安全,也是亟需解决的重大现实问题。[18]另一方面,人工智能的应用方式和应用范围在很大程度上取决于其算法,如何有效规范这一算法,避免侵害他人权利,也需要法律制度予以应对。例如,人工智能通过分析在网络交易中取消订单的频繁程度,可以得出关于一个人社会信用状况和交易能力的评价结果,此种评价结果可能对个人的经济生活产生重大影响。目前,人工智能算法本身的公开性、透明性和公正性的问题,是人工智能技术发展的核心问题,但目前并未受到充分关注。
四、人工智能对知识产权保护的新挑战
人工智能的发展也涉及知识产权保护的问题。一方面,机器人已经能够自己创作音乐、绘画,机器人写作的诗歌集也已经出版,这也对现行知识产权法提出了新的挑战。例如,百度已经研发出可以创作诗歌的机器人,微软公司的人工智能产品“小冰”已于2017年5月出版人工智能诗集《阳光失了玻璃窗》,在日本,机器人创作的小说甚至还通过了日本文学奖的初审,有的机器人甚至会谱曲、作画,这些作品已经可以在市面上销售,这就提出了一个问题,即这些机器人创作作品的著作权究竟归属于谁,是归属于机器人软件的发明者,还是机器的所有权人,还是赋予机器人一定程度的法律主体地位从而由其自身享有相关权利?正如前文已经论述,现阶段的人工智能技术的发展尚不足以被承认为民事主体,故而现阶段也不适合承认机器人完成的作品可以归一个实践工具所有,只能承认由机器人的所有者享有知识产权。当然,在未来人工智能在创作领域可能技术更加成熟,已经达到了类似人类或者超越人类的能力,那么可否在创作领域承认人工智能的民事主体地位和权利能力,这也是可以进一步讨论的。
另一方面,智能机器人要通过一定的程序进行“深度学习”“深度思维”,在这个过程中有可能收集、储存大量的他人已享有著作权的信息,这就有可能构成非法复制他人的作品,从而构成对他人著作权的侵害。人工智能机器人能够存储大量的信息,而按照一些国家的规定,存储他人享有著作权的信息本身,就构成对他人著作权的侵害。人工智能实际上就是一种机器模仿人的智力活动的技术,但如果人工智能机器人利用获取的他人享有著作权的知识和信息创作作品,如创作的歌曲中包含他人歌曲的音节、曲调等,也可能构成剽窃。
在人工智能侵害他人知识产权的情形下,究竟应当由谁承担责任、如何承担责任,本身也是一个问题。如果认为机器人具有主体资格,那么其承担责任的财产又来自何处?如果认为机器人不具有主体资格,究竟应当按照产品责任追究生产者、销售者的侵权责任,还是应当由机器人的主人来承担相应责任?这些问题均值得进一步研究。
五、人工智能对侵权责任认定的新挑战
人工智能的发展还涉及侵权责任的认定问题。人工智能引发的侵权责任问题很早就受到了学者的关注,随着人工智能应用范围的日益普及,其所引发的侵权责任认定和承担问题将对现行侵权法律制度提出越来越多的挑战。[19]无论是机器人致人损害,还是人类侵害机器人,都是新的法律责任。
在实践中,机器人致人损害的案例已经发生,2015年7月,德国大众汽车制造厂一名21岁的工人在安装和调制机器人时,被机器人“出手”击中胸部,并被碾压在金属板上。无独有偶,2016年,Google无人驾驶汽车在美国加州山景城测试时,与一辆公交大巴相撞,后经法院认定,Google公司在此次事故中负有责任。我国也出现了人工智能机器人伤人的事件,据报载,2016年11月,在深圳举办的第十八届中国国际高新技术成果交易会上,一台名为小胖的机器人突然发生故障,在没有指令的前提下自行打砸展台玻璃,砸坏了部分展台,并导致一人受伤。[20]表面上看,机器人是人制造的产品,在造成他人损害时,应当由机器人的研发者负责,似乎在法律上没有争议。但机器人又不同于普通的产品,对普通的产品而言,追踪产品的生产者较为容易,而对人工智能机器人而言,其是依靠自身的算法在运作,有其自身独特的运作程序。因此,在人工智能机器人造成他人损害时,不能简单地认定由该机器人的生产者承担责任,而应当由该程序的发明者承担责任,而人工智能机器人的运作程序可能是由多个主体共同开发的,很难确定具体的程序研发个人或者组织,这就给确定人工智能机器人的责任带来了困难。
人工智能的发展催生了无人驾驶技术,这也对道路交通事故责任提出了新的挑战。[21]伴随着无人驾驶技术在各国的运用,这一问题已经显现。前不久,深圳已经测试无人驾驶公交线路,引发了全球关注。浙江省拟于2022年建成支持自动驾驶的首条超级高速公路。但值得我们考虑的问题是,一旦无人驾驶汽车发生交通事故,应当由谁承担责任?能否适用现行机动车交通事故责任认定相关主体的责任?法律上是否有必要为无人驾驶机动车制定专门的责任规则?这确实是一个新问题,但已经现实发生,美国时间2018年3月20日,UBER无人驾驶汽车在美国亚利桑那州发生了全球首例无人驾驶撞死行人的案件,案发地州政府紧接着宣布该州范围内永久性停止UBER无人驾驶测试,该案最终以和解方式结案,并未形成相应的裁判规则。笔者认为,对此应当区分不同情况,分别认定相关主体的责任:如果无人驾驶的汽车是因为汽车本身的技术故障引发交通事故,此时,受害人应有权根据《侵权责任法》《道路交通安全法》的规定要求驾驶者承担侵权损害赔偿责任。如果交通事故是因驾驶操作系统程序出现问题,发生交通事故,此时完全由驾驶者承担责,可能有违公平,也过于苛责。究竟如何分配责任,值得进一步探讨。在无人驾驶技术日益普及的情形下,还有必要引入保险制度,即规定新类型的“无人驾驶强制责任保险制度”,为受害人提供必要的权利救济。[22][23]
此外,有一个问题值得考虑,就是未来可能出现的飞行汽车所带来的道路事故责任,应当如何加以认定?根据媒体的相关报道,有谷歌飞行之父之称的塞巴斯蒂安-特伦宣布,谷歌有望在五年之内让飞行汽车飞行于天空的计划得以实现。[24]一旦飞行汽车的计划真的实现,可以预计汽车的飞行可能将颠覆道路交通规则,其在法律定位上究竟是作为一类新型航空器得以出现,从而根据航空事故责任来进行责任界定,还是仍然按照机动车交通事故责任来加以确定,这一问题非常值得探讨。
结语
人工智能时代已经来临,其不仅改变人类生产和生活方式,也会对人类的法律制度产生深刻的影响。21世纪初,华裔著名经济学家杨小凯就提出:如果中国仅仅重视技术模仿,而忽视制度建设,后发优势就可能转化为后发劣势。[25]因此,我们不能仅注重技术的引用,而忽视其可能带来的负面效果。我们的法学理论研究应当密切关注社会现实,积极回应大数据、人工智能等新兴科学技术所带来的一系列法律挑战,从而为我们立法的进一步完善提供有力的理论支撑。“不谋万世者,不足以谋一时”,法治不仅仅是要考虑当下,也要考虑未来。法治要提供制度环境安排,为新兴科技等的发育预留法律空间。特别是要充分认识和拥抱科学技术对社会生产和生活带来的结构性、革命性的影响,尽早观察和预测未来法律发展的方向,促进良法制定,以良法保障和促进人工智能技术的健康发展,消除其对人类社会可能产生的副作用。因此,我国现行正在编纂的民法典应当考虑到人工智能可能带来的各种新挑战,并制定相应的法律规则,以体现出民法典与时俱进的品格,并真正地应对未来的技术发展,成为一部21世纪的民法典。
【注释】中国人民大学法学院教授,博士生导师;中国人民大学民商事法律科学研究中心研究员。
[1]参见中国电子技术标准化研究院:《人工智能标准化白皮书(2018版)》,第1页。
[2]参见国务院《新一代人工智能发展规划》(国发〔2017〕35号)第一部分。
[3]参见许志华:《网络空间的全球治理:信息主权的模式建构》,《学术交流》2017年第12期。
[4]参见许志华:《网络空间的全球治理:信息主权的模式建构》,《学术交流》2017年第12期。
[5]参见徐英瑾:《具身性、认知语言学与人工智能伦理学》,《上海师范大学学报》(哲学社会科学版)2018年第1期。
[6]参见魏屹东:《人工智能的适应性表征》,《上海师范大学学报》(哲学社会科学版)2018年第1期。
[7]参见高奇琦、张鹏:《论人工智能对未来法律的多方位挑战》,《华中科技大学学报》(社会科学版)2018年第1期。
[8]参见袁曾:《人工智能有限法律人格审视》,《东方法学》2017年第5期。
[9]参见李晟:《略论人工智能语境下的法律转型》,《法学评论》2018年第1期。
[10]参见我们应该如何看待无人机侵犯大众隐私的问题,https://baijia.baidu.com/s?old_id=470904,2018年2月12日。
[11][英]维克托、迈尔-舍恩伯格:《大数据时代》,盛杨燕等译,浙江人民出版社2013年版,第193页。
[12]参见人工智能成窃取公民个人信息案“帮凶”!系全国首例,载http://www.sohu.com/a/197343129_99931689,2018年2月12日。
[13]参见张宪丽、高奇琦:《人工智能时代公民的数据意识及其意义》,《西南民族大学学报》(人文社科版)2017年第12期。
[14]参见吴汉东:《人工智能时代的制度安排与法律规制》,《法律科学》(西北政法大学学报)2017年第5期。
[15]参见人脸识别系统半个月抓住3名逃犯还有哪些用途?,http://news.163.com/17/0604/07/CM2PVCQ70001875P.html,2018年2月2日。
[16]参见王博、郝银钟:《大数据条件下司法公开对我国法官制度的新要求》,《学术交流》2017年第12期。
[17]吴晓灵:《大数据应用不能牺牲个人数据所有权》,《清华金融评论》2016年第10期。
[18]参见郑戈:《人工智能与法律的未来》,《探索与争鸣》2017年第10期。
[19]参见朱体正:《人工智能时代的法律因应》,《大连理工大学学报》(社会科学版)2018年第2期。
[20]《深圳高交会出现中国首例机器人伤人事件》,《联合早报》2016年11月18日。
[21]陈晓林:《无人驾驶汽车致人损害的对策研究》,《重庆大学学报》(社会科学版)2017年第4期。
[22]中国首条超级高速公路2022年要通车不用担心超速,http://news.163.com/18/0224/06/DBD1HH7L0001875N.html,2018年3月31日。
[23]Uber与无人车撞死行人案受害人家属和解赔偿金额未公布,https://xw.qq.com/tech/20180329012517/TEC2018032901251700,2018年3月31日。
[24]谷歌自动驾驶汽车之父:飞行汽车将在5年内飞翔天空,http://tech.qq.com/a/20180212/024798.htm,2018年2月13日。
[25]参见涂子沛:《数据之巅》,中信出版社2014年版,第337页。
【期刊名称】《东方法学》【期刊年份】2018年【期号】3
赵磊、赵宇:论人工智能的法律主体地位
“这是一个最好的时代,也是一个最坏的时代”,文学巨擘狄更斯在以法国大革命为背景的小说《双城记》中如是写到。的确,以互联网技术为代表的第三次工业革命极大地扩展了人与人之间的联系、爆炸性地增加信息量级之后,以人工智能、大数据和互联网社会三者共同早就的第四次工业革命正在极大地改变着世界。一方面,在依托互联网建立的云计算,并以此为基础获得的大数据配合智能计算机的深度学习算法,人工智能系统成功地模拟了人类的智慧动力。不仅如此,在人工智能仅仅开始试用的领域如语言写作、信息检索甚至投资决策类领域中,其表现已经明显超越人类的能力,其解决问题的速度、定位信息的准确性以及能够连续长时间工作的耐受力方面具有显而易见的优势。人工智能已经被认为成为计算机技术领域的最前沿,这已经意味着生产力的进一步解放。而另一方面,物理学家史蒂芬-霍金对人工智能的担忧犹在耳边,以电影“终结者”系列为代表的讲述人工智能机器人脱离人类控制而“暴走”最终给人类带来毁灭性灾难的场景仍在眼前,人工智能系统引发的事故已经开始浮现:2016年由微软开发的聊天机器人Tay在Twitter上线后公开发表含有性别歧视、种族歧视、同性恋攻击等方面的言论,虽然事后微软表示这是由于黑客对漏洞的攻击以及Tay受到了某些信息源的刺激所致;1989年连续败给苏联围棋冠军古德科夫的人工智能机器人在众目睽睽下突然向金属围棋棋盘释放强电流杀死古德科夫;1978年受电磁波干扰的日本工厂的切割机器人转身切割工人。以上种种都反复说明了一个事实,硬币皆为两面。在人类已经不断用自己的理性认识、改变世界并开始创造“理性”的时候,就要做好一个准备,一个“理性”超越人类的且失控的准备。
法律的的作用既在于定纷止争,也在于未雨绸缪。吴汉东教授认为,人工智能在知识产权的获得、侵权责任承担、个人隐私的人格权保护等方面存可能在巨大的法律问题。基于人工智能的负外部性,有必要“以人工智能的技术发展与规制为主题,形成包含法律规则、政策规定和伦理规范的社会治理体系”。郑戈教授则认为人工智能的立法须“指定一个现有的政府部门负责确立相关的行业技术标准、安全标准和个人数据保护标准,而这个标准不应当是自上而下武断强加的,而应当是对行业自身所发展出来的标准与公共利益、个人权利保护原则的综合考量,其制定程序应当遵循公共参与、听证等行政程序规则。”
然而,需要特别注意的是,无论是基于人工智能的负外部性抑或是基于其行业标准进行规制立法或其他监管层面的顶层设计,都无法离开一个重要的事实:人工智能不同于传统的科技发展。以核能为例,我们能够基于核能双刃剑而可能产生的巨大负外部性,在核安全领域对核能行业进行严格立法和监管。这个制度框架的搭建必要性的基础是核能作为立法规范的客体具有特殊性及其所需兼具保护的法益——安全、高效和促进清洁能源的发展具有特殊性。一言以蔽之,传统的科技发展带来的社会变革所需要的制度指引以解决的问题是如何在对待新的客体,并在客体存在差异时仍在制度体系内识别、保护相关法益。然而,人工智能的制度设计不仅仅是客体差异引发的法律问题:虽是“人工”,却具有“智慧”的系统产生了类似于人类的活动,因此制度设计上也许对待人工智能首先要考虑的是人工智能本身是否是法律关系的主体而非客体。当然,如果从工具论的角度将人工智能仅理解为人类创造的工具,那么无论多么聪明、多么像人而不是人的人工智能都只是客体而非主体。然而,这种理解不但狭隘,且不合逻辑:工具和工具之间如何能产生法律关系?显然,人工智能之间是可以发生类似的法律关系。比如智能投顾开始逐渐成为代客理财的选择的今天,就能想象基金管理人的人工智能系统同证券市场上金融消费者雇佣的人工智能进行交易。在整个交易中,自然人或法人这样的传统法律主体只是背后的委托人或雇主。虽然这种交易目前还没有广泛开展,但可以想象的是这种交易在技术上完全可以实现。显然,此时的人工智能已经可以通俗地理解为从事这个领域的另一种“人”,在这个领域中的具体行为与自然人的行为产生的法律后果可能无异。因而,对于人工智能所需要考虑的问题已不同于以往科技进步带来的问题,即人工智能是否可以具有法律主体资格的问题。
二.人工智能主观能动性的决定性因素——设计理念
人工智能是否具有法律主体资格,这取决于其是否具有自然人相同或相似的属性与法律地位。从法理上说,一国公民是具有一国国籍的自然人,可以在其所属国享有法律规定的权利与义务,包括公法意义上的权利和私法意义上的权利。机器人公民无法像自然人一样行使权利、承担义务,其根本原因在于人工智能系统不具有主观能动性。主观能动性通常是指人的主观意识和实践活动对于客观世界的反作用或能动作用,是人之所以与物、动物相区别的核心要素。人类之所以具有主观能动性,是因为大脑的作用。人的大脑是人类思维的物理本体,是世界上最复杂的物质,其构造与运行机理的奥秘至今仍未被揭示。但是主观能动性应当具有理论上求解范围不局限于某个领域的特点。比如不同人在面临同一个问题或场景时,对问题或场景的描述都不相同,反应也不相同。并不存在一个内涵与外延确定的反应的全部方式集合,每个人并的反应并不是这个集合中元素或元素的组合。自然人遇到任何问题或场景首先要辨识,其次是反应,这个反应具有非常高的偶然性,伴随着人的主观情绪变化。而法人或非法人组织由于在法律上视为主体,而其本质却是不具有生物学上的意义,其问题的辨识和反应都是依靠自然人完成。只是通过私法上相应的归属规范将自然人的行为的法律后果归于法人或非法人组织,法定的自然人的行为或意思表示即视为法人或非法人组织的行为或意思表示。拥有主观能性的法律主体可以行使权利、履行义务,正是因为法律赋予了其权利能力。因而倘若人工智能对问题的反应如同自然人能够进行开放式求解而非如同传统机器对特定类问题依靠穷尽解法求解,则可以认为人工智能具有有一定的主观能动性,也就具有了权利能力的基础。因此应当确定的是人工智能的基本原理,以确定其是否可能具有法律主体的相应资格。
一般认为,“人工智能”一词肇始于一九五零年代美国的一次学术会议,由来自生命科学、计算机、数学、神经科学等领域的学者聚集在一起的头脑风暴(Brainstorm)。由麦卡锡提议将这种人类造的可能能够感知、意识、学习甚至自主创造新的智能的机制(institution)称为“人工智能”(ArtificialIntelligence)。目前常见的人工智能包括的皆是某个领域的人工智能如道路驾驶、下棋、计算等方面。从长远看,随着人工智能技术的进一步发展,在广泛的通用领域发展出通用人工智能(ArtificialGeneralIntelligence)是可期待的。
从人工智能的技术特性看,其智能化的发展是基于不同的设计理念。早期人工智能的设计理念是符号主义(Symbolism),符号主义的理论前提是,“其一,人类富有智能地处理各项实务的能力,得归功于人类理性思维事物的能力;其二,人类理性思维事务的能力,等同于一种自动处理各种物理符号的内部心理能力”。换言之,在符号主义视野下,人之所以能产生各种思想、表达和行为,是由于人本身产生的一系列物理符号的支持。各组物理符号包含了带有特定含义的符号,这些符号是人类活动的基础。各类符号的排列组合构成了我们想象、创作、发明的基础。因此,以符号主义为设计理念的人工智能重在提供一套符号系统,由系统识别所需要解决的问题,并通过符号的选取和排列拆分建立新的符号链条。可能在一个问题的解答中会产生若干符号链条皆是答案,由系统作出不断排除筛选后最终确定一个最优解。前述提到的Alfago就是基于符号主义的设计理念。而事实上,现存的从事某一领域的人工智能的设计理念大部分均是来自于符号主义。在这类人工智能中,问题解答的每一步都伴随着大量运算——对大量符号的选择和排列。这正是基于“任何物理符号系统若具有充分的组织形式和规模均会表现出智能”的理念。此外,对问题的准确识别是符号主义系统的巨大问题。因为同一个问题可有不同问法,也就有不同的符号链条;而字面意思相同问题在不同情形下代表的含义则可能不同,此时需要准确找到问题对应的符号链条,要求超高的运算能力。符号主义理念代表了人工智能的设计从功能主义为切入点,以解决问题为目的,将一切问题识别为机器语言,将一切答案通过符号的排列组合选择而来。显然,这一类人工智能需要依托超高速的运算和超大量的符号存储。运算速度越高、符号容量越大,问题的识别越准确,提供的解答越多,最终解越优化,整个解答过程越迅速。然而,这一类人工智能仅能在限定的领域(符号容量)内做出识别与求解,其本质上依靠的仍旧是人类事先输入的符号和运算方式。尽管它在某些领域会显得非常智能比如完败李适时和柯洁的Alfago,但是这仍旧是来源于其对全部围棋落子求解答案符号的排列组合选择。因此这种人工智能可理解为性能格外突出的计算机,不能超越其设计使用范畴,亦没有任何主观能动性。其对问题的机械符号化理解使得任何问题的解决方式都十分单一,没有任何超越推理答案范畴的可能性。
另一种人工智能的设计理念称为联结主义(connectionism)。与符号主义相比,联结主义显然更具仿生学的特色。联结主义首先将智能视为大脑中神经元的联结和信息传导的结果。在人类大脑中,大量神经元相互联结并对刺激大脑的信息进行传递,使得人类大脑能够产生思维。这种刺激可以是视觉的、听觉得、嗅觉的等等。神经元则包括了能够接受刺激、传导信息的各个单元。因此,如果人工智能能够模仿人脑神经元接受刺激并进行信息传递,那么就能如同人脑一样产生思想进行思维活动,并且产生自我学习的能力。联结主义设计理念下的人工智能包含着人工神经网络系统,网络系统的神经元的联结可以改变。而最重要的在于人类事先向人工神经网络输入了控制和改变神经元联结的算法,在这套算法的指引下,人工神经网络受到刺激后,不同信息输入系统,神经元进行不同联结,传递不同信息,产生了仿生学意义上类似于人脑的反映。显然,在联结主义的设计理念中,事先输入的算法极为重要,这决定了人工神经网络对什么刺激有反应、对什么刺激没有反应,也决定了人工神经网络受刺激后的联结如何连接。事实上,这套事先置入的算法类似于人类的世界观,世界观是多样的、算法也是多样的。我们常常认为难以理解他人做出的某些行为而去向他讲道理,有时能讲得通有时讲不通甚至反被他人嘲笑。这是因为不同个体之间世界观不完全相同,而讲道则是基于个体的世界观宣扬方法论的过程。在世界观差别不大的情况下,方法论的宣扬可能被采纳,道理就讲通了。而世界观差别较大时,基于世界观产生的方法论差异极大,显然他人不大可能接受方法论的宣扬。同理,对于联结主义的人工智能来说,事先置入的“世界观”即算法决定了其神经元的联结,最终也决定了问题的求解。如果算法差异极大,那么最终的求解也必然差异极大。但是这套算法保证了所有的刺激均可以在算法的控制下实现某种信息的传递并得出人工智能的反馈。此外,对某种信息的一次接触后,神经元可以不断联结、不断改变联结、得出相似或相异的答案。这样,联结主义理念下的人工智能就可以通过自我信息的交互不断优化求解,产生类似于人类的学习能力,实现提高自身水平的过程。相比于基于高速运算和海量符号选择以实现智能化的符号主义模式,联结主义对所有问题识别为不同的刺激,自主依据人工神经网络的信息交互模仿在类似刺激下,人类的脑回路或反应,求解的答案不限于一个固定的答案池中的的选择,而是开放式的,且可以不断自主创设新的联以自我提高。AlfaZero仅使用了四个神经网络专用芯片,通过三天的自我对弈490万盘棋,一出关即100:0横扫Alfago。基于联结主义设计理念的人工智能已不再局限于数据库的存储量,因而产生了多维的求解视角。而最重要的在于其人工神经网络自我创设联结以实现强化学习的能力更是符号主义理念下的人工智能所不能具备的。
比较两种模式,符号主义设计理念下创造的人工智能非但不具有人的主观能动性,其有限求解的局限事实上使得这个显得非常“智能”的机器仅能在特定领域下对问题进行识别并寻求有限解中的最优解,既不能超越场景也不能跳出求解方式的有限性,因此并没有赋予其法律主体资格的必要。其一切活动终局性的结果是已然确定的,只不过具体的答案不同,可能对外产生的活动来源于人的指令或者设定,只是人将其作为具体活动方式的“顾问”,但活动的法律性质不会因人工智能产生任何变化。而联结主义的人工智能由于其自我创设联结从而具有学习能力,使得其不但能够不断提高求解的能力、扩大求解范围,且从技术上由于多样的联结方式突破了求解的固定最大范围,能够期待运用于广泛的场景中。因此,联结主义理念下的人工智能有了一定的主观能性,甚至在一定范围上有了意思表示之能力。
以联结主义为设计理念的人工智能突破了符号主义人工智能难以“具体问题具体分析”的能力限制,并在一定程度上能够实现自由意志的表达,虽然实现这种自由意志的表达的过程是人类设计的。当然这并不是说现代以此为设计理念的人工智能已经可以实现人机交互的高度自由化。这是因为现有技术下的人工智能虽然具有强化学习能力,但是这种能力基于算法的指引下通过比较不同联结,不断修正其参数后最终选择的结果。这种学习能力在初始阶段会显示非常高效的提高,因为不同联结差异较大,参数不断被修正,其能力提高较快。随着场景不断增加,问题的差异程度降低,联结的差异性也降低了,此时人工智能的学习效率下降。场景相似度较高的情况下,系统会将其默认为之前辨识过的场景。而场景辨识能力能力的高低,则取决于置入算法的科学性。因此虽然理论上联结主义可以无限度求解并不断提高学习能力,但是由于事先置入算法的限制,使得相似场景识别难以十分精确,所以此时人工智能无法准确辨别与之前相似场景的区别,求解必然不准确。若考虑算法的限制和场景识别的准确性,联结主义理念下的人工智能虽比起符号主义有了求解范围、学习能力和理论上应用领域的提高,但是由于置入算法的限制,导致了其辨识场景精确度的限制,仍然难以作为如同人类一样能够对各类场景做出完全真实意思表示,或者说,其意思表示能力受到了算法的限制。因此,算法的重要性不言而喻,“对于人工智能最重要的就是使得其算法能够像具有解决问题能力的自然人一样有效”。当然,从发展的眼光来看,目前任何对人工智能下结论的观点都是轻率的。应当强调的是现代的部分人工智能系统已经具备了一定的深度学习能力,但这依然是建立在其事先所设定程序和既有数据基础上的,并非自觉自发地的自我学习能力。因此,那种轻言人工智能系统全面取代人类,甚至可能灭亡人类的观点是不负责任的,也是站不住脚的。不过,对于那些辨识场景区别较大、精度要求不高的工作,联结主义理念下的人工智能系统已经开始并会越来越多地替代人类,其发展势头之迅猛,怎么估计都不为过。随着越来越多的“Sophia”出现,对其进行正确引导、予以规范化管理,就成为下一步人工智能发展的关键。从这个意义说,随着人工智能越来越多地参与法律活动,甚至人工智能已经开始代替人类从事法律行为的如今,赋予其法律主体资格不失为一种有益尝试和可供选择的路径。但是法律主体资格亦不单一,将人工智能视为人或其他主体则需要进一步探讨。
三.人工智能的法律主体资格
联结主义人工智能在一定程度上具有了自然人所具有的主观能动性,甚至具有了意思表示之能力。在学术界仍存在不少反对人工智能具有法律主体资格的声音:“以这种拟人化的想象来理解机器人,试图制定规范来约束它们的行为,甚至赋予它们法律主体资格,这便显得有些不合时宜了”。事实上,否认人工智能具有任何法律主体地位的学说如“奴隶说、工具说”都未能考虑到人工智能已在一定程度上具备了意思表示能力。
(一)人工智能是否是“人”
在现行法律体系下,法律主体或法律关系的主体依法域变化。在宪法法域下,法律主体是公民和国家;在行政法法域下,法律主体是行政机关与行政相对人;而私法领域下,则是自然人、法人及非法人组织。从法解释学上,法律主体的范畴盖然不能超出上述范围。
人工智能法律主体资格之考虑应该不应扩展到宪法领域。以Sophia为例,可以看出公法层面的法律人格对于人工智能系统没有实际意义。首先,人工智能系统不具有生理意义上的性别区分。性别是生物学上的概念,人类分为男性女性,是因为其天然的身体构造以及内在基因差异而成的。虽然Sophia被认为是一名女性,但这仅仅是开发者对其外形和行为模式的性别设定。近期,Sophia甚至为沙特的女性权利呼吁,但这并非因为其具有真正的女性身份,不过是其控制者的商业炒作而已。其次,人工智能系统不能成为宪法意义上的权利享有者和义务承担者。正如法人无法享有宪法上的选举权与被选举权一样,赋予不具有自主意识的主体以政治权利是可笑的、荒唐的,更无必要。最后,人工智能系统应该为人类社会服务,没有必要赋予其“人权”。人类社会的法律制度之所以赋予人工智能系统以法律人格,目的是更好地利用科学技术改造社会,服务人类。
事实上,作为私法上法律主体的自然人,指的是法律上的人而非生物学上的人。虽然现代民法鲜有不将生物意义上的人视作法律上人的作法即不赋予其自然人的民事权利能力。区分法律上的人与生物学上的人似乎没有什么意义,但是,这一点对于明晰自然人随着民事主体制度的建立而确立其法律主体地位、理解自然人的范畴大有裨益。
如果说生物学上的人指的是作为人类这个生物种群概念,那么法律上的人则是在生物学的人上附加了“人格”的特征。法律上的人,“是享有法律人格,并据以独立参加法律活动、享有权利、履行义务、承担责任的主体。”因此,倘若生物意义上人不具有独立参加法律活动、履行权利义务并承担责任的资格,则不能视为法律意义上的人,古罗马时期的奴隶即是如此。自原始社会发展而来,法律上的人呈现出逐渐与生物意义上的人范畴不断接近的趋势。封建时期法律意义上的人与人之身份息息相关。贵族或平民、男人或女人这些都影响了完整意义的法律上“人”之认定。随着市民社会的兴起和资本主义萌芽的出现,平权思想的勃兴使人们开始意识到生物意义上的人均应为法律所承认为主体。随着法国大革命将“人生而平等”的理念不断推向全世界,及至今日,现代文明国家已经不在法律主体资格的确立方面对生物意义上的人作出任何差异性规定了。
在现代区分公私法的法律体系中,自然人的概念也就与生物意义上的人的概念外延几乎重合,是指“具有生命的人类个体,是一个相对于法人的民法概念”。自然人与同是作为民事法律主体的法人与非法人组织相比,最明显的特征即是具有生命。生命的长短、延续受到自然的支配亦受到人力的影响,但绝非人力所彻底改变。这也是生命最大的特征。如前所述,与民事法律客体的物相比,现代民法上自然人的概念外延已经几乎与生物学意义上的人概念外延重合,但认为认为自然人就是生物学意义上的人或具有生命的人则未免不合时宜。事实上,赋予生物学意义上的人以人格是自然人概念内涵中核心的因素,而康德哲学中最为重要的论断就在于人只能作为目的而绝不能作为工具,这正是人格笼罩下自然人的属性。古罗马时期没有人格笼罩的人就会被当做工具或者物对待。人工智能不论发展的哪一步都不能超出人类所创造的工具这一本质属性。人工智能系统的底层技术主要是计算机运算、大数据以及移动互联网。在这个基础上,人工智能可以完成非常复杂的计算,并据此作出在速度上远超自然人的判断和决策,而且在这个过程中,不受外界的任何干扰,排除了人类在行为决策中的怯懦、犹豫、患得患失等人性弱点。在Alphago几次以绝对优势战胜世界顶尖围棋选手的比赛中,可以清楚地看到这一点。不过,人工智能系统的能力范围是以事先被输入必要的数据、设定目的程序实现的。设想一下,如果让只设定了围棋程序的Alphago与国际象棋选手去比赛,结果会如何?这样的Alphago是否有一天对国际象棋产生兴趣,主动自觉地去学习国际象棋?除了那些可以凭借明确规则、准确地计算可以完成的工作,人工智能系统是否可以主动从事个性化的工作,如艺术创作、烹饪、情感陪护等?这些问题的答案至少到目前为止是否定的,其行为模式都是由人类预先设定好的,其目的也在于为人所设定的目的服务。由此观之,人工智能是无法归类入人(自然人)的范畴的。
由此可以看到,人(或自然人)最重要的法律特征和法律上的属性在于人格,使得其不能作为工具而只能作为目的。显然,人工智能不是“人”,因为它不符合人(或自然人)这一特质。
(二)人工智能能否成为其他法律主体
如前所述,依据康德哲学,人(自然人)不能作为工具而只能作为目的的属性从根本上排除了人工智能属于法律意义上人的可能性。那么,人工智能是否可以超脱民事立法中自然人与法人二元结构而作为其他的主体存在呢?虽然从实证法的角度讲这是无法通过任何现有的法律释义解释出来,但是作为新兴领域的人工智能倘若确有作为法律主体的必要,则之后的制度设计未尝不能作出更改。
民事主体制度也随着历史变迁不断变化。在法人未得到民事立法确立其主体资格之前,只有部分自然人享有法律主体资格。在法人的法律主体资格得到法律确认后,法人开始与自然人一样具有了人格。由于“法的人格者等于权利能力者”这种独立的人格是法人之所以区别于其成员独立存在的原因,也是其享有权利、承担义务的原因。人格是权利义务的起点,享有独立人格的法人便可以以自己的名义独立地从事经营活动并独立承担民事责任。由此,赋予法人人格便赋予了法人独立法律主体地位。这一点上似乎法律的目的就是承认法人的人格,法律主体地位是法人获得人格后的客观结果。但实际上,从法人的起源上看,逻辑则是恰好相反的。赋予法人法律上的主体资格并不是因为赋予了其人格客观导致的结果,反而是之所以赋予其人格就是因为需要一个具有主体资格的法人出现。具体言之,出于功能主义的需要,经济发展需要一个能独立行使权利、履行义务和承担责任的法律实体,因此法律上需要将人与财产的集合体视为法律上能够与自然人相并列的主体,因而赋予其人格,使得其具有了法律上的能够以自己的名义行使权利履行义务的资格。从这个角度上讲,法人是法律的产物。也正是由于法人是法律的产物,因而其作为法律主体受到了与自然人不同的约束。比如现代民法不会因为自然人财产减少等原因减损其人格,而法人可能因为其责任财产不当减少,或沦为内部人的工具而导致其人格形骸化。
对应到人工智能,现行民事主体二元结构下,人工智能难以取得一席之地。但是如前所述,联结主义理念下人工智能的出现使得其具备了主观能动性。随着人工智能的不断发展,智能化强于sophia或AlfaZero的人工智能会不断涌现在越来越重要的领域。比如根据彭博社报道,首个由人工智能管理的全球股票ETF已经在2017年11月开始交易。可以预见的未来,人工智能将更多地参与需要大量人工计算和分析的领域。而对于类似担任基金经理的人工智能系统,显然需要有能力接受自然人的委托,和其他自然人甚至人工智能系统进行交易,这都需要其本身具有法律主体资格。因此同样出于功能主义的考量,法律授予这类人工智能以人格,使其获得法律主体地位。2016年,欧洲议会向欧盟委员会提出为机器人制定民事规范(CivilRulesonBobotics)的报告,第50条f款表明,“从上远看,应当为机器人创设特殊的法律地位,以保证复杂的自动化机器人能够作为电子人(electronicperson)的法律主体存在。这样它们有承担弥补自己造成损害的责任,并且能在其自主做出行为决策或以任何方式与第三方交往时享有电子人格(electronicpersonality)”。
如同最初法人获得法律主体地位一样,现行法律同样不需要局限于现有民事主体分类,完全可以新创设一个特殊的人工智能法律主体。当然,人工智能毕竟是由于智能才享有的法律主体资格,因此其资格也受到了技术的影响。不分青红皂白一律赋予其法律主体资格并不合时宜,仅对联结主义理念下的人工智能,在其智能范围内授予其法律主体资格更为合适。
此外,也并非所有联结主义理念下的人工智能均可享有法律主体地位。第一,比如AlfaZero这样的人工智能,尽管其智能化程度很高,学习能力也很强,但是没有必要授予其法律主体资格。因为它仅用于围棋领域,无论围棋水平多么出神入化,都不存在从事法律行为、行使权利与承担义务的可能性,亦丧失了其具有法律主体地位的目的。这并不是说只有设计目的是从事法律行为的人工智能才能行使享有法律主体地位。因为倘若人工智能的目的是从事事实行为如发明、创作或准法律行为如催告等,仍与其权利义务相关,此时仍有必要承认这类人工智能具有相应的法律主体地位,其因此才可能基于创作出作品而享有著作权。而权利与义务的原点即是权利能力,是以,对于设计目的没有必要授予其权利能力的人工智能或从事领域与权利义务无关的人工智能如下棋、唱歌、跳舞等,不应授予其法律主体地位。
第二,人工智能的法律主体地位毕竟是基于社会发展需要而由法律认定的,其获得法律主体地位后行使法律行为、参与法律关系产生的法律问题难以机械套用传统的民事主体规则。法律应该严格控制人工智能系统法律人格的取得,规定较高标准,并且由相关机构进行实质性审查,履行类似法人登记的手续才能赋予。
四.人工智能的意思表示和法律后果承担
如前所述,可以承认人工智能系统以私法意义上的法律主体地位。接踵而来的是两个问题。其一,被赋予了一定权利能力的人工智能将会以具有法律人格的法律主体参与各种各样的市场交易,换言之,人工智能需要从事各种各样的法律行为。而在其从事法律行为的核心就是意思表示。那么人工智能的意思表示如何形成,是否应该对意思表示作出相应限制?其二,作出意思表示的人工智能从事一定法律行为后,法律后果如何承担?
(一)人工智能的意思表示
首先,同作为法律的产物,不妨考察与人工智能法律主体相似的法人的意思表示如何形成。毋庸庸质疑的是,法人本身不能思考也不能表达。如前所述,其意思表示是通过法律上的归属规范将本质上人的意思表示归属于法人。因此,法人的意思表示是由其法人机关或者说由人组成的法人组织机构实现的。一方面,法人具有法律主体资格,对外能以自己名义活动。这一点就体现在法人自己的名称或曰商号(虽然商号非法人独有);拥有独立的财产,这个财产基础完全独立于法人的组织机构或设立法人的自然人,这也是法人人格的物质基础;凡有人格者必有思维。拥有了法人人格后,法人依靠法人机关进行思考和活动,法人机关也犹如人之大脑一般代替法人决策,代表法人对外活动。而法人机关依法必须设立的原因正因为其代表法人做出意思表示、从事法律行为。法人的意志由法人机关实现,人工智能系统的意思仅凭其运算能力和基于大数据的分析,可否形成独立的意思?这个问题又要回到两种设计理念下的人工智能。如前所述,符号主义理念下的人工智能限于其有限的问题辨识与求解,本身不应享有法律主体地位,不具有法律人格,因此当然没有意思表示能力。具有法律主体地位联结主义理念下的人工智能,在某个领域如股票交易、基金买卖等方面实现了高度智能化。可以说在这个领域内比人类专家或专业的投资经理还要专业,并且可以期望对此领域内的问题与场景实现了高度辨识,也能够做到通过不断的自我学习提高水平并且其理论上无限求解下实现了“具体问题具体分析”。因此,可以人为联结主义理念下的具有法律主体资格的人工智能在其从事的领域内,基于问题与场景识别、算法指挥下的创设联结并传递信息最终得出求解的过程即为其意思表示的过程。
其次,如果将这种机器依靠技术手段进行信息处理并表之于外的过程视作意思表示的过程,那么事实上此与无论是自然人或是法人的意思表示具有了巨大区别。前已备述之,本质上法人依靠自然人进行意思表示。而自然人进行意思表示的过程是其行使主观能动性的生理过程。承认人工智能具有一定的主观能动性却无法保证这种基于运算和信息交互的主观能动性能如同人类的主观能动性一样“可靠”。这种担心主要源于我们队机器人思维过程的“黑箱”无法完全认知。事实上,虽然人工智能是人类创造的,联结主义设计理念下的人工智能的也不断在模仿人类的思维过程创设联结,其置入算法也是人类设计的。但即使如此,其联结的具体方式、传递信息与处理信息的过程仍使“黑箱”。因此会担心一旦人工智能出现“暴走”情形,做出反常的意思表示和决策将带来的巨大法律风险。但事实上,人类对自身基于生理上的意思表示过程,即信息的输入、处理和决策的思维过程也不完全了解,对于人类来说也是“黑箱”。此外,人类的思维过程常常更加不合理、更加反常,且更会受到场合、时间、身体状态等各种非理性因素的影响。然而除了现代民法设置的行为能力上年龄与精神状态的限制,没有人会质疑为何承认人类意思表示能力,仿佛精神正常的成年人的意思表示能力都是一样的,一定不会做出超乎理性的选择。因此,并没有必要对人工智能的非人类心理决策过程过分担心。不过,考虑到人工智能确有“暴走”的可能,可以对适用人工智能进行法律活动的领域比如股票交易进行限制。比如限制其交易的价格、数量、交割方式等。这种限制既包括技术上的事先限制,亦即提前在人工智能系统中置入限制使其无法做出超越范围的意思表示,也包括法律上的明示限制,亦即向交易相对人或市场公开其使用人工智能交易的事实,并明示超过某个范围的意思表示无效或效力待定但赋予相对人撤销权。这样,既不会阻碍人工智能的广泛使用使人类生活更加便利,也不会因为不承认人工智能的意思表示能力而造成大量使用人工智能进行交易的场景下法律效果待定或无法评价的情形出现因而阻碍交易,并且能够防止极端情况下人工智能因“暴走”而做出极端的反常意思表示损害交易相对人或委托人的利益造成难以弥补的损失。
(二)人工智能从事法律行为的后果承担
论及人工智能从事法律行为的后果承担,首先应当明晰法律后果的承担本质上也是权利如何行使、义务如何履行、产生的违约或侵权责任如何承担?仍不妨考察法人从事法律行为的后果承担。事实上,法人具有法律主体资格,其具有法律人格必然得出法人能够以自己的名义从事法律活动,行使权利、履行义务、承担责任。只是这个过程可以由法人机关代表法人进行,比如法定代表人提出抗辩权、行使合同中的撤销权等;也可以由法人本身进行,如法人以自己的财产承担责任。事实上,法人独立的财产是法人具有法律人格的物质基础,而由于法人财产的减少减损了法人的责任财产,实际上降低了法人承担责任的能力,因而法律对法人财产减少的行为做了较为严格的限制。一方面法律对法人财产减少(减资)作了程序性规定以保证法人的责任承担能力不至于降低到损害第三人利益;另一方面,则从反面规定了未依法减损法人财产因而导致法人责任承担能力降低甚至损害第三人利益情况下的后果——此时很可能导致法人人格被否认,使得法人背后的自然人承担责任。
人工智能享有法律主体地位,拥有法律人格决定了人工智能必须能够独立承担法律后果。享有法律主体地位的人工智能在其从事法律活动的领域,可以行使权利、履行义务。关键的问题在于责任的承担。法人从事法律活动以其全部财产负责,股东仅以其出资为限承担责任。而人工智能不同,人工智能享有法律人格的基础不是其财产,而是其类似于人的“智能”。“具有独立意志的人工智能产生的责任无法苛责新技术的创造者”。是以,要求人工智能背后的设计者承担人工智能的责任似乎无限加重了设计者的工作,使得设计者再也不敢创新。但是将人工智能难以以其财产承担责任的风险归于与人工智能进行交易的相对人又似乎不公平。因此应当在两个维度上设立人工智能的责任承担制度。
一方面,原则上人工智能的责任由其自身承担。法人的法律行为后果由其自己独立承担,但其最终权益归属于它的股东。可以考虑为人工智能系统设置类似公司股东的权益归属主体,由人工智能系统的开发者、受让者等相关主体充当。而人工智能从事法律行为的责任承担上,可以考虑为人工智能设立类似公司注册资本的基金,以保证人工智能参与法律活动的初始具有一定的责任财产。随着人工智能参与交易的增多,人工智能因此获得的营利也会增多,其客观上的责任财产也会则多。此时可以对基金基础上增加的财产设立公积金,如公司法上将一部分营利纳入法定公积与资本公积。这个公积金成为人工智能责任财产的一部分,提高了人工智能承担责任的能力。多增加的财产纳入公积金一定比例后,其余的均可作为待分配利润将其分配给权益归属主体。
另一方面,施行强制保险制度。随着科技的进步,高速、核能等现代科技在极大地解放劳动力的同时也往往伴随着潜在的风险,虽然科技工作者长期致力于将风险降到最低,但是一旦发生风险往往意味着巨大的损害发生。人工智能科技也是如此。保险制度能够在“由于人工智能潜在的不可预估性使得人工智能一旦利用不当,可能造成难以估计的重大危害”时,以较小的经济成本通过保险分担风险。而在人工智能领域,英国下议院在2006年提出一份有关无人驾驶汽车法律责任问题的提案,提出汽车强制险在能够驾驶者将汽车控制权完全交给自动驾驶系统时为其提供保障。事实上,对可能产生侵权责任的人工智能投保强制责任险,将“大大减少人工智能侵权事件发生时的经济赔偿纠纷,直接促进人工智能行业的良性发展。”
五.结语
人工智能系统基础技术的发展突飞猛进。如量子技术在人工智能领域的应用,对其大数据计算和处理能力的提高将是革命性的;物联网技术的飞速发展,使得人类社会将很快就会进入到一个“万物互联”的时代;更为重要的是,各国政府、许多科学家以及无数的商业公司,对人工智能越来越重视。最为凸显的问题就是人工智能在能给人类社会带来显而易见的便利的同时,其法律地位也受到了越来越多的关注。而人工智能是否具有法律主体地位取决于其“智能”性,而在目前的技术条件下,其“智能”性则取决于其设计理念。“符号主义”理念将问题转化为符号,依托高速运算,求解也在符号的有限排列组合中寻求最优解,难以具备作为法律主体的“主观能动性”,亦难以行使权利、承担义务。而“联结主义”将人工智能的设计依据仿生学原理,创设了类似于神经元的联结。事先置入的算法对问题与场景的刺激进行识别后,人工智能可以自我创设联结,不断提高求解的水平。基于联结主义下人工智能可以实现理论上求解可能的无限,并在一定领域具有主观能动性,实现“具体问题具体分析”,虽然仍然受到算法和问题辨识准确性的限制,但是随着算法的不断提高,其具有无限发展的可能。因此赋予“联结主义”理念的人工智能特殊的法律主体地位符合经济社会发展的需要,而这毫无疑问地会带来人工智能系统指数式增长,沙特政府赋予Sophia公民身份,其实际的法律价值难以评述,但至少,其象征意义非常重要。这意味着二元法律主体制度受到了严重的冲击以及新法律主体的诞生已近在眼前。见与不见,变革已经开始,这值得我们深思和认真对待。
来源:《人工智能法学研究》2018年第1期,社会科学文献出版社2018年版返回搜狐,查看更多
人工智能在司法领域的应用
短短50年,司法(法律)人工智能的飞速发展令人惊叹,特别是近几年,人工智能大有取代法律人的趋势。在国外,人工智能应用于司法领域的例证可追溯至20世纪70年代,美国等发达国家研发了基于人工智能技术的法律推理系统、法律模拟分析系统、专家系统运用于司法实践。
我国最初将人工智能应用于司法是在20世纪80年代,由朱华荣、肖开权主持建立了盗窃罪量刑数学模型;1993年,赵廷光教授开发了实用刑法专家系统,具有检索、咨询刑法知识和对刑事个案进行推理判断、定性量刑的功能。
时至今日,随着我国智慧法院、智慧检务等重点工程的全面铺开,最高人民法院在2018年推出了“智慧法院导航系统”和“类案智能推送系统”,还有北京的“睿法官”智能研判系统、上海的“206”刑事案件智能辅助办案系统、河北的“智审1.0”审判辅助系统以及其他地方法院推出的人工智能产品,为法官审理案件提供了支持,全面提高了司法效率。
正如我们所看到的,司法人工智能一路走来,技术不断革新,愈发突破人类的认知极限。确实,人工智能在司法领域的应用前景十分广阔,很多学者甚至大胆猜测随着人工智能技术革命性的发展,法律人也将逐渐被取代。然而,尽管这一新兴事物激发了我们对未来的无限畅想,我们仍应保持清醒,在促进其发展的同时守住一些底线,不要抱有盲目的期待和开展毫无方向的研究,要在法律原则和伦理限度内客观评估、审慎使用。下文我们将对此展开详细的论述。
人工智能在司法领域的应用现状
(一)法律问答、信息处理数据化
司法人工智能在法律检索、信息处理上呈现电子化、数据化的趋势,并且这一趋势将如日中天地延续下去。如法律问答、诉前咨询、电子卷宗生成、远程立案等都属于在线信息处理技术,在此期间运用的人工智能没有自主思考过程,仍然由人进行实质化操作,其核心在于由传统的线下办案转为线上模式,为当事人及办案人员提供便利。其中法律问答机器人似乎与我们脑海中想象的人工智能更加接近,通过检索在机器人系统中提前设置好的固定提问模式来获取所需信息,其本身无法根据不同疑难问题产生额外答案,但对于日常一般案件所需还是可以满足的。
再如卷宗OCR识别、庭审语音识别、证据识别等属于感知智能技术,相较于传统的扫描、录音等技术有很大提升。以庭审语音识别为例,科大讯飞的灵犀语音助手特别针对中文口音问题进行了识别优化,语音识别率已能达到90%以上。与书记员在庭审中手动输入文字材料相比,庭审语音识别技术大大提高了庭审记录效率,经对比测试,庭审时间平均缩短20%至30%,复杂庭审时间缩短超过50%,庭审笔录的完整度达到100%。此外,这一技术的推广能够解决运用录音、录像技术记录庭审过程的最大弊端,即我国的方言问题,这就避免了后期因录音识别难度大所造成的理解困难。其次,识别转化后的电子书面材料与录音、录像这一载体相比,查阅起来也更加有针对性,更加方便快捷,正在起到解放书记员的作用。
(二)文书制作、类案推送自动化
在文书制作与类案推送上,司法人工智能发挥的作用比基础的信息处理就多了一些智能化的因素。对于大多数简单案件,如危险驾驶、小额借贷纠纷、政府信息公开等可以简化说理并且能够使用要素化、格式化裁判文书的案件,裁判文书自动生成系统能够通过OCR、语义分析等技术,自动识别并提取当事人信息、诉讼请求、案件事实等关键内容,按照相应的模板一键生成简式裁判文书。对于其他制式法律文书的生成更是不在话下,还能够自动纠错,因而大大缩短了起草文书的时间,减轻了法官的工作量,帮助法官提高办案质效。
例如河北高院研发的“智慧审判支持”系统,就包含这样的文书制作功能,于2016年7月上线,在河北194个法院应用,截至2017年6月,短短不到一年的时间共处理案件11万件,生成78万份文书。以此积累从而建立自己的案例信息库,通过分门别类、匹配标记达到类案检索,在法官办案时自动筛选以往相似度较高的案例,实现类案推送提醒,为法官对相似案件的审判提供参考。如此一来,能尽量避免“类案不同判”和“法律适用不统一”的问题,有利于统一本地的司法裁判尺度,防止裁判不公。
(三)案件分析、辅助裁判智能化
人工智能减轻了办案人员处理日常琐碎事务的负担,在这样的背景下,我们不仅希望人工智能在可量化、低效率的环节发挥作用,还期待能够进一步发挥其智能化的优势,从而提高司法效率。于是,将其应用于案件分析与裁判就成了一个重要议题。在案件分析的初级阶段,通过设置分流原则和调整繁简区分要素,智能分案系统能对各类案件进行精细化处理,在平台运转过程中,分别针对刑事、民事、行政等不同案件的特点,综合各项权重系数,科学测算每个案件所需的办案力量,帮助法院实现对案件的繁简分流,合理配置司法资源,缓和“案多人少”的压力。在案件的深度分析及辅助裁判上,北京法院的“睿法官”系统能在庭审前自动梳理出待审事实,生成庭审提纲,并推送到庭审系统中。上海“206系统”的最大亮点是证据标准、证据规则指引功能,这一功能实现了证据资料的智能审查,为办案人员提供了标准化指引。此外,阿里推出的“AI法官”针对交易纠纷类案件建立了整套审判知识图谱,能够迅速分析案情并在极短时间内向法官给出判案建议。
总之,司法与人工智能的深度结合在理论界讨论得热火朝天,对人工智能产品的应用某些方面已经走在了理论的前面,司法系统的改革亦是大势所趋。但这并不意味着目前的研究与应用是完全科学、有效的,对司法人工智能的应用空间及限度尚需细细推敲。
人工智能在司法领域的应用限度
(一)在广度上不能覆盖司法活动全程
目前,司法人工智能被集中运用于流程性重复低效劳动以及依据模型简单推理等环节,能够辅助处理事务性工作,在通用技术已然成熟的领域还是十分成功的,如在线方式的信息处理(信息电子化)以及语音识别技术的应用,确为司法活动提供了极大的便利。然而,我们发现,不管是在线信息处理还是语音识别,都是日常生活中已经广泛应用的技术,这几项应用的成功取决于成熟人工智能技术的普遍性适用。以语音识别为例,我们平时在智能手机中常用的语音输入法便是这一技术最普遍的体现,只是在庭审中对此功能开发的更加精准与完善了而已,虽然场景不同,但其本质是不变的。
由此可见,目前成功广泛应用的人工智能产品大多是将通用化的技术稍加完善,便移植到了部分司法活动中,而对于其他司法环节,如疑难案件的事实认定、评价证据的证明力度、法律解释等等,仅靠通用技术的成熟是无法满足其需求的,要通过非形式逻辑与司法经验等因素的灌输来“定制”专门化产品,使其达到能够应对大多数司法问题的水平,从而贯穿司法活动全程。关键就在于能否实现这种“定制”呢?这不仅意味着需要有高度发达的研发水平作为支撑,还需要将人工智能、法律知识、司法经验等多重因素深度融合,使人工智能具备法律人的逻辑与思维,其难度远远高于日常通用技术的开发。于是,如果期望人工智能技术覆盖司法活动全程,我们不难得出,这种“定制”是很难、甚至无法实现的。
(二)在深度上不能替代法官价值衡量
如上文所提到的,司法人工智能已经在信息检索、文书制作、智能识别、证据指引等方面得到了成功的推广应用,对于一些简单案件也可以实现辅助推理并提出量刑建议。其强大的数据处理能力大大减轻了法官从事日常琐碎工作的负担。虽然还有相关研究表明,将人工智能运用于预测裁判结果,得出的预测准确度远高于人类,但是就能如部分人群所追捧的那样,将人工智能取代法官吗?
人工智能是关于数据的技术,依赖于人类对它进行设计和编程,它只能对人类输入的已有知识和信息进行模式化的吸收和处理,尽管它对现有知识的掌握度远超人类,但致命的缺陷就在于它不能适应人类社会日新月异的变化。法律适用作为对现实社会的即时反映,在司法裁判的价值衡量中融入社会一般公正观念是一种常态,而这种价值衡量是一个十分复杂的过程,“带有人情味的价值判断”很难被机器所学习。而司法裁判是关于经验的艺术,美国大法官霍姆斯说过,法律的生命在于经验而不是逻辑,他要求法官根据社会生活的不断变化赋予每个案件独特的裁判价值,不要被固有的法律逻辑所束缚。这就需要在法律规范和生活之间有交互往返的认知过程,通过复杂的价值判断来获得结论。从这个角度来说,人工智能法官只能按照事先设置的形式化指令来裁判案件,亦步亦趋地跟随着人类的操控,没有人的参与和输入,机器学习不会自主发生,更不会有人的独立思维,也就无法满足法官在价值判断过程中的语境化需求。正如霍姆斯法官说得那样,法律不是纯粹的逻辑和极致的理性,在司法裁判中还应考虑经验、道德和温情。毕竟,只懂法律的人不一定能够胜任法官,更何况只懂法律的机器呢?
司法人工智能的应用前景与出路
(一)司法人工智能:好钢用在刀刃上
人工智能最大的优势就在于它直接服务于人,通过介入司法活动的各个环节,在信息储存、数据运算、简单推理等方面发挥着重要作用,办案人员借助这些辅助功能最大限度地将自身从重复性、事务性的工作中解脱出来,还能及时发现并纠正一些细节问题,从而能够将时间和精力真正投入到分析疑难案件本身,实现了司法资源的优化配置。不仅如此,人工智能介入司法环节还能够在办案过程中对法官的行为进行程序化约束,矫正法官的主观偏见,扩展法官的认知能力,减少法官因直觉等主观因素对价值判断形成的消极影响。
司法实践中,人工智能作为辅助工具带来便捷,但也仅限于服务法官、辅助法官。因此,对司法人工智能的研发要将重心放在其辅助功能上。并且,基于当前司法人工智能在通用技术领域的应用上已经取得了相应的成果,因而未来应当更倾向于针对司法活动的专业性特征,进行司法专用领域的技术开发。比如,国外的一些法院利用人工智能对案件结果进行预测,还将人工智能运用于审查专家证言的可采性上,为法官裁判案件提供指引和参考。我国在研发时也可以结合自身实际来开发相应的产品。此外,也可以针对我国部分法院开始应用的量刑推荐、审判偏离预警等功能进行进一步完善与推广。
技术是人类社会进步的重要力量,人类作为社会发展的主体,必须将技术为我所用。正所谓“君子性非异也,善假于物也”,只有懂得如何开发与利用司法人工智能,善于扬其长避其短,才能将人工智能的价值发挥到最大化,只有将这块好钢用在刀刃上,才能为司法、为人民创造更多的价值。
(二)人工智能法官:不可望也不可即
早在20世纪70年代,已有学者提出假设——人类法官是否能被机器法官所取代,以消除法律的不确定性?我国最高人民法院副院长贺荣给出了明确的答案:机器人大法官绝无可能出现。
事实上,无论是普通民众,还是在领域内深耕已久的专家,都对计算机、人工智能和机器人这些事物的概念难以详细地区分。但有一点众所周知,它们的运作本质都是“接收信息-处理信息-输出信息”这样一种计算过程,每一个步骤都需要确切的定义,存在“唯一正解”。而司法裁判的魅力却在于往往不追求非黑即白,每个具体的案件都有其独特的一面,除了追求客观与合法之外,其中隐含的人情世故、伦理道德错综复杂,需要有审判智慧和审判经验的法官进行心证和裁量。法律虽然是冰冷的,但适用法律的过程却蕴含着温情,比如“于欢案”中,杀死“辱母”者这样为母复仇的情节富有非理性的情感色彩,与我国自古以来“父之仇,弗与共戴天”的礼法观念不无关联,这些人情事理只有亲历了生活、接受过教育、感受过熏陶的人类法官才能体会和把握,而隔着冰冷屏幕的人工智能法官是无法体会其中之精妙的。此外,人工智能还面临着算法“黑箱”问题。司法裁判的过程,本身就是一个注重辩论和说理的过程,在庭审中,不仅双方的唇枪舌剑会给法官带来事实判断上的影响,一个交互的眼神、一个微妙的表情都会成为法官的捕捉点,我国西周时期就有“以五声听狱讼,求民情”的记载。而人工智能法官的判案过程则会是系统内部的数据处理和运算,得出的判决是一个“暗箱操作”的结果,我们对其中的运算过程一无所知,“黑箱”的封闭性决策直接与司法公开原则相违背,还可能会触发算法独裁和歧视,难免招致公众对判决结果的质疑,引发社会混乱。
更重要的是,我国宪法有明确规定,国家的一切权力属于人民,审判机关的权力由人民赋予,法官所行使的司法权实质上是人民主权理论下的公共权力。古代西方有这样一句法律格言:“法官只有一个上司,那就是法律。”在此公共授权的语境之下,法官在审判中享有绝对的权威,其他任何主体都不能左右法官的最终判决。从这个角度上来说,如果让人工智能取代法官,是将人民赋予的公共权力让渡给了一个机器,无异于放弃了人民的公共事业,而导向机器人的统治。机器人是否能够认可法律作为他的上司我们不得而知,但必然消解了司法裁判的意义,也破坏了司法公信,这是社会所不能接受和容忍的。
综上所言,人工智能法官取代人类法官这样的愿景,乍一听固然美好,但是却陷入了人工智能的万能论当中。司法裁判是理解的技艺,是一门价值衡量的艺术,其中蕴含的经验和智慧并非人工智能所能体悟。人工智能取代法官是一个不可望也不可即的遥远幻想,未来对司法人工智能的开发不能突破底线,毫无节制地利用人工智能改造审判系统只会为现代法治带来无可挽回的创伤。
结论
尽管人工智能热潮一次次席卷而来,不断突破想象、冲击认知,但我们不能盲目追捧,尤其在司法领域更应保持审慎和理性。对于司法环节中的一些事务性、重复性工作,无疑应当交给人工智能来处理,发挥其超强的整合运算功能,提高司法效率;对于司法活动中的核心权力,如审判权,则必须由法官独立行使,而人工智能因其自身认知和思维上的缺陷决定了其只能处于从属地位。此外,如果一旦将司法决策权交与人工智能,随之而来的算法黑箱、算法歧视必然对司法公正造成冲击,也是对人民主权和现代法治制度的消解。
未来,要坚守法官的主体地位和人工智能的辅助角色,对司法人工智能的研发也要在服务法官、辅助法官的路上继续前进,而不要误入取代法官的歧途。人工智能与司法的深度结合已是大势所趋,审时度势地做好这道司法人工智能的加法题,让“人工”和“智能”各归其位、各取所需、强强联合,才能为司法、为社会带来最大的价值,将司法高效与司法正义共同推进。
来源:《人民法治》杂志
作者:贾喆羽吕昭诗孙晓璞
原标题:《人工智能在司法领域的应用》
阅读原文
人工智能的法律主体地位分析
[摘要]随着人工智能技术的不断完善,自然人与人工智能的关系也愈发紧密。它给人类社会带来极大便利的同时,也带来了相应的挑战。其中,人工智能自身的创作成果已经走入了我们的视野,但人工智能还未取得法律主体地位或者说还未被公众所承认。如何看待其法律主体地位,如何建立与之相关的法律制度体系,已经成为当下时代关注的焦点。
[关键词]人工智能;创作成果;法律主体地位;法律制度体系
一、引言
JohnMcCarthy在1956年最早使用了人工智能这个词,希望机器人能够像人一样思考,让机器拥有智能,更好地服务社会。在经历了孕育、诞生、早期的创造热情和后期的现实困难等阶段,人们对它的期待也从最早的计算器扩展到数十年后其可能被用来改变世界。随着时间的推移,虽然发展并不顺利,但已从最初的弱人工智能(擅长单个方面的人工智能)发展到如今的强人工智能(在几乎所有领域都比最聪明的人类大脑更聪明)。6年前,也就是2016年,人工智能AlphaGo连下三城,根据五局三胜的赛制,李世石九段已提前被淘汰,无缘100万美元奖金。这一刻标志着,从五子棋、魔方到象棋的一切智力游戏,人类已经没有一项是人工智能的对手。同样是在2016年。“这一天,机器人可以撰写小说,可以优先支配自己的快乐,并不再为人类工作。”这段听起来让人感到毛骨悚然的一句话出自一本机器人写的小说《计算机写小说的那一天》。以这本小说为代表的4部作品参加了“星新一微型小说文学奖”,通过比赛初审的已然半数[1]。虽然最终的成绩并不理想,但这是自1981年设立该比赛以来,第一次遇到计算机作者参赛,在当时也引起了一片轰动。近年来,我国高度重视人工智能领域发展,人工智能的发明创造申请数量迅速增长,专利申请数量高居世界第二,且增长态势并未减弱。由此也引出了我们即将面临的问题—人工智能法律主体地位及其权利归属问题。随着人工智能的创作成果在社会中的运用愈来愈广泛,其将要面临的法律问题必然也会愈来愈多,所以尽早明晰人工智能的法律主体地位具有重要的现实意义。到目前为止,人工智能处于由弱人工智能到强人工智能的发展过渡阶段,它也明显不同于传统意义上的工具。现存的法律在有关人工智能的相关知识产权问题上尚还缺乏明确的规定,学者们对于这一问题也都秉持着不同的观点,在司法实践中极易出现各种纠纷,法律法规直面现代技术的冲击。所以尽快探索出人工智能的法律主体地位,明确其权利归属,探索出人工智能归属的现实路线,在提高司法效率方面以及促进人工智能更好地发展具有重要意义,从而持续推动科技进步和利益最大化。
二、人工智能的法律主体资格分析
(一)人工智能尚不具备法律人格的现状
人工智能创作物是人工智能技术发展的结果,人工智能主要是通过机器来实现人类智力所要实现的功能,从其实现方式来看,大致可以分为两大类,符号性知识表达的人工智能系统和使用非符号性知识表达的人工智能系统。前者使用专业语言对知识进行编码,后者则试图模仿人的大脑的工作原理,知识通过神经元的集合形成[2]。但是,无论通过何种方式实现的人工智能,从本质上来说,只是一套人造的机器,一个系统,就像我们日常操作的手机和计算机一样,人工智能实现的是人们可以预见、希望能够实现的结果,并未完全脱离人的控制,它实现的只是设计者所希望达到的结果,这个结果从初期来说比较具体、比较容易实现。上文提到的AlphaGo连赢三局围棋世界冠军,还是从事高难度、高精度的手术,又或是撰写小说与人类进行竞赛。这类人工智能都需要人类为其设置好运行代码、拟定好运行程序,将其带入能够发挥特定作用的特定场景下,打开开关,最后完成人类为其制定的任务。从客观上看,人工智能在运行过程中并没有主观能动性,它的一切行为动作都是由人类主导的,并不是由它自身身份与其他社会主体发生交换关系,与人类并不是相同角色。倘若,我们要求人工智能像人一样与其他社会对象发生生产交换关系,人工智能则至少要满足为自己编程,自发发生生产交换关系,然而这样的人工智能到现在为止尚未出现,或者说现在的技术尚未达到。所以有学者认为,人工智能只是作为人类方便自身或者说进行挖掘价值创造捷径的工具,并不是像人类一样独自发挥自己的作用。而到后期,这个结果也愈发抽象,范围也比较宽泛,似乎人工智能不再完全接受人的控制。但是实际上,如何设计人工智能完全是由作为主体的人类决定的,人工智能如何进行活动完全是由人类所输入的代码决定的,可以说人工智能如何行为都是人类预先设计的,其并没有独立的思考能力。因此,从法律关系主体的角度来看,许多学者认为人工智能本身并不能享有独立的法律人格,仍然属于机械的一种,只是人类工具而已。
(二)赋予人工智能法律地位的必要性
人工智能的法律主体地位模糊,其权利归属难以界定,这些都是困扰法律法规难以对人工智能进行客观有效监管的原因。事实上,法律上的人是指享有法律人格,并根据此可以独立参加法律活动、享有权利、履行义务、承担责任的主体,主要包括自然人、法人和其他组织三类[3]。目前人工智能技术的应用,其运行模式主要是机器人通过人类预先输入的算法规则进行运算并显示于机器,进而完成相应的活动,其本身并不具备独立思考能力和学习能力,并不满足“自然人”的定义范畴,我国法律也没有赋予其“法律人”的地位。因此,人工智能产品目前在我国不具有独立的法律主体资格。由于尚未赋予人工智能其法律地位,因而由人工智能造成的责任是按照产品责任原则进行处理。当秉承这种处理方式时,仅仅可以应对弱人工智能带来的责任问题,但对于慢慢“进化”的强人工智能而言却很难适用。具体来说,弱人工智能在生产运行过程中是较为单一稳定的,且运行过程相对闭塞,即弱人工智能单纯按照其制作人所输入的代码运行,制作人具有绝对的控制权,完全排除其他主体干预,此时可以不赋予人工智能法律主体地位,将其成果直接纳为该制作人的成果也较为合理。但到了强人工智能时代,几乎所有领域都不弱于人类,且多个主体共同发挥作用。与单一封闭式弱人工智能的运行方式不同,强人工智能的运行易受到多种因素的影响,较难辨别需要何种法律对其进行调整,且难以认定成果主体,产品责任也难以发挥作用。若赋予了人工智能其法律人格,便可由其直接享有成果、直接承担责任,同时避免各主体之间的责任推诿。人工智能的法律主体地位问题已经开始引起国家层面的重视。例如,国务院的《新一代人工智能发展规划》,明确了要“继续加强人工智能相关法律法规制度建设,促使人工智能健康发展,并制定其伦理道德框架。着手确立与人工智能应用相关的民事与刑事责任的确认、隐私及其产权认定、安全保障等法律问题研究,建立追溯和问责制度,明确人工智能法律主体以及相关权利、义务和责任”。这也为促进人工智能高速健康发展筑立起了坚实的法律屏障。
(三)赋予人工智能法律地位的可行性
随着科学技术的不断发展,人工智能已慢慢参与到一些人类商业活动中来。例如,进行合同的风险评估、大数据筛查可信度等,更具体而言已经涉及合同的起草和咨询上。伴随着弱人工智能升级进化,强人工时代缓缓而来,上文所提到的人工智能自主性也在不断增强,甚至还有通过自身不断学习赶超人类的趋势[4]。由此可见,与弱人工智能不同,强人工智能有着产生自身意志的可能性,即可以进行独立思考、学习分析、独立参与与其他社会对象的生产交换过程,这时便可认为其具备行为能力。随着强人工智能具有行为能力的可能,也可以说产生自身意志,并不断在发展变化中学习适应,不断提升其认知能力、行为能力,这也为进一步使其具备法律主体地位拓宽了道路。我们知道,作为法律主体的自然人具有行为能力以及认知能力,可以不断获取知识并运用到实际中来,并运用人类拥有的主观能动性来实现将感觉概括为统一、综合、现实的形象,这也是人类不断发展进步的重要原因。这时不禁提问,倘若人工智能也可以具备这种行为能力、认知能力和理性的逻辑思维,这样可以主动作为的人工智能是可以承认其法律主体地位的。其次,相比于弱人工智能,强人工智能拥有着具备理性思维的可能性。虽然强人工智能的载体是电子计算机或量子计算机,更算不上地球碳基生物,结构和人类不同的程度要大于“在其他天体上自然演化产生的碳基生物”。构成后者身体的许多生物大分子有碳原子组成的骨架,和你的身体之间并没有“天壤之别”的差异。但是强人工智能在客观上的与社会对象进行生产交换关系和主观上的自主能力为其赢得法律主体地位提供了可能性[5]。法律上的人的主体地位是法律抽象的产物,这种理性标准更适合于形式上的强人工智能,无论是其性格、喜好等。强大的人工智能具有理解和感知世界的能力,对于人类社会的道德是否能被用来约束强人工智能,秉持支持意见的学者并不占多数。实际上,我们所说的道德要求,主要是指理性的内在自律。强人工智能也因其强大的识别和控制能力而得到证明。在科学技术日益强大的今天,在智力方面强人工智能与人类已平分秋色。另一方面,它对自身行为的性质和后果的理解,以及对周围环境的感知,都在迅速与人类水平持平。此外,通过主观控制自己独立的意志,强人工智能还可以控制自己的行为。动物与人工智能的主要区别在于其识别和控制的能力,这不仅使其更接近人类与动物生理的界限,更加大了强人工智能拥有法律主体地位的可能性。
三、赋予人工智能法律主体地位的实现路径
(一)健全人工智能的伦理规范体系
健全强人工智能的伦理规范体系可以更加完善对于人工智能的调控。作为上层建筑的法律,它可以映射出现实的社会生活,或者说法律的滞后性决定了它始终要慢于现实经济社会生活,所以我们并不能奢求法律可以涵盖社会生活中的所有具体情况[6]。而作为与法律相辅相成的伦理规范,可以完全不被社会生产力发展水平所影响,没有滞后性可言,甚至可以预先出现。这也是为什么伦理规范成为法律制定的重要依据。随着强人工智能的迅猛发展,为了避免强人工智能给人类带来更多的不确定性,健全人工智能的伦理规范系统也会尽快提上日程,也推动了赋予人工智能法律主体地位道路的发展。
(二)与国际人工智能领域加强合作
人工智能的不确定性一直是未赋予其法律主体地位的重要因素。只有加强国际间人工智能领域沟通合作,突破发展瓶颈,才能克服其不确定性。人工智能作为未来之匙,一直是各国重点研究的领域。近年来,众多国家纷纷出台有关强人工智能的发展策略。但是从全球视角出发,每个国家之间的强人工智能发展水平仍存在很大差距,究其原因,便是各国之间人工智能研究领域的交流与合作仍不密切。各国濒于解决自身人工智能相关问题,但不沟通、不交流,在一些不发达国家甚至很难听到有关强人工智能的信息。历史长河奔流不息,从每一次变革中我们都能发现世界上任何科学技术和研究领域的发展进步都离不开国家间的相互沟通与合作。各国可以通过建立人工智能友好交流合作组织、召开国际论坛会议等方式,加强人才交流,推动共同进步。只有通过不断加强沟通交流,才可以突破瓶颈,拓展人工智能发展道路,进一步明晰赋予其法律主体地位的方向。
(三)加强人工智能技术层面的保障
一要严格规范人工智能程序设计程序。只有这样人工智能才可以逐渐融入人类社会生活。无论是作为客体的弱人工智能,还是具有思维能力的强人工智能,都应受到规范性约束。尤其是可以成为主体的强人工智能,它的“思维”和“人格”直接决定着其以何种姿态参与社会生产活动、与人类如何相处。二是要严格考察人工智能的开发阶段所录入的代码是否符合规定,对安全性保障方面进行严格审查,从而做到规避强人工智能所连带的可能性风险。其次在强人工智能程序内设置实时监察程序,以便对其进行实时监控,规避对人类社会的潜在风险,更可以防止人工智能在其发展过程中失去控制。
四、结语
人工智能在社会生活中扮演的角色直接决定了其法律地位,我们应该合理看待人工智能的强劲发展势头,正确对待其法律主体地位的发展,规避其风险、发挥其作用,为人类社会带来更多便利。
作者:李旭晨单位:青岛科技大学