人工智能对传统民事法律主体带来挑战 人工智能民事主体地位进行探究
人工智能时代已然来临,诸如人脸识别、无人驾驶、智能机器人越来越受到人们的青睐。人们一方面享受着人工智能所带来的便利,一方面对人工智能技术的滥用产生了担忧,特别是法律方面,人工智能的立法规制、人工智能侵权责任的承担等问题引起了学者们的广泛关注。当务之急,需要深入探究人工智能是否具有民事主体地位,以此作为思考的逻辑起点,推动人工智能立法进程。本期文萃对不同学者关于人工智能民事主体地位的研究进行了汇编,学者们从不同角度对这一主题进行了有益的探索。
人工智能对传统民事法律主体带来挑战
马佳在《法治与社会》2019年29期《民法视域下人工智能法律主体地位之辨思》一文中认为,依我国目前法律,传统民事主体经历了由非全部的自然人,到全部的自然人,再到法人与自然人的二元主体的过程,人工智能对传统民事主体的挑战主要集中在人工智能应被视为民事主体还是客体问题。如果视为民事主体,传统民事主体的二元制结构是否被打破;还是类比法人,赋予其有限法律人格?
不仅是理论层面,实践中人工智能也向传统民事法律主体提出了新的挑战。一是人工智能对知识产权保护所带来的挑战。微软公司曾推出智能机器人“微软小冰”进行写诗,那么“微软小冰”对其作品是否享有版权?是否承认其著作权人的地位?微软公司为避免争议,宣布“微软小冰”放弃版权。二是人工智能对侵权责任的认定也带来了挑战。我们无法回避无人驾驶汽车在这方面可能带来的问题,无人驾驶机器造成他人损害,由谁承担侵权责任和产品责任?随着科学技术发展,当拥有高度自控能力,超越其自身算法设计的强人工智能实施的致害行为,是否仍应由机器人的所有者承担,这也是人工智能对民事侵权责任提出的新课题。
从功能主义的角度来看,没有必要赋予人工智能民事主体地位
王艳慧在《华东政法大学学报》2020年第4期《人工智能民事主体地位的论证进路及其批判》一文中认为,人工智能的发展所带来的著作权归属、智能合约、智能侵害责任等都能被现行法规范所涵摄,从功能主义的角度来看,没有必要赋予人工智能民事主体地位。通过对民事主体确立的思想史考察可以发现,自然人民事主体地位的确立伴随着世界观上人的主体地位的确立,与独立、自由、平等等天赋的自然权利观念的广泛传播密不可分。伦理人的意义在于不需依靠任何外在的力量而是人自身的意志能力即可确定人之为人,这种意志能力具有规范性认知,“应当”具有辨别和选择的能力。对于人如何看待自己与世界的关系的演进历程,其间经过了客观法向主体法、义务法向权利法、本体论向认识论的重大转向,是人本主义的实践,是人的尊严与价值的确立过程。因此,民事主体制度的设计不是单纯的立法技术的使用问题,而是具有深刻的伦理内涵。
一旦赋予人工智能民事主体地位,意味着两种智能主体的并存,以自然人为民事主体建立的法律关系大厦将面临倾覆的危险,主体法时代的法律框架将可能坍塌,人的历史将被改写。人工智能依赖于思维的机械化,是模仿人的认知,是理性的思辨运用,与意志支配行动的实践理性不同,实践理性依据道德律令以实现“善的意志”为最高目的,寄望于赋予人工智能民事主体地位是对理性不同运用方式的混淆。近代以来,科学主义的工具性思维渗透进人类活动的各个领域,尤其是科技对伦理的僭越,已经造成了人的生命的无“意义”感。人的历史是社会活动的历史,人通过生产实践来确证自身,但人也可能被自己实践活动的产品所奴役。面对人工智能等新科技的发展,人应当坚持保守主义态度,这对于法哲学的重大意义在于:从人类独有的理性出发,推导出人在与外部世界的对立统一关系中作为主体的自由属性,并将其设定为法权体系展开的逻辑条件和终极目标。
人工智能获得主体资格并非解决现实问题的唯一路径
石冠彬在《西南民族大学学报》(人文社会科学版)2019年第12期《人工智能民事主体资格论:不同路径的价值抉择》一文中认为,赋予人工智能以民事主体资格并不存在与主体能力的本质相冲突、将贬低人的主体地位、有违伦理道德等所谓的法理障碍,且在立法方案的设计上具有可行性,可通过类比公司注册资本设立强制保险赔偿金,作为建构人工智能独立民事主体地位的责任财产基础,能有效解决人工智能创作物、自动驾驶侵权责任等具体问题。但人工智能获得主体资格并非解决现实问题的唯一路径,人工智能所引起的法律难题在现行法框架内尚能解决,肯定人工智能民事主体资格暂无迫切性。最终则取决于能否更好地实现人类利益,是人类功利主义价值衡量的结果。即使如此,也应当强化构建人工智能民事主体资格的理论研究,为未来可能的立法提供理论补给。
现阶段在法律上赋予人工智能主体地位,人类或将失去保护自身地位的法律武器
陈嘉敏、朱健在《惠州学院学报》2020年第1期《人工智能的民事主体资格探究》一文中认为,发明人工智能并不是为了让人工智能与人类等同或者说是取代人类,发明人工智能最初以及最后的目的应当且只能是为了解放人类的双手,与人类智能进行互补,让人类过上美好的生活。因此,作为“好帮手”的人工智能是不应当被认定为民事主体,至少现阶段是不适宜的。其次,人工智能发展迅速,其未来是我们无法预料的,即使法律曾经有过超前立法,但是从总体来看,法律明显是滞后的,不可能通过法律来规制将来发生的事情,从这一点上看,也不应当赋予人工智能以法律主体地位。最后,法律作为人类主体特有的调整人与人之间关系的社会规范,它可以说是保护人类的最后防线,如果人类为了一时的方便,而将人工智能作为法律主体纳入保护的范围,其不仅将面临着国内法的重新规划,还有全球国际法的重构,我们无法预料将来人工智能会发展到哪个阶段,如果现阶段在法律上赋予人工智能主体地位,没有在一定程度上对人工智能这一类新生事物进行法律限制,那么人类或将失去保护自身地位的法律武器。
(赵鑫)
责任编辑:kj005
文章投诉热线:15600572229投诉邮箱:2913236@qq.com郭家利|元宇宙背景下人工智能著作权法律主体资格问题研究
原创郭家利上海市法学会东方法学收录于合集#上海法学研究929个
郭家利
南京理工大学知识产权学院硕士研究生
要目
一、问题的提出
二、元宇宙背景下人工智能法律主体资格分析
三、人工智能法律主体资格学说
四、授予人工智能著作权主体资格的困境与危害
结语
元宇宙是与现实世界相平行的“去中心化”的虚拟数字世界,人们通过虚拟交互设备可以自由地出入元宇宙,并在其中扮演理想的角色。而伴随着元宇宙的出现,人工智能产业的发展得到了更大程度的推进。有学者提出人工智能应当参照自然人或法人的规定视为法律主体,并为其建立一套全新的权利义务标准。也有学者提出,视人工智能为居于现有主体和客体间的一种“新主体”,以此来区别其他人类的辅助工具。但是,上述的设想经不住人类中心主义、作者权体系等角度的检验,不仅无法为人工智能产业发展减轻法律风险,更为利用人工智能进行著作权侵权留有更多的可能,最终扰乱现有著作权的体系稳定。在元宇宙为视角下,著作权法无需为人工智能赋予法律资格,而应当在现有的体系框架下解决人工智能作为一种辅助工具而产生的问题。
一、问题的提出
自2021年Fackbook母公司更名“Meta”、Roblox公司“元宇宙第一股”上市,以及在全球新冠肺炎(COVID-19)的背景下云办公及云会议等线上模式的流行,全球数家科技巨头纷纷加入构建元宇宙布局,“元宇宙”一词在2021年被推到了科技领域的风口浪尖,因此这一年也被称为“元宇宙元年”。但“元宇宙”一词并非因此产生,1992年尼尔·斯蒂芬森在小说《雪崩》(SnowCrash)中首次明确提出Metaverse(“元宇宙”)和Avatar(化身)这两个概念,并在书中描述了“Metaverse”图景,即“依托数字化技术的发展形成了一个既平行于、又独立和映射于现实世界的虚拟空间,在现实世界彼此隔绝的人们可以通过各自的‘虚拟身份’,在这一虚拟空间中进行社交、娱乐、交易”。目前,产业界的共识是:可以用“BIGANT”来概括元宇宙的基础技术,分别是“B”所指代的区块链技术,“I”所指代的交互技术,“G”所指代的电子游戏技术(Game),“A”所指代的人工智能技术(AI),“N”所指代的网络及运算技术(Network)和“T”所代表的物联网技术(InternetofThings)。“元宇宙”并非一个严格意义上的学术概念,它既是一种互联网应用形态,也是一种社会组织形态。当下对“元宇宙”的定义,也并没有一个准确且广为认可的答案,本文认为,“元宇宙”即是通过VR、AR、XR、脑机接口、人工智能、区块链等技术与现实社会的经济、社交、科技、身份等领域实时互动的一种新型社会。不过,虽然元宇宙的初期阶段是基于虚拟现实的游戏世界而实现的,但元宇宙并不简单地等同于传统意义上的虚拟世界,更不等同于一般意义上的网络游戏,而是脱胎于现实社会,并与之相平行且和相互影响的一种全新的“去中心化”社会。
赵国栋、易欢欢及徐远重在《元宇宙》一书中通过将“元宇宙”划分为三个阶段来表述其不同形态,第一阶段是以文学、艺术、宗教为载体的古典形态;第二阶段是以科幻电子游戏形态为载体的新古典形态;第三阶段为以“非中心化”游戏为载体的高度智能化形态。而现阶段的“元宇宙”源于游戏,超越游戏,正在进入以“非中心化”游戏为载体的高度智能化形态的“元宇宙”的中后期。一方面,游戏为主体的“元宇宙”的基础设施和框架趋于成熟;另一方面,游戏与现实边界开始走向消融,创建者仅仅是最早的玩家,而不是所有者,规则由社区群众自主决定。在理想化的元宇宙中,人们可以运用软件、硬件及神经认知科技,塑造“人机协同”“人机一体”的赛博格社会图景。当前,随着科技水平的不断提高,从2016年的VR元年到2019年5G应用落地,元宇宙的基础设施逐渐成形,直至2021年区块链发展更为成熟,公链容量提升,去中心化概念普及,实现了元宇宙独特的经济系统,补全了元宇宙发展的关键要素,在元宇宙持续走热的今天,人工智能基于其应用的普遍性、技术的前沿性以及在伦理、法律等层面的争议性而成为了众多学科理论研究与实践应用的热点。其中,关于人工智能的法律问题研究是人工智能研究的重要增长点之一。
在这一背景下,人工智能的强大能力被再一次展现。基于在元宇宙中数字作品的创作与传播,使得“赋予人工智能法律主体资格”的呼声再次高涨,希望通过赋予人工智能著作权法律主体资格来尊重其著作权,并为未来可能的著作权侵权纠纷划清责任主体范围。但对于人工智能法律主体资格展开研究之前,要理顺几个思路:首先,现在的人工智能依旧处于弱人工智能时代,当下无需确立并完善强人工智能的相关法律问题。其次,在当下弱人工智能已经完全可以达到在已定算法和数据库下,自主学习和创作出文学领域的智力表达之时,有关弱人工智能在版权领域的法律主体资格问题确值得认真思考,并在元宇宙背景下探索出一条人工智能和版权产业的融合之路。可以预想的是,当人工智能被大量应用于元宇宙及其相关产业中,由人工智能带来的权利归属和著作权侵权纠纷数量也会大幅增加,且纠纷也会由于在元宇宙的背景下而变得复杂。因此,明晰人工智能的法律主体资格对解决由其衍生的其他法律问题显得尤为重要。下文将以元宇宙为视角,从人工智能与著作权的关系角度出发,结合现阶段世界人工智能领域的法律现状,试探讨人工智能的法律主体资格问题。
二、元宇宙背景下人工智能法律主体资格分析
在元宇宙中,创作者可在蒙特卡洛树搜索、时序差分学习、机器学习等技术支撑下,创作出海量的区别于传统有体物的数字虚拟作品。基于大数据与算法的加持、人工智能深度学习与创作、文本数据挖掘与整合,元宇宙的创作土壤的养分十分丰富,创作方法的种类也可谓繁多。而元宇宙的特性之一“去中心化”,即是倡导用户共同打造全新社会,共建共享,因此,元宇宙的建设及边界扩张将会极大程度的依赖用户创作生成内容,用户也可通过这种方式赚取元宇宙中的货币。长期来看,人工智能(AI)也将会加入到元宇宙的创作当中扮演用户的辅助角色,或者直接由AI进行独立创作,以此来维持元宇宙的边界扩张。
当前关于人工智能的讨论,无论是在理论还是在实践领域,都在根本上缺乏对人工智能本质的清晰界定。大多数的讨论都在人工智能创作物的可版权性的问题上下足了功夫,但是对人工智能的法律主体问题讨论较少。应当说,以著作权客体为切入点来对人工智能所引发的相关著作权问题展开研究是一种直接的、必要的甚至是便捷的思路,其所面对的现实制度性障碍较小;或者说,可以(暂时)绕开或消解较为棘手的主体性问题而直抵看起来似乎更为“务实”的与现行法律制度的调适与对接问题。但诚如学者所言,法律主体的确定对解决任何争议都至关重要,因为只有先确定法律主体,才能接下来讨论法律责任的分配问题。对人工智能应否被承认为法律主体的讨论也因此而起。
人工智能的类别之分
人工智能(Artificialintelligence,即AI技术)一词首次早在1956年的达特茅斯会议上出现。不过人工智能技术一直未能有较大的产业发展和技术突破,直到工业技术完备的20世纪90年代,曾几起几落的人工智能再度爆发,大数据智能、跨媒体智能、自动驾驶、智能化自动武器系统迅猛发展,其影响可谓无远弗届。在近年的发展中,基于汽车、手机、智能家居等科技行业对人工智能的应用大幅增加,不仅使得人工智能有了更多的用武之地,更使得人工智能基于主产业的迭代升级而得到了更为全面的技术发展。但人工智能并不是一个单一的技术概念,而是由两个独立的类别组合而成。
人工智能的第一个类别即弱人工智能(ArtificialNarrowIntelligence,即ANI),现阶段几乎所有我们能够接触的人工智能皆属弱人工智能,即便在现阶段的元宇宙中也仍是如此。弱人工智能的能力范围并未触及到所有领域,对其的运用也仅仅是在部分领域完成某一件事情,例如家装设计、国际象棋、驾驶汽车、智能搜索等。可见,弱人工智能(ANI)只能适用于单方面工作,并不能像人类一样可以在不同领域切换角色,并完成不同类型的工作。换句话说,弱人工智能并不能够处理其未反复接触过的事情,相比于此,人类则具有一种可以将看似毫不相关的两种事物相互联想的能力,进而通过对其他事物上学习的知识,运用到另一领域,并逐渐找到最适方案的能力,这也正是之所以称其为弱人工智能的原因。
人工智能的另一个类别即强人工智能(ArtificialGeneralIntelligence即AGI),之所以称其为“强人工智能”,是因为当人类为其构建目标后,他可以多任务同时处理并完成任何人类可以完成的工作,甚至可能在某方面完全超过人类,完成一些人类无法完成的工作并得到意想不到的效果。显然,这样的强人工智能能够在较为成熟的元宇宙发展中扮演重要的角色并起到巨大的作用,但由于元宇宙仍处于“宇宙初生”的搭建阶段,并且在未来的一段时间里都很难出现较大的阶段性跃升,强人工智能在元宇宙中的发展也不属于现阶段需要探讨的内容。虽然人类在弱人工智能方面已经取得了突飞猛进的发展,但在强人工智能方面并未能够取得任何创造性成果。所以,将强人工智能发展至成熟阶段,还需要数年甚至更久的时间,以至于完全可以说强人工智能离我们还足够遥远,而且强人工智能如果真的已经强大到完全超过人类,那么通过人类的法律对其进行限制,也不切实际。
人工智能主体资格的法律现状
近年来,在全球多地人工智能的角色地位取得到了很多突破性发展。2010年11月,日本授予宠物机器人“帕罗”(paro)户籍,在户口簿上登记为发明人的孩子。2017年10月,沙特阿拉伯赋予机器人索菲亚“国籍”并承认她的公民身份。美国官方管理部门在给谷歌公司的回函中也明确表示谷歌的自动驾驶系统可视为“驾驶员”。在相关的立法草案或建议中,也有众多国家或组织对人工智能的法律地位进行大胆尝试,如欧盟2017年的立法建议《欧盟机器人民事法律规则》提出,给予最先进的机器人以“电子人”身份并开设账户,以便其进行纳税或缴费。2017年俄罗斯第一部关于机器人法的草案《格里申法案》主张将机器人归入“法人”行列,成为法律上的主体。爱沙尼亚机器人法草案认为可以赋予机器人以代理人的法律地位。可见,是否接受人工智能获得法律主体地位已经成为当下全世界的争议焦点之一,不过上述的立法尝试绝大多数仅仅停留在草案或者提议阶段,并没有成为生效的法律。
在实际认定中,已有多国的有关部门对人工智能是否可以作为著作权作出了回应。美国的StephenTHALER及其团队在为人工智能争取著作权的过程中遇到了困境。StephenTHALER及其团队宣称由AI完成了一幅平面美术著作,并向美国版权局申请登记了一件名为“最近进入天堂”(arecententrancetoparadise)的美术作品,申请书上记载的作者为“创意机器”(CreativityMachine)。THALER博士附上了一份权利转让声明,上面只写“拥有该机器”(ownershipofthemachine),并另外附了纸条,说明该作品为“该机器之计算机算法所自动生成”,且他希望登记该计算机生成著作(computer-generatedwork)为受雇完成著作(work-for-hire),给创意机器之所有人。2019年8月12日,美国版权局登记处拒绝这一注册,认为本案缺少支持版权主张所必要之人类作者。StephenTHALER随后请求复审委员会重新考虑裁决,但这一请求再次遭到拒绝。随后StephenTHALER再次请求美国版权局重新考虑此案,并认为,版权局“现在依赖已经过时的不具有约束力的司法意见来回答计算机生成作品是否受版权保护这一问题”。2022年2月14日,美国版权局公布正式的审查决定,否定该团队所申请的人工智能美术创作。复审委员会认为,“人类作者身份是美国版权保护的先决条件”,并基于此作出上述决定。但版权审查委员会也声明,其完全接受申请人所为的事实陈述说明。亦即,申请人所宣称,此著作是由人工智能自动自发完成,完全没有任何人类行为者的创意贡献。
综上所述,现阶段美国、英国、欧盟等国在立法尝试和实践层面上对于接受人工智能成为著作权的权利主体仍抱持观望甚至是拒绝态度,而作出这一决定的原因不仅来自于传统法理上对于权利人的认识,也来自于现有法律对“作者”主体的概念限制。
人工智能与传统“作者”的异同
在人工智能产业爆发性发展的背景下,人工智能能否被接受成为法律主体的各种观点层出不穷。有学者认为,民法主体呈现扩张趋势,赋予人工智能民事主体地位并没有技术障碍,将人工智能拟制为特殊的法律主体,有利于人工智能产业发展。亦有学者认为,“人工智能具有独立自主的行为能力,有资格享有法律权利并承担责任义务,人工智能应当具有法律人格”。而在著作权领域,现阶段人工智能已经发展到,可以依靠人类发出学习指令后,自主进行文学创作,并且在生成文学艺术表达形式的表面过程中,似乎和人类之间并无太大差别。在元宇宙的发展中,人工智能也将会承担更多的创作工作。因此,无论学者们以何种角度讨论人工智能智力表达是否应当著作权法的保护,终将无法绕过一个问题,即著作权法当中的作者含义,是否能够包含人工智能?
纵观“作者”一词的发展历史,其从诞生之日起就一直伴随在作品左右,有效地使作品区别于公共领域内的一般信息。当然,作者不同于写作者,写作者属于对事实描述的概念,它所描述的是主体与作品之间所存在的客观联系,即由谁实际创作了作品。而作者则是一个法律的概念,它所表示的是对作品享有的权利的主体。基于现有著作权法的精神,对一个作品而言,作者未必是写作者,而写作者也未必成为该作品享有著作权的最终主体。我国著作权法第11条第二款规定,“创作作品的公民是作者”,创作是指“直接产生文学、艺术和科学作品的智力活动”。按照该规定,只有实际参加创作的自然人才能够被认定为作者。但随着文化产业的发展,作品创作与传播中的分工日益复杂,投资者在作品产生过程中的重要性愈发显现,各国著作权法均在作者范畴中纳入了投资者,形成了创作者与投资者共同构成的作者体系。这种将自然人完成作品所产生的著作权归属于法人所有的制度,在我国著作权法第18条中也有所规定。在著作权法的主体演变中,虽然从自然人的基础上扩大到法人和非法人组织,但作品本身是由自然人创作,这一基础并未发生改变,而赋予人工智能著作权法律主体资格将直接对这一基础发出挑战。值得一提的是,有些学者提出,人工智能的创作比机器的创作更为高级,因其创作的“作品”更具“自主性”及“不可预测性”,所以应当从“写作者”晋升为“作者”,对这一观点显然不能被认同。机器对于版权产业的展,一直以来都以创作和传播的辅助性工具的角色存在,且并未产生过著作权法上的版权归属问题或是任何著作权上的法律效果。人工智能发展至今确实能够直接参与创作,但相比较人类而言,人工智能在创作中虽具有一定的自主性,但也是在人类设定目标后通过算法完成的任务,而不具备也不可能具备独属于人类的自主意识,无法在创作中拥有对其创作作品的深度思考和感情凝练,这与著作权法认定写作者为作者的初心也相违背。可见,现行法下“作者”一词的概念,仍然处于传统伦理原则的认知以及现有著作权法的规定之中,作为“写作者”的人工智能,无法被现行法接受并认可为“作者”。
三、人工智能法律主体资格学说
简单来说,学界关于人工智能的法律地位主要有“主体肯定说”“主体否定说”“新主体说”三个立场。第一种学说具体表现为主张人工智能可以参考自然人或者法人的制度为其赋予法律主体资格,同时参照法人作品的制度对人工智能的生成物进行保护;第二种学说主要表现为主张人工智能只能作为法律客体出现、只能作为人类的工具,不具备获得法律主体地位的资格;第三种学说认为,人工智能居于人类和物体二者之间,不能只在现有的法律主体范围内进行选择站队,而是创造属于人工智能自己的新主体模式。
“主体肯定说”及实例
“主体肯定说”认为,人工智能创作的智力表达,是其基于学习后,在没有人为干预的情况下,借鉴学习的内容,独立思考并完成的作品。抛开其主体并未被著作权法承担这一问题,其所产生的智力表达,具有独创性,确已符合了著作权法对于作品的界定,同时物种差异已经不应成为智能机器人获得权利主体地位的障碍。承认并赋予机器人的权利主体地位,既是权利发展的内在规律,也是社会发展的必然趋势。因此,在认定人工智能的智力表达属于作品且受到著作权保护的同时,应当认定人工智能属于该作品的作者。而在“主体肯定说”中,大部分学者赞同参照法人作品的制度为人工智能探索新模式。在这一观点提出之后,虽出现了很多反对声音,认为作品的权利归属最终应当也仅能属于自然人,只有人类才能够成为著作权的真正主体享有权利并承担责任。但对于DABUS发明一案中,南非和澳大利亚官方给出了与支持人工智能成为享有专利权的法律主体的回应。南非正式批准了这项申请,成为人工智能发明者的世界首项专利。澳大利亚联邦法院,在2021年7月底发布的判决书中裁定DABUS为专利发明人。我国著作权法制定之初,法人的确能不能成为作者,法人能否享有作品的精神权利,是争议最大的问题之一。但随着著作权理论的发展和完善,最终《著作权法》规定了法人可以像自然人一样创作作品,也会像人一样享有作品的精神权利和其他权利。这一理论的支持者认为,把“智力成果”和“自然人”必然联系的观点不能成立。并最终形成了较为一致的观点,类比法人制度,缺乏身体与心智的法人尚可以被赋予法律人格,“将人工智能拟制为法律关系的主体,也无需法律制度做根本性突破”。
“主体否定说”及实例
“主体否定说”认为,虽然人工智能有弱人工智能、强人工智能之分,但当前社会主要研究的是弱人工智能。由于弱人工智能的“非人性”和弱“自主性”,即便其智力表达具有独创性的外观,但其仍然没能脱离算法的束缚,依旧在人为的操控下,按照人类为其设定的方向进行所谓的创作。不可否认的是,人工智能的初始即为程序,程序是人工智能的“生命”且具有可复制性、可再生性,这种特性使得人工智能作为法律人时,其权利与义务不具有平衡性,所以人工智能不能成为新型法律人格。换句话说,人工智能的本体从概念到符号,仅注重逻辑排序,这导致其不具有人的价值性和实践性。学者马开轩及刘振轩认为,从民法哲学上讲,人工智能既无法满足法人格实体说和目的说要件,也不具有法人格的拟制说基础。由符号构成的人工智能缺乏公司法人的组织性和目的性,且不可拟制。弱人工智能时代,为回应社会现实、助推司法实践,应将人工智能定位为法律客体。也有学者从伦理角度思考,认为为了捍卫人类的尊严,避免人类伦理秩序、法律秩序、社会秩序发生紊乱,应“克服拟人思维所带来的陷阱,不应将人工智能想象成同人类并列的法律主体。而以人为本的伦理秩序表现为:自然人是当今社会唯一的主宰者,除自然人之外的其他动物、植物或者人造物(包括人工智能)只能作为被人类支配的对象。我国法院早在2019年基于“菲林律师事务所诉百度网讯科技案”案作出了与此观点相同的回应。审理此案的北京互联网法院认为:“分析报告具有一定的独创性,但是具备独创性并非构成文字作品的充分条件。根据现行法律规定,文字作品应由自然人创作完成。”因此,法院否认了人工智能创作物构成作品,但同时也认为,“虽然分析报告不构成作品,但不意味着其进入公有领域可以被公众自由使用。显然,按照北京互联网法院的审理意见,即便人工智能生成物需要得到法律的保护,人工智能也仍不能因此被赋予法律主体的资格。
“新主体说”
在“主体肯定说”和“主体否定说”之外还有一派理论,即“新主体说”理论,该理论认为,人工智能因具备思维能力而超越了“物”的概念范畴,但是人工智能并未摆脱为人类服务的工具角色,因此,人工智能既不是物也不是人,可以从法律上拟制一个新的主体,或与法人一样,从拟制自然人角度赋予新主体相同或类似的法律地位。持有此类观点的学者,大多认为人工智能能够进行自主学习,随着人工智能的技术发展越渐成熟,其深度学习的能力也会继续加强,进而其自主性也会出现跨越式发展,那么人工智能在不属于法律客体的情况下,便更接近类似人类的角色。但另一方面,由于人工智能相比法人而言,具备一定的自主性和思考能力,因此,此类学者并不完全同意将人工智能参照法人制度或者列为一种特殊法人。在如此矛盾情况下,便出现了为人工智能建立新主体的声音,即不属于自然人,不属于法人,更不属于法律客体的“新式法律主体”。不过,这种新式主体的权利义务体系要如何构建并完善,这将会产生一个颠覆现有法律体系的结果,提出并支持这一学说的学者并未详细说明,现阶段也并没有任何国家在实践中运用了这一思想。
四、授予人工智能著作权主体资格的困境与危害
截至目前,人工智能的功能的发挥关键在于大数据系统的支撑,有论者将之形象地概括为“数据喂养着人工智能”。的确,人工智能应用需要以数据为基础,训练数据的多寡直接决定输出成果质量,而数据的选择则是人为控制。通过近年来在人工智能领域发生的多个令人感慨人工智能已经如此高智的事件中也可以看出,人工智能的表现几乎都是由创造团队提前进行程序设定,并有指向性的表现出来的,现阶段的人工智能仍旧还很难脱离人类具有完整的自主性。所以,将人工智能定义为“人类的辅助工具”更为准确。因此,即便随着元宇宙产业的发展,人工智能所具备的深度学习能力会随着技术成熟逐渐脱离人工算法的预先设定,具有更强的自主思考和创造能力,并逐渐在元宇宙的发展中起到核心作用。但这并不意味着人工智能可以获得与人类相同的主体资格。为人工智能赋予著作权法律主体资格,也并非能够更好地促进人工智能产业以及元宇宙的发展,甚至对现有法治体系也将会产生严重的破坏。综上所述,无需为人工智能赋予著作权法律主体资格,人工智能应当按照法律客体中的“物”解决在发展过程中产生的各类问题。具体理由如下:
首先,可以设想的是,如果人工智能拥有了与人类一样的法律主体,一方面需要为人工智能进行法律权利义务体系的构建,这不仅将会是一项巨大的立法工程,而且人类现有的法律体系将会完全发生改变。同时,立法主体也不再是人类自己,而是人类与人工智能一道对共同主宰的社会进行商议,制定适合双方的法律规定。显然,人类不会同意这样的情况出现,因为一切法律以人为本,法治的目标始终是人类中心主义的。人工智能主体与人类中心主义存在天然的矛盾。另一方面,如果只有著作权法承认人工智能可以拥有主体地位,而在其他法律中未能认可人工智能主体地位的情况话,也将是一个十分畸形的情况,可见著作权法想要先其他上位法一步解决这个问题似乎并不合适。
其次,人类之所以是现今世界的主宰者,其主要的原因在于人类一直推动着世界的进步,或者说,世界的飞速进步正是在人类的推动下进行的。人类通过千百年的努力实现了对自然的了解,实现了对工具的掌控和熟练运用,创造了自然界中本不存在的新事物以辅助人类生存和进步。从古代社会的石器工具,到近代社会的电器工具,再到现代社会的电子工具,或从体力或从感官方面延展人类的能力,达到了人类到目前为止进行科学研究、技术开发的主要目的。而人工智能相较于上述工具也并无例外。在缺少人类输入的基础数据与原始材料的情况下,人工智能无法生成任何表达形式、技术方案或者设计方案等。人类对人工智能的干预程度不同,决定着人工智能具体生成结果的内容与形式。因此,无需因人工智能相较于其他工具更为强大,就开始急迫的认为需要赋予其法律主体资格以维系该产业发展。人工智能不过是人类推动世界进步的辅助工作,不仅在现实世界中,在作为推动人类进步的下一代互联网工具的元宇宙中,也是如此。
再次,正如学者凯尔森所说,法律主体即“权利与义务的持有者”,又如梅迪库斯所言,权利能力是“成为权利和义务载体的能力”。如果现有法律赋予人工智能法律主体地位,人工智能所享有的权利能否与人类相一致,法律面前人人平等的原则能否在这一问题的回答中得到体现?设想人工智能在民法中获得了与人类平等的民事地位,具有了民事权利能力,但其是否具有民事行为能力?当人工智能与人类之间发生版权侵权纠纷之后,民事诉讼法又要如何规定人工智能起诉人类的新程序。换句话说,未来人类将会有可能面对被一项发明或者一串算法代码诉至法庭的情况么?除此之外,并不具有完全自主意识的人工智能真的可以在法庭上进行举证并提出其诉讼请求么?或许这一切依旧需要其发明人或其他自然人为其代理,而代理人所表达的真实意思更有可能是发明人等自然人自身的核心利益,而人工智能即便拥有了真实意思也终究无法充分表达,这样的诉讼在违背了一切法律宗旨下,又有什么意义呢。通过对上述问题的思考,很显然人工智能的最终控制权并不归属于人工智能,而是仍在人类的掌握之下。所以,当我们再次讨论人工智能做出的一切行为时,不过是其控制者对人工智能的提前程序设定所运算得来的大概率结果罢了,人工智能的工具角色也就更加显露无遗了。
最后,人工智能如若真的获得了著作权法律主体资格,能够享有相应的权利和义务,带来的后果必然是侵权主体的责任更容易逃避,受害主体的权益更难得到保障。有部分学者认为,如果人工智能不被赋予法律主体地位,那么其由于算法带来的结果因存在不确定性,将会给其控制者或发明人带来巨大的法律风险,进而导致阻碍人工智能的发展,使强人工智能产业发展停滞不前。如果通过法律赋予人工智能主体资格后,的确会使控制者或发明人的法律风险将大大降低,但极有可能导致上述主体利用人工智能具有独立的法律主体资格,通过算法在元宇宙及现实社会中进行侵权或犯罪,并在发生损害结果后逃避应承担的义务,将罪责推向人工智能。人工智能的算法一旦被篡改或是删除,则这个所谓的“侵权者”或是“罪犯”将会在刹那间消失于眼前,而该人工智能的实际控制人又因为与人工智能的主体地位相互独立逃避了民事甚至刑事等责任。此时,权益受到损害的主体,更会出现维权无路索赔无门的困境。其实,人类对世界的主人公心理并不会因为人工智能的出现而发生变化,并将这一地位与人工智能分享。或许人类内心深处坚定地认为人工智能只是其掌控的一部工具,而授予其法律主体资格极易有可能造成,人工智能以一个独立的责任承担者甚至侵权与犯罪之后的替罪羊的情况出现。可见,当人工智能被赋予法律主体资格,并独立承担责任后,没有完善的技术支撑和全新的法律体系保障,将会对现有的社会法治产生颠覆性的冲击。
结语
作为人类的一项伟大发明,人工智能将会成为人类发展路上重要的辅助工具。同样在元宇宙的搭建中,人工智能也扮演了至关重要的角色。当人工智能能够辅助人类的工作越来越多,内容越来越复杂之时,人来开始担心自己是否会被人工智能替代,这样的想法实则并无必要。人工智能的智慧来源于人类,其所进行的操作也仅仅是对人类的模仿而已,当人工智能完全脱离人类后,也并不能做到自主思考并完成自己设定的目标。可见,在现有法律制度体系之下,对人工智能最好的制度安排就是将其作为人类科技发展的一代辅助工具,就像对待其他的“物”一样。在不久的将来,人工智能必将会出现大幅度的技术升级,而在那之后也必将会有新一代的智能工具替代人工智能,继续为人类服务。
原标题:《郭家利|元宇宙背景下人工智能著作权法律主体资格问题研究》
阅读原文
人工智能法律主体地位探讨
[提要]法律主体应当具备类人的自我意志、自律性等主体性要素。人工智能的发展也许会无限的类人化,但是并不能达到复刻人类必备特质程度。盲目将其纳入法律主体范围,无疑会对整个法秩序产生“质变”影响。时下,对人工智能体的风险防范应主要致力于如何确保其未来发展的“可控性”,亦或寻求人工智能纳入法律客观范围等其他解决路径。
关键词:人工智能;法律主体;自主意识
一、问题的提出
随着国家综合国力的提高,科技水平的迅猛发展,与此同时也伴随着一些忧虑。人工智能是否可以在人类可控环境下逐步实现技术飞跃仍然是一个未知问题。库兹韦尔在其奇点理论中提到人工智能在未来的某个时刻极大可能出现发展的不可控性,并预测在2045年,人工智能将超越人的智能。这种猜测在法律领域也有折射。但在某种意义上说,此举也确实将人工智能的法律主体资格这一问题摆在了人们面前。我们首先需要明确,法律主体即是在法律规定的范围内从事社会各项活动的人,是以马克思主义哲学为基础认知。可以进一步理解为,法律层面上的主体即为哲学层面上的主体,因而所有的自然人都是法律主体,也是哲学层面上的主体。一个自然人从出生到死亡都是在社会这个大家庭中生活,自始至终是以一个社会人的角色生活着。而法律作为社会生活各方各面的“润滑剂”,使得所有的自然人在以社会人身份生活的同时,还必须成为法律人,即作为法律主体而存在。既然如此,人工智能是否和应否作为社会甚至是法律意义上的“人”还有进一步探讨,不能一概而论的赋予其与人类享有同等地位。
二、法律主体的标准
(一)法律主体的哲学意义定位。法律主体即为法律意义上的主体,是以马克思主义哲学为基础认知的。在此基础上,主体即为人,人即为主体,两者之间是可以画等号的。作为主体要同时具备三个条件:(1)能掌控自己的生命活动;(2)能左右外部世界;(3)可以控制自己的欲望。上述三点都说明一个特性,即意志。由此可以看出,主体是本身就具备意志存在物的。而同时具备这三点的,即具有意志的主体也就只有人了,人以外的其他生物很难同时做到这三点。意识是人脑的技能是从哲学观念出发。马克思在研究物质与意识之间的关系时曾得出:“观念的东西不外乎是移入人的头脑并在头脑中改造过的物质的东西”,物质是意识的起源,意识是对客观世界的主观反映,而人脑是意识的载体。如果脱离人脑,人类将无法认知世界,同时也就没有办法形成主观意识。另外,意识的本质特征还在于“意识到必须和周边的人们来往”,如果不与周围之人来往,那么他脱离了社会关系,即使他具备一定的人脑的生理机能,也不会有人的意识。是由于人类的行动是由社会关系的需要来决定,因而社会关系的总和是由人的社会性构成,在某种程度上,社会性表现在人的行动上,通过社会劳动获得自我物质需求、精神需求,与此同时还能满足社会、他人的物质需求,并获得自我价值。根据以上,人工智能体要想拥有人类的意识,第一,应具备意识之载体,即与人脑结构高度相似的人脑仿真;第二,存在相当的社会关系,而事实上,科学技术发展的有限性及人脑结构的高度复杂性决定了人工智能体无法克隆人类完全一样的大脑,且仍不能适应社会。另外,从人的经验与情感角度来看,人工智能与人类智能仍有差别。第一,人类的经验具有独特性和差异性。每个人在生活中的经历各不相同。因此,他们对同一件事结合个人的经验、常识、直觉等很可能产生不同的看法或者不同的处理方式。而这一点恰恰是强人工智能无法模拟的。通过算法对现存信息的提取、剖析和分类是人工智能做出判断的方法。然而,人类是通过大量常识性知识进行分析人们所面对的问题,并不是像人工智能通过大数据的剖析、提取所得。第二,强人工智能拥有的EQ与人类有较大差距。强人工智能所能体会的“喜怒哀乐”仍然是对数据的分析和处理。即使将来真正出现“情感机器人”,这种“情感”仍然属于“人造情感”,与人类的情绪世界截然相反。明斯基曾指出:智能的与情感、直觉和感情都是相通的,只不过是人类另一种思维方法。理智后于情感而产生,而人工智能只具备智力很难具备情感,因此不是真正意义上的智能。人类的经验和情感的不可复制性也决定了人工智能不能具备人类那样的意识。
(二)各部门法视角下法律主体的标准。不同部门法之下,法律主体的范围有所区别,民法领域包括自然人、法人、非法人组织;刑法领域主要以自然人和单位为主;而在国际法上主要指国家与国际组织。不同部门法之下的法律主体对于人工智能的法律主体资格问题参考意义也有所差别,因此有必要分别讨论。
1、民事法律主体标准。参加民事法律关系享受权利和承担义务的人,即民事法律关系的当事人。一般情况下,享有民事权利和承担民事义务是民事主体权利能力的体现,也即权利义务主体的资格。在民法上,自然人和法人的民事权利能力大致相同,自然人出生时开始享有,死亡时终止;法人则以成立为起点,注销时终止。人工智能能否享有与人类相同的民事权利呢?笔者认为,人工智能能否具备民事权利可以从以下几个方面探讨:一方面人工智能是否存在与自然人法律人格的共同性?本文谈论到,自然人是集理性、道德、情感于一身的存在,自我意识比较显著。而人工智能则是依据固定的算法、大数据分析来实施人类指令,弱化自我意识,强调服从意识,其内在核心为逻辑运算。强的人工智能可能会做出一些面部表情甚至通过语言来与人类进行沟通,但其内在并不知如何定义是非、善恶,即便能够知晓,也是通过人类输入的数据,其进行逻辑运算得出的,缺乏必备的价值感和道德感。依靠一定的手段通过逻辑算法得出的结果,并按人工输入的默认程序做出的表示。另一方面人工智能能否具备与人类平等的民事主体地位?笔者对此持否定的态度。民事主体地位是在法律规定的范围内享有,以宪法为根本准则。假设人工智能与人类享有平等的民事主体地位,其超强的逻辑运算能力是否会为追逐利益最大化而损害自然人的正当利益?是否会破坏市场正常的经营秩序?是否会危害国家的安全?我们并不能对此表示肯定,所以只能对赋予人工智能与人类平等的民事主体地位表示否定。民事主体资格的产生与灭失都是取决于人类社会的需要。法律没有把现实社会存在的所有实体都确定为法律关系的主体,享有民事主体资格,而是在法律政策的指引之下,挑选一部分实体赋予民事主体资格。由此可以看出,人工智能并不契合人类需要,因此并没有成为民事主体。但社会中不乏同意人工智能应被赋予民事主体资格的人,在他们看来,人工智能具有极强的自主性,我们不能简单地将其看成一个供人类操作的一个被动性工具,而应赋予其主体资格,享有特定的权利,履行相应的义务,承担一定的责任。反之,则有些人认为,人工智能主要靠技术人员输入数据进行逻辑分析,缺乏意志、没有自主意识,不具备主体条件,仍然是人类开发利用的工具。面对观点迥异的两种主张,如何更加理性地看待问题的本质,需要从法哲学的层面来探讨,将人工智能置于法律主体的哲学基础之中,为人工智能立法提供理论上的帮助。不可置否,有部分学者认为,法人也并非是真正意义上的人类,将人工智能推理为法人,由此认定其享有法律主体地位。需要注意的是,法人是享有民事主体资格的组织,它和自然人一样,同属于民事主体的范围,是民事主体中的重要组成部分,法人是具有民事权利能力和民事行为能力,依法独立享有民事权利和承担民事义务的组织;另一方面,法人有较好的集合能力,在为追求同样目的的时候,两个甚至多个可以组成一个团体,可以通过分工协作的方式完成目的。为实现各项功能、规范秩序,这个团体就需要由特定的人来行使特定的权利,而特定的人就是为实现团体功能,规范秩序以章程的方式推选的,如法人代表。其行为是按照章程规定的方式,由此可见法人的行为可以看成是法人团体的行为,所以法人是可以成为团体的机关。着重在于该行为是由于团体章程规定的并不是由于法人本身。从这一方面来说,法律拟制的法律人格无法类比于人工智能,人工智能更多的是由于人类预先设定的程序进行的,不能像法人一样逐渐适应繁琐的法律活动;另一方面法人可以在其权利受到侵害或者因他人不履行义务时寻求法律保护,该权利是由法律赋予的,然而权利实际是由该团体享有的。从这方面来看,即便赋予人工智能民事权利,也不具备独立财产,更无法承担民事责任,也就无法真正地融入到民商事活动中。
2、刑事法律主体标准。在今后发展中,人工智能体即使形成一定独立意识,但这种意识也非绝对自由的意识。恩格斯之前提出:“道德和法的问题要在研究自由意志、人的责任、必然和自由的关系下探讨”。在没有形成自由意志的情况下,意味着对自身行为无法真正具备控制能力。对于一个犯罪行为的处罚,要求行为主体具备刑事责任能力。而决定刑事责任能力的因素有两个:一是年龄;二是精神状况。这两个原因最终决定刑事责任能力是否存在,同时它们又是刑事责任能力必备要素,究其原因为这两个因素影响了人的辨认能力和控制能力。只有在行为人具有辨认能力与控制能力时,才能找到对其进行刑事处罚的正当依据。一方面强人工智能不具备刑事责任能力,自由意志的欠缺决定了它们并不能完全独立地实施一系列行为;另一方面不具备刑事责任能力,致使其没有刑事主体资格。根据犯罪构成四要件说:(1)客观上实施了严重危害社会的行为;(2)主观上存在故意或者过失;(3)客体上侵害了刑法所保护的社会关系;(4)主体即为实施犯罪行为、依法应当负刑事责任的自然人和单位。任何不具备刑事责任能力的主体都丧失了受到刑罚处罚的可能性。人工智能体终究是人类智慧的创造物,因而在任何时候都无法真正脱离人类的控制。人工智能实施的行为在某种程度上仍然夹带着一些人类的意志。人工智能永远无法横跨人类大脑,只能无限的趋近。人工智能体不能拥有与人类相同的自由意识,不能对自身行为做出是非善恶之分,因而也就不是一个适格的刑事责任主体。综上所述,人工智能不宜成为法律主体,但可以寻求其他解决途径,对人工智能未来发展进行风险防控。一方面可以将其定位为法律客体。法律最主要的目的就是达到社会关系链条的一种稳定性和连贯性,因此这种法律的本质变化是一个自相冲突的事实。所以,在仍持有怀疑的态度下是否进行通用人工智能研究的今天,以稳定性和连贯性为主的法律如果带领人们在法律的框架内赋予其主体地位,将会显得比较草率。在2020年人工智能峰会中,演讲嘉宾都不约而同地提到人工智能在数据分析、逻辑运算方面的重要作用,人工智能的价值在于为人类所用,凸显着法律客体地位的充分需求。另一方面保证人工智能在人类可控范围内发展。人工智能无论是对知识的获取、对行为的认知还是对情境的反应等,无一不是通过人类输入的数据,通过对各项数据的分析、运算得出的,并不是实际参与社会生活的结果,不具备社会性。进而言之,人工智能不能摆脱人类的控制,其本质意义上始终是为人类服务的工具。如果说将来人工智能真正实现独立思考,能够自主支配行为,对人类能够实施“反控”时,那么造就这类人工智能体的意义是什么?对人工智能“居安思危”固然是没错的,但并非一定要将其推向法律主体。当下,最应当致力于如何保障人工智能在人类可控范围内发展,这要比增设一个新的法律主体类型更为简便。“未雨绸缪”未尝不是一个好的选择。
主要参考文献:
[1]刘洪华.人工智能法律主体资格的否定及其法律规制构想[J].北方法学,2019(04).
[2]骁克.论人工智能法律主体的法哲学基础[J].政治与法律,2021(04).
[3]张鹤鸣.意识是人脑的机能吗[J].学术研究,1986(03).
[4]白海娟.人工智能“犯罪”之否定[J].兰州学刊,2020(08).
[5](美)马文·明斯基,著.情感机器:人工智能与人类思维的未来[M].王文革,等,译.杭州:浙江人民出版社,2016.
[6]王利明.民法总则研究[M].北京:中国人民大学出版社,2012.
[7]马克思恩格斯选集(第2卷)[M].北京:人民出版社,1995.
作者:蔡泽男单位:吉首大学法学与公共管理学院
人工智能民事主体地位探究
人工智能时代已然来临,诸如人脸识别、无人驾驶、智能机器人越来越受到人们的青睐。人们一方面享受着人工智能所带来的便利,一方面对人工智能技术的滥用产生了担忧,特别是法律方面,人工智能的立法规制、人工智能侵权责任的承担等问题引起了学者们的广泛关注。当务之急,需要深入探究人工智能是否具有民事主体地位,以此作为思考的逻辑起点,推动人工智能立法进程。本期文萃对不同学者关于人工智能民事主体地位的研究进行了汇编,学者们从不同角度对这一主题进行了有益的探索。
人工智能对传统民事法律主体带来挑战
马佳在《法治与社会》2019年29期《民法视域下人工智能法律主体地位之辨思》一文中认为,依我国目前法律,传统民事主体经历了由非全部的自然人,到全部的自然人,再到法人与自然人的二元主体的过程,人工智能对传统民事主体的挑战主要集中在人工智能应被视为民事主体还是客体问题。如果视为民事主体,传统民事主体的二元制结构是否被打破;还是类比法人,赋予其有限法律人格?
不仅是理论层面,实践中人工智能也向传统民事法律主体提出了新的挑战。一是人工智能对知识产权保护所带来的挑战。微软公司曾推出智能机器人“微软小冰”进行写诗,那么“微软小冰”对其作品是否享有版权?是否承认其著作权人的地位?微软公司为避免争议,宣布“微软小冰”放弃版权。二是人工智能对侵权责任的认定也带来了挑战。我们无法回避无人驾驶汽车在这方面可能带来的问题,无人驾驶机器造成他人损害,由谁承担侵权责任和产品责任?随着科学技术发展,当拥有高度自控能力,超越其自身算法设计的强人工智能实施的致害行为,是否仍应由机器人的所有者承担,这也是人工智能对民事侵权责任提出的新课题。
从功能主义的角度来看,没有必要赋予人工智能民事主体地位
王艳慧在《华东政法大学学报》2020年第4期《人工智能民事主体地位的论证进路及其批判》一文中认为,人工智能的发展所带来的著作权归属、智能合约、智能侵害责任等都能被现行法规范所涵摄,从功能主义的角度来看,没有必要赋予人工智能民事主体地位。通过对民事主体确立的思想史考察可以发现,自然人民事主体地位的确立伴随着世界观上人的主体地位的确立,与独立、自由、平等等天赋的自然权利观念的广泛传播密不可分。伦理人的意义在于不需依靠任何外在的力量而是人自身的意志能力即可确定人之为人,这种意志能力具有规范性认知,“应当”具有辨别和选择的能力。对于人如何看待自己与世界的关系的演进历程,其间经过了客观法向主体法、义务法向权利法、本体论向认识论的重大转向,是人本主义的实践,是人的尊严与价值的确立过程。因此,民事主体制度的设计不是单纯的立法技术的使用问题,而是具有深刻的伦理内涵。
一旦赋予人工智能民事主体地位,意味着两种智能主体的并存,以自然人为民事主体建立的法律关系大厦将面临倾覆的危险,主体法时代的法律框架将可能坍塌,人的历史将被改写。人工智能依赖于思维的机械化,是模仿人的认知,是理性的思辨运用,与意志支配行动的实践理性不同,实践理性依据道德律令以实现“善的意志”为最高目的,寄望于赋予人工智能民事主体地位是对理性不同运用方式的混淆。近代以来,科学主义的工具性思维渗透进人类活动的各个领域,尤其是科技对伦理的僭越,已经造成了人的生命的无“意义”感。人的历史是社会活动的历史,人通过生产实践来确证自身,但人也可能被自己实践活动的产品所奴役。面对人工智能等新科技的发展,人应当坚持保守主义态度,这对于法哲学的重大意义在于:从人类独有的理性出发,推导出人在与外部世界的对立统一关系中作为主体的自由属性,并将其设定为法权体系展开的逻辑条件和终极目标。
人工智能获得主体资格并非解决现实问题的唯一路径
石冠彬在《西南民族大学学报》(人文社会科学版)2019年第12期《人工智能民事主体资格论:不同路径的价值抉择》一文中认为,赋予人工智能以民事主体资格并不存在与主体能力的本质相冲突、将贬低人的主体地位、有违伦理道德等所谓的法理障碍,且在立法方案的设计上具有可行性,可通过类比公司注册资本设立强制保险赔偿金,作为建构人工智能独立民事主体地位的责任财产基础,能有效解决人工智能创作物、自动驾驶侵权责任等具体问题。但人工智能获得主体资格并非解决现实问题的唯一路径,人工智能所引起的法律难题在现行法框架内尚能解决,肯定人工智能民事主体资格暂无迫切性。最终则取决于能否更好地实现人类利益,是人类功利主义价值衡量的结果。即使如此,也应当强化构建人工智能民事主体资格的理论研究,为未来可能的立法提供理论补给。
现阶段在法律上赋予人工智能主体地位,人类或将失去保护自身地位的法律武器
陈嘉敏、朱健在《惠州学院学报》2020年第1期《人工智能的民事主体资格探究》一文中认为,发明人工智能并不是为了让人工智能与人类等同或者说是取代人类,发明人工智能最初以及最后的目的应当且只能是为了解放人类的双手,与人类智能进行互补,让人类过上美好的生活。因此,作为“好帮手”的人工智能是不应当被认定为民事主体,至少现阶段是不适宜的。其次,人工智能发展迅速,其未来是我们无法预料的,即使法律曾经有过超前立法,但是从总体来看,法律明显是滞后的,不可能通过法律来规制将来发生的事情,从这一点上看,也不应当赋予人工智能以法律主体地位。最后,法律作为人类主体特有的调整人与人之间关系的社会规范,它可以说是保护人类的最后防线,如果人类为了一时的方便,而将人工智能作为法律主体纳入保护的范围,其不仅将面临着国内法的重新规划,还有全球国际法的重构,我们无法预料将来人工智能会发展到哪个阶段,如果现阶段在法律上赋予人工智能主体地位,没有在一定程度上对人工智能这一类新生事物进行法律限制,那么人类或将失去保护自身地位的法律武器。
(栏目主持:赵鑫)
实际应用人工智能主体资格研究
实际应用人工智能主体资格研究时间:2023-05-1119:00:12
摘要:随着时代的发展,人工智能产业也逐渐进入高速发展的阶段,但是现行的法律规制却不能够满足人工智能发展的速度,使得人工智能在实际应用中缺乏有效规范。人工智能是具有智慧工具属性并且可以做出独立意思表示的特殊主体,但其法律人格是有限的,因此应当适用特殊的法律规制,在这一点可以借鉴国外立法实践,同时应当通过投保责任险来促进人工智能的长远发展。
关键词:人工智能;主体资格;法律规制
一、研究的背景
现代人工智能的快速爆发主要源于三个重要发展趋势的快速汇聚:摩尔定律所明确描述的具有计算机能力的指数快速增长、互联网和移动物联网的快速爆发所直接产生的海量大数据、智能算法的快速积累和发展。当前世界人工智能尚未成熟和处于早期,现阶段几十年来人工智能在世界大规模推广应用的重要性和发展的态势已清晰地显现,正在逐渐成为引领和推动世界科技工业革命的重要推动力量,如今现代的人工智能已经逐渐成为国际竞争的新技术焦点、经济和社会发展的新技术引擎,社会文明建设的热点和新机遇。
二、人工智能的基本概念和定义
现代世界,人工智能技术和发展的进程已经取得了很大的技术突破。那么,什么类型的才是人工智能?仁者见仁智者见智,但总的来说,大概都从四个基本方面对于人工智能的概念进行了界定:包括人类的基本思考方式、行为和思维模式、理性化的独立思考以及建立理性化的智力行为管理模式[1]。阿兰•图灵认为机器以及人能否独立思考这样的问题其实不值得需要人们花时间来深入讨论,原因之一就是对独立思考的方式进行定义其实是很困难的,由此图灵提出了图灵测试,其中的核心问题在于“机器能否在智力行为上表现得和人无法区分”。[2]目前人工智能的发展可以大致归纳表现出8个基本特征[3]:第一,创新性。利用人工的智能技术可以根据其现有的技术产品以及现有的方法对系统进行实际的设计调整或者改变,并可以创造新的方法以及产品。第二,产生的结果不是具有不可预知性,不是事前已经可以确定的。根据一定的技术目的来控制系统运行的人工智能在一定的数据分析的理论基础之上可以进行随机的变化,通过随机的数据分析方式可以得出最有利的解决方式与其结果。第三,人工智能可以使系统能够独立的运行。虽然目前人可以通过自己设立系统运行的目标、固定的参数值等诸多方面来达到对系统的运行进行干预,但是人工智能拥有在人为干预方面之外的对数据以及其自身的认知功能。第四,理性化思维的能力。人工智能系统的实时运行能力可以使设计者依托系统提供的实时数据来为确定运行目标的系统能否实现提供参考。第五,不断更新的能力。系统可以通过自身设定来快速获取实时的设计数据而快速地产生在自己预期的设想中没有发生或出现过的想法和结果。第六,从自身的设定之外可以获得学习,分析,传播设计数据的能力。第七,效率高,精准度高。第八,可以自行地选择系统运行的目标。
三、人工智能的基本分类
(一)弱人工智能弱人工智能(artificialnarrowintelligence)人工智能简称缩写为anani,是一种泛指最早在世界上出现,主要是擅长于单个计算机方面的一类人工智能。其中比如曾经战胜了象棋世界冠军的阿尔法狗、超级计算机"深蓝"、在线广告等。弱人工智能在创造强人工智能的体系中实际上是较低级的人类发明,不能够直接作出人类预定范围外的智能操作。
(二)强人工智能强人工智能(artificialgeneralintelligence),简称agi,是一种本质上类似于人类大脑级别的人工智能。强人工智能实际上是指一种在各方面都能和其他人类大脑相比肩的仿真人工智能,通过一定的计算和编程,可以直接使这种仿真人类大脑的系统能够进行独立的逻辑思考,智能的运作。强人工智能实际上指的是一种宽泛的人类大脑心理能力,能够进行独立思考、计划、解决复杂的问题、抽象思维、理解复杂的理念、快速地学习和从经验中学习等各种智能操作。创造强人工的智能比创造弱的强人工智能艰难许多,我们现在还远远达不到此种的水平。
(三)超人工智能超人工智能(artificialsuperintelligence),简称asi,科学家把超人工智能定义为“在几乎所有领域都比最聪明的人类大脑都聪明很多,包括科学创新、通识和社交技能。”我们可以清楚地看出,超人工智能已经完全可以取代人类来完成原来只能由人类才能够独立做的某些工作。甚至在某些领域超人工智能可以完成人类所不能完成的工作,可以完全取代人类。它是在人工智能体系中的顶端,由于它的能力已远超于人类,所以这种超人工智能的出现极有可能给未来的人类社会带了巨大的风险以及挑战。
四、人工智能的主体资格
(一)人工智能是特殊性质的法律行为主体目前学术界对于这种人工智能的特殊性质和定义一直都是众说纷纭。比较流行的人工智能定义主要有工具说、电子奴隶说等等[4]。这种工具奴隶说的定义和观点主要认为这种人工智能的定义是一种基于为了人类的活动和生产服务的技术目的,为了人工智能更好地实现和服务于人类的生产和生活而被创造和开发出来的一种智能工具[5]。工具奴隶说的观点认为这种人工智能既没有独立的法律性质和人格,也没有独立的意思和表示的能力。所以电子奴隶说的观点认可其具有人工智能的法律行为能力,但是不等于认可其本身具有自己的法律权利能力。这种观点的定义认为现代人工智能就是没有疲惫感的现代机器,没有和现代机器人相似的感情和机体的特征。但是以上所说的工具主义观点都有不完善的地方,工具学说将现代的人工智能都定义在了传统的不能进行自主意识表示的"工具",忽略了现代的人工智能的现代化发展和工业化进程,比如所属于美国特斯拉公司的第一代电动汽车就已经基本实现了无人驾驶,并且可以通过对人工智能的意识进行自主判断和选择来控制和排除影响人类活动的障碍操作。电子奴隶学说虽然通过对现代人工智能法律权利能力的否认解决了现代人工智能的法律责任承担能力的独立主体问题,但是也只是直接延伸了现代工具论所说的观点,并没有直接承认现代人工智能的法律主体独立性。现代人工智能的发展是人类文明的发展和进步到了现代的一个必然结果,是推动人类经济社会文明发展的重要助力,并且将向更大范围的人工智能应用和技术方面进一步发展,可以准确预测,在不远的未来,人工智能的普及和运用将更为广泛,所以当务之急,应该是规范人工智能在其法律上的地位和性质。因为人工智能本身具有着极高的智慧性以及独立作出意思表示和决断的能力,与以往的智慧工具性质相比有很大的区别。在其现有的条件基础上,人工智能在法律上应该被明确定义为一个既具有机器人智慧工具的性质又能够作出独立的意思表示的特殊主体。
(二)法律保护人工智能应当使机器人享有法律权利“机器人不得伤害人类;机器人必须服从人类的命令,除非这条命令与第一条原则相矛盾;机器人必须保护自己,除非这种保护与以上两条原则相矛盾。”这也就是“机器人之父”科幻作家阿西莫夫提出的“机器人三原则”。而其中的第三条原则禁止机器人伤害自己就是在赋予人工智能法律权利来让机器人保护自己。人工智能如果需要获得独立的法律人格就必须具备两个根本的条件:社会存在和法律认可,就是说人工智能能够通过自身做出独立的意思表示并且还要获得法律的认可。从目前的人工智能技术水平来看,虽然人工智能做出独立意思表示的能力还没有得到法律的明确认可,但是人工智能已经完全可以通过自身现有条件来对公司进行管理,处理事务,满足了社会存在的要件[5]。那么在现有情况下,人工智能是否可以向法律要求认可其做出独立意思表示的权利?根据斯通纳的观点,某一主体要想拥有法律上的权利就必须满足以下三个条件:第一、该主题可以根据其自身要求提起相应的诉讼;第二、法院在决定进行法律救济的时候应当将损害纳入考虑范围之中;第三、法院所进行的法律救济应当满足其利益需求。对于第一点,人工智能已经在司法裁决领域应用开来,对于独立提出诉讼要求没有任何实践问题。而第二点,法院在决定进行法律救济的时候应当将损害纳入考虑范围之中。人工智能虽然是考虑到了工具属性的本质,但是由于考虑到了人工智能切割机器的设计造价成本高并且可能作为人类表达感情的一种载体,例如当作为对老人或者孩童的陪伴机器人的独特记忆存储元件被完全删除时,使得该切割机器人的独特存储的记忆将不能被完全恢复,从而可能会对机器人产生严重的社会精神经济损害。第三点、法院所进行的人工智能法律权利救济满足其法律利益需求是应当有可能的。无论是停止侵害、排除或者停止妨害都是可以有效地运用到对于拥有人工智能的法律权利救济当中。综上而言,人工智能已经满足了拥有人工智能法律上权利所需的三个基本条件,应当能够享有人工智能法律上的权利。
(三)人工智能应当作为人工智能法律责任承担的主体1978年世界上发生了第一起机器人切割杀人事件,日本世界上一家机械工厂的切割机器人"转身"将切割机工人的身体抓住并对其进行了切割。1989年被一位前苏联国际象棋世界冠军打败的切割机器人突然释放出极高强度的电流导致了冠军的死亡,该起杀人事件发生后,全球轰动。人工智能侵权事件其实并不少见。所以人工智能作为可以做出独立意思表示的特殊主体必须同人类一样为自己的行为承担责任,并且人工智能还在发展,其不可预测的行为可能会带来显性或者隐形的危险,不能够因为人工智能不是人类就可以逃避法律的制裁。人工智能随着时代的发展将会面临更加严峻的伦理安全问题,谷歌创立的深度思考等研究机构已经设立了由一批具有不同的专业知识技术背景和丰富实践经验的人工智能专家组成的人工智能伦理安全审查会来思考解决这个问题。法律对于人工智能这一特殊法律主体更应该地向前一步发展,而人工智能也应当相应地保留人工智能设计前的数据以及推广使用前的数据备份,尽可能地扩大对人工智能设计数据的使用可披露范围,在推广使用前进行测试并告知相关的使用程序风险,由此使得人工智能企业可以通过数据复查以及应用程序告知等方式来判断是否承担人工智能相关的风险,并尽可能地减小其危害可能性以及法律责任。
五、人工智能主体资格的法律规制
(一)明确人工智能的侵权责任和承担的主体明确界定人工智能是服务于国家和社会发展的法律工具的属性,人工智能仅仅是拥有有限的民事法律人格,并不完全可以等同与任何自然人和公司,不具有完全承担责任的能力和法律资格,所能够由人工智能主体承担的法律责任也只是部分。依据实际的情况,人工智能主体造成的侵权法律责任或者其刑事责任分担应当由其产品设计开发者以及其制造商共同承担。在人工智能侵权责任方面,要促进人工智能的发展的主要因素就是要确定为人工智能的行为承担责任的主体。联合国教科文组织《关于机器人伦理的初步草案报告》明确提出了让所有参与人工智能发明、授权和使用的人员作为主要主体来承担责任和分担的机制的解决方式,这种人工智能责任分担的机制主要是给予了所有人工智能的产品设计者和生产者一定的压力,帮助来促使他们达到自觉地履行对自身参与的产品环节的安全保障义务,能够通过责任杠杆让人工智能侵权成本在内部得到消化,也能够有效地保障一旦发生意外后,被侵权人可以及时找到相应的人工智能负责主体并按照要求得到补偿。对于具有独立意志能力的人工智能,不能完全将其行为责任归结于创造者[6]。因为人工智能存在"黑箱",即使在系统运作之前对人工智能的参数以及分析数据进行人为干涉,也不能保证人工智能系统在运作之后产生什么样的结果,加上由于外部环境的干涉,仅仅只归责于技术创造者是极其不合理的。在刑法方面,因为人工智能的有限人格以及不存在与人类相同的生理特征,所以人工智能与公司的法律地位并没有什么差别[7]。根据公司相关的刑法理论中重要的“实际控制人说”,应当由人工智能这一表面操作看到实际上的责任主体。以美国无人驾驶汽车领域为例,2013年美国了《自动驾驶汽车的基本政策》,对人工智能测试过程中无人驾驶汽车的责任风险承担的主体进行了明确规定,除非第三方有足够的证据可以证明无人驾驶车辆在被第三方人工智能改造之前已经存在了缺陷,并且有可能导致在其测试过程中对用户造成了严重的财产损失或者是人身的伤害,否则无人驾驶车辆的初始设计者和制造商不需要承担其相关的责任。同样德国《道路交通法》也明确规定机动车驾驶员不得在车辆行驶的过程中放松警惕以及双手不得离开方向盘,否则驾驶员需要自行承担在驾驶车辆发生交通事故中,人工智能应用所造成的经济损失。所以,在利用人工智能有限人格的前提下,其所可能造成的经济损失由人工智能的主要责任人承担风险来说是可行的。
(二)为人工智能应用投保强制驾驶责任险在高速发展的人工智能的语境下,如果对于人工智能的利用不当将有可能会给任何个人乃至于社会各个群体带来严重的经济风险以及危害[8]。从人工智能的研究开发、制造到产品投入使用来看,整个产业的环节是分散的,在信息网络发达且网络使用门槛偏低的时代,任何人都极有可能获得参与人工智能产品制造的机会。事前的人工智能监管和防范措施难以在危险结果发生之前有效发现某一风险,但是人工智能投入使用带来的责任风险很显然不能够由特定单一的政府部门或个人来进行有效应对,必须通过采取一种社会化的强制经济保险投入措施来有效规则和防范人工智能投入使用带来的强制责任风险。在人工智能产品投入使用前,为其投保了强制责任险,通过相对较小的经济保险投入费用来有效减少了当发生人工智能产品侵权事件发生之时可能产生的经济赔偿相关法律纠纷,促进了人工智能的更长远健康发展[9]。
六、结语
人工智能时代必将到来,而在法律领域,急迫且重要的问题是对人工智能机器人法律地位认定、法律责任归属等问题作出回应,并妥当设置相应规则、制度,在有效规范人工智能技术的同时,为新兴技术的发育预留必要的制度空间。人工智能随着现代科技的进步而高速发展,并应用于人类的生产与生活,逐渐改变着人们的生活方式与认知方式。尽管人工智能对当前社会带来一系列挑战,但其仍有很高价值的追求。
参考文献:
[1]马修U.谢勒,曹建峰,李金磊.监管人工智能系统:风险、挑战、能力和策略[J].信息安全与通信保密,2017,(3):45-71.
[3]梁志文.论人工智能创造物的法律保护[J].法律科学(西北政法大学学报),2017,35(05):156-165.
[4]叶欣.私法上自然人法律人格之解析[J].武汉大学学报(哲学社会科学版),2011,64(6):125-129.
[5]PhilMcNally,SohaiInayatullay,邵水浩.机器人的权利———二十一世纪的技术、文化和法律(上)[J].世界科学,1989,(6):47-50.
[7]袁曾.人工智能有限法律人格审视[J].东方法学,2017,(5):50-57.
[9]宋云霞,李承奕,王铁钢.海上丝绸之路安全保障法律问题研究[J].中国海商法研究,2015,26(2):11-16,23.
作者:吴萍萍刘丹伍嘉庆吴欣雨裴湘琴吴玥陈天赐单位:湖北经济学院