博舍

人工智能发展中的法律问题研究 人工智能产物的著作权问题有哪些原因

人工智能发展中的法律问题研究

●应当赋予人工智能“有限的”民事主体地位,人工智能并不享有伦理性的人格权或身份权,而是享有经济性的财产权利以及承担相应的义务。同时,应否定人工智能的刑事主体资格,最终的刑事责任应由人来承担。

●目前由人工智能生成的内容不适合获得版权保护。具有创作功能的人工智能软件本身就是商品,而开发者许可他人利用人工智能生成相应内容的本质是服务,让开发者销售商品和服务行为回归市场本身,通过价格机制调节,才是人工智能产业发展的一般途径。

●人工智能市场领域作为新兴发展领域,应从反不正当竞争以及反垄断这两个公法上的规制入手,为人工智能寻求一个健康的市场环境。在反不正当竞争的公法规制方面,应迎接三个方面的挑战,即《反不正当竞争法》一般性条款的泛化运用、商业秘密及数据反不正当竞争保护的不足。在反垄断的公法规制上,应对通过算法共谋的垄断协议行为、通过数据垄断滥用市场支配地位行为以及未达到申报标准的经营者集中行为加强规制。

人工智能发展中的法律问题研究[①]

课题组长:童 潇

课题主要成员:董笃笃 王 哲 李 爽 夏海斌

课题参与成员:贾雯婷 尹丽湘 尤文韵 吴俊燕 殷明君王雪原 毕 明 张 冰 褚宏俐 陈 杨 

 

引 言

自1956年人工智能(ArtificialIntelligence,AI)的概念首次提出至今,人工智能在制造业、金融业、医疗行业、服务业、交通运输、安全防御等领域的应用成果有目共睹,深刻地改变了人类的生活、生产和工作方式。随着第三次人工智能浪潮的开启,人工智能的发展正进入新阶段,呈现出深度学习、跨界融合、人机协同、群智开放和智能操作等新的模式特征。然而,与之相伴而生的是,人工智能时代也不可避免将对社会秩序的维持产生不容忽视的冲击,作为维护社会秩序屏障的传统法律体系,已不足以调和新的冲突与矛盾,在民事主体法、著作权法、侵权责任法、人格权法、交通法、劳动法等现有法律体系均同人工智能所带来的生产生活变化形成相应冲突的同时,相关人工智能的法律问题也引发了法学界的重点讨论和研究。

在人工智能的法律问题研究广泛展开之后,课题组通过对现有文献的梳理,发现目前的研究方向总体更趋向于以法律作为一个外部框架来探讨法律如何应对人工智能发展形成的各种新型法律问题及如何对于人工智能的发展进行规制。在这一方面的研究中,既包括针对目前的弱人工智能(ANI)的实际应用进行法律规制的相关研究,也包括对于未来的强人工智能(AGI)可能在人类社会所引发的问题进行预测性的研究,甚至还包含了对于未来的超人工智能(ASI)会造成什么样的颠覆性后果、是否对其进行严格法律约束的相关思考。对比三个层次的研究,由于弱人工智能事实上已出现在生产生活的方方面面,相关法律问题已逐步出现并急需得到解决。同时,对弱人工智能在具体应用实践中所作出的法律体系回应也比较容易整合入现有的法律体系框架当中。因此,本课题所立足的人工智能语境,并非比较超前且理想化的强人工智能范畴,而是基于当下现实的弱人工智能范畴,不将强人工智能乃至超人工智能纳入讨论范围,而仅限于探讨分析弱人工智能时代对现有法律体系可能造成的影响与挑战。

在此背景下,本课题重点选取人工智能法律主体资格、人工智能著作权保护及人工智能的市场准入和规制这三个较为突出的重点法律问题进行逐一分析,并提出一定的应对构想与思路,以进一步促进我国人工智能产业健康发展和相关法律体系的进一步完善。

一、人工智能的概念和发展现状研究

(一)人工智能的概念和特征

要在法律的框架中讨论人工智能,首先要明确的是其法律地位问题,人工智能享有何种法律地位,直接影响着如何对人工智能进行保护和规范,进而影响着人工智能和人类的未来。在讨论人工智能法律地位问题之前,应先对人工智能的相关概念加以界定,以为后文相关问题的展开和研究打下基础。

1.人工智能的概念

(1)人工智能的定义

2017年7月,我国发布《新一代人工智能发展规划》,从顶层设计上为人工智能的发展铺路。人工智能经过半个多世纪的发展,目前仍缺乏通用定义。人工智能的一个比较流行的定义,也是该领域较早的定义,是由约翰·麦卡锡在1956年的达特矛斯会议上提出的:人工智能就是要让机器的行为看起来就像是人所表现出的智能行为一样。但是这个定义似乎忽略了强人工智能的可能性。自20世纪90年代以来,国内外学者从不同角度,对人工智能的定义做了大量研究。课题组通过对相关人工智能定义进行总结,将人工智能定义分为三类:“功能相仿说”、“智能模拟说”和“生物构建说”。

1)功能相仿说

功能相仿说侧重对人工智能产出效果的重视,即以人工智能最终实现的智能产出能够满足人类生产生活需求为核心目标,至于其智能衍生的过程是否根据人类智能活动来进行模仿,不是该学说关注的重点。其代表人物如美国计算机科学家PeterNorvig,其将人工智能定义为:对计算机系统如何能够履行那些只有依靠人类智慧才能完成的任务的理论研究。[②]美国斯坦福大学尼尔逊教授将其定义为:怎样表示知识以及怎样获得知识并使用知识的科学;美国麻省理工学院的温斯顿教授将其定义为:研究如何使计算机去做过去只有人才能做的智能工作。[③]我国钟义信教授认为:人工智能就是探索人类智能(自然智能的最佳代表)的工作机理,并在此基础上研制各种具有人类智能水平的人工智能机器,为人类各种活动提供智能服务;[④]美国高盛集团发布的《2016高盛人工智能(AI)生态报告》将其定义为:制造智能机器、可学习计算程序和需要人类智慧解决问题的科学和工程。

2)智能模拟说

智能模拟说侧重于认为人工智能中智能的实现过程需要模拟人类的思维方式来进行,即相关认识、心理和决策等思维过程是模仿人类的思考方式进行的。相关代表人物中,闫志明教授等认为,人工智能是一个模拟人类能力和智慧行为,涉及计算机科学、控制论、信息论、神经生理学、语言学、心理学等的跨领域学科。[⑤]蔡曙山等认为,人工智能,就是让机器或人所创造的其他人工方法或系统来模拟人类智能;[⑥]阿里云研究中心2016年发布的《人工智能:未来制胜之道》将其定义为:研究、开发用于模拟、延伸和扩展人类智能的理论、方法、技术及应用系统的一门新的技术科学;北京36氪研究院2017年发布的《人工智能行业研究报告》将其定义为:使用机器代替人类实现认知、识别、分析、决策等功能,其本质是对人的意识与思维的信息过程的模拟,是一门综合了计算机科学、生理学、哲学的交叉学科。

3)生物构建说

生物构建说侧重于认为人工智能不仅思维模式需要模拟人类,连其相关产品的结构也应模仿人类的构造来生成。其代表观点中,卡内基梅隆大学认为,人工智能,即当人造物展现智能行为时,它的表现基于人类所使用的相同方法。[⑦]例如,考虑一个具有听觉的系统,弱人工智能仅仅关注系统的表现,而强人工智能支持者的目标在于,通过模拟人类听觉系统,使用等效的耳蜗、听力管、耳膜和耳朵其他部分的部件(每个部件都可以在系统中执行其所需执行的任务)来成功地获得听觉。弱人工智能的支持者单单基于系统的表现来衡量系统是否成功,而强人工智能的支持者关注他们所构建系统的结构。

课题组偏向支持功能模仿说,即人工智能主要是为了解决目前实际困难和需求而存在的,人工智能只是在大多数时候会用上人的智能的模拟,但并不全是模拟人脑的思维的。课题组认为可将人工智能定义为:人工智能是为了进一步提升生产效率及丰富人类生活,研究、开发接近或超过人类智能水平的计算机系统和技术,并广泛应用于人类生产、生活的科学和工程。

(2)强弱人工辨析

目前,多数观点认为强人工智能有可能制造出真正能推理和解决问题的智能机器,并且,这样的机器能被认为是有知觉的,有自我意识的。强人工智能可以进一步分为两类:一是类人的人工智能,即机器的思考和推理就像人的思维一样;二是非类人的人工智能,即机器产生了和人完全不一样的知觉和意识,使用和人完全不一样的推理方式。多数观点认为弱人工智能技术不可能制造出能真正推理和解决问题的智能应用,这些应用只不过看起来像是智能的,但是并不真正拥有智能,也不会有自主意识。主流科研集中在弱人工智能上,且一般认为这一研究领域已经取得可观的成就。强人工智能的研究则处于停滞不前的状态下。

课题组认为,强人工智能和弱人工智能最本质的区别在于意识的自主性和创造力,在于其处理逻辑的模式,前者是主动获取的,后者则是被动接受的。

强人工智能是以自身为主体,通过观察、总结、尝试、验证等一系列学习活动,从环境中抽取出合适的逻辑,来解决相似的输入、输出问题,同时对处理结果进行评估,修正原有的处理逻辑,其处理逻辑是可以在线动态完善的,其不仅可以向他人学习,还可以直接向大自然学习。因此,强人工智能一定程度上可以不接受人类制约,拥有独立发展的能力。就像许多科幻电影和小说中所描述的那样,强人工智能充分体现了人类在人工智能相关研究上的探索和追求。强人工智能不仅在哲学上存在巨大争论(涉及到思维与意识等根本问题的讨论),在技术上的研究也具有极大的挑战性。强人工智能当前鲜有进展,美国私营部门的专家及国家科技委员会比较支持的观点是,至少在未来几十年内强人工智能难以实现突破。

弱人工智能是以自身为客体,软件工程师为主体,根据市场应用需求,设计出相应的处理逻辑,并写成程序,直接灌注到系统之中,形成系统的处理逻辑。当环境发生改变,即输入、输出不再契合时,弱人工智能处理逻辑的改变只能依靠软件工程师来更新、修复。弱人工智能的智能和行为一般为人类所控制,其根本没有意向状态,只是受电路和程序支配简单地来回运动而已。[⑧]迄今为止的人工智能系统都还是实现特定功能的专用智能,如拟合股票市场的某个规律并做出预测、拟合用户偏好并做出推荐,或者像Alfago拟合围棋的取胜规律。目前的主流研究仍然集中于弱人工智能,并取得了显著进步,在语音识别、图像处理和物体分割、机器翻译等方面取得了重大突破,甚至可以接近或超越人类水平。

法律的制定可能超前于现实但不能偏离现实,基于以下几点现状考量,本文探讨人工智能发展中的法律问题主要集中于弱人工智能时代发展将带来的法律问题,并提出解决方案。究其缘由,其一,从逻辑上来说,课题组认为强人工智能弊大于利,将会给社会带来不可估量的道德伦理风险。如以强人工智能机器人犯罪为例,如果一台先进的机器人犯了罪,那么它应该如何接受法律制裁?律师如何去证明非人类的机器人有“犯罪心理”?这一点可以通过借鉴或调整现有的法律原则来实现吗?其二,从技术上来说,主流人工智能研究的方向从来就不是朝向强人工智能方向发展,现有技术的发展也不会自动地使强人工智能成为可能。目前我们所处的阶段,人工智能依然依赖于专家设置的系统结构体系,人工智能的学习性也依赖于人所拟制的算法来运作,如智能法律机器人、特斯拉的辅助驾驶等应用,这与强人工智能(有意识的、能知觉)还存在着巨大的断层。其三,从市场方面来说,在现实层面,人工智能技术取得的成绩都是弱人工智能领域的,如苹果的Siri在语音识别、实时翻译等方面取得的成功,IBM的“深蓝”在运算方面取得的成绩等。即使谷歌制造的AlphaGo在深度学习层次取得了进步,也是某种特定类型的智能行为。正如专家所说,“人机大战对于人工智能的发展意义很有限。解决了围棋问题,并不代表类似技术可以解决其他问题,自然语言理解、图像理解、推理、决策等问题依然存在,人工智能的进步被夸大了。”强人工智能的提出者约翰·罗杰斯·希尔勒本人亦不相信计算机能像人一样思考。

2.人工智能发展的特征

最近几年,随着人工智能技术的突破,以及互联网、大数据、并行计算等相关技术群的成批成熟,人工智能技术在快速的更替换代中不断发展。我国专家认为,人工智能技术发展和产业应用正在双双进入临界点,人工智能正在进入2.0新阶段。当前,人工智能发展呈现突飞猛进的势头,具有以下三个方面的显著特征。

(1)智能高效性

人工智能同其他机器及相关产品的最主要区别在于人工智能具有了一定的人类的智能,相关算法、数据和基础硬件使人工智能的智能性得以实现,是人工智能技术的灵魂。目前在人工智能的多个研究领域都在向认知智能挑战,如图像内容理解、语义理解、知识表达与推理、情感分析等,这些认知智能问题的突破,将再次引发人工智能技术的飞跃式发展。Facebook提出在未来5至10年,让人工智能完成某些需要“理性思维”的任务;“微软小冰”通过理解对话的语境与语义,建立用于情感计算的框架方法;IBM的认知计算平台Watson在智力竞猜电视节目中击败了优秀的人类选手,并进一步应用于医疗诊断、法律助理等领域。

(2)成长自主性

人工智能发展另一显著特征在于其成长自主性,不同于其他产品和设备需要完全通过人类的指令和系统的更新来完成产品的升级,人工智能通过深度学习和自主学习等算法便可以在提供基础数据养料的情况下不断适应和成长。人工智能技术虽然目前无法像人类一样思考问题,但其具有学习能力,其智能的实现依托于大量的学习,可能一开始也经常出现错误,但它能吸取教训,这样就保证了人工智能能应对更多的复杂情况。2016年初,谷歌AlphaGo战胜韩国围棋世界冠军李世石的围棋人机大战,成为人工智能领域的重大里程碑性事件,人工智能自主学习应用系统的智能水平再次实现跃升,初步具备了直觉、大局观、棋感等认知能力。

(3)产品颠覆性

人工智能发展的第三显著特征在于其相关应用产品对目前生产生活具有颠覆性冲击。目前,人工智能应用系统已经在多个领域启动并取得重要进展,包括:计算机科学、金融贸易、医药、诊断、重工业、运输、远程通讯、线和电话服务、法律、科学发现、玩具和游戏、音乐等诸多方面。应用系统是最直接的生产力工具,能利用人工智能技术优化工作流程,大大提高生产效率;同时,在人类社会生活中,人工智能的应用也会改变甚至颠覆人们的生活方式。例如,无人驾驶技术难点不断突破,自动驾驶汽车已经得到美、英政府上路许可;各类语音控制类家电产品和脸部识别应用在生活中已随处可见;德勤会计师事务所发布财务机器人,开始代替人类阅读合同和文件;IBM的沃森智能认知系统也已经在医疗诊断领域表现出了惊人的潜力,诸多人工智能产品都显示出对传统生产、生活的巨大冲击力和影响力。

(二)人工智能对传统法治体系带来的冲击与挑战

人工智能是一种新兴技术,在我国将其作为提升综合国力、占领未来科技主导权的重要发展战略的同时,我们不可忽略人工智能技术发展对传统法律体系的冲击。本课题将从人工智能法律主体资格、人工智能创作物的著作权归属及人工智能的市场准入和规制等三个方面论述人工智能对我国法治建设可能带来的相应冲击,以及我国法治建设应如何做出相应的回应。

1.人工智能对法律主体资格的冲击与挑战

机器人是机器还是人,在法理上涉及主客体二分法的基本问题。在民法体系中,主体(人)与客体(物)是民法总则的两大基本范畴。主体与客体、人与物之间有着严格的区别。凡是人以外的不具有精神、意思的生物归属于物,是为权利的客体。若将机器人视为“人”,赋予其相应的主体资格,难以在现有的民法理论中得到合理的解释。民法意义上的人,须具有独立之人格(权利能力),该主体既包括具有自然属性的人(自然人),也包括法律拟制的人(法人)。然而,在人工智能背景下,上述观点正遭受不断冲击,实际上,呼吁赋予高度自主的人工智能产品以拟制人格的主张已屡见不鲜。

当人工智能自主作出决策,并影响人类的自由意志和生活方式这种情况出现时,如何控制人工智能系统,使它们在积极的社会活动中不会干扰人类的权利;在人工智能造成损害时,即便是出于善意的驱使,如何确保这些损害得到弥补或赔偿等问题,都值得人类思考。随着人工智能尤其是强人工智能的拟人化或者说智能化程度的不断提高,它不仅仅是外在表现形式和语言行为越来越像人,有时它也会不受人的控制自主行动,一个不可避免的问题摆在人类面前,我们该如何对待智能机器人;当人工智能产生法律纠纷时,人工智能是否可以独立承担部分主体责任。机器人不是具有生命的自然人,也区别于具有自己独立意志并作为自然人集合体的法人,是否可以将其作为拟制之人以享有法律主体资格值得人类思考。

2.人工智能对著作权归属带来的冲击与变革

传统理念中,知识产权法为人类的精神劳动产生的智力成果提供保护,通过赋予垄断性权利来激励创新活动与知识分享,从而促进整体社会效益的提升。劳动价值论、功利主义说等知识产权的基础理论,主要围绕着人类自身展开。而人工智能产生的创造性成果由于缺少人类智慧性因素的充分融入,能否成为著作权法保护的客体引发了学界和理论界的广泛讨论。[⑨]

人工智能作品的出现,颠覆了人们对于作者与版权、发明家与专利等带有人身性质的知识产权权利义务关系的传统认识。例如美国媒体盘点了2016年世界范围内计算机创意项目,发现人工智能已经可以谱写流行歌曲,撰写小说、电影剧本,甚至绘画,乃至生成诗篇和散文。人工智能用于文艺创作,无论在表现手段、创作格局,还是拓展想象空间方面,都值得重视。人工智能创作物的诞生,无疑打破了以往仅能由人类创作作品的规律。

虽然使用人工智能进行创作设计研发阶段的成本高,但投入使用后创作周期短、创作数量大,其在艺术创作领域的活跃发展引发了关于人工智能创作物著作权保护的争议。不管是保护还是不保护人工智能的创作物都有一定的弊端,如果给予人工智能创作物版权保护,可能会导致版权作品数量急剧增长,并在某些领域对人类作品造成冲击,且人工智能作为创作主体的资格亦备受质疑;如果不保护人工智能的创作物,则会出现人工智能创作物大量涌入市场,有可能助长抄袭、搭便车等不正之风。[⑩] 

3.人工智能对市场带来的冲击与变革

拥有海量数据资源和强大算法支持的人工智能系统正在影响甚至替代个体进行决策,然而在算法偏差和机器歧视的影响下,社会问题的出现屡见不鲜。例如,由科技巨头微软公司研发的人工智能机器人Tay,能够模仿人类用户的评论,并根据互动情况去发表自己的评论,在首日投入使用中就吸引了众多用户的关注,但Tay在某些用户的“指引”下,不仅辱骂用户,还发表种族歧视和性别歧视的言论。同时,谷歌的算法歧视问题早已引起人们注意,相关调查发现,在谷歌搜索中,搜索黑人的名字会比搜索拜仁的名字更容易出现暗示具有犯罪历史的广告;在谷歌的广告服务中,男性会比女性看到更多高薪招聘广告。

人工智能在各个领域的运用,当前还只能说是刚刚起步。但从效率这一出发点来看,无论是国家还是市场都有较强的推动力来进一步推广人工智能的运用,在这个过程中,技术的进步也将以更高的速度表现出来。当人工智能被应用于本来就充满流动性、风险与不确定性的市场时,便可能带来既无创新价值,又危害巨大的灾难性后果。例如2010年5月6日,美国股市发生了“闪电崩盘”,一万亿的资产价值瞬间蒸发,美国证券交易委员会(SEC)花了半年的时间才搞清楚原来是不同炒家的计算机程序在相互竞争的过程中导致了失控。在这个被称为高频交易的神秘世界里,这些系统可以“迅雷不及掩耳”地收割小型获利机会,还可以相互探测和利用彼此的交易策略。像这样的人工智能对决不仅存在于股票市场,还存在于任何投机性的多方博弈市场。事后追责型的法律对策,无法阻止人们在巨大利益的引诱下,利用人工智能进行这种损害范围无法控制的赌博式行为。[11]因此,未来有关人工智能的市场准入及市场规制问题,也值得广泛的关注和思考。

二、人工智能主体资格问题研究

在目前法律界对人工智能探讨的问题中,人工智能的法律主体资格问题一直是研究的焦点之一。课题组将分别从民事主体资格和刑事主体资格两个角度,对学术界的代表性观点进行梳理和总结,并就其中的法律问题进行探讨和分析。

(一)民事主体资格

在民法体系中,主体(人)与客体(物)是民法总则的两大基本范畴。随着人类社会进入到智能时代,传统民法的主、客体框架已受到人工智能带来的相应冲击。一方面,人工智能与传统机器的区别在于其具有“人”的自主性;另一方面,人工智能与人的区别又在于其不能完全脱离人的控制而呈现出来的“物”性,因此,如何对人工智能的民事主体资格进行确认显得尤为重要。

1.学界观点

对人工智能相关产品的民法地位,即其是否具有人格属性的讨论比较多,代表性观点如下:

(1)电子人说

欧盟委员会法律事务委员会已于2016年5月31日向欧盟委员会提交动议,要求将最先进的自动化机器“工人”的身份定义为“电子人”(electronicperson),并通过法律赋予其劳动权等特定的权利和义务,同时建议为“电子人”开立资金帐户以使其享受劳动者的相关权利、履行相关义务。人工智能对民事主体制度的挑战,已经从劳动者的定义及劳动权利主体制度中拉开帷幕。2017年10月,欧盟议会法律事务委员会发布的《欧盟机器人民事法律规则》(EuropeanCivilLawRulesinRobotics)中,就涉及重构责任规则和考虑赋予复杂自主机器人以“电子人”的法律地位。

(2)代理说

“电子代理人”一词最早见于美国法学会和美国统一州法全国委员会拟订的《统一计算机信息交易法》。代理说认为,人工智能的行为均来自于其管理人的意思表示,行为后果归责于被代理人,相当于管理人的代理人。这种学说无疑承认了人工智能的法律地位,但是它只能实施法律行为,在造成侵权时无法履行赔偿义务,其机器属性亦决定了它不能完全享有代理人相应的法律权利。

(3)有限人格说

有限人格观点认为,首先,人工智能已经是一种“真实”“独立”且“自主”的存在。人工智能已经应用于自驾领域、教育医疗健康领域、金融领域、安防领域以及电商零售领域等,它可以借助人类提供的基础硬件设备对人类的生活造成各种各样的影响,特别是人工智能具备的自主学习能力将加速这种独立性和自主性。所以,赋予人工智能独立法律人格是其发展的内在要求。

其次,人工智能具有独立自主的行为能力和责任能力。虽然人工智能的诞生依赖于人类的预先设定,但是当人类预先设定之后,它可以在给定的框架内进行自我思考和自主学习,甚至有可能发展为类人主体。单纯以人工智能的存在是以人类智力活动为前提这一理由,并不能否定人工智能的自我意志。

再次,赋予人工智能法律人格是有效管控人工智能风险的必要手段。[12]人工智能的出现极大地改变了人类生活,它在很多领域会将人类从繁琐劳动中解放出来,使得人类实现自由的程度得以上升。但同时,在它的应用过程中,必然会引发对传统道德和价值观的冲击。所以,必须赋予人工智能法律人格,将人工智能纳入到统一的技术和伦理规范体系之中进行规制,并建立相应的法律制度机制来消解人工智能可能带来的风险和危害。

(4)否定说

否定说认为,机器人不是具有生命的自然人,也区别于具有自己独立意志并作为自然人集合体的法人,将其作为拟制之人以享有法律主体资格,在法理上尚有斟榷之处。[13]弱人工智能时代下模拟和扩展“人类智能”的机器人虽具有相当智性,但不具备人之心性和灵性,与具有“人类智慧”的自然人和自然人集合体是不能简单等同的。本质上属于“工具”的人工智能体并不能拥有民事权利能力。其次,尚无自由意志的人工智能所做的行为没有动机,无法产生一个以发生私法上效果为目的的意思表示,即人工智能和特定权利人之间也不可能存在代理关系,更不能适用限制行为能力人或无权代理人所做出的意思表示需要被追认的法律规则,即人工智能并不具有民事行为能力。

2.课题组观点

课题认为,强人工智能时代的到来将遥遥无期或许也并不可能实现。而即使强人工智能存在理论上的可能性,人类也很难同意世界上存在威胁人类生存的另一个高智慧群体的存在。因此仍限定于在弱人工智能的范围讨论是否赋予其民事主体的地位。本课题观点认为应赋予人工智能“有限”民事主体地位。

首先,需要明确的是,人工智能不同于以往的计算机。其不仅能够实现自己的任务,并且“当存在不确定的结果时,它能够实现最好的结果,而这个结果正是所希望实现的”。人工智能的行为与以往利用计算机所为的行为的本质区别就在于:人所起到的作用不同。以往计算机完全听命于人的操作指令,可以理解为是设计者辨认能力和控制能力的延伸。而人工智能基于机器学习和深度学习,已经能够自行判断、收集和学习新的数据。某种程度上已经不再局限于设计者最初预定的程式,能够自行衍生出新的决定并实施。人所制定的算法规则或数据输入不再是人工智能行为的唯一来源。即人工智能机器人的行为存在着一定程度的自主性。这也正是我们讨论人工智能法律主体地位的必要原因之一。

其次,在一定程度上赋予人工智能民事主体地位符合现实社会需求。课题组认为,学界有观点直接从伦理和哲学层面否认人工智能民事主体地位而忽略了现实因素。民事主体资格的承认尽管要考虑到伦理性,但法律人格区别于伦理人格,法律发展到今天,伦理因素已经被弱化。法律人格的确立标准中,伦理性并不成为唯一因素,财产和责任基础的独立性以及社会功能的重要性已然成为重要考量因素。例如公司、合伙企业人格的确立,实质上是一种功利主义视角下特定自然人利益的延伸。民事主体赋予的衡量标准在于法律接纳该类主体应满足社会效益最大化和当事人利益最大化的要求,或者至少不会对特定人群的利益产生不利影响。[14]而对于人工智能的发展前景来看,可以预见到的是,在未来人工智能将更广泛地参与到民事活动中,改变甚至颠覆人类现存生产工作和交往方式,由此出现一个以新的技术结构支撑新的社会结构的人类新时代。但是正如本文开头所强调的,智能机器人归根结底依旧是由人类创造并服务于人类社会发展的智慧型工具,这从根本上决定了智能机器人的发展必须遵循“以人为本”的价值原则,必须以保护、不侵犯人类权利为基本底线。

综上所述,课题组赞同赋予人工智能“有限的”民事主体地位。这种有限性主要体现在:其一,行为能力的有限性,其行为应当受到使用者或占有者的最终控制。其二,权利义务的有限性,人工智能并不享有伦理性的人格权或身份权,而是享有经济性的财产权利以及承担义务。例如,机器人能够签订合同等等。其三,责任能力的有限性,很显然,基于人工智能被发明的目的和从目前可以预见的未来来看,人工智能不可能像自然人和法人一样拥有属于自己的财产。因人工智能无独立的财产,其承担法律后果的能力是不充分的,另一方面如何证明智能机器人的侵权行为事实上已经脱离人的控制,是来自其自我学习、自我感知,进行相应的独立判断下的行为也存在着相当大的举证困难,也有可能引发转嫁责任的道德风险。因此部分责任后果最终还是要由人来承担。课题组认为可以以产品责任为原则,适用《侵权责任法》《产品质量法》等的相关规定追究销售者和制造者的责任。

3.人工智能参与民事活动配套机制构建

法律规范应当与人工智能技术发展相适应。在肯定人工智能具有有限的民事法律人格的条件下,也应在民事活动领域及时建立完善的配套机制。

(1)设立专门的人工智能监管机构

人工智能对于技术知识的要求比较高,需要有专业技术人才及监管部门配合才可有力监管。而现有的监管体制不足以对人工智能进行有效监管,因此需要建立新的监管部门,例如美国“机器人委员会”等对人工智能及相关产品进行专业监管。另外由于人工智能种类与功能繁多,无法保证每一类人工智能都被准确划归到某一行业进行监管,课题组建议可以将人工智能监管部门划分为多个片区进行精准化管理,比如分为家用型人工智能和公用类人工智能。

(2)建立人工智能登记制度

课题组建议建立人工智能登记制度,每一台人工智能产品都需到监管部门强制登记,获得“身份证”,同时确定其专属管理人。在登记时明确其生产应用的目的或用途,进而将其民事行为能力限制于其目的范围内。当人工智能产品从事超越其预定目的之外的行为致使他人损害构成侵权的,可借鉴公司法中“刺破公司面纱”理论的归责原则确定责任主体,即除智能机器人以其自身财产承担责任外,还可根据具体情况要求其设计者、制造者、所有者或使用者承担责任。

(3)建立人工智能强制保险或赔偿基金制度

人工智能技术一方面为人类造福,而另一方面也增加了人类无法预测的风险。鉴于此,为分散人类面临的智能机器人的侵权风险,课题组建议构建强制保险或赔偿基金制度。可要求智能机器人的所有者购买强制责任保险,用以补充智能机器人对受害人的赔偿。另外,也可以在引入强制保险的基础上,根据受益人共摊风险的原则,在包括人工智能投资者、开发者、生产者、使用者等多方受益人中构建人工智能保赔协会,当出现登记在保赔协会名下的人工智能侵权时,受害者可以要求保赔协会承担相应的责任。

此外,也有相关专家建议,在国家有关机关的主导下,构建人工智能赔偿责任基金。通过人工智能损害风险分摊机制,在满足一定条件的情况下,动用人工智能赔偿责任基金,按规定对受害人予以赔偿。这不仅有利于更好地保护受害人的权益,维护正常的社会秩序,而且为人工智能参与人类生产、生活活动提供了更好的保障。

(二)刑事主体资格

黑格尔认为,犯罪被视为理性存在者的行为,违法者通过他的行为表明其同意适用法的惩罚。现代刑法在犯罪构成认定方面亦坚持主客观相统一的认定标准,在犯罪主观方面强调认识因素与意志因素。认识因素是指行为人对自己行为及其结果的社会危害性的认识以及对犯罪的基本事实情况的认识。意识因素是指行为人根据对事物的认识,决定控制自己行为的心理因素。可以说,犯罪是犯罪人自由意志的体现,只有从犯罪人的自由意志中才能找到刑罚的正当根据。对于不具有认识因素的“无知”行为或是受到强制的“无选择”的非自愿行为不应当受到刑罚的谴责。[15]

因此,人工智能可否像法人一样作为又一新兴主体进入刑法视野成为被规制的对象,其核心在于分析客观上造成法益侵害结果的人工智能是否具备可追究刑事责任的主体意志自由。[16]

1.学界观点

人工智能在刑法领域引发的问题,引起了刑法学界对人工智能的刑事主体地位的一系列争论。目前,就人工智能能否成为刑事法律上的责任主体、能否对人工智能单独施加刑罚措施等问题有着不同的观点。

(1)肯定说

据报道,2017年10月25日一个名叫索菲亚(Sophia)的“女性”机器人被授予沙特阿拉伯国籍,该机器人成为史上首个被授予国籍的机器人。有观点认为,[17]沙特赋予机器人Sophia以国籍,很好地解决了人工智能刑事主体资格的问题,因为此时Sophia具有公民身份,无论是她对别人造成伤害还是别人对她造成伤害都需要依据刑法的规定进行处罚。人工智能的机器人不仅可以直接对他人人体造成侵害,而且在认识能力和意志能力方面,都可能接近甚至超越人类,因此完全有成为犯罪主体的余地。

对于此观点,本课题组并不认同。虽然Sophia被授予了国籍,但是在法律角度并不具有现实的可行性。因为就现在的人工智能技术发展看来,自然语言处理水平尚未发展至Sophia在电视节目中表现的程度。Sophia的言论可能全部都是由其背后的团队提前预设好的台词和剧本,根本不具有自由意志。也有学者曾对此进行过进一步的讨论,认为Sophia并无可能对其性自主意志进行实质判断,其也没有实际的感知力,如果男性自然人对其实施猥亵、强奸等行为,并无法进行相应罪名的认定。

另外,学界也有观点从另一角度肯定了人工智能的主体地位。[18]提出以智能机器人为代表的人工智能可以通过深度学习产生自主意识和意志,并在自主意识和意志的支配下实施严重危害社会的犯罪行为,此时智能机器人已经具备刑法中犯罪主体的主要条件,确实需要承担相应的刑事责任。

该观点认为,首先,若智能机器人在设计和编制程序范围内实施行为时,不应承担刑事责任。从目前人工智能发展水平来看,智能机器人的行为仍在人类设计和编制的程序范围之内,即使智能机器人已经可以通过学习根据自主判断实施相关行为,但这些行为均受到人类设计和编制程序的控制或者限制,且完全符合人类设计和编制程序的目的。就此而言,人类是智能机器人的创造者,完全可以在智能机器人产生自主的意识和意志之前通过程序给智能机器人设定行为目的和行为边界。此时,人工智能只是不法分子实施非法目的的“工具”,而不应当对其实施的行为承担刑事责任。

但该观点同时提出,随着时代的发展,人类不应忽略这种已经可能产生和人类一样甚至超过人类智商的新事物的存在。若人工智能真的开始具有独立的辨认能力与控制能力,那么就应当认为人工智能可以成为刑事责任主体并需要承担刑事责任。认为智能机器人完全可以通过不断学习规则建立“自省”与“道德感”,这已经远远超出了自然行为论、因果行为论、目的行为论、社会行为论、人格行为论所能预见并认识的范围。

(2)否定说

目前也有观点直接否认了人工智能的刑事主体地位。认为人工智能不具有刑法评价意义上的行为认识与控制要素的自主性,也就不具有人的目的理性所支配的可问责基础,欠缺作为刑事责任主体的本质要素。[19]

首先,人工智能对自身行为不具有认识能力。人工智能在预先设定的程序指令中运行,即使通过深度学习使程序摆脱了人类的控制并在客观上造成法益侵害结果,但人工智能本身缺乏对外在行为的真实理解,无法认知自身行为对客观世界产生的影响,因而无法认识自身行为的社会属性,也就不具有规范评价意义上的行为“目的性”与独立控制行为的意志自由可言。

其次,人工智能不具有理解并遵从法规范的能力。人工智能本身对刑法规范既没有理性的认识与遵从能力,也无法感知违反规范所造成社会否定性评价所带来的消极后果,其单纯依据程序设定实施的行为,或者因为出现故障导致人工智能未依据事先设定的程序运行,欠缺刑法所要求的对法规范遵从的意志自由。

再次,人工智能行为属性判断无客观标准。例如在当前人工智能应用最广泛的自动驾驶领域,自动驾驶系统只是一套机器系统,它们并不会作出真正的决策,它们只是根据对环境的感知,按照某种特定的原则和设计做出反应,而人类在驾驶时对于整套系统的感知和反馈模式拥有完全的控制权。不论自动驾驶汽车是符合人类预设的程序处于正常行驶状态还是造成了客观的事故损害,并无明确标准判断其是基于自主意志实施的行为还是基于人类本身的程序控制状况所出现的不同结果,唯一能作出的合理解释仍应回归于人类当前技术手段的缺陷使得作为辅助工具的人工智能出现目的偏差进而造成损害后果。   

2.课题组观点

综合上文中列举的不同的学术观点,本课题组支持人工智能刑事主体资格的否定说。

回归本部分前述首要观点,分析人工智能是否具有刑事法律主体地位的核心应在于分析人工智能是否具备可追究刑事责任的主体意志自由。目前人工智能的发展处于弱人工智能的初级阶段,尚不具备主体意志自由。智能机器人的行为还限制在人类设计和编制的程序范围内,智能机器人实现的是人的意志而非自主的意志,因而人工智能相关“刑事犯罪”最后的责任始终应由人来承担。具体而言,可以分为两种情况进行讨论:第一,若危害行为是人工智能完全在人类控制下实施的,此时人工智能的客观危害行为应归责于使用者本身。第二,如人工智能的行为超过了人预设的界限而造成危害行为,由于人工智能本身尚不具有意识性和目的性,该行为的性质类似于“微波炉爆炸”,可以适用产品责任解决,追究生产者等责任。例如,目前国外有关人工智能立法的草案对于特殊场景下机器人实施侵害行为规定了刑事责任,但利用机器人实施侵害行为的刑事责任承担者仍是机器人的设计者或制造者,机器作为实施犯罪的工具本身并不是犯罪主体。

进一步而言,假设人工智能相关产品具备行为辨认能力,最多是指通过算法和深度学习,具有对行为结果的计算和确定能力,在此方面人工智能体可能达到甚至超越人类的水平。然而,刑法上所说的行为辨认能力不仅是指对行为后果的把握,更是指对行为意义的认知。正如一个精神病人杀死一个人的时候,即使他知道要用枪杀死这个人,甚至也知道他枪杀一个人的后果,但是他却不能像正常人一样认知杀死这个人的真正意义。正因为此,刑法上认为这样的人不具有辨认自己行为的能力,因而不能承担刑事责任,即在刑法上不具有可罚性。所以,将对行为结果的辨认能力视为对行为的辨认能力实际上是限缩了行为辨认能力的外延,是不恰当的。

正如肯定说中有学者所提出的,若时代真的发展进入了强人工智能时代,人工智能开始产生了自主的意识和意志,又该如何抉择?本课题组观点是,人工智能如果真的产生了意识,给人类带来的将是诸多无法预测的场景。从目前人类社会来看,作为“工具”的弱人工智能已经完全够用了,强人工智能时代的到来总体而言是弊大于利,应该禁止强人工智能相关技术和产品的研发应用,从源头上将它放入“潘多拉魔盒”,那么也就不存在主体的认定问题了。

同时,根据民事责任、行政处罚以及刑罚的惩治严厉程度来看,在当前人工智能机器人无法通过民事、行政手段予以追责处罚的情况下,刑法的社会防卫功能不应过于积极主动,当人工智能致使公私财产损失或者致他人人身侵权损害后果时,刑法不应越过前置性规制法律直接规定相应刑事责任,否则违背了刑法二次保障法的地位,也有违刑法的谦抑性品格。综上所述,课题组认为就目前现状看来,不应给予人工智能刑事主体资格的认定。

三、人工智能著作权问题研究

人工智能在新闻和视觉艺术领域参与创作活动的现象虽然在如今已成常态,但如何认定由此生成内容的可版权性及其权利归属,在法律上却并未形成统一意见。因此围绕人工智能生成内容的可版权性和版权归属问题成为近些年来学界讨论最多的问题之一。

当前国内研究人工智能创作物保护的主要争议有二:一是人工智能创作物能否成为作品,二是人工智能能否成为作者或者著作权主体。二者都关系到人工智能创作物能否获得著作权法保护。[20]之所以存在上述争议,原因在于人工智能创作颠覆了著作权视野中关于作者的基本理解,也颠覆了法律关于主客体不能互换的基本原理。在此本课题组将从人工智能生成内容可版权性和市场自由两个角度对人工智能生成内容的可版权性做出探讨。

(一)学界关于人工智能生成内容可版权性的主要观点

我国目前关于人工智能生成内容的可版权性问题主要存在两种观点,一种观点认为人工智能创作物不能成为作品而排除著作权保护,而另一种观点则认为人工智能创作物著作权保护具有可行性,而在主张可版权性的一方中,又衍生出例如邻接权保护、法人作品保护等不同的保护模式。

世界各国著作权法多以独创性作为作品的核心要素,只有具备相应独创性的智力创作成果才可成为著作权客体,受著作权法保护。[21]除独创性外,可复制性也是各国著作权法给予作品保护的基本条件。[22]从独创性的视角出发,学界对人工智能创作物是否具有独创性形成了各种不同的认识,并基于各自不同的认识对人工智能创作物的保护路径提出了不同的看法,归纳起来主要包括以下几种:

1.不具独创性说及其保护路径主张

人工智能因具备深度学习能力而被应用到创作领域。有学者将其生成内容的过程表述成一个不断迭代、不断抽象的计算过程,以便确定最优算法。[23]尽管人工智能创作软件基于各种深度学习技术已经具备一定“创作力”,但这种“创作力”实际为计算。[24]计算是利用算法和规则的过程,其结果可以重现。而创作是个性化的表达,需要一定灵感。因此,人工智能生成内容的过程是计算而非创作,利用相同的算法采用相同操作可以重复内容。另外,整个计算过程是自主运行的,使用人无法在创作物生成过程中添加自己的个性表达。[25]这种计算从根本上抹杀了人类使用过程的创作空间,排除了处理结果具有个性化特征的可能性。但否定人工智能创作物独创性,并非同时否定人工智能创作物的利用价值。因此,也有学者主张,著作权法保护的是人类的表达,对于机器的表达可以由不正当竞争法来保护。[26]也有学者提出,对于人工智能创作物可以选择单独立法进行特殊保护。[27]

2.具有独创性说及其保护路径主张

以深度学习为代表的新一代智能学习算法技术的运用,[28]使得人工智能创作物不仅是基于既定算法、程序作出的指令性输出,且能够在没有预先算法或者规则的设定下,通过主动学习来进行创作。[29]基于此,有人认为,人工智能程序可以利用随机数生成器,使不同次运行的创作物各具个性。[30]人工智能创作物的创作过程能够满足独立创作和独具特色的要求。在对人工智能创作物的保护路径问题上,由于区分人工智能创作物与人类作品的成本较高,通常需要完备的登记制度和监管机制,[31]因此,在不区分来源的情况下,基于创作物表现形式和其独立创作过程,人工智能创作物可以成为著作权客体而受到法律保护。[32]可将人工智能生成内容视为人工智能程序的编程者的人类创作,[33]该创作物是否构成作品可以适用与人类作品一样的独创性标准进行判断,权利归属也可以适用著作权法中的法人作品制度。[34]

3.独创性不足说及其保护路径主张

该观点认为,人工智能利用公共领域作品以及不构成作品的素材,学习先有作品的风格进行创作,创作物与在先作品不构成实质性相似,其在作品类型中最为接近于演绎作品。基于著作权法不保护思想,而在先作品风格属于思想的范畴,因此人工智能创作物并非对在先作品的演绎。[35]考虑到人工智能创作软件对创作物不可替代的作用,可以尝试比照“剧本”作品进行分析。具体而言,可把人工智能创作软件当作“剧本”,把使用人视为“表演者”,人工智能创作物系使用人对“剧本”进行“表演”后的作品。基于此,人工智能创作物应为演绎作品,权利归属可以参照现行著作权法中的演绎作品制度处理。另亦有主张独创性不足的学者认为尽管人工智能创作物与人类作品形式上相似,但其本质上属于信息产品,其法律属性不同于民事法律关系的传统客体,既不是典型的物或行为,也非人类的智力成果或人身利益,该种独创性不足的生成内容(人类在其中起到的作用有限)可以通过邻接权进行保护。[36]

4.课题组观点

课题组在总结学者关于人工智能生成内容的可版权问题中发现,人工智能创作软件是生成创作物的根本,对于具有“创作力”的人工智能本身,能否作为创作物的作者或者权利主体问题,即使是认为人工智能生成内容可受版权保护的大部分学者的答案也是否定的。

立法应当未雨绸缪,同时也要注意前瞻性的限度,不能针对过于遥远的未来作远景规划。固然,民事主体经历了从“人可非人”到“非人可人”的历史变迁,[37]但这种历史变迁的背后,是经济交往的需要,而非泛滥的博爱情感。通过著作权法保护人工智能生成内容,不能与赋权给人工智能划等号。实际上,从科学技术层面来看,目前的人工智能尚不具备产生独立意志的可能性,功能与能耗的限制消解了人工智能之主体地位的现实基础。库兹韦尔笔下的人工智能发展的“奇点”是否真的存在及何时到来,没有人能给出确切、可靠的答案。[38]人工智能不具有独立意志,不能真正认识到自己行为的法律后果,不具备承担责任的可能性和必要性,主体身份无从获得。相比之下,法人或者其他组织之所以能被视为作者,法人作品之所以能受到著作权法保护,就在于法人作品是代表法人或者其他组织意志创作,并由法人或者其他组织承担责任。[39]承认人工智能的主体地位,步子迈得过于大,远离法理、逻辑和常识。从立法的实效来看,赋权给人工智能达不到预期的激励创作的立法目的。人工智能本身没有利益需求,不存在物质方面的刺激和精神方面的满足,赋权给人工智能不会对内容生成产生任何影响。著作权制度不能对人工智能本身提供任何激励,在赋权给人工智能的模式中,人工智能都只扮演招牌幌子和敲门砖的角色。

(二)市场自由视角下人工智能生成物保护

虽然学界对于人工智能生成内容的可版权性做出了初步的探讨,但是各派观点也在不同程度上存在着完善空间。

1.现有理论的反思

站在人工智能生成内容需要保护的立场下,不具有独创性说中,对人工智能创作物进行单行立法保护,似乎是一种更为可取的保护路径。但是,一方面,人工智能创作物仅仅是人工智能应用产出的一种,由于当前商业模式创新有限,对人工智能创作物采用单行立法保护,似乎时机还不够成熟。只有当人工智能技术发展到一定的程度,对包括人工智能创作物在内的应用产出有充分的了解和认识后,专门的立法似乎才会有必要和可能。此外,即便是专门立法,以何种方式对人工智能创作物进行保护,也是必须回答的问题。

在此前提下,反不正当竞争法的保护路径似乎回避了对人工智能创作物定性、归属等基本法律问题。诚然,反不正当竞争法对著作权及其客体商业运用过程中权利人的利益保护具有不可替代的作用。但是如果对人工智能创作物的法律属性等基本问题缺乏明确的认识,一方面,对人工智能创作物的法律保护难免会失之周全,另一方面,在人工智能创作物法律属性不明确的前提下,通过反不正当竞争法对其进行保护也无法正常实现。即便是在市场运行领域,要适度保护人工智能创作物,也必须以明确谁对其享有权利,享有什么权利,该权利与其他相关权利的界限在哪。

此外,演绎作品的保护路径具有一定的合理性,但人工智能创作物与演绎作品具有明显的区别,将其作为演绎作品而给予保护,似乎在制度安排上也很难与法律对其他演绎作品的保护相协调。再次,著作权法中的演绎作品同样是人类的作品,而非机器的作品,将人工智能创作物作为演绎作品进行保护同样绕不开保护对象性质差异性这个基本的问题。

2.跳出作品观看人工智能生成内容的保护

围绕人工智能的生成内容是否构成作品的核心无疑是对于独创性的判断,即人工智能的生成内容是否体现了最低限度的智力创作。该种判断事实上所要确认的是人工智能能否获得和作品相同的或者类似的保护。在回应人工智能生成内容是否具有独创性上,一种观点认为,从目前有关人工智能的各种报道和描述来看,至少在现阶段,人工智能生成的内容只是应用某种算法、规则和模板的结果,与为形成作品所需的智力创作相去甚远。[40]另一种观点认为,独创性的判断对象是已经形成的表达本身,判断时只需要对表达作形式上的审查,独创性的判断是一个纯客观的过程,是表达形成后的事后判断。[41]当我们已无法区分所欣赏的作品为人类创作还是机器生成时,就意味着该内容应被认定为作品,所以人工智能生成内容客观上应视为满足独创性要件中对最低创造性的要求。[42]

本课题组认为在回应人工智能生成内容的保护方面,并非只有将其生成内容认定为作品这一条途径。强行突破著作权法以人为核心的保护,抑或一方面承认人工智能生成物具有独创性,而又不将该种独创性归因于生成内容的过程,强调人在创作中的作用都是不合逻辑的。独创性或者说作品应该体现某种选择,这是人之为人,人之创作的作品之所以为作品的缘由,如果某位艺术家在自己家门无意打翻一桶颜料,而颜料正好在地上绘制出了一个精美的形状,第二天邻居看到以为是艺术家的新作,于是纷纷前来拍照,参观,这时在地上由于偶然产生的精美图像,在现在著作权的基本理论下很难认定为作品。同理,人类在无意识选择下生成的内容都尚不能构成著作权法下所保护的作品,弱人工智能根据算法、模板和程序生成的内容,完全没有任何的意志表达,又何能称之为作品呢?

因而对于人工智能生成内容的保护,应该回归到保护之目的说,并设计出一套合理的保护方案,方为正途。目前,各国建立的以人为中心的著作权制度,均未将机器的表达纳入其中。各国司法实践建立起的独创性标准虽有不同,但都是建立在对人的智力成果的评价基础之上的。人工智能创作物并非人的创作,既不能称其为编程者的智力成果,也不能将其作为使用人的智力成果。[43]将人工之智能的创作物定性为作品,又将其权利划归为相应个人、法人或非法人组织是不合逻辑的。

3.人工智能保护的必要性分析

对于人工智能生成内容的保护,需要回归到保护的必要性中。课题组对于相关学者的观点进行总结,发现对于人工智能生成内容保护的必要性其实主要集中在两个方面,其一是,对于人工智能生产内容的保护有益于人工智能产业的发展,其二,若不保护,大量的流入公众领域的人工智能生成内容将导致整个版权产业的巨大不稳定。

针对以上理由,本课题组认为,首先,国家对于人工智能产业的支持和鼓励不是为人工智能生成内容提供版权保护的必然事由。对于人工智能产业的扶持和保护事实上可以通过政府和市场之关系进行调节,对于人工智能生成内容的立法保护则更需要进行严格的论证。正如习近平在《习近平谈治国理政》一书中所言,“市场决定资源配置是市场经济的一般规律,市场经济本质上就是市场决定资源配置的经济。”[44]而实际上,将人工智能产业交由市场本身进行资源的配置,发挥政府在市场经济中的调节作用,本身就是产业发展的基本路径和模式。。

其次,对于人工智能生成内容的著作权法保护并不能回应著作权法保护人的创作活动和推动文化传播的立法本意。人工智能软件的开发确实投入了一定的成本,如果软件开发者或者使用者对于人工智能生成的内容无法享有某一程度上的权利保护,会对开发者或者使用者的利益造成某程度上的损害,但是据此而赋予人工智能生成内容类似录音录像制品一样的邻接权,事实上和著作权法的保护本意是不相融洽的。以录音录像制品为例,录音录像制品的保护事实上存在这样的逻辑脉络,即若不赋予录音录像制作者相应的权利,将会导致大量盗版的录音录像制品存在,[45]如此一来便不会有人从事付出大量劳动和投资的录制工作,最后导致的后果将是作品的传播受到了极大的影响。一方面,邻接权是对于录音录像行业的保护,而更深层面上是对于著作权法立法本意的回归,即促进文化的传播[46]和对投入精神创作的作者的保护。而反观人工智能生成内容的保护,则无法回应立法保护的本意。人工智能生成内容的著作权或邻接权保护,虽然起到了对于人工智能开发者的保护,但是人工智能开发者背后并无投入精神创造的人类,或者说其背后的“投入精神创作”的主体和人工智能开发者相同。

再次,对于人工智能生成内容的著作权或邻接权保护,是否有利于文化传播是存在重大疑问的。目前人工智能生成的内容和人类创造的作品还存在一定质量上的差距,即便给予该种内容亦版权法上的保护,也并不利于优质文化的传播。而当人工智能可以生成和人类作品并无太大差别或者难以区别的内容时,我们面临的挑战不再是不保护人工智能作品将会造成版权秩序混乱、版权纠纷增加之风险[47]抑或劣币逐良币的效应将导致文艺市场失去高贵、深刻并让人感同身受的作品,[48]而是整个人类创作领域的重大变革。人工智能本身可以量产,这就意味着将会有源源不断的“作品”产生,人类的作品将不再有竞争力可言。从长远看,著作权法并没有必要对于这种未来会对人类创造本身造成巨大灾难和威胁的人工智能提供保护。

4.现状分析和应对之策

制度设计应该具有一定的前瞻性,无论是人工智能生成内容的过去和未来都不应该是著作权法保护的对象,我们亦不能因对人工智能创作的“非创作性投入”进行专用权保护可促进人工智能创作软件的的开发应用,推动相关产业链的形成[49]为由,而要求对于人工智能生成内容进行著作权法上的保护。事实上许可人工智能生成内容进入公有领域,并不会对于人工智能产业造成破坏性的打击,亦不会阻碍智能创作产业的发展。

首先,人工智能产业并不仅涉及人工智能的创作领域,人工智能在金融、公共安全、教育、手机、交通、医疗、零售、工业、智能软件等领域都发挥着越来越大的作用,将人类从繁琐的劳动中解放出来。[50]许可人工智能生成内容进入公共领域并不会对于人工智能产业本身造成太大的影响。

其次,人工智能的创造并不会因为智能生成内容被许可进入公有领域而止步不前,人工智能创作软件的开发成本完全可以在商品销售领域获得弥补。例如,美联社于2014年7月开始使用的人工智能软件Wordsmith,其由美国北卡罗来纳州的自动化洞察力公司(AutomatedInsights)开发,[51]开发者通过软件的销售完全可以实现公司盈利的目的。

最后,人工智能开发者仍然可以通过合同安排,在私有领域对于人工智能的生成内容进行专有权利的安排,进而推动人工智能企业开发面向个体的具有个性的人工智能生成内容,此亦无损人工智能开发者之利益。例如,“Jukedeck”是英国的一家人工智能音乐创作平台,该平台为用户设置了类型化创作通道,并通过服务合同的方式许可用户免费使用其人工智能创作软件进行创作,音乐版权归平台所有,用户若要下载使用该音乐,应支付相应费用。开发者可以通过和使用者的约定,明晰人工智能生成内容的归属和使用方式,而开发者并不当然享有生成内容的专有权利。

课题组认为,具有创作功能的人工智能软件本身就是商品,而开发者许可他人利用人工智能生成相应内容的本质是服务,让开发者销售商品和服务行为回归市场本身,通过价格机制调节,才是人工智能产业发展的一般途径。

四、人工智能市场准入和市场规制的法律问题

人工智能极大地便利和丰富了人们的日常生活,但人工智能带来的风险也不可小觑,如国家安全风险、个人隐私风险、伦理风险等等,[52]事实上,从人工智能进入市场的开端,到人工智能在市场中实际的商业运作,都少不了法律的规制。课题组将主要从三个方面展开,一是人工智能的市场准入,二是准入后人工智能的市场规制,三是国家在进行立法规制时应有的配套激励措施。

(一)人工智能市场准入原则

市场准入原则是贯穿于人工智能市场相关立法的整体思想准则,是对人工智能进行法律规制的宏观思路把握。在市场准入原则的把握上,我们应该对人工智能市场的一般和特殊、研发和应用,以及强弱人工智能进行区分。

1.对一般市场与特殊市场进行区别

目前,人工智能在诸如信息、金融、医疗、法律、电商等多个市场领域均有渗入与发展,而这些市场由于其行业特性,在发展人工智能时所面临的问题与风险不尽相同,因此针对人工智能的一般市场和特殊市场的准入原则也应有所不同。人工智能一般市场可以理解为人工智能的技术应用已经比较成熟或者不会涉及国家、社会或个人重大利益的市场,比如说日常的电子商务市场、教育市场或者一般家用的小型机器人市场、智能家居市场等。一般市场中人工智能的风险是较为可控的,因此为了鼓励中、小规模的主体进入市场,准入的门槛应该降低。

而对于特殊市场的准入原则则要基于市场的特殊性,对欲进入市场的主体提出特殊的条件,甚至严格制约人工智能的市场准入。第一,涉及国家安全或重大利益的特殊市场主要指有关军事、国防、国家重大经济安全等,在对国家安全造成重大威胁时甚至应该禁止人工智能的市场准入。第二,涉及社会重大公共利益的特殊市场包括无人驾驶系统和日后可能出现的医疗手术机器人等,在此类的市场领域中,如果没有比较明确的资质要求,则会使重大安全事故发生率成指数型上升,社会公众利益得不到保障。第三,涉及个人重大利益的特殊市场目前主要指与个人信息与隐私安全密切相关的市场。为了避免个人信息与隐私泄露给本人带来的潜在风险,针对某些靠收集整理个人信息数据为主要商业经济来源的市场领域来说,应该设定相应的准入要求。

2.对技术研发和市场应用进行区别

研究人员曾对人工智能的层次作出划分,将人工智能从下往上划分为基础设施层、算法层、技术层、应用层。基础设施、算法、技术方向以及具体技术都是属于技术的研发阶段,而被划分到应用层的行业解决方案则属于最终的市场应用阶段。[53]

不难理解,人工智能技术的研发不仅是应用的前一阶段,也是应用的根基。课题组认为,应给予人工智能基础层技术研发宽松的环境,原因有三:第一,从人工智能所依赖的底层算法看起,此阶段的研发还未分离出上层的不同领域,某些算法更是被大多数不同市场领域的人工智能引以为共同的本源,宽松的准入环境有利于促进技术更多方面的发展。第二,我国目前还处于人工智能技术的研发初期,部分关键的算法以及芯片技术还依赖于国外的进口,这可能会影响到我国“2025计划”的顺利实现。因此,从技术研发层面应鼓励不断创新与进化。[54]第三,由于只是技术的研发,其具有基层普遍性,但却暂未牵涉到上层应用层面的社会实际推广,因此可以采取较为宽松的准入原则。

在市场应用阶段上,课题组认为应该结合该行业的具体特性,为人工智能设置一定的准入要求,其原因依然有三:第一,相较于技术研发,应用阶段具有了更多的市场运营属性,将一项技术正式投入到具体应用中,显然对社会的影响也更大。第二,对于人工智能的市场应用层面来说,有可能面临着诸如社会伦理等更为深层次的忧虑,不排除某些人工智能会因为对社会伦理的冲击而被禁止进入市场。第三,应用也比技术研发有着更强的商业利益追求,比如可能某项技术还没有尽善尽美,但是经营者为了营利则希望尽早投入市场生产经营,这背后的道德风险不可小觑。综上所述,对于特定的技术应该设置特定的标准,除非达到了该标准,否则不能轻易投入市场使用。

3.对强弱人工智能等级进行区别

人工智能也有了“强”和“弱”的等级区分。谈到市场准入的监管原则,还必须在厘清本报告第一部分对于“强弱”人工智能的介绍,对二者进行区别。

课题组认为,强人工智能和弱人工智能最本质的区别在于创造力,在于其处理逻辑的形成,通俗来说,弱人工智能并不具有自主的创造力,其本质上还是供人们使用的一种工具,只不过由于一些特殊的编程或芯片技术而拥有了一些类人类的能力。事实上,我们目前所发展出的人工智能,都是属于弱人工智能的领域,监管也是谈论对弱人工智能的监管,因此将准入原则划定在弱人工智能领域范围内较有现实意义。但是在弱人工智能领域,也有较强和较弱的弱人工智能之分。那么显然对于更易于被普通人所使用操作的纯粹工具性质的较弱的弱人工智能的市场准入标准要偏低一些;而对于较强的弱人工智能,由于其相较难以控制或者背后暗含的伦理等问题,在设置准入标准时应该从严。

事实上,受目前科学技术水平的制约,人类还并没有真正发明出不受人类控制的强人工智能,但是可以预见,如果有一天强人工智能问世,那么将会给人类社会带来巨大的冲击。这种冲击不仅包括伦理道德、市场安全方面,更包括规则制定乃至整个社会秩序方面。因此,课题组认为强人工智能是弊大于利的,应该从立法上禁止强人工智能相关技术和产品的研发应用,禁止强人工智能的市场准入,从源头上将其放入潘多拉魔盒,在本部分中提及的对人工智能的规制也均指弱人工智能。

(二)人工智能市场规制

由于市场主体所惯有的逐利性,对于市场主体的规制显得十分重要,人工智能领域也不例外。本部分将主要从反不正当竞争以及反垄断这两个公法上的规制入手,以为人工智能产业发展寻求一个健康的市场环境。

1.人工智能反不正当竞争市场法律规制

不正当竞争虽然从市场主体的行为表现形式上来看与市场侵权行为十分类似,但是它并不等同于市场侵权行为,它们的规制对象有很大区别。德国曾将反不正当竞争纳入侵权法中,后来通过不断的案例分析与发展,逐渐明确了反不正当竞争法的特性,而将其独立立法并归入经济法范畴。人工智能的出现给我国《反不正当竞争法》带来了三个方面的挑战,其加剧了反不正当竞争法一般性条款的泛化运用,突显了以反不正当竞争法来保护人工智能相关的商业秘密的不足,更是在数据保护方面对反不正当竞争法提出了新的要求。

(1)反法一般性条款的泛化运用

我国《反不正当竞争法》第二章规定了包括混淆行为、虚假宣传、商业秘密等在内的七种类型化不正当竞争行为,却难以囊括新兴技术发展背景下频繁出现的各种不正当竞争行为。为了弥补列举式立法的缺陷,《反不正当竞争法》第2条规定:“经营者在生产经营活动中,应当遵循自愿、平等、公平、诚信的原则,遵守法律和商业道德。”该条款属于反不正当竞争法的一般性条款,也是兜底性条款,赋予了法官较大的自由裁量权。这种兜底性条款体现了较强的立法技术,能够在新的技术环境背景下处理瞬息万变的各种不正当竞争行为。但正因如此,法院在处理非类型化的不正当竞争行为时,侧重于依据该一般性条款,造成了一般性条款的泛化运用。[55]最新修改的《反不正当竞争法》为了应对互联网背景下一般性条款的泛化,增加了第12条有关互联网不正当竞争的条款,俗称“互联网专条”,以期缓解这种现状。例如在360诉搜狗恶意插入链接,强制进行目标跳转一案中,原本以“违反诚信原则和商业道德”这个一般性条款为判决依据的行为,就可以在新法实施后纳入互联网专条的管辖范围。

然而随着人工智能时代以不断创新的科技进步冲击着法律的稳定性,为了更好地规制不正当竞争行为,一般性条款的泛化运用必将加剧。以我国发生的首例大数据产品不正当竞争纠纷案为例,在该案中,原告淘宝公司开发并投入运营了一种为淘宝、天猫店铺商家提供大数据分析参考,帮助商家实时掌握相关类目商品的市场行情变化,改善经营水平的数据产品。原告诉称,被告美景公司组织、帮助他人低价获取淘宝公司涉案数据产品中的数据内容,从中牟利,构成了不正当竞争行为。本案中涉及的争议对象大数据正是人工智能的底层技术设计,但是由于缺乏相应的“人工智能专条”,法院在裁判时依然以被告“明显有悖公认的商业道德”为依据认定被告存在不正当竞争行为。一般性条款的泛化不仅不利于保障市场经营主体的合法权益,同时由于赋予法官的自由裁量权过大,行为主体的可预期性下降,也不利于健康良好的市场秩序。在人工智能时代,我们呼吁“人工智能专条”的出现。

(2)商业秘密的反不正当竞争保护

在人工智能时代,会产生海量的数据资源,这种数据资源如果被经营者收集、整理、分析而具有了一定的经济价值,并被经营者采取相应的保密措施,就会形成商业秘密。我国《反不正当竞争法》第十条规定了不得侵犯他人的商业秘密,可见如果数据经过处理并满足商业秘密的构成要件的话,可以通过商业秘密路径得到保护。但是不得不指出的是,通过《反不正当竞争法》对商业秘密形成的是一种“弱保护”,保护的是经营者的利益,而不是权利。即经营者对商业秘密的享有不是绝对排他性的权利,而仅是在受到他人侵犯时才能通过诉诸不正当竞争来间接保护。我们认为,人工智能时代仅靠反不正当竞争法对商业秘密进行保护已经远远不足了。

由于人工智能目前还处于发展初期,商业秘密给一个企业带来的市场竞争价值难以估量,这也是我们建议重视对商业秘密保护的原因之一。虽然我国《民法总则》已经将商业秘密纳入知识产权保护客体,但是在实践中缺乏配套的细则规定,目前仍主要靠反不正当竞争来保护经营者的商业秘密,这种保护实难称之为完善,与人工智能时代由数据形成的商业秘密的重要性与众多性难以匹配。因此除了《反不正当竞争法》对商业秘密的保护,可以将商业秘密作为经营者享有的绝对性权利,类比专利权、著作权等知识产权保护客体,单独进行立法保护。

(3)数据的反不正当竞争保护

目前看来,数据是目前大多数人工智能行业的基础,人工智能给我国《反不正当竞争法》带来的挑战集中体现在对数据的保护上。有些数据可能经过市场经营主体的整合分析研发形成了商业秘密,但是有些数据可能只是经过简单的收集处理,难以论证其经济价值或没有被采取保密措施,此时就难以归入商业秘密范畴,从而丧失了通过《反不正当竞争法》进行保护的可能。但是,对那些虽然不符合商业秘密和作品保护条件,同时经营者也投入了大量资金与劳动形成的、能给经营者带来竞争优势的数据信息,若被不当“盗用”或“扒取”,也会给经营者及市场竞争带来不利损害。[56]如果放任这种情况的发生,势必会挫伤数据开发者的积极性,阻碍人工智能技术的革新。

遗憾的是,我国《反不正当竞争法》并没有将此类数据信息纳入保护范围,也就是说,在反不正当竞争法第二章规定的七种类型化行为里,并没有侵犯数据权益的情形,虽然有反不正当竞争法一般性条款的兜底,但是对一般性条款的滥用必会造成人工智能市场的不稳定性。2018年5月,日本修改了其《不正当竞争防止法》,在第二条关于“不正当行为”定义的例举中新设了非法获取、使用和提供受用户账户和密码等系统管理方式保护的、仅向特定使用者提供的数据之情形。人工智能领域的数据信息可能构不成传统意义上的商业秘密,但基于数据的重要性十分有保护的必要,并且由于某些数据信息的价值性没有那么突出,也不必将保护力度提升至类似于商业秘密权的强保护。因此课题组认为,借鉴国外的做法,类比侵犯商业秘密的规定,将侵犯数据信息纳入不正当竞争保护范围,具有合理性。

2.人工智能反垄断市场法律规制

人工智能时代的到来催生了新型的垄断行为,使市场垄断更为隐秘,难以被监管机关察觉,或者难以落入《反垄断法》的适用范围。这些行为包括通过算法共谋的垄断协议行为、通过数据垄断滥用市场支配地位行为以及未达到申报标准的经营者集中行为。

(1)通过算法共谋的垄断协议行为

传统的垄断协议行为一般都是明示的,即行为主体间故意通过书面形式或口头形式达成一致的意愿协议,以固定价格、排除竞争等。这种明示的共谋行为比较容易留下证据,也比较容易能被监管机关分辨出来。但是随着人工智能的出现,垄断协议行为渐渐开始向默示化发展,即表面看来是由于计算机和算法运行而导致的垄断行为,其实是算法背后经营者的刻意操纵。

早有学者指出,算法已经成为经营者共谋达成垄断协议的工具,例如在美国,数位当事人就被指控共谋使用特殊定价算法,在亚马逊平台上在线固定海报画的销售价格。[57]据称,合谋者为实施协议,对招贴画的销售采用了特别的价格算法,目的是协调各自的价格变动,并编写了服务于价格算法软件的计算机代码,以便设定与协议一致的价格。这种利用大数据整合算法,达成统一的市场定价,在国内外已经屡见不鲜。通过迅速处理竞争对手的市场信息和其客户的专有数据,计算机可能会更有效地监测竞争对手的价格或客户,这虽然增加了市场透明度,但也增加了发生协同行为的风险。[58]同时,这种默示化的垄断协议行为没有明显的物理痕迹,不易于被发现,增加了监管的困难。针对这一现状,我们认为在未来反垄断法的司法实践中,可能不得不将“垄断协议”做扩大化解释。

(2)通过数据垄断滥用市场支配地位行为

企业拥有市场支配地位本身不会构成反垄断法的规制对象,关键点在于企业是否滥用了其市场支配地位,阻碍了其他经营者进入市场。在人工智能时代,具有行业优势性的企业对于数据的垄断已经是不争的事实。例如大型的搜索引擎企业或者网络购物平台,这些平台由于所经营的业务,对用户数据的抓取具有先天性的优势。对于控制大量数据的企业来说,具有市场支配地位不会构成垄断,但如果其利用收集到的大量市场数据,排除了下游经营者的市场进入,阻碍了其他经营者的市场竞争,就触及了垄断行为。利用数据进行垄断是人工智能时代比较显著的特征。

我国《反垄断法》第17条规定的滥用市场支配地位中并未涉及数据垄断行为,如果企业通过其市场支配地位收集到数据,但是并不向第三方开放,从而阻止了其他经营者进入市场,这是否会造成垄断行为值得思考,毕竟企业费力抓取来的数据信息在某些情况下也属于需要被保护的合法权益。欧洲法院(ECJ)曾在相关案例中针对该问题提出了“必需设施”理论,即如果市场经营主体垄断的数据属于市场的“必需设施”,则认为其构成垄断行为,反则反之。[59]我们认为当特定数据构成“必需设施”时,应该认为经营者通过数据垄断滥用了市场支配地位。

(3)未达到申报标准的经营者集中行为

经营者集中也是反垄断法加以规制的一种行为,它是指两个或者两个以上的企业相互合并,或者一个或多个个人或企业对其他企业全部或部分获得控制,经营者集中可能会造成经济力量过度集中,进而限制竞争。我国并未禁止经营者进行集中,而是采取了事前的强制申报制度。根据国务院颁布的《关于经营者集中申报标准的规定》,对于营业额达到一定标准的企业如果想进行集中就必须申报,即以营业额为申报标准。但是这一标准却在人工智能时代面临着风险,我国的人工智能企业刚刚处于起步阶段,许多企业的营业额并不高,市场价值难以在目前真实显现,如果此时拥有人工智能产业的企业进行集中,可能难以达到申报标准从而逃脱监管,但是这并不意味着未来这些企业的集中不会给竞争秩序造成损害。

这一问题也普遍存在于全球各个国家,德国等国家已经意识到这一问题,德国《反对限制竞争法》就引入了一项新的考虑交易价值的合并控制标准,即以交易额门槛补充基于营业额的法定事先申报门槛。[60]我国的申报标准也主要以营业额为依据,这可能会导致营业额较低但是未来价值较高的人工智能企业逃脱申报,因此在认定申报标准时是否可以参照合并时的交易额高低,而不是企业本身营业额的高低是值得思考的问题。

(三)人工智能市场激励政策

市场准入和市场规制本身就具有某种意义上的双向含义,既是通过限制某些人工智能的市场准入和市场竞争行为加强对人工智能风险的防范,也是对某些人工智能放宽准入标准以及维护市场良好竞争秩序以达到对于人工智能的激励效果。我国目前已经对人工智能的激励有了宏观的政策思路把握,但是通过上述对于市场准入和市场规制的分析,课题组拟再从细节方面提出以下三个方向性建议,包括促进技术研发的成果共享、完善对于商业秘密和数据的保护以及加强反垄断的执法力度。

1.技术研发的成果共享

从人工智能的结构层次来看,层级越高人工智能的领域技术分化就越明晰,而针对处于底层的算法设计和技术方向,则应该建立技术共享平台,促进技术研发的成果共享。对技术研发阶段的共享激励存在三个方面的现实意义。其一,就我国人工智能行业市场来看,企业比较倾向于从应用层入手直接进行市场运作,而对于比较核心的算法设计与芯片技术还过多地依赖着外国进口,促进技术研发成果的共享能够整体提升我国技术研发水平。其二,技术研发作为比较基础的人工智能,还没有具体地向某个行业进行分化,没有具体地被应用到行业解决方案上。不排除此阶段的人工智能被应用于各个领域的可能性,它具有更多的公益性而不是商业逐利性,促进共享比较合适。其三,核心技术研发属于创新的一部分,但创新则需要较大的成本,对于比较基础性的人工智能技术,只有建立技术共享平台,鼓励技术共享,才能提升创新发展的效率。

2.完善对商业秘密和数据的保护

如上文中市场规制部分所论述的,商业秘密和数据信息是人工智能时代需要重点关注的对象。正因为人工智能还属于发展初期,市场竞争还存在太多的不确定性,与人工智能相关的商业秘密往往倾注了市场经营主体较多的心血,甚至是一个企业的核心竞争力,商业秘密的意义被大大提升了。对于商业秘密,仅靠反不正当竞争法的保护已经不够了,而应该趁着在《民法总则》里商业秘密被纳入知识产权保护客体的契机,承认经营者对商业秘密享有的所有权,着重于从知识产权方面进行类似于著作权、专利权的保护。而数据信息是人工智能时代被赋予市场经济价值和市场竞争筹码的另一客体。有些数据信息可能因为经营者的整合研发和采取的保密措施而被纳入商业秘密保护范畴,但是对于其他的数据信息并不是没有保护的必要。目前数据的所有权问题尚且有较大争议,我们不便于直接确定数据信息的所有权问题,但是对于某些企业不正当地窃取他人数据的行为,可以很好地用《反不正当竞争法》进行规制。同时为了避免反法一般性条款泛用的加剧,我国可以在《反不正当竞争法》里增加与数据相关的类型化不正当竞争行为。

3.加强反垄断的执法力度

对于人工智能给反垄断带来的诸多挑战,我们可以通过行为类型化的分析一一解决。在市场经营主体利用默示化的算法进行垄断协议的行为上,我们可以拓宽“垄断协议”的内涵理解,例如如果某些算法可能会导致快速的反复的价格变动,最终会促成统一的价格,这就可以相当于商人之间的实际谈判协商达成共谋协议。[61]同时,可以将行为主体间没有达成共谋协议的证明责任转移给各个涉嫌的经营者。在市场经营主体利用数据滥用市场支配地位的行为上,我们要看到对于数据保护的矛盾性,何种数据需要给予经营者垄断性的保护,禁止他人的不正当竞争行为,何种数据需要禁止经营者的垄断,需要有一个较为明确的标准。为了加强对人工智能行业经营者的集中监管,课题组建议将申报标准由营业额标准修改为交易额标准,同时在交易额的认定上要符合通常的市场经济规律,避免诸如一元的名义交易额或者过低的交易额的出现。

结 语

人工智能技术的飞速发展催生了无人驾驶汽车、智能医疗、智能创作软件等新兴产业,亦暴露出一系列值得探究与思考的法律问题。本课题对人工智能法律主体资格、人工智能创作物的著作权保护及人工智能的市场准入和规制等问题进行了探析,充分认识到科学技术的新发展给法律滞后性带来的挑战。

首先,通过对人工智能的法律主体资格分析,课题组认为应当赋予人工智能“有限的”民事主体地位,人工智能并不享有伦理性的人格权或身份权,而是享有经济性的财产权利以及承担义务。课题组认为应否定人工智能的刑事主体资格,最终的刑事责任应由人来承担。其次,对于人工智能创作物能否受到知识产权保护问题,虽然传统知识产权制度以人类的创新成果为保护对象是人工智能创造物受知识产权保护面临的障碍,但是课题组论证了目前由人工智能生成的内容不适合获得版权保护,人工智能生成物应当作为公共产品进入市场流通。最后,人工智能市场领域作为新兴发展领域,应从反不正当竞争以及反垄断这两个公法上的规制入手,以为人工智能寻求一个健康的市场环境。

我国的人工智能研究已走在世界前列,但与这一新兴技术相应的法律规范及制度尚不健全,相关问题目前主要由伦理道德和社会舆论进行约束,而缺少相应的监督机制,也无权威机构进行规范。有鉴于此,应当及早建立对人工智能问题的法律认识,及时采取相应的行动,为人工智能产业营造良好的社会市场环境,以进一步促进人工智能技术的良性发展,顺利实现智能化社会的转型。同时,我们必须谨记无论未来人工智能发展至何种程度,也永远不能取代人类的智慧,科学工作者的辛勤劳动和努力创新才是人类进步的主要动力。我们要合理利用人工智能为我们带来的各种便利,但不能过度依赖人工智能,同时也要认真思考人类社会与人工智能之间的关系,从而决定未来的法律是否应当适应人工智能的发展而做出相应的调整变化,相信未来法律与人工智能之间的平衡会越来越完善。

编后语:人工智能是引领新一轮科技革命和产业变革的战略性技术,是我国产业转型升级的战略抓手。在推动人工智能健康发展的现实需要下,人工智能与各行业全方位深度融合,催生了数据驱动、人机协同、跨界融合、共创分享的智能经济形态。如何妥善应对人工智能带来的挑战,为产业健康发展营造良好环境,有必要在法律制度层面进行深入研究。本课题分析了人工智能对传统法治体系带来的冲击和挑战,并着重对人工智能法律主体资格、人工智能创作物的著作权保护及人工智能的市场准入和规制三个问题进行了深入研究。课题成果具有现实针对性、观点具有一定参考价值,为促进人工智能发展的法律法规和政策体系建设提供了有益的指导。

 

课题组长简介:

童潇,男,华东政法大学互联网+法律大数据平台常务副主任,副教授。

(责任编辑:邓海娟   核稿:陈书笋)

[①]2018年上海市人民政府决策咨询研究政府法制专项课题。

[②](美)StuartJ.Russell,PeterNorvig著:《人工智能:一种现代的方法》(第3版),殷建平、祝恩、刘越等译,清华大学出版社2013年版,第3-5页。

[③]王家祺、王赛:《人工智能技术的发展趋势探讨》,《通讯世界》2017年第8期。

[④]钟义信:《人工智能:概念•方法•机遇》,《科学通报》2017年第22期。

[⑤]闫志明、唐夏夏:《教育人工智能(EAI)的内涵、关键技术与应用趋势——美国《为人工智能的未来做好准备》和《国家人工智能研发战略规划》报告解析》,《远程教育杂志》,2017年第1期。

[⑥]蔡曙山、薛小迪:《人工智能与人类智能——从认知科学五个层级的理论看人机大战》,《北京大学学报(哲学社会科学版)》2016年第4期。

[⑦]【美】史蒂芬·卢奇、丹尼·科佩克著:《人工智能》(第二版),林赐译,人民邮电出版社2018年版,第11页。

[⑧]马修U.谢勒:《监管人工智能系统:风险、挑战、能力和策略》,曹建峰、李金磊译,《信息安全与通信保密》2017年第3期。

[⑨]季冬梅:《人工智能发明成果对专利制度的挑战—以遗传编程为例》,《知识产权》2017年第11期。

[⑩]雷悦:《人工智能发展中的法律问题探析》,《北京邮电大学学报》2018年第2期。

[11]郑戈:《人工智能与法律的未来》,《时事观察》2017年第10期。

[12]杨清望、张磊:《论人工智能的拟制法律人格》,《湖南科技大学学报(社会科学版)》2018年第6期。

[13]吴汉东:《人工智能时代的制度安排与法律规制》,《法律科学》2017年第5期。

[14]许中缘:《论智能机器人的工具性人格》,《法学评论》2018年第5期。

[15]邱兴隆:《刑罚的哲理与法理》,法律出版社2003年版。

[16]时方:《人工智能刑事主体地位之否定》”,《法律科学(西北政法大学学报)》2018年第6期。

[17]姚万勤:《人工智能影响现行法律制度前瞻》,《人民法院报》2017年10月25日。

[18]刘宪权、胡荷佳:《论人工智能时代智能机器人的刑事责任能力》,《法学》2018年第1期。

[19]时方:《人工智能刑事主体地位之否定》,《法律科学(西北政法大学学报)》2018年第6期。

[20]目前有关人工智能创作内容的术语有人工智能生成内容、人工智能作品、人工智能创作物、人工智能创作成果等不同的表达。

[21]美国《版权法》第102条,日本《著作权法》第2条,意大利《版权及邻接权保护法》第1条。

[22]《中华人民共和国著作权法实施条例》第2条。

[23]蔡自兴等:《人工智能及其应用》,清华大学出版社2016年版,第290-291页。

[24][加]SimonHaykin:《神经网络与机器学习》(原书第三版),申富饶等译,机械工业出版社2011年版,第398页。

[25]SeePhilipGalanter,ThoughtsonComputationalCreativity,DagstuhlResearchOnlinePublicationServer2,(July7,2009),http://drops.dagstuhl.de/opus/volltexte/2009/2193/,2018年7月5日最后访问。

[26]杨延超:《为人工智能筹划法律保护》,《经济参考报》2017年12月5日,第8版。

[27]SeeJaniMcCutcheon,CuringtheAuthorlessVoid:ProtectingComputer-GeneratedWorksFollowingIceTVandPhoneDirectories,37MelbourneUniversityLawReview46,78-79(2013).

[28]腾讯研究院、中国信通院互联网法律研究中心:《人工智能:国家人工智能战略行动抓手》,中国人民大学出版社2017年版,第49页。

[29]易继明:《人工智能创作物是作品吗?》,《法律科学》2017年第5期。

[30]SeeJamesGrimmelmann,CopyrightforLiterateRobots,101(2)IowaLawReview657,659-660(2016).

[31]曹源:《人工智能创作物获得版权保护的合理性》,《科技与法律》2016年第3期。

[32]吴汉东:《人工智能时代的制度安排与法律规制》,《法律科学》2017年第5期。

[33]SeeAnnemarieBridy,CodingCreativity:CopyrightandtheArtificiallyIntelligentAuthor,5StanfordTechnologyLawReview1,21(2012).

[34]易继明:《人工智能创作物是作品吗?》,《法律科学》2017年第5期。

[35]陶乾:《论著作权法对人工智能生成成果的保护--作为邻接权的数据处理者权之证成》,《法学》2018年第4期。

[36]许明月、谭玲:《论人工智能创作物的邻接权保护--理论证成与制度安排》,《比较法研究》2018年第6期。

[37]李拥军:《从‘人可非人’到‘非人可人’:民事主体制度与理念的历史变迁--对法律‘人’的一种解析》,《法制与社会发展》2005年第2期。

[38][英]玛格丽特·博登著:《AI:人工智能的本质与未来》,孙诗惠译,中国人民大学出版社2017年版,第85页。

[39]《著作权法》第13条第3款。

[40]王迁:《论人工智能生成的内容在著作权法中的定性》,《法律科学(西北政法大学学报)》2017年第5期。

[41]孙山:《人工智能生成内容著作权法保护的困境与出路》,《知识产权》2018年第11期。

[42]熊琦:《人工智能生成内容的著作权认定》,《知识产权》2017年第3期。

[43]此处指的是第二类计算机生成内容和具有一定学习能力的可以脱离指令输入的人工智能生成内容。

[44]习近平:《习近平谈治国理政》,北京外文出版社2014年版。

[45]乔玉君:《论著作邻接权的法律保护》,《科技与法律》1997年第1期。

[46]关于邻接权的传播功能,亦有学者指出,“传播功能”是邻接权客体所具备的核心功能,也是邻接权客体正当性的最有力证明。王国柱:《邻接权客体判断标准论》,《法律科学(西北政法大学报)》,2018年第5期。

[47]李伟民:《人工智能智力成果在著作权法的正确定性--与王迁教授商榷》,《社会科学文摘》2018年第7期。

[48]易继明:《人工智能创作物是作品吗?》”,《法律科学》2017年第5期。

[49]许明月、谭玲:《论人工智能创作物的邻接权保护--理论证成与制度安排》,《比较法研究》2018年第6期。

[50]《走向智能推荐:2018年中国人工智能行业研究报告》,http://baijiahao.baidu.com/s?id=1596679755391284602&wfr=spider&for=pc,最后访问日期2018年1月19日。

[51]徐曼:《国外机器人新闻写手的发展与思考》,《中国报业》2015年第23期。

[52]董妍:《人工智能的行政法规制》,《人民法治》2018年11期。在该文中作者总结了学者们所提到的人工智能的十大风险,包括意识形态和国家安全风险;军事风险;公共安全风险;社会不稳定风险;伦理风险;个人隐私风险;算法歧视和数据歧视;知识产权风险;信息安全风险;未成年人身心健康风险。

[53]腾讯研究院:《人工智能》,中国人民大学出版社2017年版,第24页。该书中指出,基础设施层包括硬件/计算机和大数据;算法层包括各类机器学习算法、深度学习算法等;技术层包括计算机视觉、语音处理等多个技术方向和图像识别、语音合成等多个具体技术;应用层是指行业解决方案,包括金融、安防、交通、医疗、游戏等。

[54]吴汉东:《人工智能时代的制度安排与法律规制》,《法律科学(西北政法大学学报)》2017年5期。

[55]田小军、朱萸:《新修订《反不正当竞争法》‘互联网专条’评述》,《电子知识产权》2018年第1期。

[56]管育鹰:《人工智能带来的知识产权法律新问题——国外发展动向与我国应对路径思考》,中国法学网。http://www.sohu.com/a/275639314_648952,最后访问日期:2018年12月29日。

[57]黄晋:《人工智能会不会促进垄断》,《经济参考报》2018年11月。

[58]韩伟:《数字市场竞争政策研究》,法律出版社2017年版。

[59]转引自韩伟:《数字市场竞争政策研究》,法律出版社2017年版。

[60]黄晋:《人工智能对反垄断法的挑战》,中国社会科学网:http://ex.cssn.cn/zx/bwyc/201810/t20181010_4666741.shtml,最后访问日期:2018年12月29日。

[61]李振利、李毅:《论算法共谋的反垄断规制路径》,《学术交流》2018年第7期。

案例丨AI人工智能的“创作”成果有版权吗

本案中,法院提出了判断人工智能生成物是否具有独创性的步骤:首先,判断涉案文章是否具有独创性,应当从是否独立创作及外在表现上是否与已有作品存在一定程度的差异,或具备最低程度的创造性进行分析判断;其次,从涉案文章的生成过程来分析是否体现了创作者的个性化选择、判断及技巧等因素。若满足上述条件,则该文章属于我国著作权法所保护的文字作品。本案审理思路对于今后同类型案件的审理有一定的参考意义和研究价值。

案件回放

(一)当事人诉辩

原告起诉称,Dreamwriter计算机软件系由原告关联企业自主开发的一套基于数据和算法的智能写作辅助系统,并将该计算机软件著作权许可给原告使用。自2015年以来,原告主持创作人员使用Dreamwriter智能写作助手每年可以完成大约30万篇作品。原告于2018年8月20日在腾讯证券网站上首次发表的标题为《午评:沪指小幅上涨0.11%报2671.93点通信运营、石油开采等板块领涨》的财经报道文章,系由原告主持,代表原告意志创作,并由原告承担责任的作品,原告依法应视为涉案文章的作者,涉案文章作品的著作权归原告。原告发现被告未经原告许可在原告文章发表当日复制了原告涉案文章,并在被告运营的“网贷之家”网站通过信息网络向公众传播,被告的行为侵犯了原告的信息网络传播权且构成不正当竞争行为。请求法院判令被告停止侵权,消除影响,并赔偿经济损失10000元及合理开支9000元。

被告在庭审中表示认可原告所主张的事实。

(二)事实经过

2018年8月20日,原告在腾讯证券网首次发表标题为《午评:沪指小幅上涨0.11%报2671.93点通信运营、石油开采等板块领涨》的文章(以下简称“涉案文章”),涉案文章末尾注明:本文由腾讯机器人Dreamwriter自动撰写。涉案文章是一篇股市财经综述类文章,连标题在内共计979字,由九个自然段组成,第一自然段对2018年8月20日上午的沪指、深成指、创业板指数及上证50指数的涨跌情况进行了介绍;第二、三、四、五自然段分别对盘面、概念股、个股、换手率、资金流向方面的相关情况进行了介绍;第六、七、八、九自然段对人民币对美元中间价、银行业同业拆放利率、融资融券信息、沪深港通南北资金流向的相关情况进行了介绍。

原告陈述:Dreamwriter软件由原告组织的相关主创团队主持运行,主创团队包含编辑团队、产品团队和技术开发团队。涉案文章的创作流程主要经历数据服务、触发和写作、智能校验和智能分发四个环节。首先,Dreamwriter软件的数据服务模块会收集多个维度的数据,并通过机器学习算法对数据进行解析,分析其中有价值的数据,并结合历史统计数据等维度的内容,形成一定格式的待检测数据库。其次,Dreamwriter软件的触发器模块中设定了规则引擎和触发条件,智能化判断待检测数据库中的内容是否满足文章生成要求。当遍历规则引擎设定的各类触发条件时,满足触发条件的便进入写作引擎模块撰写文章。Dreamwriter软件将前述数据服务模块生成的数据输入写作引擎,写作引擎首先进行数据校验,然后通过模板撰写涉案文章。涉案文章生成后,会进入智能校验模块进行审核校对,审校完成后智能分发到腾讯网等相关平台发表。上述环节中,数据类型的输入与数据格式的处理、触发条件的设定、文章框架模板的选择和语料的设定、智能校验算法模型的训练等均由主创团队相关人员选择与安排。

原告提交的公证书内容显示,“网贷之家”网站上发布了标题为《午评:沪指小幅上涨0.11%报2671.93点通信运营、石油开采等板块领涨》的侵权文章。经比对,该文章与原告在本案中主张权利的涉案文章的标题和内容完全一致。

(三)裁判要旨

法院认为,涉案文章是否构成文字作品的关键在于判断涉案文章的是否具有独创性。

首先,判断涉案文章是否具有独创性,应当从是否独立创作及外在表现上是否与已有作品存在一定程度的差异,或具备最低程度的创造性进行分析判断。涉案文章由原告主创团队人员运用Dreamwriter软件生成,其外在表现符合文字作品的形式要求,其表现的内容体现出对当日上午相关股市信息、数据的选择、分析、判断,文章结构合理、表达逻辑清晰,具有一定的独创性。

其次,从涉案文章的生成过程来分析是否体现了创作者的个性化选择、判断及技巧等因素。本案中原告主创团队在数据输入、触发条件设定、模板和语料风格的取舍上的安排与选择属于与涉案文章的特定表现形式之间具有直接联系的智力活动。从整个生成过程来看,如果仅将Dreamwriter软件自动生成涉案文章的这两分钟时间视为创作过程,确实没有人的参与,仅仅是计算机软件运行既定的规则、算法和模板的结果,但Dreamwriter软件的自动运行并非无缘无故或具有自我意识,其自动运行的方式体现了原告的选择,也是由Dreamwriter软件这一技术本身的特性所决定。如果仅将Dreamwriter软件自动运行的过程视为创作过程,这在某种意义上是将计算机软件视为创作的主体,这与客观情况不符,也有失公允。因此,从涉案文章的生成过程来分析,该文章的表现形式是由原告主创团队相关人员个性化的安排与选择所决定的,其表现形式并非唯一,具有一定的独创性。

综上,从涉案文章的外在表现形式与生成过程来分析,该文章的特定表现形式及其源于创作者个性化的选择与安排,并由Dreamwriter软件在技术上“生成”的创作过程均满足著作权法对文字作品的保护条件,法院认定涉案文章属于我国著作权法所保护的文字作品。

涉案文章是由原告主持的多团队、多人分工形成的整体智力创作完成了作品,整体体现原告对于发布股评综述类文章的需求和意图,是原告主持创作的法人作品。被告未经许可,在其经营的网贷之家网站上向公众提供被诉侵权文章内容,供公众在选定的时间、选定的地点获得的行为,侵害了原告享有的信息网络传播权,应承担相应的民事责任。

理论荟萃

关于人工智能(AI)生成物能否构成作品以及如何进行法律保护的问题,一直是国内外学界和实务界存在较大争议的热点问题,相关观点有“著作权说”“邻接权说”“无权利说”“赋予AI人格说”等等。

支持“著作权说”的观点认为,作为遵循人工智能软件设计者意志创作的产物,人工智能生成内容的结果不但仍可由独创性判定标准来认定,权利归属也应借鉴早已存在且运作成熟的法人作品制度安排,将人工智能的所有者视为著作权人。人工智能生成内容在著作权法上可视为是代表设计者或训练者意志的创作行为。[1]反对者认为,机器人生成的人像素描和财经报道等,由于是应用算法、规则和模板的结果,其生成过程没有给人工智能留下发挥其“聪明才智”的空间,不具有个性特征,该内容并不符合独创性的要求,不能构成作品。如果认定程序编写者为作者,则其获得了对计算机程序和运行该程序生成结果的双重权利,属于重复获利,有失公平。如果是程序使用者为作者,则意味着只要选择了某机器人或运行了某一程序就可获得著作权,显然是不合理的。[2]此外,“邻接权说”观点认为,对人工智能生成成果的保护程度应弱于对人类创作作品的保护程度,建议在著作权法上的邻接权制度中创建数据处理者权,即数据处理者对其以数据为基础并通过技术处理获得的具有独创性的成果或不具独创性但具有经济价值的成果所享有的财产权,具体包括许可他人复制、发行、通过信息网络向公众传播并获得报酬的权利。人工智能程序的开发者与使用者在协议中明确人工智能生成成果权属的,从其约定;在没有作出约定时,该成果的权利人为人工智能程序的使用权人,因为其是该成果的促成者,是对该成果的生成负有责任者,也是该成果的实际支配者与传播决策者。[3]

另外在“2019年国际知识产权协会(AIPPI)伦敦世界知识产权大会”通过的决议中,对AI生成物的版权问题进行了专题研究,决议认为,AI生成物只有在其生成过程有人类干预(如数据筛选标准系人类选择确定)的情况下,且在该生成物符合受保护作品应满足的其他条件的情况(如独创性)下,才能获得版权保护;对于无人类干预的AI生成物,如果该AI生成物符合获得邻接权保护所应满足的条件,应当获邻接权得保护。[4]

类案索引

案例:北京菲林律师事务所诉北京百度网讯科技有限公司著作权侵权纠纷案[5]

北京互联网法院一审认为:

关于威科先行库自动生成的分析报告是否构成作品的问题。法院认为,自然人创作完成应是著作权法上作品的必要条件。上述分析报告的生成过程有两个环节有自然人作为主体参与,一是软件开发环节,二是软件使用环节。软件开发者(所有者)没有根据其需求输入关键词进行检索,该分析报告并未传递软件研发者(所有者)的思想、感情的独创性表达,故不应认定该分析报告为软件研发者(所有者)创作完成。同理,软件用户仅提交了关键词进行搜索,应用“可视化”功能自动生成的分析报告亦非传递软件用户思想、感情的独创性表达,故该分析报告亦不宜认定为使用者创作完成。综上,软件研发者(所有者)和使用者均不应成为该分析报告的作者。分析报告系威科先行库利用输入的关键词与算法、规则和模板结合形成的,某种意义上讲可认定威科先行库“创作”了该分析报告。由于分析报告不是自然人创作的,因此,即使威科先行库“创作”的分析报告具有独创性,该分析报告仍不是著作权法意义上的作品,依然不能认定威科先行库是作者并享有著作权法规定的相关权利。

虽然分析报告不构成作品,但不意味着其进入公有领域,可以被公众自由使用。分析报告的产生既凝结了软件研发者(所有者)的投入,也凝结了软件使用者的投入,具备传播价值。如果不赋予投入者一定的权益保护,将不利于对投入成果(即分析报告)的传播,无法发挥其效用。对于软件研发者(所有者)来说,其利益可通过收取软件使用费用等方式获得,其开发投入已经得到相应回报;且分析报告系软件使用者根据不同的使用需求、检索设置而产生的,软件研发者(所有者)对其缺乏传播动力。因此,如果将分析报告的相关权益赋予软件研发者(所有者)享有,软件研发者(所有者)并不会积极应用,不利于文化传播和科学事业的发展。对于软件使用者而言,其通过付费使用进行了投入,基于自身需求设置关键词并生成了分析报告,其具有进一步使用、传播分析报告的动力和预期。因此,应当激励软件使用者的使用和传播行为,将分析报告的相关权益赋予其享有,否则软件的使用者将逐渐减少,使用者也不愿进一步传播分析报告,最终不利于文化传播和价值发挥。

[1]熊琦:《人工智能生成内容的著作权认定》,载《知识产权》2017年第3期。

[2]王迁:《论人工智能生成的内容在著作权法中的定性》,载《法律科学(西北政法大学学报)》2017年第5期。

[3]陶乾:《论著作权法对人工智能生成成果的保护——作为邻接权的数据处理者权之证立》,载《法学》2018年第4期。

[4]参见2019年AIPPI伦敦世界知识产权大会决议。官网链接:www.aippi.org

[5]参见北京互联网法院(2018)京0491民初239号民事判决书。

撰稿:高成丨

编辑:李小旭丨

声明

本栏目文章为本所为本行业及社会公众提供的公益性普法服务,不属于针对具体事项的法律意见,也不代表本所针对具体个案的意见或观点。返回搜狐,查看更多

易继明 :人工智能创作物是作品吗

人工智能创作物是否构成版权法上的作品,国内学术界尚未进行充分的探讨。曹源认为,人工智能创作物是否为作品是一个政策选择问题,其意义表现在对这一部分创作物进入市场后所可能引发后果的利弊分析,各国应结合其国情进行选择。{9}507熊琦认为,可以借鉴运作成熟的法人作品制度安排,将人工智能的所有者视为版权人。{10}3-8但是,人工智能创作物的出现,对版权制度的冲击是系统性的,涉及到版权的客体、主体及权利属性等问题。鉴于此,本文拟对此进行较为全面的分析,以期回答这一富有挑战性的问题。

二、人工智能创作物的可版权性

人工智能创作物是否可以作为版权法意义上的作品,涉及对这一创作物本身的独创性判断,以及版权法上的作品是否必须由自然人来创作的问题。

(一)独创性判断标准:向客观标准倾斜

作品是文学、艺术和科学领域内具有独创性并能以某种形式固定的智力成果[1]。判断人工智能创作物是否具有可版权性,绕不开对独创性概念的理解:若人工智能创作物不具有独创性,又谈何可版权性呢!

关于人工智能创作物版权问题的思考,可以从两个层面展开:首先考虑人工智能创作物是否符合独创性标准的要求,而使其可被视为作品;其次,在前一问题的基础上继续考虑智能作品的归属问题,即究竟是将作品权利归属于人工智能设计者,还是所有者,抑或是使用者,甚或突破性地赋予人工智能这一新的主体。无论是Narutov.Slater案,{11}还是AamuhammedV.Lee案,{12}抑或是美国版权局在其2014年发布的《美国版权局实践概要》(CompendiumofU.S.CopyrightOfficePractices)中所表达的观点,都是直接从主体上否认版权归属,却并未回答作品是否具有独创性的问题。现有理论在独创性的理解上并不一致:或强调独创性是作者思想、情感、个性的反映,即从作者权角度去理解独创性;或直接从“独立创作”和“稍许的创造性”两个内涵来理解独创性;或主张仅需要关注结果而非过程,只要作品在客观上的表达并非“必然如此”即可。{13}35对于这些不同的理解,在人工智能语境下,核心问题在于是否仅仅采取客观标准即可。换言之,当人工智能创作物在表现形式上同人类创作作品完全一致,以至于如果该作品是由人类创作完成,则毫无疑问可以被授予版权时,我们是否根本无需考虑该作品的创作者是人工智能还是自然人的问题。而进一步的问题便是:产生作品的“创作”是否只能由自然人来完成呢?

根据《著作权法实施条例》第3条第1款之规定,直接产生文学、艺术和科学作品的智力活动即为创作,并未明确要求该智力活动必须是自然人所实施的。那么,从“智力活动”一词,是否能够推断出其暗含了对作品创作者必须是自然人这一内在的要求呢?毕竟,在传统认知中,唯有自然人才有“智力”。德国《著作权法》不承认法人为版权人,认为其不可能直接实施创作行为,坚持版权主体必须是那些给予作品独创性的人,即所谓“创作者原则”(《德国著作权法》第7条)。{14}8既然作品是某种形式的“表达”,必然是以文字、言语、符号、声音、动作、色彩等一定表现形式将无形的思想或者智力活动之外化。这就意味着,外化者乃自然人所独有的智力或者思想,这也是中国法上的基本要求:“创作作品的公民是作者”(中国《著作权法》第11条第2款)。因此版权法上否认了自然人以外的主体能够实施创作行为,明确了创作者主体的自然人身份。在猴子“自拍照”是否具有可版权性问题上,美国法院正是从主体适格性的角度,做出了否定的回答。{15}事实上,版权作品的创作主体是否应为自然人(公民),学者们之间展开了喋喋不休的学术争论。{16}312学术讨论是一回事,但版权法上的法人作品制度,又将这一看似明确的问题“制度性地”复杂化了:法人或者其他组织被拟制为作者,即“视为”作者(中国《著作权法》第11条第3款)[2]。然而,在法人制度中,法人具有民事权利能力和行为能力,并能够独立承担民事义务和法律责任,是具有独立意志的一种民事主体,但他/它为何又不能进行独立的“思想”或者“智力活动”呢?《计算机软件保护条例》中,“创作”即指“独立开发”,包括实际组织、进行开发和提供工作条件。很显然,这里的“创作”并不完全指智力活动,它还包括与程序开发有关的组织、管理和提供工作条件等辅助性活动。{17}80

独创性不能简单地理解成与现存的作品表达不一样。不一样只是外在的表现,其实质是经过了主观的思考,有了一定的构思之后,运用创作元素的一种能动的表达。但关键却恰恰在于,人工智能的思维模拟范围不断扩大,在功能上不断向人脑接近。例如,来自巴黎索尼计算机科学实验室的GaetanHadjeres和FrancoisPachet在音乐家约翰·塞巴斯蒂安·巴赫(JohannSebastianBach,1685—1750年)的合唱歌曲上训练其人工智能系统,该系统使用了352首巴赫的歌曲,将其转换成不同的音符,形成2503个作品,包括专业音乐家和音乐系学生在内的1600名听众中,有超过一半的人以为是巴赫本人的作品。{18}类似这样的实例很多,最起码能够说明人工智能产物符合形式上的作品要件:第一,属于文学、艺术和科学领域;第二,“表面”具有法律所要求的独创性;第三,具有可感知性和可复制性。即使不认为人工智能具有社会性,进而完成能动的生物过程,也不妨碍我们将其创造物作为一种可财产化的信息看待[3]。{19}15

其实,独创性中所谓“人”的创作这一理解,说到底是一个权利归属问题,它与“作品是否在表达形式上具备足够的创造性从而享有版权”,是两个不同的问题;将“人”的创作作为“独创性”的内涵,混淆了权利客体的属性与权利归属在法律技术上的区别,破坏了法律的基本逻辑。{13}38本人认为,版权法中的独创性判断标准,应当向一种客观化判断标准倾斜,即从形式上考察其是否与现存的作品表达不一样,并在人类自己所创设符号意义上是否能够解读出具有“最低限度的创造性”。这样,也就不必纠结于“创作行为”是否源于自然人这一命题。也就是说,如果在没有明确标明来源的情况下人工智能创作物与自然人的作品已无法区别,那么再以自然人来认定最低限度的创造性,是不合理的。

(二)只是一种机械的延伸?

自版权制度诞生以来,科学技术的每一次重大突破,都伴随着版权产业的深刻变革,版权制度也随之调整。过去,技术的影响,更多的是体现在作品的传播和使用方式上,在版权法上的反映是作品类型、权利类型、权利限制等制度上的变化。不同的是,人工智能的影响,则体现在作品的创作上。一直以来,技术是作为创作的辅助工具而存在的,在创作行为上仅限于代替书写和丰富作品固定于载体的方式,并未产生任何独立的版权法律效果。{10}3如果说,人工智能仅仅是一种机械的延伸,那么其依然只能在辅助工具意义上被加以对待。

事实上,目前大多数人工智能与人的能动性还相去甚远。现在计算机同样能够进行“创作”,只不过这种“创作”仍属于一种机械的“创作”,更多的是以特定的信息库为基础,通过一定的筛选、分析、运算等信息处理手段,将信息进行重新组合、排列,并套用事先设置好的创作程序,最终输出创作成果。{20}74类比汇编作品,将已有的信息筛选、分析后,会产生新的信息,得出一个创新的结论,即使是利用预先设置的程序所进行的输出,也能够带来新的“表达”。按照前述主张的客观性判断标准分析,计算机创作物,也许同样会符合独创性的判断标准。只是,这种创作,需要人的介入,否则将无法完成。这种情形中的计算机,被作为人的辅助工具来看待,其创作也被视为人的创作,满足独创性的创作物的版权,便赋予给了介入的自然人。

但对于人工智能而言,其仅仅是一种机械的延伸吗?或者说,我们依然能够将其作为一种辅助性工具来看待吗?人工智能最可贵的地方就在于“智能”,其不断地习得人类的智慧。可以预见的是,未来的人工智能将具备更高级的判断、理解能力。至于人工智能是否会具有科幻电影中的思想情感,亦未可知也。人工智能借助于本来智能化的数据库,经过对存储的数据模拟大脑的运行进行取样、加工,在其模拟“脑”的形态下经过分析、组合、排列、筛选之类整合,成为作品。{21}293这已经不仅仅是基于既定的算法、程序做出的指令性输出,而是能够使其在没有预先算法或者规则设定的情况下,通过主动学习来进行创作。之所以将程序性创作理解为机械的延伸,其原因在于程序性创作是一种同质性的创作,是一种可预知的创作,只要知道了其算法与规则,根据计算机处理的信息就能够预知其输出结果;如果将输入的信息变得相同,那么其输出的结果必然是相同的。人工智能却不同,我们虽然能够控制对人工智能的设计和制造,但对于人工智能本身的数据获取与输出,却无法完全控制,甚至将相同的素材给人工智能,其也能够输出不同的结果。人工智能在创造上已逐步脱离人的预先设计,可以根据自身所获取的数据来实施创作,其所表现出的“深度学习”能力,开始模拟人脑神经网络的构造,使得程序算法和独立思考的界限进一步模糊。{10}6

可以说,人工智能已经超越了机械延伸的概念,其具有深度学习的能力。这种深度学习的再创作,似乎是对人类思维与智力活动过程的再现。这样一来,我们可以以内容生产的自主性与否作为判断是否为人工智能的分界标准:如果所生成的内容是基于内部程序或者算法的事前设计,则不具有自主性内容生产能力,仍属于机械延伸的范畴,也就是在创作上属于人的辅助工具;如果基于使用者提供的素材能够自行生成新的内容,且相同素材在环境、时间等因素不同的情况下也能够生成不同的结果,则具有自主性内容生成能力,属于人工智能。人工智能这种深度学习能力,使其摆脱了内容创作辅助性工具这一地位,这才是智能作品具有独创性的源泉。

(三)人工智能:出汗了吗?

在讨论知识产权合理性时,经常以洛克的劳动学说作为理论依据:作品的创作是一个劳动过程,处于自然无主状态的思想经过创作这一劳动,形成了作品,对该劳动成果专有权的承认,符合洛克劳动学说主张的财产取得条件。{22}95-107{23}119-122作品被认为是劳动的外化,超出人自身之外。{24}97“额头出汗原则”被视为版权法的基本原则,即创作时付出劳动就可获得版权。虽然这一原则由于其赋予作品以过分的“垄断性”权利而饱受诟病,而且随着立法与司法的发展,版权已摆脱了早期的“额头出汗原则”,更加重视从版权法的根本目的出发判断作品独创性问题。{25}但“额头出汗原则”依然可以是思考人工智能创造物版权性问题的路径。当我们将人工智能模拟人的感知和判断能力视为人类思维的再现,也就意味着人工智能超越了物的范畴。物是不能思考、没有思维的,但人工智能能够脱离算法与规则的预设,进而能动性地解决新问题,这就如同我们认为“动物不是物、是有思维的”这个道理一样。而且,较之动物,在可以预见的将来,人工智能的思维能力更接近于人类;甚或超越人类,亦未可知也!

从思维能力角度看,人工智能的地位超越物的概念,但从工具论角度,人工智能依然未能摆脱为人类服务的“工具”角色。换言之,人工智能是人所利用的客体,而人则属于主体,二者泾渭分明。那么,从人的主体性出发,人工智能创作物是客体的客体!那么作为客体的人工智能创作作品的行为算不算劳动?对于这一问题的回答,需要在哲学层面解决劳动的主体问题。我们同样可以以公司这一法人制度来类比:公司雇员让人进行劳动,但在财产归属上却将员工这一自然人劳动所创造的财产赋予给了公司,在这一过程中,公司“劳动”了吗?如果说自然人的劳动和法人财产归属属于两个方面的问题,那么人工智能创作行为和版权财产归属,何尝不是两个方面的问题呢?!

法人制度本身就是对“人”这一概念在法律上提出的挑战。但是,法人制度从来没有威胁到人的主体地位,反而被视为是人的手臂之延展,进而被认为是实现人的价值的最伟大制度发明。同样的道理,在人工智能语境下,我们并不排斥在法律上拟制出一个新的主体,或与法人一样,从拟制自然人的角度赋予新的主体或者法人以相同或者类似的法律地位。现代法上的人,早已从近代法上的自然人走出来;劳动的观念,也从个体的体力与脑力的结合,转变为劳动力与资本的结合。因此,那些完全以人作为主体的理由,在法人制度面前并不具有很强的说服力。而类似的问题——“人工智能创作作品出汗了没?”,就如同我们在问“公司进行劳动了没?”那样,显得有些不伦不类。

(四)小结:同样的汗水!

从客观性判断标准来说,智能作品完全可以满足独创性要求。版权的目的是明确包含创造力本身,而不仅仅保护由人类产生的创造力,故创造性来源于计算机而非人类,并不影响其获得版权法的保护。{26}21人工智能的目的在于解放人,解放人的劳动力,如同我们雇佣的“人”一样,来替我们处理特定的事项。不同点在于,一个是自然人,一个是人工智能;相同点则在于,二者在思维上无法被完全控制,但处理事务方面均在我们委托或者管理的框架下进行。从这个角度来说,或许人工智能创作物可以被视为职务作品或者委托作品,这也可能是这一问题的一种分析路径。

总的来说,对创作物可版权性进行检验,还是要回归到版权法的基本目标:法律赋予相关主体[4]一定期限的独占权,最终是为了激励更多的创作物产出和传播,增进社会整体福祉。对于人工智能创作物版权问题的讨论,以及对版权法规则的解释和拓展,自然也因循这一基本方向。以人工智能为代表的新技术,正在改变、并将进一步改变作品的创作方式,改变知识产权的实践方式,版权法、版权政策需要随之调整,并与技术背景、哲学基础等相契合。{27}既如此,本人认为,只要在我们人类自身所创设的符号意义之下能够解读出智能作品的创造性,这就够了,不必再去追问人工智能“出汗了没?”换个角度,“额头出汗原则”是来判断独创性的;而既已具有独创性,某种程度上也就承认“出汗了”,而且出的是同样的汗水。需要强调的是,“额头出汗原则”在自然人创作情境下,对“创造性”的要求并不算高;但人工智能则不同,人工智能独创性的判断,应该对“创造性”有较高的要求。只有这样,才符合具有“深度学习”能力的人工智能之“智能”要求,也才能改变人们“机械延伸”的传统认知,从而避免纠结于人工智能“出汗”与否的争论。

三、设计版权的演绎:关于邻接权的再阐释

人工智能创作物具有可版权性,而且因为人工智能之“智能”的存在,已打破了智能设计者版权之自然延伸的机械观念。人工智能随机的创作行为,对应着的是表演者对剧本的表演行为。从这个角度分析,人工智能的创作行为,是对设计版权的某种演绎,可以类推剧本模式。

(一)剧本模式

根据版权法,剧作家对其创作的剧本享有毋庸置疑的文字作品版权;表演者依据合同等授权方式获得许可之后,对剧本进行表演,进而对该表演享有邻接权(表演者权);除表演者之外,广播电台、电视台及录音录像制作者等邻接权人亦具备表演者行为的特征,而被共同归类于邻接权系统之中。

表象的归类混淆了邻接权实质保护的对象。宥于对自然权利的追求,作者权体系的学者通常不得不回归于对传播作品的劳动投入的论断之上。{28}21{29}514-516{30}495然而,在19世纪之前,少有表演者会觉得有必要以版权来保护自身的表演,因为他们的表演行为既无法被录制在载体上复制,亦无法被广播或者以其他数据形式向公众传播。旧时代的表演,其性质及名声通常转瞬即逝。以至于亚当·斯密将表演作为非生产性劳动的典型,在其《国富论》中称“演员、小丑、音乐家、歌剧演唱者及舞者”的工作成果在它们完成的同时便消亡了。{31}77可见,表演行为作为一种类型化的传播行为,并非天然地具备被授予邻接权,通过与表演组织者之间的合同,表演者在旧时代通常无须借助邻接权便能获得足够的报酬。同时,虽然目前互联网极大地拓展了作品传播的途径,但我们至今尚未将网站经营者作为一类新的邻接权人。

德国《著作权法》中,以音乐唱片为代表的录音录像制品受邻接权系统的保护,因其原创性程度无法达至版权所要求的水准。德国法明确称,邻接权被授予表演者、制片者及广播者,其宗旨无涉任何原创的创造性投入,而仅仅是意图鼓励上述主体在制作录音录像制品或者节目过程中所付出的经济性、组织性及科技性的劳动。{32}190-191此外,德国的司法判例中亦显示出明显的倾向,即只有相关的制品中凝聚有企业性质的劳动时,邻接权才是受保护的。{32}197正如部分学者所指出的,传播技术的冲击使得传统的传播者的真实身份显露出来,即他们均是作为投资者而存在的。邻接权制度的价值功能也就清晰地展现在我们面前,在保护投资者的理论认识下,邻接权制度体系才能够重构,邻接权制度保护的内容得以确立。{28}22

在剧本模式之下,表演者的传播行为本身是不重要的,重要的是保护背后的投资者。且不论人工智能创作物的生成过程是否是一种创作行为,乍一看,似乎该生成行为确实无法被归类入传播行为。但是,在对邻接权制度进行再阐释的过程中,若将保护投资者视为邻接权权利保护系统的核心宗旨,我们便能消解人工智能创作物的生成与邻接权系统表象上的冲突,为人工智能创作物授予邻接权创造基础的条件。

(二)对设计的演绎:人工智能不是物

剧作家创作的剧本是同一的。但是,对同一剧本的不同表演者的表演,往往有着不同的演出效果。虽说剧本确立了表演的基本框架,但真正赋予一场特定表演以生命的,却是表演者独特的个性特征。在这一意义上,表演者与作为版权人的剧作家是相互分离的。人工智能同样如此,设计出人工智能的软件设计者虽然通过代码的方式,确立了人工智能最基本的运作法则,但是软件设计者本人无法准确地控制人工智能所输出的创作物的形式。在这一意义上,人工智能便如同表演者一般对设计者的“剧本”(受版权保护的软件程序)进行了自主乃至恣意的演绎。可以说,真正赋予人工智能创作物以生命的,是人工智能。

目前,人工智能尚且没有达到完全可以独立创作的水平。以文字作品的创作过程为例,日本学者曾称,目前人工智能在创作文学作品时,在很大程度上依赖于人类的协助。参与2016年第三次日本星新一文学奖评选并通过第一次选拔的人工智能创作小说《计算机写作小说之日》(コンピュータが小説を書く日)便是如此。{33}开发者称,只有人类在文章的开头较为充分地指示关于时间、天气、活动等因素之后,人工智能才能从事符合逻辑的文章创作。虽然如此,但关于究竟是什么天气、什么活动却无须人类指示,人工智能可以自动地甄别、选择有关联的词句。此外,若人类直接地限定选择了“风很大”的天气,那么人工智能便会据此对行文加以调整,创作出诸如“窗户紧闭的房间”等自然的文脉。{34}人工智能对软件设计的演绎行为是人工智能创作物产生的基础,一如表演者对剧本的即兴发挥。

在这一语境下,人工智能的生成行为脱离了原作品独立创作的含义,而成为了一种依附于软件程序的演绎。因此,此种对于人工智能的能动性的肯定,将导致一个推论:人工智能不是物;但同样的,其生成行为也不是一种完全独立的作品创作。这也许意味着,狭义的版权在人工智能领域将逐渐失去存在的土壤。

(三)智能作品:邻接权的客体

在上述语境下,智能作品将会不可避免地被纳入邻接权系统。那么,所面临的问题在于:为何我们一定要将智能作品视为邻接权的客体,而非直接定义为版权的客体。这就回到了前面所探讨的问题。英国学者科尼什(Cornish)在评述版权制度时,便论及“原创性智力劳动和企业性质的技能之间的重要区别”;{31}87换言之,狭义的版权旨在保护真正的创作者,而邻接权则旨在保护投资者。

人工智能领域,创作者是一个难以寻觅的概念。虽说软件设计者赋予了人工智能以创作的基本能力和运作法则,但设计者本人无法控制人工智能创作物最终的形式。同样的,目前多数国家的较为普遍的做法,仍然是将创作者视为智能机器人的操作者,但事实上操作者亦无法控制人工智能创作物的最终形式。正是基于这一考虑,2002年的DesktopMarketingSystemsPtyLtdv.TelstraCorporationLtd一案中,澳大利亚联邦法院合议庭法官佩勒姆(Perram)法官称,如果人类对软件程序的控制可以被视为对创作作品的调整和塑造,那么将该人作为计算机软件所创作作品的作者并无不妥。但如果操作软件程序的人并不能控制最终创作之作品的物质形式,那么这种情形下……该人不得被视为作者,该创作物亦不能被视为版权法上的作品。{35}927在解释学上,由于不存在一个确切的、需要受到法律保护的创作者身份,授予人工智能创作物以狭义的版权,也许会导致我们偏离了版权法的立法宗旨。

另一方面,人工智能产业目前正在受到各国政府的大力支持,并被视为第四次工业革命的潜在技术开发点之一。虽然涉及版权问题的人工智能机械开发在整体的人工智能研究中处于较为边缘的地位,但这并不妨碍各国政府及企业向人工智能领域予以持续的投资。英美传媒巨头已经开始与人工智能研究机构合作,创制并使用人工智能写作新闻。美联社的贾斯廷·迈尔斯(JustinMyers)称,借助自动化技术,其已经能跟踪并为4000家公司生成季度盈利报告,过去这一数值仅为400家。为美联社提供技术支持的是AutomatedInsights公司,它仅有50名雇员,却于2015年写作了约15亿篇文章。{36}产业利益是推动人工智能研发领域迅速发展的重要动力之一。目前,由于高新技术科技研究领域具有高风险的特征,较之于由大型企业内部设立的研究机构,市场更倾向于由大量的投资集约型的中小创新企业从事相关研究活动。市场通过这种自发的安排,能够实现风险的合理配置,并保障在极大的失败基数中总会出现少数成功的发明例。{37}319在此种“分工体制”(分业体制)之下,人工智能领域的投资者就是人工智能的最终用户——大型企业。

就产业经济形势而言,将智能作品的广义的版权授予人工智能的所有者或者使用者,可能是一种较为实际和合理的选择。作为投资人的人工智能所有者或者使用者,促进了人工智能产业的发展,理所应当地成为邻接权制度保护的权利主体,而如前所述,智能作品则是邻接权保护的客体。如此定义,才能契合版权制度的宗旨和社会的共同利益。

(四)小结:原权利及相关权利的版权思维

大陆法与英美法在版权领域的分道扬镳反映了哲学传统的内在差异。法国、德国等大陆法国家长期受到自然权利学说的影响,人格因素或者精神因素在作者权体系中占据着不可动摇的地位。德国法中,一元体系的著作权仍然是一种人格权性质的私有权利[5]。与此相对应,脱胎于君主制之下垄断特权的英美版权,则自始至终是一种近似纯粹的经济概念。直至美国开始寻求加入国际知识产权体系并通过1990年的《视觉艺术家权利法》,美国版权体系中都并不保护作者的精神权利[6]。此种内在理念或者称“精神气质”上的差异,导致大陆法系选择了原权利与相关权利(邻接权)双轨保护机制。

20世纪初,为了避免著作权法中原本的著作物概念被音乐唱片、电话账本等新型创作物所稀释,同时确保著作物达到充分的人格基准和原创价值基准,德国《著作权法》在理论上创设了用以保护创作性较低的创作物的邻接权这一概念。{38}32-33一方面,固守著作权中精神性权益的大陆法系统将上述对象排斥出狭义的版权范围;但另一方面,又将其纳入邻接权系统。这样,既维持了自身体系的合理化,又在新的技术环境下保持了开放性。而对于英美版权系统而言,则没有在版权之外另行创设邻接权的必要性。英美法官在裁判中所要界定的问题,并非一个封闭的权利的逻辑体系,他所要衡量的,仅仅是主张权利的人他究竟是否享有这项权利或者存在某种法益。就目前而言,无论我们如何看待智能作品,但人工智能本身的人格利益应该限制在一个狭小的范围——比如特定的智能机器人的“署名”。因此,我们利用广义上的版权来保护智能作品的政策选择,一方面要以大陆法“著作权+邻接权”的版权思维为基础;但另一方面,也要更多地从经济利益出发(而非完全从创作者的创造性劳动出发)来重新审视著作权与邻接权保护的对象,因为狭义的版权所关注的只是创作的利益,而广义的版权中邻接权所关注的则是投资者的利益。从这个角度分析,智能作品上的权利应该是为了保护投资利益而存在的,它是一种广义上的邻接权。

四、权利归属:所有者vs.使用者

人工智能涉及三个主要的利益主体:设计者、所有者和使用者。所有者委托设计者进行智能设计,或自己使用,或租借他人使用——便产生了独立的使用者。前述智能创作的剧本模式,表明智能作品已经从设计版权中分离,因而,智能作品的权利归属之争,聚焦在于所有者与使用者之间。诚然,争议的前提是:我们依然依存于既有版权体系和制度之下。

(一)没有版权的世界是可怕的

人工智能创作物是可以财产化的。而且,若不通过版权或者其他制度来确定其财产化规则,则带来无穷的麻烦。事实上,一个没有版权的世界是可怕的。这一点,无论对于自然人创作作品来说,还是对人工智能创作物而言,皆适用。确言之,将智能作品从版权法体系中剥离出去的政策选择,可能引发的恶果表现为以下三个方面:

第一,法律纠纷与社会纷争不断。随着人工智能生成的内容越来越多,如果不明确界定其属性和权利归属,将引发大量版权法律争议,冲击既有版权制度。例如,人工智能生成的内容将成为新类型的“孤儿作品”和“无主作品”,任何人可以随便使用,这既不利于激励新作品的创作和新人工智能的开发,也无益于版权市场的合规性和稳定性。{10}5我们版权法设置法人作品、将孤儿作品的版权行使赋予国家等做法的初衷,亦如此。很多人对人工智能创作物版权属性充满质疑,很大程度是担心这种做法会冲击以人为核心的价值。事实上,这种担心完全多余,很典型的例子就是法人制度自创立以来,并未对人的主体地位构成冲击和挑战。

第二,劣币逐良币的效应将导致文艺市场失去高贵、深刻并让人感同身受的作品。人工智能创作物的大量涌现,只有在版权制度的调节下,才能避免市场极端情况的出现。若人工智能创作物被归入公共领域,依赖版权经济效益存续发展的众多产业亦将受到抑制。此外,更为重要的是,若专业化的人类职业创作者因高效率的人工智能的竞争而退出市场,我们的社会将会失去一些真正高贵、且具有人类品性的深刻作品。{9}502-503市场中,也将会弥漫着平庸、且以满足大众品味为主要目标的速食文化内容。默杰斯(Merges)笔下的、与民主化趋势格格不入、却能使人类社会受益良多的“创作精英”作为一个阶级,{39}1266将会轰然崩塌于潮水般涌入市场的人工智能创作物面前。

第三,承接上面第二点的论述逻辑,人类心智与文明基础将受到挑战。如果说第一次工业革命后的百年中,机器逐渐解放了人类的手,那么往后的人工智能技术革命将可能逐渐开始解放人类的脑。我们已经看到,当一种新的能力开始补充旧的能力时,旧的能力就有退化的倾向。这正是卢梭关于野蛮人和文明人所做的著名类比:“野蛮人的身体,是他能运用的唯一工具;他用他的身体来完成我们缺乏锻炼的身体不能完成的工作。我们的工艺使我们失去了为满足生活的需要而非具有不可的体力和灵巧的本能。”{40}53若版权的消退伴随着人类退出文艺创作领域,也许那就是我们文明退化的一个开始,人工智能由此逐渐取代人类进行思考、创作和分享文学艺术成就。果真如此,将引发一场技术理性与人类命运的大的伦理讨论。就目前而言,人类文明似乎无法承受这种倒退,而我们也还没有做好应对这种风险的准备。

由此可见,一个为人工智能所垄断的没有版权甚至没有产权的世界,对于产业、市场、经济、社会乃至人类的命运本身,都是不可承受之重。尽管我们今天尚难以预见未来技术乃至社会结构的发展样态,但如柏克所言:“任何一个人就应该以无限的审慎去冒险推翻一座大厦(这座大厦曾在漫长的时代中、在某种过得去的程度上适应了社会的共同目的),或者去冒险重新建立起它来,而在自己的眼前却并没有什么经过考验的有效用的模型和样版。”{41}80在人工智能技术的冲击和挑战之下,现有的版权制度或许难以面面俱到,应对自如,但如果我们贸然超越既有的版权规则,或许就会让我们堕入一个没有版权的世界,那将是一种更为可怕的选择。

(二)作品的归属原则

肇始于18世纪工业革命前夕的英美法系版权法和大陆法系著作权法,均以“作品归于作者”为原则,即由作品创作者享有基于作品所产生的专有权。这一原则,可视为对财产权劳动学说和激励理论的直接反映。以美国《联邦宪法》第1条第8款第8项“知识产权条款”为例,该条规定:“为了促进科学与实用技术的发展,国会有权保障创作者与发明者在有限时间内对其作品和发现享有专有权。”由此观之,版权制度旨在借由权利配置使创作者得以从其所付出的劳动中获得回报,通过为作者提供经济上的激励以促进信息的生产和传播。早期英美法系版权法中用以判断独创性的“额头流汗”标准,亦从侧面体现出“作品归于作者”的归属原则。

随着20世纪初科学技术的快速发展,版权产业的分工愈加细化,非创作者的投资者在维系作品的创作与传播方面的作用愈发突显。“如无投资者的加入,作品的创作与传播环节将被割裂,创作者供给的作品由于信息成本过高无法契合市场需求,而市场需求也因信息成本问题无法传达给创作者,导致市场所需的作品无人供给。”{42}87而投资人基于其所投入的资本与所承担的风险,其利益要求亦趋向明晰,即希望借由版权制度维护自身利益。

对此,两大法系采取了明显不同的回应方式。版权体系将投资者作为拟制作者,使其享有雇佣作品的版权,通过法律拟制发展出“视为作者原则”,以解决雇佣作品的权利归属;大陆法系作者权体系基于人格理论,固守以创作者为作者的原则,借由法定转让方式应对电影等雇佣作品的保护需求,规定由雇主享有著作财产权,雇员享有著作人格权。但此种妥协性立法,并未为随后兴起的计算机软件业所接受。最终,作者权体系再次做出了妥协,规定计算机软件作品的“作者权”属于“开发人”而非“作者”。{43}132-135由此,现代版权法仍以“作品归于作者”为原则,但对“作者”的范畴进行了一定程度的扩张,在保护创作者的同时,兼顾投资人的利益,特定情形下甚至由投资人完全取得作品的版权,借此强化对投资人利益的保护。

我国著作权法所确立的作品归属模式是,“以著作权属于作者为原则,以特殊规定为补充,以合同约定为例外”。{44}81其中,法人作品、职务作品、委托作品等,适用特殊的规定。而人工智能的发展,进一步对作品的归属原则提出了挑战。是否应赋予人工智能本身以主体资格,如何界定人工智能创作物的权利归属,都是需要深入讨论的问题。

(三)以所有者为核心的权利构造

如本节开头所述,智能作品涉及人工智能的设计者、所有者和使用者这三个利益主体。这三个主体,或三两结合,或分置独立,甚或出现信托人(如所有者将人工智能信托他人管理),但不影响这一基本分析框架。脱离这一框架的,认为人工智能本身就是一个具有独立法律人格的主体,自然也可以成为智能作品的作者。这种分析若能够成立,那么短期内至少要给“人工智能”配置相应的类似“监护”的制度,因为“他”不仅是获取权利性质的主体,同样也应该是承担法律责任的主体,但事实上“他”一时难以具有属于自己的财产和责任能力。若智能机器人具有独立的人格属性,则一旦机器人的行为构成侵权乃至犯罪,如何让智能机器人承担相应的法律责任呢?对这一问题的深入分析,需要另文讨论。这里,还是回到设计者、所有者和使用者这三个主体的分析框架。

事实上,将人工智能的创作行为视为对设计版权的演绎,已经回答了设计者与其他两个利益主体的关系。设计者对人工智能的“智能设计”本身享有版权,智能作品不能视为其设计的机械延伸,而是人工智能的再创作,是一种演绎行为,符合版权相关权利(邻接权)的特征。坚持设计者(或称编程者)享有智能作品之版权的主张,主要依据在于:一方面,人工智能创作物的完成依赖于相应的计算机程序,而编程者在程序设计过程中付出了创造性劳动,对人工智能创作物的完成具有实质性贡献,理应获得回报;另一方面,人工智能创作物可视为计算机软件的演绎作品,从而归属于软件程序设计者。{45}但是,由于人工智能之“智能创作”的存在,事实上切割了编程者(设计者)与智能作品的直接关联性;所有者或者使用者委托设计者设计或者购买设计者的设计版权,只是一种合同法上的安排与交易,不能完全不顾及此,而径行认定“智能创作”之创作物(作品)同样属于设计者。如果实践中仍然进行这种法定权利的配置,无疑会挫伤所有者和使用者的积极性,加大了利用人工智能的社会成本,同时也不利于促进创作物的传播和利用。另外,设计者与所有者或者所有者信息不对称情形加大,导致智能作品上的权利流于纸面上,难以实际行使并实现其利益。“版权作为一种激励因素,不仅对创作性写作是必要的,对支撑出版经济也是必要的。”{46}37所谓“出版经济”在这里所代表的,实际上是投资人的利益,也就是创新市场的直接推动者即所有者或者使用者的利益。

有一种使用者享有智能作品版权的主张。该主张认为,是使用者触发智能系统,直接导致了智能作品的产生,而传统版权法总是将作品首次固定在有形载体上的主体作为作品的作者。这一主张对比专利技术和版权作品的创造性要求,认为版权法对独创性的要求较低,而程序使用者在人工智能创作物的产生过程中,往往要进行一定的选择、编排及加工等,足以满足独创性要求。此外,使用者在获取计算机程序使用权的过程中,无论是通过购买抑或许可的方式,均已向程序设计者支付了相应的对价,因而将创作物归于使用者并不会导致有失公平的现象。而把创作物版权归属于使用者,可激励使用者寻求计算机程序使用授权,以创作更多人工智能“作品”,从而有利于促进版权制度的目标。{47}1200-1204这种论述,事实上是将所有者与使用者混同。实际上,社会分工与规模化发展进程中,拥有人工智能的人(所有者)并不一定是人工智能的直接使用者,正如同大型机械设备的所有权人不一定自己使用该设备,而仅仅是为了租赁经营一样。甚至是,所有者或者使用者可能还会利用信托制度完成对专业性较强的人工智能进行管理、培训和维护。

如果我们分离了所有者与使用者,那么下一步如何进行权利配置呢?是尊重民法意义上的所有权人,还是从版权法上考虑作品首次固化者的利益?其实,这才是智能作品权利配置的核心问题。人工智能创作中,“机械延伸”与“再创作”的界定本身就是一个难题;而信托制度的出现,让这一问题难上加难。诚然,人工智能之“智能”本身,说明了人工智能不能完全工具化;而信托中的委托人及其与受托人的契约关系,表明这只是一个合同安排。从引导人工智能领域的投资来说,以所有权为核心的给予所有者相应的权利配置,是符合创新市场的。对于购置成本不高的人工智能来说,使用者可以直接变为所有者;而对于购置或者维护成本高的人工智能来说,使用者则完全可以基于所有者的投资,同样实现对人工智能的利用。不过,这种情形所产生的智能作品,按照所有者与使用者之间的约定优先,仍然是一个基本的原则;而以人工智能之所有者为核心配置智能作品的权利,只是一个相对于设计者的权宜之计而已。

(四)小结:到底谁出的汗?

事实上,从公共政策角度衡量,我们需要对智能作品赋予版权,这是保持文艺繁荣和维护我们人类高贵心灵的市场基础。作品权利归属在作者和投资人进行利益衡量,本身无对错。但总体上讲,人工智能是继文艺版权与工业版权分野之后,工业版权发展进程中的另外一个里程碑。{23}117工业版权的出现,版权中的人身属性被弱化,导致权利归属更加倾向于投资人,更加倾向于有利于作品传播的原则。人工智能的发展,使得智能机器人的自主创作逐步成为可能,但鉴于人工智能独立法律人格尚存在伦理与道德争议,对智能作品上的权利配置在设计者、所有者和使用者这三个利益主体之间进行权衡,是较为妥当的。

当然,人工智能之“智能”,是理解智能作品的焦点问题。它一方面排斥的设计者版权的机械延伸,另一方面说明了对设计版权的演绎中我们需要重视投资人的利益。这种衡量,需要我们首先重视设计者、所有者和使用者之间的合同安排,按照约定优先的原则确定权利,解决权属纠纷;其次,在没有约定的情况下,应该建立起以所有者为核心的权利构造。这种构造,不仅有利于激励创新市场,也有利于促进作品的传播。

五、结论

新华通讯社在2017年5月2日出版的《参考资料》中刊载了大量的海外科技报道,报道认为,中国在人工智能领域已突破了欧美的技术优势,甚至透过科研成果转化已占得先机。{48}3-19若果真如此,我们应该从公共政策角度出发,对于涉及人工智能领域的法律进行检视,并透过权利配置和制度设计,促进人工智能技术的长足发展。本文的落脚点是人工智能创作物,认为需要将其视为版权法上的客体。我国《民法总则》从客体“作品”角度定义版权,并未区分版权与邻接权,这为我们在广义上理解版权,提供了法律依据。{49}

本人认为,人工智能不是物,但“他”同样也不是人!在人工智能领域,我们不能以创作物的创作主体是否为自然人,来判断作品是否具有可版权性。对人工智能创作物的可版权性判断,应该建立一种独创性判断的客观标准。从这个角度来说,人工智能虽然不是人,但其创作物则应该纳入版权客体予以保护;其创作物是否构成版权法上的作品,“额度出汗”仍然是衡量是否具有独创性的客观原则。

对智能作品而言,透过剧本模式加以分析,它实际上是一种人工智能对设计版权的演绎作品。这样,对人工智能的创作,我们就回到了版权法上版权与邻接权的分析框架,即人工智能的智能设计版权与其生成智能作品的相关权利相结合的广义上的版权体系。这种分析,本身就排斥了智能设计者将智能作品作为自己权利之自然延伸的看法,让我们在所有者和使用者之间重新配置智能作品的版权。虽然“作品归于作者”是一个基本的原则,但随着工业版权的出现,权利归属的重心已从作者转向投资人。基于人工智能尚不具备独立的法律人格,从人工智能领域产业政策加以衡量,应该建立起以所有者为核心的权利构造。诚然,约定优先的权利归属原则,仍然是这一权利构造的基础。

正是基于上述认识,本人认为,虽然人工智能不是人,但人工智能创作物却构成版权法意义上的作品。返回搜狐,查看更多

人工智能生成物受著作权法保护吗专家这样看

9月将至,又到了新生入学的时间,今年,清华大学迎来了一位不寻常的学生——中国首个人工智能学生“华智冰”。据“华智冰”研发团队介绍,“华智冰”正在进行第一阶段的数据包学习,未来将会自主学习并实现自行生活。

当前,人类已迈入大数据时代,人工智能以其强大的作业能力赢得了人们的青睐,然而,其生成物是否构成著作权法意义上的“作品”仍存在争议。因此,笔者认为,有必要对此类生成物的可著作权性问题进行研究。

人工智能生成物是否具有作品属性?笔者看来,对作品的判定可以从形式与实质两个维度入手,前者是指创作事实的发生,后者则指创作意图的有无。就形式层面而言,独创性是构成作品的关键要件,在对腾讯人工智能创作物著作权侵权纠纷案中,其研发的“Dreamwriter”写稿机器人生成的新闻报道似乎与人类作品无异,能体现出一定“独到的选择与安排”。但值得注意的是,此类独创性并非源于机械发挥工具价值进行的排列组合,而是幕后人类思想的体现。

人类对作品的创作是一个复杂精妙的过程,是“智识之火”与“灵感之油”相逢的产物。而人工智能生成物能满足必然性要件却无法满足偶然性要件,即意欲表达自身思想的意志。因此,人工智能生成物虽然具有作品属性,但却不能想当然地认为其独创性单纯来源于机械,更不宜因此将人工智能本身视为作者。

人类是会触景生情的感性动物,即使有人在阅读“Dreamwriter”的新闻报道后确实从中产生了自己的思考,进而认为此类生成物具有“艺术性”。但是,这里的“艺术性”来源于人的联想能力,而非作品本身意欲表达的内涵。

而就实质而言,尽管人工智能以其工作效率闻名于世,现阶段更是因深度学习等技能让人啧啧称奇,但笔者认为,此类数据处理过程不能被称之为作品创作过程。倘若各类潜在的作品组合被穷尽并以著作权法加以保护,无疑将使实力雄厚的科技企业依仗自身技术“批量生产”,进而间接导致知识垄断。进一步说,人工智能是“人”创造的“工具”,倘若对其生成物事无巨细地加以著作权保护,难免有心之人利用其高产恶意抢占潜在的创作空间。

以“利用威科先行库生成的图表是否属于作品问题”一案中涉及的分析报告的可著作权性为例。该报告的生成从整体上来看分为软件开发时预先设置的“模板部分”与软件使用时即时生成的“报告部分”。虽然在指令人工智能生成内容时,其在关键词的选取上或许有所创新,但也仅停留在“思想”的层面,发挥“技术性”功能。系统是根据选定关键词拣选相应事实并生成分析报告的,该过程历经选取关键词、下达检索指令、自动套用模板后最终生成分析报告。

其中,后几个环节显然是在系统程序内自行完成,唯一可能讨论独创性的部分在于关键词的拣选。根据著作权法对作品类型的规定,对数据的规整可能因其编撰方式具有独创性而构成“对事实的汇编”,即汇编作品。汇编作品则以汇编行为具有独创性为前提,人尽皆知的选取方式显然不具有独创性。

自动生成的分析报告本身只是对客观事实的描述,其中即使存在独创性,也体现于程序开发者在软件开发环节的创造。但这一选取方式虽无独创性,但有可利用性。倘若使用者对人工智能自动生成的报告加以独创性评述,最终形成了具有自身观点的分析报告,则无疑是该使用者对此份报告享有著作权。

当然,需要注意的是,分析模板“宏观表达”的可著作权性并不意味着软件开发者能够垄断基于该模板生成的每一份报告。一方面,软件开发者的著作权保护仅延及至模板本身,且受到有限表达原则的限制。当该分析本身仅存在有限表达或表达需有必不可少的场合,则此类著作权可能因思想与表达的混同原则而不能给予保护。另一方面,对于机械地以固定指令生成相同报告的行为不宜理解为创作,而应视为单纯“对作品的利用”。

因此,向模板中添加元素的行为系对模板的复制与非独创性演绎,而未产生新的独创性表达,因此不具有独创性,模板的可著作权性亦仅限于模板本身,而不包括随后加入的各种元素。同样,人工智能开发者不具有也不需要对软件可能生成的潜在报告具有传播动力——开发者研发人工智能的根本目的是获取利益,将人工智能提供给用户使用并发挥“技术性”价值,是其应有之义。因此,此处考虑软件开发者的动力高低或许意义有限。

综上所述,笔者认为人工智能并非著作权法意义上的作者。纵使其生成物在形式上或具备作品属性,但在实质层面却不包含创作意志,故此类生成物更宜被视为人类利用人工智能。正如斯蒂芬·茨威格在《人类群星闪耀时》中所言,富有特色和生命力的佳作常见于短暂而难得的灵感突发之际,而人工智能生成物无法满足这点。(中国政法大学冯晓青范臻)

人工智能生成物受著作权法保护吗?专家称……

来源:中国知识产权报

版权声明:本文内容由互联网用户自发贡献,该文观点仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌抄袭侵权/违法违规的内容,一经查实,本站将立刻删除。

上一篇

下一篇