博舍

“大数据、人工智能与知识产权”国际研讨会综述 人工智能和知识产权的区别

“大数据、人工智能与知识产权”国际研讨会综述

2021年11月13-14日,由中国政法大学民商经济法学院知识产权法研究所主办、百度公司协办的“大数据、人工智能和知识产权”国际研讨会在线上成功举办。来自日本名古屋大学、东京大学、北海道大学、美国德克萨斯农工大学、澳大利亚默多克大学、意大利圣安娜高等研究院、香港中文大学、澳门科技大学、中国政法大学、清华大学、同济大学、厦门大学、中山大学、中央财经大学、百度公司等境内外高校和机构五十余名专家学者参加了线上会议。会议同时进行了线上直播,在线观看会议约一千人次。本次会议亦得到了中国政法大学知识产权法新兴学科建设项目的支持。研讨会为期两天,分为上下两场,议题分别是“人工智能与知识产权”和“大数据与知识产权”。研讨会全程气氛热烈,专家学者们满怀激情,对于数据与人工智能中涉及的相关知识产权问题,例如基于人工智能生成物的知识产权问题、数据是否具有财产权属性或受知识产权保护、人工智能本身能否成为知识产权的权利主体等前沿问题,进行了充分表达和讨论,分享了自己的真知灼见。现就嘉宾发言整理成文,以飨读者。

开幕式

(冯晓青教授主持开幕式)

研讨会开幕式由民商经济法学院知识产权法研究所所长冯晓青教授主持,他对各位嘉宾及广大观众们以线上方式参会表示热烈欢迎和衷心感谢。民商经济法学院院长于飞教授致辞,他指出在当前全球一体化和科技革命的背景下,探讨大数据、人工智能与知识产权之间的关系以及法律对技术的回应具有积极意义,期待本次研讨会为各个国家和地区的学者搭建交流平台。

(于飞院长致辞)

第一单元:2021年11月13日

主题研讨:人工智能与知识产权

日本北海道大学法学院教授BranislavHazucha的演讲主题是:“AI与创作——在著作权与公共领域之间”。

Hazucha教授认为,AI领域取得了重大进展,并已经融入到文学艺术成果制作的文化生产之中。对此,他列举了AI应用到音乐与绘画作品创作的两项实例,以说明AI通过分析原作品而生成的成果已经达到使受众感受到其与人类创作出来的作品一样的程度。面对上述AI应用于文化生产的新发展,我们是否应给予AI创作以版权保护?存在正反两派观点。反方的理由如下:第一,无需对AI本身进行激励。第二,将AI创作留给公共领域,可进一步激发、激励人类的创造力。第三,如果授予其版权反而是对人类作者的颠覆,实际上是将人放在一个很低的位置。第四,AI本身没有法律人格,在作者权体系和版权法体系中都是如此。正方则认为,对AI技术的投资予以激励很有必要。此外,对AI创作予以保护也不会存在阻碍。其一,对创造性的定义总是与人格挂钩,应当修改;其二,可以根据雇佣作品原则,将AI的“雇佣者”视为其创作的最先版权人;其三,找寻其他法律保护方案,比如合同解决方案。Hazucha教授认为,依照目前的AI水平,其作为版权人至少在不久的将来是不会存在的。实际上,将AI作为创作的工具可能是其适应版权法最为可能的路径。AI及其创作可能类似于百年前的照相机及第一张照片的情况。关于人类对于创作的参与,应区分有监督的机器学习与无监督的机器学习。在第一种情形下,人类参与程度更高,如发出指令作出预选等;在第二种情形下,人类参与主要体现在后期,如营销。就目前AI发展的现状以及人类对AI创作的参与程度而言,对于目前那些只需人类按键操作的AI创作,或许可为其提供邻接权,从而无需达到创造性也能受到保护。此外,AI能较好地完成标准化任务,但无法预测时尚潮流与顾客口味的变化,并且AI创作依赖于超级明星现象。最后,AI快速地产生大量创作与“人为的稀缺性”相悖离。

日本名古屋大学法学院教授SuzukiMasabumi(铃木将文)的演讲主题是:“促进数字经济和知识产权:日本最近的发展”。

首先,日本与数据相关的政策及法律框架。Suzuki教授介绍,日本主要包括四个政策领域:旨在建立ICT社会的政策措施;与知识产权有关的政策措施;与个人隐私保护相关的政策措施;实现数据自由流通的政策措施。Suzuki教授重点介绍了第三和第四项措施。其次,对日本《著作权法》2018年修正案的解读,特别是与文本和数据挖掘(TDM)有关的条款。2018年修正案主要涉及对著作权限制和例外的规定。为解决日本长期以来僵硬的著作权例外框架所带来的不利于创作活动的问题,在修正前,文化事务机构的咨询委员提出“应根据三类活动制定适当的灵活条款”的原则。该修正案引入了与其中第一和第二条相对应的一些相对普遍的例外规定,即“超出作品正常使用范围但一般被认为没有损害著作权人的利益的行为”以及“超出作品正常使用范围但只对权利人造成轻微不利影响的行为”。Suzuki教授重点分析了第30条第4款,即非为享受地使用作品的例外条款。该条款规定允许非为享受作品的利用,除非这些利用会不合理地损害版权人的利益。这是一个一般性的例外规定,其例示了三种情形,即用于技术开发的实验、TDM,以及不通过人类感官进行的利用。应特别注意的是,该条款以一种非常普遍的方式涵盖了TDM的例外情况,规定以任何方式和在认为必要的范围内利用世界上的数据分析是允许的,除非这种利用可能不必要地损害权利人的利益。Suzuki教授还介绍了欧盟《单一数字市场版权指令》(以下简称“《指令》”)下的TDM例外规定。《指令》第3条是针对研究机构和文化遗产机构为科学研究的TDM,第4条规定了一种退出机制,根据该机制,权利人可以通过适当的方式,如机器可读方式,明示保留其对TDM的权利。这两条规定都只允许通过计算机对合法获取的作品进行TDM。通过与欧盟法律的对比,可见日本的例外规定非常广泛,从某种意义上说,它涵盖了任何方式的利用。它不允许权利人进行保留,也不要求合法地接触利用的对象。正如有位日本学者所说,现在日本已经成为机器学习和TDM的天堂。同时,我们应当也要警惕“对著作权人的利益造成不合理的损害”的模糊性,以及当事人通过合同条款架空该条例外规定的可能性。此外,对于该条款的影响,有观点认为,该条可能被认为是版权内部限制的一个例子,著作权的范围仅能延及禁止他人为享受作品的内容而造成损害的行为,而不是版权法规定的所有物理复制行为或其他类型的行为。最后,涉及数据自由流动的最新的国际协议。Suzuki教授从日本的角度展示了2019年缔结的《美日数字贸易协定》中的一些条款,这些条款是关于数据跨境转移的最先进的条款。例如,第12条规定了反对数据本地化的原则。第17条规定了禁止强制转让和访问源代码和算法。这将使数据的流动在未来变得更加重要。Suzuki教授总结认为,近几年,日本引入了新的法律机制,这将影响到与数据相关的商业活动。从实践与理论的层面来看,似乎具有重大影响。但是,现在判断由此产生的影响还为时过早,值得关注的是它们将如何实施并影响数据经济的前景。

中国政法大学民商经济法学院教授李扬的演讲主题是:“工具主义视角下AI生成物的著作权问题研究”。

李扬教授以中国司法实践中“北京菲林律师事务所诉北京百度网讯科技有限公司案”与“深圳腾讯诉上海盈讯案”作为引入,分析指出我国法院对于“AI生成物是否构成作品”的问题存在不同观点。李扬教授认为应从哲学的高度,在形而上的层面看待AI与人的关系。如此,AI生成物的著作权问题也迎刃而解。关于AI与人的关系,李扬教授从康德哲学出发,认为无论AI发展到什么阶段,都只能作为人的客体和工具对待。康德认为,理性、自由与自我意识三者是人之为人的根本。人的行动包括人与物的关系以及人与人的关系两个侧面。在人与物的关系上,物只是手段,人才是目的。况且目前AI根本没有脱离人类辅助工具的范畴,没有作为主体性和绝对目的性的理性、自由和自我意识。此外,在法律层面,AI不具备也难以通过拟制被赋予法律主体资格。首先,AI不具备法律主体资格要件。其次,AI也无法被拟制为法律主体。具体来说,AI根本无法像法人一样具备意思能力和行为能力,拥有财产、享有权利、履行义务和承担责任,欠缺拟制为法律主体的基本资格要件。基于以上论述,AI生成物实质只不过是人的生成物,AI生成物是否构成著作权法意义上应受保护的作品,也应当按照著作权法关于人的创作物是否属于应受保护的作品标准进行判断,此种观点可简称为“AI创作工具说”。至于AI生成物的著作权归属,需要注意的是,AI的权利归属是第一次权利分配,AI生成物的权利归属是第二次权利分配。AI本身的权利由AI的开发者享有。AI生成物著作权归属,根据“AI创作工具说”进行分析可以得出结论:谁拥有和利用AI创作出了作品(生成物),谁就是该作品的作者,谁就享有该作品的著作权,除非著作权法有特别规定。

美国德克萨斯农工大学法学院教授余家明(PeterK.Yu)的演讲主题是:“著作权、AI与法机界面”。

PeterK.Yu教授介绍到,目前在美国关于AI的争论中,最大的问题在于机器是否可以成为作者,并且很多研究回归到宪法中的版权条款来讨论上述问题。首先,其他国家的规定与做法。其一,英国1988年《版权、设计与专利法》第49章第9条(3)规定,“对于由计算机生成的文学、戏剧、音乐或艺术作品,其作者应该是为创作这作品而做出了必需安排的人。”该条并不要求同时涉及人类,也并不考虑多少创造性的投入来源于人类。其二,在中国的“深圳腾讯诉上海盈讯著作权侵权案”中,法官将AI生成的内容认定为作品,并未将“来源于人”作为作品的要件。其次,就美国的版权注册实践而言。根据美国版权局惯例汇编313.2的规定,“要获得有独创性作品的资格,作品必须由人类创造。版权局不会注册由机器或纯机械过程随机或自动制作而没有人类作者的任何创意输入或干预的作品。”关于“作品必须由人类创造”的条件,PeterK.Yu教授介绍其主要经“猴子自拍案”推动而引入。但实际上早在“猴子自拍案”前,美国最高法院就于“Burrow-GilesLithographicCo.v.Sarony”案中指出,“作者是让事物起源都归功于他的人、鼻祖、制作者或那个完成科学或文学作品的人”。PeterK.Yu教授认为,这一定义对我们认定作者具有重大意义。同样重要的是,我们要关注“人类作者的任何创意输入或干预”对作者认定的影响。在AI生成作品的过程中,存在“设计AI算法的首位拥有人”“训练AI算法数据的第二位拥有人”以及“继续训练AI算法数据的现时拥有人”。何者才是作者,这涉及谁提供了创造性的人类输入与干预的问题。PeterK.Yu教授认为,目前,人类的创意输入或干预占更大的比例,能够自动创作的机器人的出现还需要较长的时间。因此,现有的法律框架与制度仍可适用。但是人类的投入一旦降低甚至只有一小部分,那么问题就在于我们是否需要做出调整,让版权法纳入更多内容。但无论如何,Lindsayv.TheWreckedandAbandonedVesselR.M.S.Titanic案启发我们要以“创造性控制程度”为基础来讨论AI的作者身份这一问题。除上述机器能否成为作者外,PeterK.Yu教授还简要谈及了其他与AI有关的著作权问题。其一,关于著作权侵权问题。其以“Ty,Inc.v.GMAAccessories,Inc.”案说明,AI生成的成果之所以相似。主要并非因为人类的复制,更主要源于AI创作的特点。其二,关于著作权的限制与例外。PeterK.Yu教授简要就合理使用“四要素标准”以及“转换性使用”与“中间复制”在AI领域中进行了特殊性分析。此外,有趣的问题还包括,“能否建造一个自动化的著作权执法系统”以及“是否会出现内置于电脑芯片的法官”?

厦门大学知识产权研究院教授林秀芹的演讲主题是:“对数据的前瞻性保护:中国的视点”。

林秀芹教授就中国对大数据的保护,从法律框架、意见分歧、近期案例进行了展示。首先,中国保护大数据的法律框架。其一,大数据可能作为一个独立的作品或者汇编作品或者计算机程序得到保护。其二,如果大数据满足了商业秘密的要件,则其也可以作为商业秘密来保护。其三,可通过《反不正当竞争法》第2条来保护。其四,《民法典》第111条虽与数据相关,但并非对数据的保护,第127条的规定也只是为大数据保护将来的立法提供依据。其五,《知识产权强国建设纲要》中也提及“研究构建数据知识产权保护规则”,但认为目前的条件尚不成熟。其六,《个人信息保护法》与大数据相关,但其并不关注数据保护。其次,对于数据保护引发的问题以及学界的意见分歧。对于数据保护问题,林秀芹教授认为应当关注:其一,在中国的司法实践中是如何保护数据的;其二,保护数据的正当性是什么以及其他值得关注的问题。其中,一个隐性的问题值得关注,即数据的垄断。林秀芹教授认为,近期的案例也体现了这个问题,但在这方面还没有充分的研究。对于在中国如何保护数据,也存在较大的意见分歧,主要包括以下观点:所有权保护、知识产权保护、新型财产权利保护、有限专有权保护、特殊权利保护、反不正当竞争法保护等。最后,关于数据保护近期案例的介绍与评析。其一,对于“腾讯诉抖音、多闪”案。其认为,法院对被告颁发临时禁令,忽视了消费者福利以及使用者对原告所谓数据的贡献。其二,关于“大众点评诉爱帮网”案。其认为,原告所主张的经过其处理的数据具有实质性价值,原告的盗用是明显的,判决合理合法。其三,对于“北京微梦诉上海复娱”案。林秀芹教授重点介绍了该案判决的逻辑,即“原告对新浪微博数据有独家的权益”“原被告具有竞争关系”“被告的行为构成不正当竞争”“适用反法第12条的互联网条款”。另外,其他一些案例中,法院多适用反法第2条对数据予以保护。林秀芹教授总结认为,第一,中国法院在司法实践中较为积极地保护数据的控制者。第二,法院对数据的称呼有很多,如法律利益、竞争性利益、无形财产权等,中国通过反法或知识产权法对有价值的数据提供了有效的保护。其进一步指出,目前没有明显的证据证明对于数据的保护存在市场失灵。因此,也就没有合理的理由对其赋予更多的权利,特别是赋予专有权利,否则会影响数据的流通。第三,法院适用的法律通常是反法第2条或第12条。此外,林秀芹教授指出,数据垄断是一个值得特别关注的大问题,但现有研究中常被忽略。

中山大学法学院副教授谢琳的演讲主题是:“文本和数据挖掘的市场失灵与著作权例外”。

谢琳副教授围绕TDM是否应当被纳入著作权例外这一问题进行展示。TDM是以数字形式对信息进行自动化的计算分析,其可以处理海量的信息以获取新知识或发现潜在的趋势。但是TDM也有版权侵权的风险。为有效利用挖掘软件,检索的数据通常被规范化、添加评注并汇集成一个语料库。其中就可能包含具有版权的材料,而上述行为是未经许可的复制,可能会侵害版权。由此产生的问题是,谁应拥有数据许可市场。规范化与注释可以由发行者完成,如以结构化的方式提供的XML格式的数据,并作为商业要约的一部分;也可以由研究者自己完成,因为对于公共利益研究组织的研究人员来说,他们更倾向于使用自己的工具。对于TDM作为著作权例外的正当性体现在四个方面:第一,合法获取。一般来说,打算进行TDM的人已经合法地获得了内容。第二,类似于私人复制。对于语料库中的版权材料,其仅是用于挖掘而不向公众开放。第三,可能被认定为转换性使用。复制版权材料的目的是分析数据而不是为了消费享受。第四,可能存在市场失灵。谢琳副教授认为这是最重要的原因。为保证TDM结果正确,TDM需要分析所有相关材料,但无法一一去获得所有版权人的许可。因此,为保障TDM产业的发展,有必要为其规定一般性的版权例外。然而在事实上,TDM并没有被广泛接纳。TDM可以用于各个领域各种用途,包括科学研究领域以及其他领域。前者如临床试验分析、基因疾病图谱,后者如专利地图、金融服务。2019年欧盟正式出台的《数字单一市场版权指令》规定了TDM的版权例外。但其也未将所有类型的TDM引入其中。具体来说,对于由研究组织和文化遗产机构进行的科学研究,版权人不能选择保留;但是,对于其他领域,版权人可以选择保留。欧盟没有引入完全的TDM例外,是因为在商业领域某些许可市场已经形成。因此,我们还是应该回到“市场失灵”这一关键问题来考虑是否有必要引入一般的TDM例外。我们应该反思,是否在所有类型的TDM中都存在市场失灵?文本和数据的来源可以是开放的资料库、数据库、社交网络,以及各种公开的互联网。有些TDM工具可以在不复制的情况下挖掘。由于临时复制在中国是允许的,所以缓存内容也是被允许的。因此,市场失灵并不明显。此外,中国《著作权法》2020年修正案关于科学研究的著作权例外条款允许汇编行为,这也为TDM也提供了空间。谢琳副教授总结认为,市场失灵在整个TDM情形中并不明显,显然没有必要为TDM规定一般性的著作权例外。我们可以静待观察市场本身能否解决这个问题。

中国政法大学法律硕士学院副教授陶乾的演讲题目是:“在著作权法下创设数据处理者权—AI生成内容的替代性保护方法”。

首先,要辨析AI生成物与衍生数据的关系。陶乾副教授认为,AI生成内容是一种典型的衍生数据。数据可以分为基础数据和衍生数据。在AI语境下,衍生数据是指可以从基础数据中通过算法计算出的数据。一方面,衍生数据已经脱敏并集成而存在,其不仅仅是数据的合成或汇编,而且具有不同于基础数据的价值与内容以及特定的商业用途。另一方面,AI生成的内容高度依赖于给定的基础数据。利用算法,AI不仅可以生成数据分析报告,还可以生成诗歌、小说、音乐和图片等。这些文学和艺术内容是AI以现有作品为基础数据而进行机器学习,然后在用户设置基本要求后自动生成的。此外,衍生数据具有财产的性质,应当在现有财产法框架内研究如何对其予以保护,仅运用反不正竞争法保护,不足以保护其商业价值。其次,陶乾副教授论证了著作权法是保护AI生成内容的最佳选择,并进一步指出AI生成内容不能构成作品,但可以通过邻接权制度保护。运用著作权法保护AI生成内容的主要理由是:其一,AI生成内容符合知识产权无形的特点。其二,保护AI生内容能激励投资者开发;同时,促进AI生成内容的传播使公众受益,符合知识产权创新理论。其三,AI生成内容关系多数主体利益,而著作权法中的利益平衡机制能够予以回应。其四,保护AI生成的内容可以增加社会效益,主要体现为提高衍生数据的质量,以及促进作品和信息在公共领域的再利用。但AI生内容不具有可版权性,主要原因是:其一,其是自动生成的,人类参与极其有限,因此无法被认为是人类使用工具而创作出来的作品;其二,AI本身没有任何意识和感觉,其生成的内容并不能认为是一项智力成果。但是在中国著作权法中,通过邻接权制度保护具有可行性。理由是:邻接权与技术发展密切相关,目的就在于鼓励和保护文化产品投资,通过保护作品传播者从而促进作品的传播,适用于保护非受著作权保护的成果。AI生成内容是随着信息技术的进步而出现的,AI程序员和互联网巨头都致力于优化这项技术,数据处理者控制着AI生成内容的传播,其对持有者来说是有价值的财产。这些特征与邻接权制度相匹配。通过上述论证,陶乾副教授提出,应在著作权法中创设一项新的邻接权,即“数据处理者权”,即数据处理者对衍生数据的权利。其不同于数据库汇编作品的著作权。其原则上归属于数据处理者,除非AI项目开发者与数据处理者另有约定。为平衡多方主体的利益,数据处理者权也应受到诸多限制,如合理使用和法定许可。应该允许对这些衍生的数据进行数据挖掘。此外,其保护程度应弱于著作权保护。保护期限应非常短,以促进数据更新。陶乾副教授总结认为,应在著作权权法下创建数据处理者权。对数据处理者的保护不仅可以解决AI生成内容的保护困境,还可以解决当前数字经济下对衍生数据的保护问题。

中国政法大学民商经济法学院副教授孙阳的演讲题目是:“AI所有权理论研究”。

孙阳副教授主要介绍了其对AI所有权的研究。首先,该研究有三个角度。第一个角度是AI的价值,即AI的经济利益。目前的争议发生在AI设计者和AI用户之间,主要集中在许可费和其他AI的经济利益之上。第二个角度是,关注AI的输出过程。AI输出过程类似于版权创作。将信息输入AI然后其自动输出,这个输出有时是创造性的,有时仅是为了实现某种功能。其三,需要构建AI所有权。其认为AI的所有权以及其他的AI的法规的设计,由于AI的技术水平完全不同于其他技术和工具,这可能意味着我们要精细设计涉及AI技术所有的法律。其次,孙阳副教授提出一条确保AI价值的路线,该路线分三步走。其一,激励设计。这意味着在AI运作的过程中有多个参与者,如程序员、所有者(大公司)、使用者等。激励措施为财产收益,这些收益归最终归所有者,所有者将其用于支付研发成本,AI所有者获得收益后又能继续推动研发,从而形成一个闭环。其认为,正因为我们无法预测未来AI技术的发展,所以我们对于AI所有权的设计必须首先确保AI的价值。其次,孙阳副教授指出,在其研究之中,AI所有权的基础只是技术。其试图将技术分为两个层次。第一个层次是作为一种工具的较低层次。当AI只是一种技术工具时,设计、制造、拥有AI的人,自然应该被赋予拥有这种工具的权利。第二个层次是更高层次的自主性的AI。此时,AI将具有机器学习的能力。它不会简单地听从程序设计者甚至是所有者的命令或指令,他们会像人类一样努力学习和改进。对于此,其也无法回答谁是自主AI的主人。第三,关于AI所有权结构的制度目的,即权利的保护、价值的实现和利益的平衡。这意味着在未来,当我们以特定的规则和条例的形式构建所有权结构时,我们应该重视上述三项目的。权利保护即权利属于AI所有者或设计者。价值实现呼应上述AI的经济价值。利益平衡是指AI领域存在众多参与者,AI所有权制度的设计是否考量了多方对AI发展所贡献的时间、资源应有的回报。回到版权模式,其认为版权模式成为一个选择的重要原因在于版权自动保护主义,这使得AI的价值无需前期繁琐的程序而很容易被附加价值。但就弱AI与强AI而言,两者的权属就有所不同。前者下,AI的所有者、设计者很容易就可以拥有AI的所有权;但强AI,我们仍然无法回答。当然,关于AI版权模式的主要问题是无法获得人格权理论的支持,我们只能追溯到功利主义理论。第四,关于构建AI所有权结构的标准,即效率优先性、分配公平性、结构稳定性。关于效率优先性,其认为AI的所有者才是使用AI实现其最大化价值的最佳参与者。关于分配公平性,其认为可以引入知识产权法中的利益平衡理论进行分析。关于结构稳定性,其认为我们最好将AI所有权分配给尽量少的主体。孙阳副教授指出AI具有多方参与者,对他们利益分配的考量因素应有所不同。第五,孙阳副教授指出,上述研究是建立在将所有者限定为一个实体的基础上,但如果有多个所有者呢?因此,其提出AI的多元所有权模式。在立法还未规范AI之前,多个所有者可以要求获得AI的所有权,只要他们能够使AI的价值最大化。在此,其列出合作、私人自由和对机会主义的限制三个考量因素。

点评环节

香港中文大学法学院李治安教授点评:

就AI生成物相关问题,其认为Hazucha教授为我们就AI生成物的可版权性提供了全面的视角,如雇佣作品原则、邻接权保护等。就Hazucha教授将AI类比于相机,李治安教授认为,这与李扬教授的展示相关,即将AI视为人类创作的工具。就李扬教授提及的两个案例的不同裁判观点,其认为,在司法实践中要注意到,不同类型的AI创作的过程是不同的,人类的参与和干预程度也不同。这与孙阳副教授所提及的“弱AI”与“强AI”是相关的,孙阳教授提到的AI的所有权实际上是另外一个值得思考的政策性问题。总的来说,李治安教授赞同李扬教授的观点,认为AI技术目前还没有达到具有自主意识的程度,无法自主决定创作什么以及怎么创作。就Hazucha教授提及的运用邻接权制度保护AI创作,以及陶乾副教授进一步提出的数据处理者权,李治安教授认为:其一,AI生成物的创作与传统方式相比,涉及更多的利益相关者,包括软件开发者、数据提供者、机器运行者等,难点就在于如何平衡所有利益相关者及其不同利益之间的关系;其二,以邻接权制度保护可能在侵权认定上存在困境。如将AI生成小说拍摄成电影的行为,就难以构成侵害邻接权,因为传播的媒介改变了。

围绕TDM与著作权例外的相关问题,李治安教授就Suzuki教授、谢琳副教授、PeterK.Yu教授的演讲进行了点评。就Suzuki教授介绍的日本引入TDM的一般性版权例外条款,李治安教授好奇于日本的产业与社会对于法律修改的回应,以及在司法层面该条款是如何适用的,是否有相关案例。就谢琳副教授认为中国《著作权法》第24条为TDM预留了解释空间,其表达了不同看法,认为该条并非专门为TDM而设计,在司法实践中法官可能也难以适用。就谢琳副教授认为是否存在市场失灵是引入TDM版权例外的关键考量因素,其认为这与美国Wendy教授的观点,即合理使用是为了纠正市场失灵具有异曲同工之妙。就PeterK.Yu教授提到的转换性使用,其认为这在美国已经有很多案例了,但转换性使用如何适用于AI领域以及如何在其他法域引入适用,还有待进一步研究。

就数据相关问题,对于林秀芹教授对数据的法律框架进行的全面展示,李治安教授认为,数据不仅涉及私法层面还涉及公法层面。就林秀芹教授展示的案例,其认为反法第2条在数据保护实践中应当被恰当地适用,既不能不用,也不能滥用,而这对法院将是一个挑战。此外,就林秀芹教授提到的数据带来的垄断问题,李治安教授认为,通过竞争法中滥用市场支配地位来处理数据带来的垄断问题存在困难,可能需要创设一项新型的垄断行为。

清华大学法学院崔国斌教授点评:

就AI能否成为民法或知识产权法拟制的法律主体。崔国斌教授简要地分析了公司被拟制为法人的原因。其认为法律将这些组织拟制为人的主要原因是减少组织生产运作成本、降低投资风险等,这些都是为了提高经济效率以及促进更大的利益。但在AI与知识产权领域,崔国斌教授认为目前还没有一种强有力的论据证明,承认AI或将其拟制为法律主体能给社会带来真正重大的利益。

就AI能否被认定为作者以及AI生成内容能否受到版权保护。多数学者将AI看成工具,特别是Hazucha教授将AI类比于相机,崔国斌教授对此是否涵盖所有类型的AI系统表示疑惑。其认为,在某些情况下,AI的算法非常复杂,嵌入了人类的个性。在这种情况下,AI开发者或设计者对生成内容也有贡献,而不应该简单把权利全都分配给AI系统的用户。崔国斌教授认同PeterK.Yu教授的观点,即当认定某一作品的作者时,应当关注“控制程度”这一关键因素。AI系统的开发者或设计者控制AI系统的算法,可以将其视为作者。其以谷歌翻译为例进行了具体分析,认为至少在目前的版权制度下,我们应当承认该软件的开发者或设计者是谷歌翻译出来的作品的作者。

就TDM的版权例外问题。崔国斌教授认为,Suzuki教授可能认为在数据许可市场存在市场失灵,而谢琳副教授可能认为不存在。就谢琳教授认为存在市场失灵是TDM成为版权例外的前提,对此,崔国斌教授认为其是在Wendy教授关于版权例外是为了纠正市场失灵的框架下的进一步研究。崔国斌教授简要介绍了Wendy教授所提出的两种市场失灵类型。回到TDM,崔国斌教授认为坚持合同优先以及退出机制的建立具有一定必要性。其认为,使用者可以通过签订合同合法获取数据进行挖掘。此外,创设TDM一般例外条款,同时允许版权人选择退出,不太可能对数据许可市场本身的激励机制造成严重损害。

就数据保护的路径问题。对于林秀芹教授提出用《反不正当竞争法》第2条来保护数据,崔国斌教授认为该条是一般性条款,对于快速发展的数据领域,我们提供的保护路径应具有一定的可预测性。因此,如果在反法的框架下保护数据,还需要更加具体的规则。对于用财产权来保护数据,其认为,这将为数据提供过强的保护程度,并且财产权保护的路径所需要的立法成本太大;运用反法保护数据,保护的范围更广,能涵盖更多的市场主体。

上海同济大学法学院张韬略副教授点评:

关于AI与版权、作者、所有权之间的关系。张韬略副教授认为,现阶段我们只有弱AI,因此在目前的法律框架下,AI应被视作是创作作品的工具。就Hazucha教授提出“作品是文化塑造者”的观点,其认为这具有指导意义。但是其认为如果AI被产业化使用,可能会降低文化多样性,威胁独立艺术家。但AI作为一个工具,同时也可以被用来促进文化多样性的发展。而这取决于谁在使用这个工具,以及如何使用它。

就中国的数据保护问题,张韬略副教授主要就林秀芹教授与陶乾副教授的演讲进行了点评。首先,其认为AI目前还是创作工具,就AI生成物的性质应当在个案中予以认定。所以,为数据处理者创设一个邻接权需要谨慎。其次,对于林秀芹教授的演讲。一方面,其同样认为“数据的流通是非常重要的”,立法者与司法者都应对此更加关注。诚然,某些平台非常容易吸引和锁定大量消费者,并收集和控制大量数据,存在滥用市场支配地位的可能。就林教授提及的“腾讯诉抖音、多闪”案,张韬略副教授认为,这只是一个关于初步禁令的不正当竞争纠纷案,并非反垄断案件。其还介绍了最近湖南省长沙市中院受理的新浪微博数据垄断案,并期待中国法院对该案的裁判。另一方面,张韬略副教授在某种程度上不太同意林秀芹教授对于数据垄断的担心。就目前中国司法实践的案例来看,法院基本是适用反法来保护数据的。中国目前的数据案件的核心问题在于竞争者的行为是否违反了商业道德和诚信原则,这些案件是关于反不正当竞争而非反垄断。

自由发言与讨论

以Hazucha教授演讲中提及的“AI类比于相机”与崔国斌教授点评时提及的“谷歌翻译”为切入点,与会嘉宾就AI相关法律问题展开了讨论。崔国斌教授提出,假设谷歌翻译是一个AI系统,当我们将论文副本发给谷歌并由其翻译,此时谁才是Hazucha教授演讲中那个“按下相机按钮的人”?Hazucha教授回应道,将AI类比于相机是为了说明,创作作品时必须要有创作者的设计。但是谷歌系统翻译时是否有设计呢?其认为,机器本身在该过程并没有思考和设计,不同的人输入同一个句子可能得到相同或相似的翻译。如此,由谷歌翻译系统自动生成的这些翻译能获得版权保护的问题可能有待商榷。或许AI在某些领域会发挥重要作用,但AI不会用来写一部新的哈利波特小说。在这些领域,人类还将扮演最重要的角色。崔国斌教授对此认为,对于谷歌翻译的例子,可能更重要的不是不同的人输出相同的句子得出相同的结果,而是在于谷歌的翻译可能会与腾讯、微软的翻译不同。在其看来,谷歌翻译的水平是相当高的,甚至只需要人类稍微调整就很具有可读性,可以当做原创文章。Hazucha教授认为,我们需要考虑为什么要对这种翻译进行保护。就目前来说或多或少是逐字翻译的,AI系统的运作就是追寻每个词的最优翻译方式。即使谷歌、雅虎等提供不同服务,可能会产生不同结果,但经过一段较长时间,如果我们使用相似的算法来翻译,可能会得出相同的结果。如果系统进一步发展,出现自动翻译的情形,能提供不同的选项,在不同算法下翻译,此时保护它就不会有太大阻碍。陶乾副教授认为,谷歌翻译不是一个合适的AI生成内容的例子,因为其目的是提供更多和更精确的翻译。所以其更愿意把它看作是通过使用AI产生的内容。而对于那些AI生成的诗词故事,其目的是提供更加多样化的作品。此外,相比于摄像师使用照相机创作摄影作品,AI的创作产生的故事和图片是不可预见的,其可能会产生更多不同内容的结果。此外,冯晓青教授指出,当我们讨论AI生成内容是否能被版权保护时,要明确的前提条件是目前AI的发展水平仍是弱AI,并认为人类控制是重要考量因素。李扬教授认为,我们应该站在哲学的高度来看待AI生产内容的版权问题。

第二单元:2021年11月14日

主题研讨:大数据与知识产权

日本东京大学法学院教授TamuraYoshiyuki(田村善之)的演讲题目是:“日本对于大数据的保护——行为规制方法”。

田村善之教授的演讲内容涵盖日本的大数据立法进程、大数据是否需要专门立法保护、客体规制和行为规制两种保护路径以及日本《反不正当竞争法》的修改情况四个方面。田村善之教授参与了日本《反不正当竞争法》的修法全过程,但其一直存在是否需要通过新设法律保护大数据的疑问。田村善之教授认为搭便车行为是有利于社会福利的,因此,通常情况下,搭便车行为不应该受到法律的规制。只有当新的商业模式的发展受到损害,并因此影响到对于该商业模式的激励,且这种激励应该受到保护时,相应的搭便车行为才应当被禁止。市场本来就有其激励机制,只有当市场激励失效时,法律保护才显必要。对于大数据而言,通过对商业秘密以及技术措施的保护已经能够使商业主体通过许可获得投资补偿。因此,即使没有著作权等手段,也不意味着对收集、提供大数据行为激励的丧失。

田村善之教授随之提到修改前的日本《反不正当竞争法》对于数据保护存在一些漏洞。首先是商业秘密保护,如果数据被社会公众所熟知,就不符合商业秘密的构成要件;其次是关于技术保护措施的规定,其仅禁止提供规避技术措施的行为,而不涉及实施规避的行为以及使用通过规避技术措施获取内容的人。介于日本已经出台一些保护大数据的行政措施,因此,其在立法过程中主要关注的是减轻法律规制的副作用来避免对于数据自由流通和使用的不必要损害。

对于大数据的立法保护途径,田村善之教授介绍了客体保护路径和行为保护路径。他特别提到,这两种保护方式不是互不相容的,几乎每种知识产权保护中都兼有二者,只是侧重点不同。由于对于大数据而言,设定一个清晰的权利客体边界是比较困难的,因此他认为采用行为规制方法来保护大数据更为恰当。在具体的制度设计上,田村善之教授一是强调对于大数据的技术保护措施,二是禁止规避技术保护措施以及禁止使用通过规避技术保护措施获得的内容,三是设立安全港以保障交易安全并避免数据使用的寒蝉效应。

在以上的立法思路下,田村善之教授介绍了日本《反不正当竞争法》修改的具体条款。其认为,新法对于数据保护采取的是更偏向于行为规制的混合规制。从客体来看,受到保护的数据具有以下五个构成要件,分别是以营业为目的向特定人提供、数据达到一定量的积累、属于技术信息或者经营信息、通过电磁方式管理并且不同于公众可以无偿利用的信息。从规制的行为来看,修改后的反法对于大数据的保护类似于商业秘密保护,但限制的行为范围更窄。一方面进行行为限制,另一方面又确定例外条款,为正当的数据利用提供安全港。

澳大利亚默多克大学法学院名誉教授,新西兰奥塔哥大学副教授MichaelD.Pendleton的演讲题目是“知识产权——我们是否已经准备好像迎接工业革命一样迎接信息革命”。

Pendleton教授认为知识产权法在数据保护方面存在不足,其无法为信息创造者提供足够的激励、为竞争者提供足够的确定性以及为信息使用者提供足够多的获取信息的途径。因而我们应当寻找更好的保护方式来促进信息的生产和自由传播。

由于目前人工智能保护主要涉及的知识产权部门法是著作权法和专利法,因此Pendleton教授主要分析了这两部法律存在的问题,从而得出知识产权法保护不足的结论。就著作权法而言,对于作品的保护要求独创性,侵权认定则需要判断何为权利人作品的实质部分,但无论是独创性判断还是实质部分判断都不具有经验性,完全依据法官的自由裁量。此外,Pendleton教授认为,英联邦国家法院通常会在判决中引用“额头流汗”标准,将著作权的保护范围扩大至思想,直到IceTVvChannel9案之后,澳大利亚高等法院才转向更高的独创性标准,但这也不能被视作是完全推翻了“额头流汗”标准,而仅仅是一种背离。对于专利法来说,其保护的客体要求具有非显而易见性,但这个条件也是很难确定的,很难说清楚一个发明到底和现有技术有多少区别才能算是具有非显而易见性。

鉴于以上不足,Pendleton教授认为可以制定一部关于不正当竞争或者不正当抄袭行为的一般法律来保护人工智能和大数据,而不是说在传统的知识产权法范围内创设新的权利。这种通过禁止特定行为的保护方式比创设权利的方式更加有效率且更加灵活。在信息时代下,需要一种超出传统财产概念的保护机制来平衡信息创造者和信息使用者之间的利益。

提及如何确定何种挪用行为应当受到规制,即判断被告的挪用行为是否付出了足够的汗水以使其免除侵权责任,Pendleton教授主张以转换性使用作为确定标准,其认为知识产权法应当为挪用行为的一般法所补充,甚至是替代。这种保护方式既未扩大也未缩小现有法律的保护,但却更为合理,因为不过是在反不正当竞争法的既有框架下新设一个类别。

意大利圣安娜高等研究院教授GiovanniComandé的演讲题目是“欧盟人工智能法案及其挑战”。

GiovanniComandé教授表明,相比于其他科学技术,欧盟之所以特别规制人工智能,是为了激活人工智能作为新工具以实现更重要经济目标的作用。由于人工智能有时候能够帮我们做决策,欧盟的人工智能高水平专家组认为必须确保人工智能对于人们生活的影响是正当的且符合人类的价值准则,此外还需要有一定的责任机制来保障以上目标的实现。该专家组所制定的《可信赖人工智能伦理指南》中为可信赖的人工智能提出三项要件,分别是合法性、伦理性以及技术和社会层面的稳健性。《人工智能法》提案需要融合法律和伦理准则,其目标是在保护基本权利和自由的前提下促进创新和人工智能的快速发展。

之后GiovanniComandé教授介绍《人工智能法》提案的具体内容。其提到法案中关于人工智能的定义非常广泛,甚至存在定义模糊的风险,而这样做的目的是为现有的和之后会出现的技术留下充足的空间。法案采取风险划分法,依据人工智能技术可能对健康、安全和基本权利造成的风险制定了人工智能技术的黑名单和灰名单,黑名单内的人工智能技术是完全禁止的,而灰名单中的人工智能技术只有满足一定条件才能够被使用。GiovanniComandé教授认为目前的《人工智能法》提案面临着以下七项挑战:避免人工智能技术监管的碎片化和监管漏洞的存在;避免法律过度侵蚀人工智能系统使用者的权利;避免将人工智能应用于私人领域对于基本权利产生不良影响;确保整个欧盟法律中伦理准则的一致性;确保人工智能系统开发者和使用者的正当行为从而实现对于公民个人的保护;将法律和伦理对于人工智能的限制转化为机遇;人工智能法案全球范围的有效性。其就最后一点挑战展开说明。《人工智能法》提案第二条“关于本法的适用范围”较广,无论人工智能服务上的注册地是否在欧盟,只要其在欧盟范围内提供服务,均受到规制。此外,人工智能法案还适用于欧盟内有用户、输出内容在欧盟使用,但该人工智能系统位于第三国的系统提供者和用户。GiovanniComandé教授最后表明,人工智能法案的规制范围体现了欧盟委员会的雄心壮志,该法案对于欧盟乃至全球都会有一定影响。

百度公司副总裁吴梦漪的演讲题目是“人工智能医疗技术所涉及的生物识别信息问题的困境与思考”。

吴梦漪副总裁首先介绍了百度公司对于数据使用的规定。百度公司将数据按照级别和类别进行不同保护。从级别上来说,数据按照识别性、敏感性、数据价值、损失影响、数据规模以及新鲜度被分为五个等级。从类别上来说,数据被分为用户信息数据、业务数据以及公司数据,不同的数据采用不同的审查审批标准。

吴梦漪副总裁表明,《个人信息保护法》具有积极作用,其为个人信息提供了法律保护并且为企业的数据合规工作提供指引。但对于数据处理企业而言,具体适用该法的规定时也存在一些问题,比如人工智能医疗器械获得的分析数据的使用。人工智能医疗器械在增加公众福利方面发挥着重要作用,但人工智能医疗器械的研发需要大量的真实世界的数据(比如视网膜图片)来训练算法模型,那么这种视网膜图片是否属于生物识别信息从而适用更加严格的数据使用规则就是个问题。目前中国的法律框架下缺少对于生物识别信息的准确定义,而欧盟GDPR中对于生物识别信息的定义又过于严苛。就视网膜图片而言,其中包含很多生物识别信息,那么这些信息的相互联系需要达到何种程度才会对自然人的尊严和财产带来危害,这是需要具体厘清的问题。如果只是将所有带有个人生物信息的数据一刀切而适用敏感个人信息的规定,一方面会影响数据的流通效率以及数据价值的发挥,另一方面还会阻碍人工智能医疗产品的研发。医疗行业具有公共属性,一些医疗机构积累了大量难以获得信息主体单独同意的医疗数据,而这些数据对于医疗技术研究又具有重大作用,统一适用敏感信息保护会给医疗企业带来巨大的合规成本。

就如何解决此问题,其认为可以从以下两个方面进行考虑。一是立法上明确生物识别信息的范围并对其分类,对个人权利威胁较大的生物识别信息严格保护,但对于威胁较低、同时社会价值较高的数据可以不严格适用“单独同意”要求。二是采取技术手段,进一步提高数据利用的准确性,进行数据不可复原的脱敏处理。

清华大学法学院副教授蒋舸的演讲题目是“数据保护能够从商业秘密保护中学到些什么——财产法与侵权法之间的比较研究”。

蒋舸副教授认为,通过比较商业秘密的保护方式,可以得出数据保护的最佳途径是财产法保护途径。

蒋舸副教授首先对比了数据保护与商业秘密保护的相似性以解释其比较思路的缘由。从起源上看,二者都源于不正当竞争;从规制方法上看,二者均面临着财产法路径和侵权法路径的选择。财产法模式是基于客体的,如果保护客体不满足秘密性、价值性以及合理的劳动付出这三个要件,无论被告的行为有多不当,都不能受到保护。而侵权法模式则无客体要求,其关注点在于“不当行为”。传统观点认为财产法模式比侵权法模式的保护范围更大,但蒋舸副教授不同意这一点,其引用莱姆利(Lemley)教授在其文章“以知识产权保护商业秘密的优势”中的观点来进行说明。莱姆利教授认为,商业秘密的财产保护模式事实上是鼓励信息的披露而非保密的。如果不存在法律保护,企业在保密上成本过大,因而保密的要求仅仅是一个最低门槛,也就是说除了法律明确规定的客体范围内的信息外,其他所有的信息都能够自由使用。莱姆利教授在进一步解释其商业秘密的财产法保护理论时,指出需要注意以下两点,一是商业秘密权利的客体必须具有秘密性,避免对公有领域中的信息提供保护。一些采纳商业秘密保护侵权法模式的法院很容易在规制不当行为的过程中忽视秘密性的要求。二是由于商业秘密的财产法体系难以避免鼓励对于不当得利的先占,以及法院可能会给予公共领域的信息以私人控制,因此要坚持财产法路径的消极性,即其价值在于确定被诉行为的边界而非利益的先占。由此,莱姆利教授得出财产法模式往往比侵权法模式保护的范围更窄,在财产法路径下,即使被告的行为十分不当,只要行为对象不符合商业秘密保护的客体要求,那么就不承担责任。

视野转向数据保护,蒋舸副教授认为,在财产法保护框架下,通过狭义地确定保护客体范围,扩大对于权利的限制以及赋予权利人有限的权利救济手段,财产法模式就不一定比侵权法模式的保护范围更广。财产法框架具有其灵活性,保护的范围能够通过制度的设计进行调整。类比莱姆利教授对于商业秘密的分析,蒋舸副教授认为数据也能够通过财产法进行保护。

最后,蒋舸副教授总结道:财产法模式的优势在于为法院、相关从业人员以及学者提供了一个非常清晰的分析问题的框架。相比于《反不正当竞争法》第二条的模糊范围,财产法的思路或许是更好的问题解决途径。

中国政法大学民商经济法学院教授冯晓青的演讲题目是“数据财产化的理论阐释和法律构建”。

冯晓青教授演讲内容主要包括数据时代下数据和信息的定义、数据的财产属性及建立数据财产保护体系的合法性、数据财产化的法律构建以及结论四个部分。

冯晓青教授表明数据具有重要的财产利益。《中共中央关于制定国民经济和社会发展第十四个五年计划和2035年远景目标的建议》中明确提出要建立数据产权制度。在这样的大背景下,数据保护十分必要,而进行数据保护首先需要明确数据的概念。从我国《数据安全法》第三条可以看出,数据的核心在于对信息的记录,数据和信息有着密切的联系。此外,对于数据进行类型划分也有利于界定数据产权。冯晓青教授将数据划分为个人数据、商业数据和政府数据。其中,个人数据在欧盟GDPR中有定义,而国内的《网络安全法》、《个人信息保护法》以及《民法典》都只是规定了个人信息。相比于个人信息对于个人隐私和人格权的保护,个人数据则属于财产权范畴。此外,认识数据的价值和意义还需要注意到数据属性的多元性,即技术属性、社会属性以及法律属性的结合。

提及数据财产化的正当性与合理性,冯晓青教授认为可以从以下四个方面理解:一是数据本身具有的财产属性以及数据动态流转和利用中产生的财产性利益;二是数据财产保护制度能够确认数据的产权归属,这是实现数据流通和交易的前提;三是数据财产制度能够激励数据产品的生产和投资,同时也便于进行权利限制;四是数据财产制度是促进数据产业发展的保障。

关于数据财产化的法律构建,冯晓青教授提出了知识产权法保护、反不正当竞争保护以及专门法保护三种途径。知识产权法保护方式的现实基础在于数据和知识产权客体的贯通性。反不正当竞争法则强调对于数据财产性利益或竞争性利益的保护。《反不正当竞争法》中对于商业秘密的保护,第2条、第6条以及第12条都可以用来保护数据。数据专门法的构建需要考虑立法原则和规范构造两个方面。需要考虑的立法原则包括明确涉及数据各方利益主体权益的原则、利益平衡原则以及促进数据流转和交易原则。在具体规范构建的时候,冯晓青教授认为关键在于对于数据价值链中的创造性劳动以及投资提供有限的以数据控制和收益为核心的数据排他权。权利的限制情形主要为数据共享义务、基于公共利益目的需要获取数据、基于公共机构获取数据以及基于科学研究获取数据。

最后,冯晓青教授总结道:现有的法律对数据的财产化提供权利法和行为法两种路径。权利法层面,知识产权法律制度起着不可替代的关键作用。行为法层面,传统反不正当竞争法则可以在数据财产性利益或竞争性利益的保护中实现数据财产化。随着数据在数字经济中的重要性加强,有关数据的专门立法问题也会不断被提出。

中央财经大学法学院教授杜颖的演讲题目是“中国经验视角下的大数据法律保护问题”。

杜颖教授的演讲围绕大数据的定义、隐私保护以及不正当竞争三个问题展开。杜颖教授引用《牛津英文词典》中对于大数据的定义,同时提到大数据的5V定义法,其表明如果从法律的角度看待大数据问题,需要关注大数据的生产过程。这个过程中涉及网络用户、互联网企业以及竞争者三方主体。

杜颖教授提到中国法律体系对于隐私的保护包括《民法典》第111条、《网络安全法》第41条以及《个人信息保护法》。其同意之前吴梦漪副总裁的观点,我国在《个人信息保护法》出台之前一直都未明确定义个人信息。之后,杜颖教授分享了中国涉及隐私保护的三个案例,分别是江苏消协诉百度案、庞理鹏诉去哪儿案以及中国的Cookie第一案——朱烨诉百度案。

就不正当竞争法中的问题,杜颖教授表明大数据的反不正当竞争保护可以依据商业秘密条款以及一般条款。中国很多案例的裁判依据都是《反不正当竞争法》第2条。此问题下,杜颖教授教授介绍了衢州万联网络技术有限公司诉周慧民案以及微博诉脉脉案。

关于数据保护,除上述问题之外,杜颖教授还提出了几个需要关注的问题:一是不同的司法辖区之间能够从对方那里学到些什么?二是不同领域的专家学者能否在同一基础上展开对话?三是为什么会存在对大数据不同的法律规制模式?最后杜颖教授呼吁各学者共同协作,为数据保护提供既有灵活性又具有可行性的方案。

美国亚太法律研究院高级顾问,暨南大学法学院特聘教授孙远钊的演讲题目是“欧、美对数据相关权利的保护与裁决挑战”。

孙远钊教授首先从数据的定义与相关权益入手,分析了数据可能的保护方式。孙远钊教授认为数据的本质是事实。在DIKW金字塔体系中,最底层的是数据,在此基础上通过加工创造逐步形成信息、知识乃至智慧。欧盟的GDPR中对于个人数据的定义十分广泛,囊括了cookies、电子邮件名称、地理位置数据等多种信息。其认为,谈及采用何种手段进行数据保护,可以进一步从数据保护的层面、数据库保护的层面、数据处理的层面以及数据安全的层面进行讨论。由于数据本身是一种事实,而事实是没有办法被任何人所享有的,加之数据不具有时间和空间的限制,在其之上无法建立以公知公示为基础的权利,因而谈及数据只能采用占有这个概念。即使采用商业秘密保护数据,其所保护的也仅是法益而非权利。欧盟和美国正是认识到了这一点,所以将视野转向对于数据库的保护。欧盟发布了《欧盟数据库指令》对数据库进行设权保护,其试图通过对数据库的保护达到对投资的保护,但之后的评价报告显示该保护方式并没有为数据库产业提供足够激励。不同于欧盟,美国通过许可合同规范,以“自律”方式保护数据库。在数据处理层面和数据安全层面,孙远钊教授强调,其保护的对象仅是数据反映的内容,而非数据本身。欧盟通过GDPR实现这两个层面的数据保护,而美国则通过一系列碎片化成文法解决数据处理过程中的个人隐私和国家安全的问题。

随后孙远钊老师具体介绍了欧盟GDPR对个人数据的保护情况以及存在的问题。由于GDPR赋予数据主体的八项基本权利来源于OECD对于数据处理建议的八项原则,且这八项权利除被遗忘权外,都能够在1995年就开始施行的《数据保护指令》中找到踪迹。因此,孙远钊教授认为欧盟GDPR对于个人数据的保护是一个演化过程而非革命性的创造。GDPR为数据主体提供了自诉权,同时配套严厉的处罚措施以保障数据主体的权利。在数据相关权益中,比较有争议且容易引起诉讼的是数据携带权和被遗忘权。就数据携带权而言,Schrems案后欧美之间的“隐私盾框架”失效,至今也未有替代方案,而欧洲议会敏感信息外溢事件也体现了欧盟理事会对于跨境数据传输的谨慎态度。就被遗忘权来说,GDPR赋予数据主体的仅仅是一个请求数据控制者删除数据的权利。一方面,这无法真正实现数据的彻底删除,因为其仅仅是在搜索引擎上的删除。另一方面,其涉及到对于之后社会公众搜索信息的阻碍。此外,GDPR规则下,数据控制者是实际上决定某种数据是否符合删除权要件的主体,这相当于赋予了侵权人以决定权。

最后,孙远钊老师认为GDPR还需要很长一段路去完善,其呼吁立法不应当轻易赋权,需要谨慎考虑赋权之后所带来的挑战以及各种利益之间的平衡。

中国政法大学民商经济法学院博士生易镁金的演讲题目是“中国法下数据利益的反不正当竞争法保护”。

易铨美同学认为,数据的逻辑结构分为政策层面、数据流通层面和技术层面。政策层面设定不同的部门法,其目的在于为数据的流通提供良好的环境。而技术层面的安全措施旨在保护用户的个人信息和隐私,同时也需要法律对于技术措施进行限制来限缩用户对于其个人信息的控制以便于数据利用。

通过对于中国刑法、行政法、民法以及地方法律法规的分析,易铨美同学认为我国对于数据保护的立法体系是在不断完善的,但仍旧未明确说明数据的财产权利设定问题。其认为中国法上一直未提及数据的财产权是因为不同于物权这类有形财产和知识产权这类无形财产,数据能够被重复使用,不具有排他性,很难被个人所拥有,且数据的范围很广,不仅包括个人数据,还包括企业数据和公众数据,涉及到诸多方面。即便如此,目前仍有大量关于数据权利的理论,如新人格权理论、狭义知识产权理论和绝对权保护理论。易镁金同学认为以上保护框架会引起垄断问题,不利于数据的流动。但是为了促进数据相关产业的发展,数据处理企业的利益应当受到保护,搭便车的行为应该被禁止。由此其提出了基于利用情景的数据保护规则。数据处理过程可以基于《个人信息保护法》进行保护,此时需要充分尊重用户的个人信息和隐私权。数据分享和交易过程通过合同法进行规制,此时应充分尊重合同当事人的意思自治,减少数据的排他垄断以促进数据流动和相关市场的繁荣。在涉及数据竞争场景时,《反不正当竞争法》能够发挥作用。因为反法本就旨在调整竞争关系,这种保护模式十分契合数据能够由多个主体共享的特征,并有利于各个主体权利的动态调整。从社会法角度来看,反法能够提高消费者福利;从行为法上来看,反法具有谦抑性,能够最大程度地促进数据流动;从秩序法角度看,反法致力于维护市场秩序,促进市场竞争。

点评环节

香港中文大学法学院李治安教授点评:

李治安教授认为各位演讲者大致可以分为数据的财产保护方和反法保护方。

对于田村善之教授的演讲,其表示同意田村善之教授排他权保护并非总具有正当性的观点,但有些时候知识产权法是具有政策导向的。对于田村善之教授提出的产权路径和行为路径,其就如何区分二者的优势提出疑问。此外,李治安教授还提出了科技路径,即新的权利类型的发展总是基于科技的发展。

对于GiovanniComandé教授的演讲,其认为欧盟的《人工智能法》草案提出了一个十分新颖的人工智能规制方法。美国也有相应的人工智能法案,但和欧盟的不尽相同。美国关注于对人工智能歧视的规制以及人工智能审查,强调人工智能的透明化。

对于吴梦漪副总裁的演讲,其认为对于数据,法律的规制过多和过少都有危害,因而平衡的把控十分重要。

对于蒋舸副教授的演讲,其同意商业秘密和数据有很多相似之处,但表示商业秘密不是一个通过财产法进行保护的最好例子。因为商业秘密保护起源于衡平法中的信托责任。普通法体系中,只有美国将商业秘密作为财产进行保护。此外,其认为,如果蒋舸副教授所指的数据包含个人数据,那个人数据可能就不太适合作为可交易的财产进行保护了。

对于冯晓青教授的演讲,其同意数据具有一些财产属性,但认为个人数据涉及人格,这和其他的知识产权是不尽相同的。

对于孙远钊教授的演讲,其表示欧盟的数据保护方法和日本以及中国都有很大不同,这三者之间的法律体系的交流将会十分有意义。

对于易镁金博士生的演讲,其希望她就中国未来的数据保护模式进行预测,是会朝着融合的法律模式发展还是说依据数据类型的不同而分别保护的模式发展。

清华大学法学院崔国斌教授点评:

崔国斌教授的评议包括四个方面。

首先是数据保护的财产法路径和行为法路径的选择问题。其同样赞成通过财产法路径保护数据。其认为财产法路径和行为法本质上并无区别,只是程度上的不同。财产权利同样也是作用于人们之间的行为而非物理状态的事物。从法律实践来看,之前人们也会因为著作权的限制过多而否认将其作为产权来看待,但现在这是大家都接受的事实。相比于反不正当竞争法模式,财产法模式更具有确定性,通过借鉴已有的知识产权法模式,也更便于公众接受,而且财产法模式下也有诸多途径来防止对数据的过度保护。

其次是关于日本通过反不正当竞争法保护数据的问题。其认为日本反不正当竞争法对于数据的保护过于宽泛,并且不赞同日本对于大数据技术措施的保护。因为对技术措施的保护会增加社会成本且超过了数据保护激励的必要。

再次是对于Pendleton教授在知识产权领域建立一般的反盗用法观点的看法。其认为如果只是用反盗用法作为知识产权法的补充是可以的,因为目前出现了很多知识产权法制定时不存在的新型问题。但崔国斌教授无法同意用反盗用法替代知识产权法,因为知识产权法已经发展出自己的利益平衡机制,而这是反盗用法所不具有的。

最后是对于孙远钊教授所说数据产权所带来问题的意见。其不同意孙远钊教授“数据无法被所有而只能被占有的说法”,其认为数据库就相当于数据的集合。在这之上,也是能够建立所有权的。

澳门科技大学法学院易在成副教授点评:

易在成教授赞同Pendleton教授的看法,即通过著作权法规制数据存在一些问题,并认为各位演讲嘉宾的观点都很新颖。其认为以下问题还值得继续讨论。一是到底什么是大数据。二是大数据和个人数据应当分开讨论,大数据涉及法人,可以用反法保护,而个人数据涉及自然人,应当用民法和著作权法进行保护。三是田村善之教授提出的疑问“我们是否需要通过新的法律来规制数据”。

自由发言与讨论

关于数据的财产属性和数据财产权,孙远钊教授表示,其所说的数据是没有进行加工,没有人力劳动付出的原始材料,因而其上没有财产权。崔国斌教授所说的数据库是经过加工处理后的数据,这时候才能够讨论所有权的问题。数据是一种财产,但却不能成为财产权的客体,因而提及数据只能说占有而非所有。崔国斌教授表示其同意孙远钊教授的概念区分,其所说的财产权路径也是建立在对于经过处理的数据之上的。

会议总结

李扬教授向各位嘉宾以及主办方、协办方表示感谢。对于本次会议讨论内容,李扬教授表示人工智能生成物问题应当从哲学高度进行考虑。人工智能只能作为工具进行看待,人工智能生成物的权利只能归属于人工智能的所有者或者使用者。此外李扬教授十分认同田村善之教授的观点。法律只是最后的手段,面临新的问题,如果市场能够解决则无需法律的介入。在市场失灵的情况下,应当司法先行,通过对于现有法律的解释而非重新立法创设权利的方式来解决问题。当前,著作权法、专利法以及反不正当竞争法足以为大数据提供恰当保护,因此无需在大数据之上创设新的权利。当通过反不正当竞争法或者侵权法的一般条款来分配大数据资源时,考虑是否保护数据所有者的利益应当依据激励理论而非复杂的商业道德或是抽象的竞争秩序。

当前,随着大数据与人工智能技术及其相关产业的发展,数据与人工智能的知识产权问题也越来越重要。基于技术与法律互动、法律制度需要随着技术的发展而及时变革与完善的基本原理,对于数据、人工智能的法律保护制度也需要与时俱进。本次研讨会的成功举办对于促进知识产权领域的国际交流,特别是深入推进关于数据与人工智能知识产权保护的研究具有重要意义。

 (会议综述由李扬教授和其知识产权法学硕士研究生谭梦溪、陈天佑共同撰写)

论人工智能算法的知识产权保护

内容提要:人工智能算法具备高度的技术价值和保密属性,将其纳入知识产权客体范畴,可以促进相关知识信息的开放与传播,有助于促进我国相关技术进步与产业发展。我国现行《专利审查指南》将涉及人工智能等技术前沿领域的“算法特征”纳入专利保护范畴,但缺乏对人工智能算法技术和法律描述,也未明确规定相关对象的可专利性规则。对此,应从技术角度将人工智能算法进一步细分为底层通用算法和上层应用算法,并根据二者不同的技术属性,分别设计知识产权保护方法。对专注于解决“如何模拟智能”这一技术问题的通用算法,应利用专利制度促进相关技术研发和信息交流。应用算法在“如何使用智能”方面的创新性较强但技术性较弱,可以综合运用包括专利、著作权、商业秘密在内的多样化制度工具对其进行保护,同时应注意保护的方式与尺度,避免过度保护。

引言

人工智能(ArtificialIntelligence)源于人们对未来世界的幻想,但由于目前缺乏对应的技术以及产业支撑,长期停留在想象的阶段。设想中的可以运用智力能力替代人类智力劳动的人工智能是否会真正实现仍然充满悬念,但现代信息技术支撑下的人工智能产业,已经展现出了革命性的效率和智能优势,并成为宏大的智能时代的物质基础。从现实的角度观察,人工智能相关领域的技术研发十分活跃,市场竞争亦十分激烈。无论是技术底层的通用算法,还是体现于应用逻辑的应用算法,都承载了相关研发者、经营者大量的技术知识、经营知识以及物质资源,具有较高的技术价值和经济价值。人工智能算法相关的知识和投资利益的分配合理与否,对相关领域的技术创新和市场开拓具有重要意义,也直接关系到公共领域相关知识开放与共享的水平。因此,将人工智能算法纳入知识产权制度,既符合我国的发展需求,也具有理论上的重要意义。人工智能算法开发和应用中所产生的种种利益需要知识产权制度的确认与规制,相关的知识信息也需要通过知识产权制度的运行和发展,以合理、有效的方式从技术底层的隐蔽状态走向传播与开放。当下,我国相关知识产权立法已经注意到了人工智能算法知识产权保护的价值与意义,但在知识产权客体身份认定和保护路径选择方面,仍略显粗糙。因此,有必要从知识产权语境出发,澄清人工智能算法的技术特性和法律属性,找寻合理的保护路径。

一、我国人工智能算法知识产权保护的反思

当下,人工智能技术与各类应用正以前所未有的速度和力度改变着人类社会,并引起相关经济与社会利益的深刻调整。作为现代信息技术的最前沿领域,人工智能以及当中主要的技术对象——人工智能算法,也因高度的技术复杂性、较高的企业技术与投资门槛、广泛的应用前景和极富想象力的长远获利空间,引发全社会的普遍关注,也成为近年来的研究热点。其中,相关的知识利益保护和知识信息传播问题凸显。但是,从现行制度设计和运行的角度观察,我国目前对人工智能算法的知识产权保护仍然存在完善空间。

首先,对于“人工智能”这一特殊对象,我国相关知识产权保护的制度目标尚不够清晰——在当前社会鼓励创新、强化知识产权保护的整体氛围下,将人工智能以及内部重要技术对象纳入知识产权保护范畴,仅仅是一个“自然而然”的惯性思维,还是一个具有较强现实需求和内在合理逻辑的主动追求?现实中,知识产权并不是某种自然权利,其创设与运行需要进行利益测,“知识产权引起的创新所带来的福利增长高于知识产权限制知识传播而造成的福利损失,总效益就会最大化”。这意味着,不能因为人工智能算法具有技术先进性,并且拥有广阔的应用前景,就可以自然而然将其纳入知识产权的保护范畴。还需要更加细致地观察与思考:我国期望通过人工智能算法的知识产权保护获得什么样的利益?是通过设立法定的垄断权来激励更积极、活跃的研发投资,还是通过知识产权保护换取更多的知识信息交流,提升我国相关产业的技术水平,打破“技术黑盒”所带来的信息传播和应用障碍?近年来,我国人工智能相关研究的数量和专利申请数量迅速攀升。但无论是频繁发生的境外技术封锁或者“卡脖子”事件,还是社会公众日益不满的“算法杀熟”“算法歧视”甚至“算法压迫”事件,都暴露了我国相关产业在技术底层方面的薄弱,以及在上层应用方面的不规范。要从根本上扭转我国相关领域的不利局面,需要多方面的制度配合。知识产权制度方面,体现为在技术研发环节促进人工智能算法相关知识信息的传播与使用,在应用环节防范知识产权过度保护造成的权利滥用风险。

其次,对于“人工智能算法的知识产权保护”这一新课题,我国相关知识产权立法者已经意识到了其重要性,但缺乏配套规则。对于“涉及人工智能、互联网+、大数据以及区块链等的发明专利申请”,我国专利制度通过“如果权利要求中除了算法特征或商业规则和方法特征,还包含技术特征,该权利要求就整体而言并不是一种智力活动的规则和方法,则不应当依据专利法第二十五条第一款第(二)项排除其获得专利权的可能性”的规定,原则性地将其纳入专利保护范畴,是对现代信息技术前沿领域知识产权保护需求的直接回应。但是,在判断相关对象可专利性的具体问题时,仍然遵循的是“整体考虑”“技术方案”的笼统性规定以及“运用自然规律”的“旧规则”。这种具体规则层面的相对滞后,同与时俱进的知识产权保护理念之间形成了不合理的落差,需要相关研究予以关注。与此同时,虽然人工智能算法是一个极具技术前沿性的对象,但“算法”j并不是一个新对象。这就导致在有关人工智能算法的知识产权保护思路方面,我国相关制度的构建与运行面临着“算法知识产权保护”与“计算机软件知识产权保护”相混同的困扰。传统计算机软件算法普遍存在于软件设计和运行环节,它和计算机源代码除了整体作为商业秘密获得法律保护之外,一般不受专利制度的保护。二者可以被纳入到作品范畴的部分,获得著作权的保护。传统计算机软件算法和源代码与“智能时代”语境下的人工智能算法是否存在本质区别,以及对传统对象的知识产权保护是否可以顺理成章地延伸到人工智能算法领域,是亟待澄清的问题。

第三,对于“人工智能算法”这一技术对象,我国相关知识产权制度尚缺乏清晰和科学的界定。虽然在现有的各类纲领性文件、制度规范、学术成果中大量出现“人工智能”“人工智能算法”等表述,凸显了我国相关主体对人工智能及其算法的重视。然而,“智能”仍然是一个横亘于电子信息工程、生物学、心理学乃至哲学领域的认知难题。无论是制度建设还是法治研究层面,仍然缺乏对相关技术概念和法律概念的融合,以及更细致的类型化分析。在“人工智能算法”的类型化方面,过多的技术细节,会为法律制度的构建与运行带来不必要的干扰,脱离相关技术原理,又会造成制度目标的落空。对此,应从制度原理与技术原理两个角度出发,对“人工智能算法”这一复杂、复合的对象进行合理的细分。在制度层面,应将人工智能算法相关信息分为技术和知识信息创造以及如何应用人工智能系统两个部分,分别对应“促进信息开放与传播”和“促进创新的同时防范知识产权过度保护”两个制度目标。在技术层面,则应区分“人工智能算法”中真正“实现智能”的技术底层内容,以及应用环节中的算法信息。前者主要指向的是“自主智能体”所对应的“人工智能通用算法”,后者则主要产生于人工智能相关的应用活动,并成为“人工智能应用算法”。这种划分方式,既符合相关技术原理,也符合人们对“人工智能”的感性认识——人工智能系统中必然应当存在一个“解决是否具有智能”的核心内容,否则的话,“如果只是将不同的传统计算机软件算法结合起来,每种算法只能解决人工智能的一小部分问题,那么很快我们就会撞到复杂性这堵墙”。找到这个核心的内容,设计出这个通用的算法,是相关技术发展的关键和难点之所在。以这样的基础出发,认识和理解人工智能算法技术,并将其合理地映射于法律框架内的细分类别,同样是人工智能算法知识产权保护的应有之义。

二、人工智能算法基本范畴的厘清

无论从本源上理解或者再现智能有多么困难,人工智能算法都不应当被看作是简单地被信息化或者电子化后的传统事物,也不应该被视为某种不可理解的技术混沌,而必须是现实的、可以被感知和流转的法律对象。人工智能算法具有鲜明的技术和使用价值,需要通过专门的观察和研究,判断其是否可以成为合格的法律制度对象。

(一)人工智能算法的概念与特性

无论是传统的计算机软件设计,还是科幻色彩浓厚的人工智能都离不开算法。从技术原理角度观察,人工智能算法的设计,是研发人员通过运用不同的技术手段实现“认知可计算化”来进行的。长久以来,通过工业化的技术和生产能力来“模仿人类思维”始终面临着重重技术困难。相关研究人员仍然在孜孜不倦地整合不同的认知计算方案,找寻真正足以模拟、再现甚至超越人类智能的“终极算法”,以求有朝一日能够真正地解放人类智力劳动。

人工智能算法的技术特性,主要体现在它自身输出的不确定性和对外部数据的高度依赖性。输出的不确定性,体现于人工智能算法的运行结果是一个新的、经过了自我“进化”以至于更趋近于人类智能的“新算法”,并以此区分于传统的、依赖于人类预先设定的“规则集合”。新算法的生成,又会成为未来更新版本算法的基础。因此,不能以“映射”的方式预判人工智能算法的输出结果,也无法以类似的方式实现对某一版本算法的验证或者检查。在这一过程中,人工智能算法的自我更新与完善,还具有高度的外部数据依赖性。外部数据的持续供给以及供给质量的高低,将直接决定相关算法自主进化的水平,进而影响到整个人工智能系统的功能。换言之,在现实的技术背景下,不存在“离线”或者“脱网”的人工智能系统,在评价人工智能算法的功能时,也不能够忽视外部数据供给的作用。与此同时,它还具有“跨语言”的通用性,即不同的使用者(编程人员)可以根据人工智能算法的内容,结合自己个性化的数据输入,就可以实现自己所期望的功能,形成创新的人工智能应用。这也从技术层面决定了,人工智能算法具有客观的独立性和物理可分割性,可以在法律层面上被识别、使用和流转。

(二)与传统计算机软件算法的辨析

传统的计算机软件同样拥有自己的算法,并且依照算法的设计而进行自动化操作。现实角度下的人工智能并未脱离二进制逻辑基础,亦遵循近似的设计和编程架构。因此,在技术上,可以将人工智能算法看作是对传统的计算机软件算法的继承和发展。但是,二者存在的显著差异,也为人工智能算法的法律保护增添了特殊性。

一方面,从功能上,人工智能算法专注于解决“如何模拟人类智能”这一特定问题,既包括如何运用信息技术再现人类智能,也包括如何在社会管理和经济活动中应用这种信息化的智能。与传统计算机软件算法的广泛存在和应用相比,人工智能算法的技术功能更为确定,应用范畴也相对单一。也即是说,在当前技术背景下,人工智能算法设计以及相关应用活动仍然围绕人工智能技术而展开,不至于受到相关市场中各类产品、服务本身功能和属性的过多影响。这种技术功能和应用范围上的有限性,为人工智能算法的专门保护提供了现实的可操作性。另一方面,从运行方式的角度观察,人工智能算法始终处于发展变动状态,而非传统计算机软件算法的“静态”或者“完成”状态。如同人类随着年龄、阅历增长,心智会不断健全完善一样,人工智能的智能水平也始终处于一个不断更新、完善的动态过程,而且更新周期更短、进化程度更高。此时,相关算法新版本与旧版本之间所积累的技术效果差异,足以使之成为现实中不同的技术方案。这一特性,使得同一名目之下不同版本算法所能达到的技术效果相差甚远,为相关对象的识别增添了难度。与此同时,二者间的易混淆性也给相关知识产权保护带来了操作层面的困难。我国《专利审查指南》为了顺应时代发展,将人工智能算法纳入了专利保护范畴之内,却同时保留了将“算法”和“计算机程序本身”排除在专利保护之外的做法。如果不能在认知层面厘清“人工智能算法”与“传统计算机软件算法”以及“计算机程序本身”的概念差异,将会带来现实专利保护的混乱。

(三)人工智能算法的法律定性

人工智能算法作为一个技术概念,于法律制度而言仍然过于笼统,还需要进一步细分。结合人工智能算法知识产权保护制度的目标与技术原理,在知识产权法律制度语境下,人工智能算法可分为两类:一是专注于模拟或者再现智能的通用算法;二是驱动创新性产品或者服务运行的应用算法。在同一人工智能系统范畴内,这两类细分算法均属同源,彼此间呈现出类似于“主干”与“枝丫”的关系。但是,无论是专注于模拟智能的通用算法,还是以创新的方式应用智能以驱动相关产品或者服务的应用算法,它们都是基于同一人工智能系统而被设计和运行的具体的对象。此时,人工智能算法不能简单地等同于抽象意义上的思路、方法,也不同于具体产品或者服务在制订运营策略或者设计软件逻辑时所遵循的一般性规则或者步骤。因此,人工智能算法是一个独立存在于整个人工智能系统之中的对象,它可以被单独地表达出来或者被阅读,也可以被一般的技术人员所理解,是一个被用于解决特定技术问题的技术方案,具有明确的使用和交换价值。

值得注意的是,虽然细分视角下的两类人工智能算法都是信息技术条件下的产物,其基本形态统一于相应的技术规范和产业习惯,但由于其基本功能的差异,会造成二者在法律属性上的差异:通用算法专注于解决如何模拟、再现智能的技术问题,是一种完备的技术方案,具有较高的技术客观性;应用算法则作用于开创新市场或者对传统市场的智能化改造。虽然它也与“如何在具体场景中使用智能”这一技术问题相关,但更多地是体现相关系统使用者的策略、偏好等主观意愿。因此,无论是从抽象角度还是细分视角出发,人工智能算法都属于技术方案,并且具有相对确定的外在表达。但是,通用算法与应用算法的差异,也为知识产权制度的运用提出了不同的要求:对于通用算法,应考虑的是如何通过法律制度促使相关主体将“黑盒”状态的技术方案以适当的方式尽可能多地向全社会公开,提升我国相关领域的知识供给,促进技术信息的流动;对于应用算法,应考虑的则是对其在各种具体应用中所遵循的“方法”或者“策略”予以知识产权保护的必要性、合理性以及找寻合适的保护路径和保护尺度,在保护和鼓励创新的同时,更注重避免过度独占知识。

三、人工智能算法知识产权保护路径的整体设计

人工智能算法是相关研发人员智力劳动的成果,依赖于庞大的物质资源投入,具有重大的技术价值和市场价值。与此同时,由于人工智能算法开发技术十分艰深,相关研发活动还面临着较大的失败风险,致使投资利益受损。由于保护制度的缺失,人工智能投资者、研发者往往将相关知识成果视为最为核心的技术秘密予以保护,以保持竞争优势。以“秘密”的方式保护人工智能算法可以弥补保护制度的不足,具有现实的合理性,但却未必有社会可取性。本文认为,无论是从促进知识公开和广泛共享的角度,还是从降低“技术黑盒”对监管抵触的角度,都应该以知识产权制度为首选,确认和保障人工智能算法开发和应用活动中的种种利益,并以此为交换,促进相关知识信息的开放和流动。同时,人工智能算法与知识产权客体具有形态上的相似性,具有获得知识产权制度保护的天然便利。具体而言,需要解决以下三方面的基础性问题。

(一)明确知识产权客体

尽可能地使知识产权制度贴近于人工智能算法技术与应用现实,是相关技术创新、市场应用以及实现必要监管乃至相关领域公共知识增长的客观要求。对此,需要明确,在知识产权制度语境下,人工智能算法应当具备独立的客体地位——它不是碎片化的设计思路、文字描述、软件代码或者工艺流程图表的机械组合,也不是传统计算机软件算法的一个特例或者亚种,而是一个新的、具备独特功能和清晰边界的有机整体。即便当下为其进行专门立法的时机尚不成熟,但其仍然是一个值得法律制度予以关注的对象。

现实中,人工智能算法已经从深埋于技术底层的后台走向了可以被社会公众直接感知的前端,甚至在一定程度上直接引发了制度回应。无论是我国颁布《中国禁止出口限制出口技术目录》对“智能推送算法”进行直接管制,x还是域外立法实践中对公用事业领域算法进行监管的“算法问责法(AlgorithmicAccountabilityBill)”,都将人工智能算法的识别和规制问题摆到了司法活动和法律治理的视野下。人工智能技术相关的法律治理活动由抽象走向具体、逐步聚焦于核心技术对象的发展趋势已经十分明显。当下,我国对人工智能的关注大多体现在相关的纲领性文件之中,相关表述也带有系统性和战略性色彩:一方面,强调科技伦理,或者以“风险视角”来审视人工智能相关技术以及应用;另一方面,也注重从技术攻关和产业发展规划的角度描述相关基础理论、技术对象和应用场景。当前立法层面的少量尝试,也较显粗糙。这种略带应急色彩的处理方式,或许可以快速回应社会关注的典型事件,但显然无法应对其他纷繁复杂的人工智能应用领域。因此,应将相关制度运用或者构建的对象明确指向人工智能算法本身,方能符合技术发展要求和社会现实。即在务实的角度下,相关研究需要以对人工智能算法的精确物理描述和法律界定为基础,避免将其视作社会背景或者技术背景。从技术的角度将相对抽象的人工智能算法进一步地划分为“人工智能通用算法”与“应用算法”两类,可以在充分利用现有制度和体现制度针对性方面求取平衡,是较为稳妥和务实的做法。这种划分目的并不在于急切地创设新型的知识产权客体,而在于使人们在面对人工智能算法这一新型技术对象时,能够从更加客观和实用的角度出发,找寻合适的制度工具。

(二)确认相关利益

将知识产权保护的范畴扩展至人工智能算法本身,是更为宏大的智能时代法律治理中不可或缺的部分。这也引发了利益确认与分配层面的观察与思考:在当前的认识水平和制度运用水平下,人工智能算法相关的知识利益与投资利益是不是得到了足够的保护,以及能不能通过知识产权制度,促使一些原本没有纳入保护范畴而被深埋于“技术黑盒”中的重要技术内容得以以某种方式走向开放。机械地套用计算机软件著作权保护,将人工智能算法认定为“智力活动的规则和方法”以弥补知识产权保护不足的缺憾,并不符合相关对象具备高度技术性和应用性的客观现实。而相关领域较低的信息开放和知识共享水平,与当前算法保密甚至略显神秘的“黑盒”状态之间也存在关联。因此,从科学化、系统化的角度对人工智能算法予以精准识别和恰当保护,对于解决相关领域的知识独占与开放、技术利益确认和保护问题,以及突破“黑盒”障碍、实现智能时代的社会公平,具有积极意义。

具体而言,人工智能算法的知识产权保护应鼓励和保护创新,同时也要尊重相关主体的投资利益。这既是相关研究的出发点,也体现了人工智能算法知识产权保护的必要性与合理性。在当前的技术和市场条件下,人工智能并不会单独、不受控制地存在于现实世界或者虚拟的网络空间,而必然要归属于某一些组织或者个人。也即是说,并不存在脱离于自然人所掌控的、游离于开放网络空间的“自主人工智能”,赋予“人工智能自己”某种意义上的主体地位缺乏现实支撑。对应地,即便相关算法具备相当程度的智能性,它也不会脱离人的意愿自动产生或者脱离人的掌控。人工智能相关系统的运行决定了,它是以数据存储为基础、以特定算法为手段来模拟人的某些思想过程的智能行为。在这个过程中,算法开发的重要性、艰难程度以及各类资源消耗都是空前的。因此,相关智力劳动者、投资者的知识利益、投资利益应当得到法律的承认与保护。直接承载和体现相关智力劳动、资本投入的人工智能算法不应当被知识产权制度所忽视。同时,促进人工智能算法相关信息开放,也是制度的重要目标。这不仅是知识产权制度本身的固有功能,更是基于我国国情的现实考虑。我国虽然在数字经济方面取得了举世瞩目的成绩,但这还主要归因于我国庞大的数字市场和网络用户规模,在基础性的电子信息技术方面与域外先进国家或者地区相比仍有差距,技术进步乃至赶超的发展任务仍然十分艰巨。此时,无论是代表了现代信息技术最前沿的人工智能通用算法,还是体现创新性经营策略或者产品开发的应用算法,都具有很高的技术价值,对我国相关技术突破和产业发展而言具有重要意义。因此,具有吸引力的知识产权保护规则,是可以促使相关主体将有价值的技术从“黑盒”中取出的重要对价,不应当被忽视。与此同时,从公共利益保障的角度而言,也需要人工智能算法以适当的方式和程度实现开放或者公开,以便于有效监管利用“定价算法”进行“大数据杀熟”、利用“算法偏见”实施各种歧视活动以及利用“算法共谋”实施垄断等不正当的算法利用行为。在种种促进算法开放的做法中,以知识产权制度为工具进行“交换”的方式,私权色彩最为浓厚,公权力干预意味较淡,对相关经营者自主经营和技术、商业秘密的干预较小,亦较容易为社会所接受。

(三)选择保护路径

以何种路径实现人工智能算法的知识产权保护,决定了制度运用与构建思路上的差异。从惯常角度来说,对于社会上新出现对象的知识产权保护,主要有两种方式。作为首选的,是尽可能地使现行制度得以延伸至新对象或新领域。知识产权制度发展至今已经形成了较为完备的体系,在面对现代信息技术和相关创新性对象时,也展现出了强大的包容性和适应性。从现有制度的角度出发,对人工智能算法以及相关的新型知识产品予以确认和规制,可以充分利用已有的制度工具,具有较强的可操作性。此时,专利、著作权、计算机软件乃至商业秘密保护等制度均可依照各自的功能,对人工智能算法中的对应内容进行识别、保护和规制。然而,简单地对人工智能算法进行拆分使其实现与现有知识产权客体对应,不仅具有天然的松散性和不完备性,还可能导致认知上的障碍。这会使人疑惑人工智能算法究竟是不是一个单独的技术或者法律对象,又或者有没有被单独纳入知识产权保护视野中的必要,也很可能会造成“以人工智能算法知识产权保护换取相关信息公开”制度目标的落空。因此,对于新型知识产品,还存在着另一种路径,即尝试以人工智能算法作为新型知识产权客体,予以专门规定。这种做法的好处在于,通过对人工智能算法进行专门的识别和制度设计,可以直观地回应社会的制度需求,也可以凸显相关制度的针对性。但是,这种专门立法的方式,往往只适用于发展应用相对成熟和为全社会所熟悉的领域或者对象,需要相关客体具有公认的物理范畴和确定的应用方式,也要求全社会对相关利益的确认和分配达成基本共识。而人工智能算法本身的技术复杂性和应用多元性决定了相关的利益确认与划分将十分困难,仓促地进行专门立法不仅难以应对快速迭代的新技术,也难以就相关利益分配、行为规范问题提出经得起时间检验的方案。

因此,结合相关技术仍处于发展变动状态的客观现实,加快实现我国人工智能技术突破、鼓励和促进相关算法研发的制度目标,以及鼓励人工智能算法知识开放的现实需求,对于人工智能算法这一新型的知识产品,应以现行知识产权制度为基础,以人工智能算法的技术功能为区分依据,提供类型化的知识产权保护方案。即从技术本源的角度出发,以通用算法与应用算法作为人工智能算法的主要类别,分别考察相关的知识利益分配和制度应用方案,充分利用已有制度资源,实现知识产权制度自身的发展与完善。与此同时,避免对人工智能算法进行过于细碎的拆分,破坏其作为单独对象的整体性,也避免仓促专门立法脱离技术发展与应用现实的风险。

四、专利制度路径下的通用算法保护

处于人工智能系统底层的通用算法具有明确的任务和功能,即通过技术手段,在工程层面对人类智能进行模拟和再现。在此基础之上,将这一技术成果与现代信息技术强大的数据信息处理能力相结合,形成具备“智能+信息化”能力的革命性产品。这种鲜明的目的性和技术性表明,人工智能通用算法的设计目标与基本功能旨在解决技术问题,而非表达相关设计人员、投资者的内心世界,也不是为市场乃至全社会提供文学艺术作品。这就决定了,人工智能通用算法的知识产权保护应围绕专利制度展开。

(一)通用算法是合格的专利客体

人工智能通用算法的技术性极强,相关构思、设计乃至测试活动,均处于该领域研究与产业发展的最前沿。但也面临着研究周期长、研究风险高的问题,导致许多企业不愿涉足,需要专利制度提供必要的激励。然而,对人工智能通用算法的专利保护,相关制度始终缺乏明确的态度。这是因为包括人工智能算法在内的现代信息技术对象,以及所有信息化、数字化的产品或者服务,无论其智能与否,它们的表现形态都与计算机代码有着密切的关联。这种代码化或数字化的形态和应用方式,使它们兼具产品与方法的特性,而且很容易与不能够被授予专利的“智力活动的规则和方法”相混淆。长期以来,我国专利制度对此类对象往往持一种模糊和保守的态度:一方面,我国专利审查制度中“计算机程序本身属于智力活动的规则或者方法”的规则整体上排除了相关对象获得专利保护的资格;另一方面,专利审查制度又以“包含技术特征”为例外,对包含有“算法特征或商业规则”的权利要求授予专利权。这种略显矛盾的态度,也在一定程度上反映了立法者对于包括人工智能算法在内的种种现代信息技术产品在可专利性方面的犹疑。从顺应技术发展和鼓励创新的角度,应该将它们纳入专利保护范畴,但从界定客体对象、判断保护范围和明确授权标准等实际操作层面考虑,传统专利制度又显得不够适应。在现代信息社会条件下,人工智能算法相关专利授权标准变化对产业乃至整个社会所造成的影响范围都极大地超出了专利制度传统的作用领域。这种影响范围的不确定性,也在一定程度上强化了相关制度模糊处理类似问题的动机。

从合理性的角度观察,确认人工智能通用算法的专利客体地位,主要有以下四方面的理由。一是,外在形式上,人工智能通用算法与传统的专利权客体具有高度相似性。在人工智能系统相关设计、编程人员专业习惯的作用下,人工智能通用算法往往表现为伪代码(PseudoCode)。伪代码形式的人工智能通用算法,有清晰的物理边界,以区分于说明性质的文档、源代码、人为设定的参数(Parameter)或者外部数据供给。二是,实质内容上,人工智能通用算法足以区别于《专利法》中所规定的不授予专利权的抽象的“智力活动的规则和方法”。这是因为,通用算法的内容中包含再现智能所需要的完整的技术对象和必要步骤,而不仅仅是抽象的创意或者思路。而且,它被用于解决具体的技术问题,也符合专利制度对“技术方案”和包含有实施该专利技术所必须的全部必要技术特征的“充分公开”要求。三是,将“人工智能通用算法”纳入专利保护范畴,顺应了我国知识产权制度的发展方向,也是对相关制度发展需求的直接回应。虽然我国专利制度尚未突破“计算机软件本身不能申请专利”的规则限制,一定程度导致了制度与现实的脱节,但为了回应创新主体对进一步明确涉及互联网、大数据、人工智能等新业态、新领域专利申请审查规则的需求,我国也适时修改了《专利审查指南》,为相关对象获得专利保护预留了空间。四是,人工智能通用算法属于适格的专利权客体,也已经在相关学术研究中达成了一定程度的共识:虽然尚鲜有触及人工智能算法物理形态和表达方式的研究,但相关研究也基本倾向于认为人工智能算法“不属于智力活动的规则和方法”,可以获得专利保护。但是,对于人工智能通用算法而言,其能否获得专利保护只是一个前提性问题,进一步地,它应当获得怎样的专利保护,更具现实意义。

(二)以“产品专利”保护通用算法

“产品专利”与“方法专利”是对专利客体类型一种公认的划分方式。但是,“产品”与“方法”在客观层面存在显著差异,使得二者的划分并不明显。然而,在人工智能技术环境下,这种分类及其对应的专利保护方式,将不仅仅是一个行政管理或者学理上的分类,而是会决定相关专利之于权利人的作用,以及之于社会公众的价值。此时,产品专利与方法专利的保护差异,将决定人工智能通用算法专利的保护范畴和公开内容,从而影响权利人可以获得的法定垄断对象的范围,以及社会公众从专利文献中获得利益的多寡。

从我国专利的基本类型来看,人工智能算法专利应当属于发明专利。从语义上,其应当被纳入到产品专利范畴。但是,这种判断与我国现行的专利审查制度以及现实中计算机程序相关专利授权状态之间存在偏差。从现行《专利审查指南》的规定来看,与计算机硬件或者专门设备相分离的计算机程序(或者更具包容性和抽象性的“软件”)本身因为被视作“智力活动的规则和方法”而被排除了获得专利保护的资格。此时,无论是计算机程序,还是以二进制数字、高级编程语言或者其他信息技术编码等形式所表现出来的数据信息对象,虽然经常以某一产品的形式出现在市场或是社会应用中,但仍然不能被划入产品专利的范围中,甚至因此丧失了专利权客体的地位。在现实中,涉及计算机软件的专利申请为了绕过“计算机程序本身不属于专利保护的客体”这一限制,往往通过撰写技术处理,以“方法专利”的方式获得专利授权。但是,这种技术处理,不仅会造成严重的负面影响,也会导致对算法相关专利客体身份认知方面的混乱。这是因为,我国相关市场上已经存在着数量庞大的以计算机程序为主要内容的授权专利,也产生了大量的侵权纠纷。这一现实与制度的落差,会直接损害相关制度的严肃性和指引功能。而且,在这样的规则下,理论上具备更高严谨性和更高使用便捷性的计算机程序尚且不能成为专利权的客体,举重以明轻,无论是编写难度、严谨程度还是使用便捷性都明显低于计算机程序的伪代码,还是由其他标准化程度更低的表达规则所书写的人工智能通用算法,都不可能在“计算机程序本身不属于专利保护的客体”规则下获得专利授权。

无论是在客体地位,还是在产品、方法保护路径辨析的语境下,这种专利制度、社会认知与客观现实的错配带来的负面影响在人工智能领域更为明显。这是因为,拟申请专利的算法是作为一个“解决模拟智能问题”的步骤或者方法,还是作为一个具备“模拟智能能力”的产品并不明确。对于社会整体利益而言,其学习、借鉴和使用价值的差异较之传统的计算机软件相关专利更加突出。从方法专利权利要求和说明书的内容上看,社会公众虽然可以通过专利文献所公开的内容,在一定程度上了解相关算法的原理和设计思路,但在缺乏必要大数据分析的情况下,并不足以使“本领域技术人员”再现专利技术或者得到专利文献所声称的技术效果。换言之,作为其他经营者或者社会公众,知晓人工智能算法步骤并不足以使他们能够再现专利技术,更无法依照该方法生产出同样的人工智能产品。而人工智能通用算法作为产品专利,则可以在专利实用性审查制度的保障下,为社会公众提供充足、有效的公共知识产品。也即是说,通过技术处理人工智能通用算法权利要求和说明书的撰写获得专利授权的方式,有不当扩大知识垄断范围和无法向社会公共领域提供充足对价的嫌疑,并可能导致法定垄断与知识开放之间的失衡。现实中,无论是传统的计算机软件,还是智能时代下的新型产品或服务,从最初构想到具体设计、再成功走向市场的过程,都需要大量人力、物力的投入。从相关技术到市场的转化过程,思路、步骤与可用的产品或服务之间存在巨大的鸿沟。而其他经营者和社会公众通过专利文献仅可以知晓产品的思路,不足以在缺乏数据支撑的情况下形成可用的产品,更不可能与专利权人形成竞争。相比而言,最终可以被直接使用、阅读和理解的算法产品本身才具备真正的学习和使用价值。换言之,对某一信息技术对象授予方法专利,会导致其他人员非但无法从该专利文献中获取足够的知识,反而会受到不得使用相关方法、思路的限制。此时,社会公共领域的知识没有成比例地增加,违背了专利制度的立法本义。因此,从社会公共利益的角度看,更需要具有学习和使用价值的人工智能算法产品,而非看似清晰但缺乏外部支撑的智能方法或者智能步骤。

(三)通用算法特殊性的应对

通过专利制度对人工智能通用算法这一技术对象予以保护,具有理论上的正当性与合理性。但从实践的角度观察,相关的专利审查活动还面临着由通用算法特殊性所引发的问题。

一方面,应解决通用算法版本更迭所引发的专利客体范畴难以确定的问题。从技术原理看,同一人工智能系统名下的不同版本的算法,可能会具有截然不同的功能或性能,这与传统固定的专利技术方案存在明显差异。“版本差异”是人工智能通用算法作为一个整体所具有的天然属性,难以通过技术手段克服,只能通过专利制度的专门设计加以解决。对此,可以将相近版本的通用算法按照专利制度“属于一个总的发明构思的两项以上的发明”的规定,通过单一的专利申请和审查、授权规则来处理,以满足专利申请“单一性”的要求。也可以按照“专利族”的方式,将不同版本的通用算法申请不同的专利,以同族专利的方式对相关技术内容、技术效果进行描述,并整体考量相关专利所公开的知识范畴以及获取法律保护的权利范围。

另一方面,应注意通用算法运行所依赖的外部数据问题,协调算法自身功能与外部数据供给的关系。虽然人工智能通用算法是单独的技术对象,也是合格的权利客体和法律规制对象,但它的自主更新以及应用都离不开外部数据的支撑。由于人工智能通用算法开发周期长、复杂程度高、失败风险高,开发过程中的信息共享就显得格外有意义。由于现行专利制度不能对人工智能通用算法提供实质保护,以及对相关数据供给的不够重视,不但会导致公开相关算法设计资料的行为难以成为行业的主流,也会造成经过技术处理获得授权的算法专利因为缺乏数据供给而不能真正“开放”。因此,本文认为应专门规定:一旦人工智能通用算法被授予专利权,权利人不仅要公开通用算法相关的技术资料,还要一并公开必要的数据库或者数据信息来源,以满足“充分公开”的要求。这对社会公众而言意味着人工智能通用算法领域智力成果的充分共享,在保障权利人利益的同时也扩充了属于社会公共所有的智力财产,对于减少重复开发、促进智力成果利用具有重大意义。即我国《专利法》《专利法实施细则》《专利审查指南》等法规的完善,除了要摆脱“计算机程序本身不属于专利保护的客体”的不合理限制、对算法类技术方案赋予专利权之外,还应提供足以使相关算法“进化”至当前申请专利所需要的数据资料来源。值得注意的是,“表明数据来源”的要求,并不等同于“公开全部相关数据信息”,不会过多地增加权利人的负担,也不会侵害数据资源控制者的利益。此时,将被授予专利权的算法既可以被计算机相关领域技术人员所阅读和理解的方式公开,也能得到可靠的数据来源支持,方能符合专利保护的应有之义。

五、综合路径下应用算法的保护

人工智能应用算法,是相关主体在将已经具有了某种程度基础智能的信息系统应用于特定产品或者服务时,所采用的产品设计或者服务流程。其本质上是相关主体对人工智能的使用,而不是创造或者设计新的人工智能。即与人工智能通用算法相比,应用算法更强调智能技术与运用场景的结合。这意味着,相关的创新活动大多集中于使用环节,主要体现相关主体的主观意愿,与人工智能技术本身的关联较弱。对应地,对于人工智能应用算法的知识产权保护,也应采取不同的策略。

(一)审慎对待应用算法专利

虽然在基本形态上,人工智能应用算法与通用算法之间存在较多相似之处,也具有获得专利保护的可能。但是,本文认为,应以审慎的态度对待应用算法专利。

首先,人工智能应用算法的技术性较弱,当中所包含的具备专利意义上“公开”价值的内容较少,创新性的知识或者智力劳动成果所占比重也较低,无法对社会公共领域形成有效的知识回馈。对此,可从以下两方面理解。一方面,人工智能应用算法中有关技术本身的信息量不足。应用算法是现实中琳琅满目的智能应用所遵循的个性化方案,而非技术性的底层逻辑。这意味着,虽然同为算法,但“通用算法”与“应用算法”之间实质上是一种类似于“土壤”与“种类繁多的农作物”的关系:名目繁多的智能或者非智能的数字应用带来了空前繁荣的市场,但它们却是构建于通用算法的“智能土壤”之上的。这种技术层面与应用层面上的划分,也喻示了二者在制度层面的差异:从我国发展人工智能技术以及相关产业的角度看,智能算法是更具技术性,也与产业链安全、国际竞争力乃至国家安全等宏观目标联系更为紧密,应当获得专利保护;应用算法更多体现的是相关主体对其所运营的产品或者服务的理解和认识,更具个性,且其中可归入专利保护范畴的技术信息内容较少,难以对社会提供充足的对价,并以此换取专利保护。另一方面,人工智能应用算法为相关产品或者服务所带来的进步并不完全来自于算法本身的创造性,而是更依赖于对外部数据的挖掘。从技术原理角度观察,人工智能的分析能力和决策能力以大数据技术为基础,并且在整个技术环节和应用周期中,都与数据供给的数量和质量直接相关。即在通用算法之外,无论人工智能应用算法有多么优秀或者与众不同,决定最终产品或者服务应用价值的是外部数据供给。因此,对人工智能应用算法授予专利权,可能造成思维或创意的垄断,专利制度将不能为社会公众提供匹配的技术信息。

其次,现有专利制度对于人工智能应用算法的规定十分模糊,缺乏明确的专利审查和授权标准,会导致专利保护不当地延及抽象思维。当下,我国虽然以“包含技术特征”为例外的方式,对现代信息技术环境下的算法或者商业方法授予专利权,但并没有突破不对纯计算机软件类对象授予专利权的原则性规定。因此,本文认为也可以将我国专利制度对于是否对应用算法授予专利权的态度归结为“以不授权为常态,以授权为例外”。我国专利审查制度这种模糊甚至略显矛盾的规定背后,既有知识产权视野下的人工智能算法客体范畴始终不够明确的技术性原因,也是专利制度在面对人工智能算法这一新型知识产品时应有的态度:希望通过专利制度的运行,促使人工智能相关领域尽可能多的技术细节得以披露或者共享,而非对抽象思维层面的创意授予垄断性权利。

最后,应用算法与商业方法的界限十分模糊,贸然地因为商业方法具备人工智能因素就认为它具有技术特征、属于技术方案进而授予专利权,既在理论上不严谨,也会带来现实的操作障碍。对于商业方法是否可以获得专利保护的争论由来已久。通说认为,只有运用技术手段解决技术问题且具备技术特征的商业方法才能区别于抽象的智力活动、思路或者思维,进而成为专利保护的对象。在传统的“硬件/软件”二分视野下,类似的规定可以在一定程度上解决如何判断相关客体对象是否属于思维或者技术方案的认知问题,又或者,可以通过“软硬件相结合”的技术处理解决涉及计算机程序的可专利性问题。但是,这样的机械式判断终归无法满足当前社会鼓励和保护人工智能相关领域创新的需求。因为在现代信息技术条件下,具备创新性的产品或者服务通常具有数字化的外部形态,不会清晰地表现出其是否具有技术特征,也无法呈现出如传统计算机软件与硬件般泾渭分明的状态。虽然我国知识产权管理部门早已意识到了这一问题并且尝试将相关对象的基本范畴规定清楚,但这一问题始终没有得到真正解决。而从基本形态与功能的角度观察,人工智能应用算法与相对传统的商业方法之间也没有清晰的界限,二者的区别仅仅在于前者在各类应用活动中使用了人工智能技术,而后者可能利用的是其他技术。二者本质上的混同,也为人工智能应用算法的可专利性问题带来了额外的认识和判断障碍。

(二)应用算法表达的著作权保护

以审慎的态度对待人工智能应用算法,并不排除其他的知识产权保护路径。事实上,无论是将应用算法归为类似计算机软件的客体,还是将应用算法中可以独立拆分的对象单独保护,都可以通过著作权制度对其进行一定程度的保护。

一方面,可以把人工智能应用算法整体纳入计算机软件范畴,通过著作权制度保护相关智力劳动成果。根据我国《计算机软件保护条例》有关规定,人工智能应用算法并不能被认定为“计算机程序”,但是,这种技术性的表述并不足以构成将人工智能应用算法纳入保护范畴的理论和现实障碍。这是因为在著作权制度语境下,人工智能应用算法和计算机程序可以受到保护和不能受到保护的部分是完全一致的。虽然人工智能算法的表达方式并无技术或者法律上的直接规定,但也会遵循一般的技术表达习惯,具有惯常的表达形式,不会过于随意或者脱离相关行业惯例。在计算机相关产业的一般性开发流程中,通过伪代码书写的应用算法,与通过高级编程语言所书写的源代码之间并不存在本质差别。它们都表达了相关研发、设计人员的主观思想和解决具体问题的思路,也是相关人员直接书写、阅读和修改的对象,两者区别仅仅在于后者可以直接被计算机系统编译成目标代码。这种程度的技术差异,决定了二者虽然在技术层面有所分工,但并不足以使它们成为著作权制度下不同性质的对象。因为著作权制度所保护的从来都是计算机程序或者相关文档的外在表达,而非它们所体现的实质思想。也即是说,无论是可以被直接“装置执行”的目标代码,还是“可以被自动转换成代码化指令序列”的源代码,又或者是表现为伪代码形式的算法,它们受到保护的部分是一致的,均是它们的表达,而非功能性的内容。另一方面,人工智能应用算法中包含大量可以被纳入作品范畴的对象,可以获得著作权保护,并间接地形成对应用算法整体的知识产权保护。在人工智能应用算法中出现的种种说明性的文字资料、图表等对象,也可以受到著作权制度的保护。虽然这种做法与人工智能算法知识产权保护的应然路径有所偏差,但在一些具体的场景可以发挥作用。

(三)商业秘密制度的必要配合

在现实中,人工智能应用算法可以通过商业秘密制度来获得保护。从现实角度观察,人工智能应用算法运行于相关智能系统的技术底层,具有天然的非公开性。从制度资源供给的角度看,人工智能算法整体的商业秘密化可以看作是专利保护制度缺失所引发的被动选择,应用算法也不例外。由于人工智能算法没能得到知识产权制度的清晰识别和有效保护,相关主体只能将其作为最宝贵的技术秘密保藏起来。但从鼓励和保护创新的角度观察,以商业秘密制度保护人工智能算法并非公共利益视角下的首选。现代信息技术产品以及相关服务的高度复杂性和保密性,使得开发者只能在自己所能掌握的狭小知识范围内进行开发,对其他来源知识的获取和利用十分困难。而正是高额的开发成本和失败的风险,使得处于核心技术地位的人工智能算法一旦遭到泄露,不啻为开发者核心竞争力的流失。但是,随着我国相关产业规模的不断扩大,这种效率低下、“孤岛”一般的研发方式却越来越常见,与我国进一步促进创新、提倡知识技术开放共享和交流的发展理念相违背,也不利于我国相关产业的整体发展。即便如此,我国也应该承认人工智能应用算法属于适格的商业秘密保护客体,应体现对相关技术开发者、人工智能控制者知识利益和投资利益的尊重与保护。这也符合相关领域的客观现实。

在商业秘密保护的限制方面,应用算法“秘密化”的背后,除了知识产权保护缺位的被动因素外,也是相关经营者主动选择的结果。这种情况下,所涉及的应用算法是基于竞争关系而产生的保密性,而非智力劳动或者其他具有创造性的活动。此时,应用算法所体现的主要是相关研发机构、经营者的主观意愿,往往具有很高的保密性。相关主体借“技术秘密”之名将其隐藏于产品或者服务的底层,而仅仅通过提供受限的端口或者开放少量的操作权限,以实现对相关人工智能系统外部应用方式和效果的控制,或者以此为借口拒绝外部监管。对此,应当通过外部制度规制的方式,在一定程度上突破相关信息的“秘密性”,从而对算法设计、运行等活动进行必要的监管。与此同时,由于人工智能相关应用具有高度的数据依赖性,这种数据依赖所带来的影响,也必然超出技术范畴,引发广泛而深远的利益诉求。甚至于,这种在数据规模和更新速率方面的庞大需求,会极大地提高相关市场的进入门槛,使得相关国家或者地区在选择技术路径、建设基础设施以及实施法律治理时所考虑的利益因素超出了对人工智能算法本身技术性、开放性或者安全性的评价范畴。其也促使人工智能应用算法商业秘密保护制度所涉及的利益因素远远超出一般知识产权保护利益衡量的范畴,成为一个囊括知识产品识别与利益确认、知识信息保密与开放、市场竞争与安全利益平衡乃至国家与地区间竞争与合作的复合问题。对此,可以通过对人工智能应用算法相关商业秘密保护制度的合理设计,在保护秘密信息,促进算法开放、透明,以及保障信息安全、社会公平方面发挥积极作用。

结语

随着人工智能技术的飞速发展,各类智能产品或者服务愈发频繁地出现在社会各个领域,社会公众对“算法”这一原本生僻的技术对象也愈发熟悉。“人工智能算法”因为其高度的技术性和隐蔽性,成为了人们眼中极富神秘色彩的对象。现实中,人工智能算法相关的设计和研发工作充满了艰辛与挑战,并且还极大地依赖于数据供给以及庞大的资源投入,具有获得知识产权保护的合理性和必要性。而人工智能算法与传统计算机软件算法的混同,以及相关技术对象知识产权客体地位模糊的问题,导致知识利益保护的缺失和知识开放的落空。

因此,应从更贴近技术规律与制度目标的角度,将人工智能算法进一步细分为人工智能通用算法与应用算法两类,并施以针对性的知识产权保护。对于解决如何再现智能问题的通用算法,应将其作为一种特殊的技术方案,尽可能地纳入专利制度范畴。相关制度应突破单纯计算机软件难以获得专利保护的障碍,充分运用专利制度“保护换公开”的机制,促使更多的技术信息从“黑盒”走向开放。而对于偏向于经营策略或者智能产品、服务运营思路的应用算法,应以审慎的态度处理相关的专利问题,避免过度保护,同时应综合利用著作权制度与商业秘密制度对应用算法中适当的内容予以保护。

聚焦人工智能知识产权保护

2020年11月30日,中共中央政治局就加强我国知识产权保护工作举行第二十五次集体学习。习近平总书记在主持学习时强调,要健全大数据、人工智能、基因技术等新领域新业态的知识产权保护制度。

未来已来,人工智能已悄然走到我们身边,一时之间,机器人、智能创作、新科技、算法、大数据等一系列关键词纷至沓来,全面冲击现有的知识产权制度,这一切都将激发我们全面反思现有的知识产权制度。

机器人创作中“作者”概念的解读

在机器人创作中,机器人能否成为作者,这掀起了一场关于法律哲学中“人”的概念的大讨论。在既有的法律体系中,机器人还不能视为法律意义上的“人”,只能作为“工具”,这涉及权利主体和客体问题的讨论,两者划分的标准还在于“人格”要素。根据人格权的定义,人格是人作为人不可或缺的要求,诸如生命、健康、身体、名誉、隐私、姓名等。因此传统人格局限于自然人领域,而公司作为法人系虚拟人格。根据《著作权法》规定,创作作品的公民是作者,显然,《著作权法》将自然人定位为作者,而排除了其他非自然人作为创作主体。类似的法律问题还发生在猴子的“自拍照”是否具有版权的问题上,美国法院最终以其不符合创作主体为由,否认了该“作品”的版权。因此,如果将自然人作为唯一法律主体的前提不变,再聪明的猴子也无法像人一样享有知识产权,这与猴子的智商无关,与主体的属性有关。

然而,传统人格权制度却受到了来自人工智能的挑战。近些年来,人工智能专家在模拟人脑思维方面取得了重大进步,他们为机器人建设了大量的神经元,从而帮助机器人完成信息识别、深度学习、模拟思考等类人化行为,由此,机器人甚至表现出了比人脑更为强大的“创造力”。为此,是否有必要为机器人创设类似于法人一样的虚拟人格同样值得认真研究。2015年,欧盟议会还专门针对机器人相关的民法规范展开讨论,其报告草案指出,应当为机器人创设特定的法律地位,至少那些专门化的、具有自主性的机器人应当具有“电子人格”,并具有特定的权利和义务。事实上,这里的“电子人格”与法人的虚拟人格的意义仅在于科学地规范主体的权利、义务,基于“社会契约论”的逻辑来平衡各方的利益关系。

人工智能语境下的“独创性”概念

“独创性”概念是知识产权法中的核心概念,在涉及作品是否享有版权的问题上,主要取决于其是否具有“独创性”。英美法系关于作品独创性的判断标准,走过了“额头流汗原则”到“最低创造性”的演变,而大陆法系则要求体现作者的个性或者最低创造性,总之,两大法系在“独创性”标准上逐渐融合,并且都将其作为判断作品是否受版权保护的重要标准。机器人作品是否受版权保护?其所面临的首要问题依然是“独创性”问题。如果简单地从“机器人不是人”的逻辑出发,可以直接否定机器人作品的独创性。然而,在很多领域,机器人创作已让人无法区分作者是人还是机器人,比如,巴黎索尼计算机科学实验室的GaetanHadjeres和FrancoisPachet在音乐家约翰·塞巴斯蒂安·巴赫(JohannSebastianBach)的歌曲上训练人工智能系统,该系统使用了352首巴赫的歌曲,将其转换成不同的音符,形成2503个作品,包括专业音乐家和音乐系学生在内的1600名听众中,有超过一半听众都以为是巴赫本人的作品。机器人在很多文学艺术领域所表现出来的“艺术造诣”甚至远超人类,如果仅仅因为其是机器人,就否认高质量创作的“独创性”,却要赋予更低质量的人类作品“独创性”,这与“独创性”立法目的本身严重不符。

法理学上习惯将主客体分开研究,在人工智能作品版权的问题上,也有必要秉承这一思路。机器人是不是“人”,所要解决的是权利主体问题;至于机器创作的作品有没有“独创性”,要衡量的是作品的创作水准问题,理应属于权利客体的研究范畴。如果不考虑人工智能场景,将创作主体与创作客体混淆研究的方法并无大碍,毕竟在自然人之外不存在其他主体能像人一样创作作品,然而,人工智能却可以通过自我学习、深度思考完成像人一样的创作,甚至在某些领域其创作水平已超越人类,此类作品理应纳入“独创性”的研究范畴,至于其创作主体是否适格则属于另外需要研究的问题。

算法与数据:知识产权新客体保护需求

机器人不仅可以参与文学艺术创作,它还将被广泛应用到生产生活的各个领域。在人工智能时代,产品将呈现高度智能化的样态,由此也将衍生出一系列以人工智能为核心的新的知识产权保护需求,知识产权法当如何应对,同样是当下亟须思考的话题。任何人工智能产品都离不开算法和数据这两个核心概念,对于人工智能的知识产权保护也将集中在对算法和数据的保护方面。

(一)“算法”的知识产权保护

人工智能“算法”有赖于计算机程序,长期以来,计算机程序更多的是通过版权的方式予以保护。版权关注“算法”的表现形式,而并非“算法”的核心思想。这样,当侵权者绕开“算法”的代码表现形式,而采用其他代码编译相同“算法”的时候便可以绕过侵权,因此传统版权保护“算法”的方法越来越无法满足智能化时代的保护需求,算法商主张专利保护的呼声越来越高。我国自2006年开始允许计算机程序申请专利,但需要其与硬件结合在一起申请;近些年,国家专利局进一步放开计算机程序申请专利的要求,国家专利局的《专利审查指南》第九章还专门规定了“关于涉及计算机程序的发明专利申请审查的若干规定”。

然而,人工智能“算法”在专利保护方面还面临着《专利法》第25条的困境。根据《专利法》第25条的规定,智力活动的规则和方法不被授予专利权。《专利法》中的发明专利侧重于对“技术方案”的保护,为此,我国《专利法》第2条还明确规定了专利的范畴为“采用技术手段解决技术问题,以获得符合自然规律的技术效果的方案”。长期以来,计算机“算法”往往被归于“一种智力活动的规则和方法”,面临着《专利法》第25条规则的困境,人工智能的“算法”一旦落入《专利法》第25条“智力活动的规则和方法”的范畴,将被直接排除在专利保护范畴之外,专利审查员甚至不用考虑其他“新颖性”“创造性”“适用性”等授权条件。

因此,避开“智力规则”而将其归入“技术方案”的范畴,也就成为“算法”获得专利保护的关键。因此,作为人工智能核心的“算法”,系“智力规则”还是“技术方案”,成为其能否获得专利保护的关键所在,而《专利审查指南》重点考查的又是“算法”是否在解决一个具体的技术问题,“算法”本身是否会受到自然规律的约束(物理、化学或电学等),以及“算法”是否会获得一个受自然规律约束的技术效果。总之,随着人工智能产业的发展升级,知识产权法对“算法”的保护还将提出更多要求,以期更好平衡人工智能产业各方的利益,既能发挥知识产权法科技创新之激励作用,又能促进科学研究的传播和普及,在二者之间完成人工智能“算法”保护的制度构建。

(二)“数据”的知识产权保护

人工智能是以大数据的运算作为基础的,缺少了大数据,人工智能的自我学习和深度思考都将无法完成,因此,大数据也成为人工智能不可或缺的要素。完善大数据的知识产权保护,对于完善人工智能知识产权保护体系同样具有重要意义。

纵观世界各国对数据(数据库)的保护,主要有以下三种途径:第一,大数据的版权保护方案。TRIPS协定第10条第2款规定:“数据或者其他材料的汇编,无论采用机器可读形式还是其他形式,只要其内容的选择或安排构成智力创作,即应予以保护。”我国《著作权法》第14条规定:“汇编若干作品、作品的片段或者不构成作品的数据或者其他材料,对其内容的选择或者编排体现独创性的作品,为汇编作品……”基于上述规定,《版权法》保护数据库要求数据库内容的选择或者编排体现“独创性”。第二,通过《反不正当竞争法》进行保护。如果数据库未经许可被复制或者采集,严重损害权利人的经济利益、违反市场竞争秩序,可以通过《反不正当竞争法》进行保护。第三,欧盟的“特殊权利”(SuiGenerisRight)保护,欧盟于1996年推出了《关于数据库的法律保护指令》,率先建立了关于数据库的“特殊权利”。目前,数据库的“特殊权利”已经在欧盟成员国范围内得以实施。

那么,契合人工智能的特点和发展方向,哪种数据保护方法更有利于促进人工智能产业发展,是需要重点商榷的问题。数据库被认定为《版权法》中的汇编作品而受到《版权法》的保护,这也是世界上绝大多数国家认同的方式。据世界知识产权组织(WIPO)统计,全世界有130多个国家为数据库提供了版权保护。这里需要指出,数据库要获得《版权法》的保护,需要数据库在选择和编排上体现“独创性”,然而人工智能的发展可以完成对数据的准确分析,从而对传统数据库的编排不再有过高要求,因此,人工智能的发展方向实现了从传统数据库的“独创性”向智能“算法”的科学性的转化,而将数据库编排要求降至最低,从这一意义上讲,人工智能背景下的数据库最终将无法通过《版权法》上的“独创性”获得保护。

同时,《反不正当竞争法》在保护大数据方面也发挥着重要作用。《反不正当竞争法》的适用需要以扰乱市场秩序作为前提条件,然而在人工智能时代极为突出的问题在于大数据的采集、复制、利用等是否属于不正当竞争,这是一个十分模糊的问题,也为人工智能的数据保护带来了极大的不确定性。相比较而言,欧盟《关于数据库的法律保护指令》的“特殊权利”则给予了数据更为周延的保护。

这里的“特殊权利”包括“撷取”与“反复利用”两种情况。所谓“撷取”(extraction)是指“采取任何方法或以任何形式,将数据库内容的全部或实质部分(substantialparts)永久或暂时转载到别的载体上”(类似“复制”);所谓“反复利用”(re-utilization),也译为再利用或二次使用,在WIPO提案中改为“利用”(utilization),是指“通过销售拷贝、出租、联网或其他传输方式将数据库的全部或实质内容以任何一种形式提供给公众”(类似“发行”)。事实上,“特殊权利”是以洛克的“劳动财产理论”作为哲学基础,不考虑数据库编排的“独创性”而基于数据库市场价值而给予其保护。美国政府为了使自己的数据库在欧洲也能获得“特殊权利”保护,还于1996年5月向美国国会众议院提交了H·R·354法案,旨在给予数据库类似于“特殊权利”的保护,不过,法案最终因争议大未能获得美国国会通过。

对于人工智能知识产权保护问题,一切才刚刚开始。人工智能时代,我们到底需要一个怎样的知识产权法,这是人工智能时代需要思考的问题。

作者简介:

杨延超中国社会科学院法学研究所研究员、科技与法研究中心主任、法律与人工智能实验室首席顾问。代表作品《机器人法》,获评2019年中国法学学术10大畅销著作。擅长计算机编程,精通python、linux等六门计算机语言,创办了法律机器人实验室,创办了“HOW实验室”微信公众号。

人工智能创造物受版权保护吗

原标题:人工智能创造物受版权保护吗

■本报记者王方

谷歌旗下AlphaGo会下棋,微软“小冰”出版史上第一部由人工智能虚拟机器人写成的诗集。不过,这也引发了人们思考:人工智能生成的内容是否涉及知识产权问题,它的权利归属于谁?

针对这些人工智能领域知识产权保护的热点、难点问题,《中国科学报》记者专访了北京工业大学文法学部孙玉荣教授,探讨知识产权如何为人工智能保驾护航。

人工智能创造物需要保护

《中国科学报》:现阶段,像微软“小冰”写诗这样的人工智能创造物多不多?

孙玉荣:说到人工智能,大家都会想到微软“小冰”和它的诗集,“小冰”在天涯、豆瓣、简书等用27个笔名发表了自己的诗歌。在没有披露之前,我们都没有想到,这些诗歌的作者竟然来自人工智能。

人工智能的创造物涉及音乐、美术作品、小说、诗歌、新闻稿件。有一家美国公司作出了这样的预测:在未来15年内,有90%的新闻稿件会由机器人创作完成。

《中国科学报》:人工智能创造物需要得到保护吗?

孙玉荣:大量的音乐、美术作品和稿件出于人工智能之手,人工智能创造物越来越多。如果不加以保护的话,会产生很多社会问题、法律问题。人工智能之间可能会出现相互抄袭,也可能出现人类抄袭人工智能的现象。如果没有法律规制,这将是很混乱的局面,不利于人工智能产业的发展,也不利于文化产业的健康有序发展和良性循环。

无论从激励创新的角度,还是从促进文化产业健康发展、维护法律稳定性的角度,大家已经达成了共识,对人工智能创造物一定要进行保护。

《中国科学报》:人工智能创造物是不是著作权法意义上的作品?

孙玉荣:人工智能生成的内容,有人把它叫创作物,也有人叫创造物或生成物。在现阶段,我认为这些称呼都是没有问题的,毕竟目前还没有一个法定的定义对其进行界定。但无论是叫什么都不会引起歧义,因为大家都知道说的是同一个东西。

至于它到底是不是著作权法意义上的作品,现在有两派观点。多数人认为,人工智能创造物符合著作权法关于作品的构成要件,是著作权法意义上的作品。当然,也有少数学者持反对观点。

著作权法框架下加以保护

《中国科学报》:那么,应该用什么样的方式对人工智能创造物进行保护呢?

孙玉荣:对于到底怎么保护的问题,我比较赞成在现有的、目前的条件下,在著作权法框架下,对人工智能创作成果进行保护。

大家都知道,著作权法是以人类智力为中心构建它的保护对象。但是人工智能已经从作为一个工具辅助人类创作到现在开始独立创作了。在人工智能创造物的制作过程中,大量储备的文本语料和加工合成的语言模型本身就包含了人类的创造性劳动。像微软“小冰”就是学习了自1926年以来500多位诗人的现代诗,经过上万次训练才会写诗的。

有学者会拿猴子自拍照的案例来论证说:人工智能创造物不能构成著作权法意义上的作品。但是我认为这和美国版权局在文件里所说的,“没有任何创造性输入或没有人类作者的干预,仅仅是自动或者随机创作的机械方法产生的作品”,应该是不太相同的情形,这是我个人的观点。

《中国科学报》:在著作权法框架下进行保护的依据何在?

孙玉荣:从作品的定义来看,人工智能创造物实际上还是在著作权法的保护框架里。它属于科学艺术的“独创性”表达,而且也是可以复制的。2016年,欧盟法律事务委员会向欧盟委员会提出一个建议,就是要界定人工智能“独立的智力创造”标准。

其实,并不需要知识产权法律制度发生根本性变革,规定人工智能创造物为知识产权的新客体,并没有背离著作权法的人格主义基础。从人类受众(读者)的角度来看,判断人工智能创造物是否属于作品,不应以作品来源于人类还是非人类为标准,而应看它是否属于文学、艺术或科学领域内的独创性表达,是否具有可复制性这两个条件。

所以,判断人工智能创造物是不是著作权法意义上的作品,主要看它是否符合作品的构成要件。也就是说我们要采用一个客观化的判断标准,而不是它到底来源于人类还是非人类这样一个标准来思考这个问题。

达成共识为人工智能护航

《中国科学报》:在目前的法律框架下,人工智能创造物的权利主体是谁?

孙玉荣:当务之急是要在人工智能创造物能否构成作品的问题上达成共识。在此基础上,才能接着去探讨它的权利主体问题。

如果现在能够达成共识的话,就可以利用修订《著作权法》的宝贵机会,通过对相关条文进行一些修改来加以规范。如果不能达成共识,那可以思考一下专门立法的问题。但是单独立法要比《著作权法》修订的这种模式还要难、启动起来还要缓慢。所以我认为在现有条件下,采取著作权法的保护模式是一个最好的选择。

说到权利主体问题,至少在现阶段,人工智能本身还无法成为权利人,这基本上是业界已经达成一致的观点。那么人工智能生成内容的著作权人到底是程序的开发者还是使用者,国内外都有不同的观点。英国的做法是属于程序的操控者或使用人,美国则认为属于人工智能程序的开发者。理清不同的观点,我们的思路就比较清晰了。比如说,谁创造的,权利就归谁。

《中国科学报》:在实际操作中,应该怎么实施对人工智能创造物的保护?

孙玉荣:首先在立法层面要有一定的动作。实际上就是对作品的定义进行扩张解释,不需要撼动现有著作权法的根基,然后在讨论权利归属时,如果不能达成共识,可以采用契约主义。

我们讨论这些问题,最终目的是给人工智能保驾护航。在现有知识产权法无法对新兴事物进行明确规制的情况下,采用传统的合同法、商业秘密法来进行保护,目前也只能是不得已而为之,所以权利归属问题也可以通过签订合同来达成。

目前人工智能创造物还没有达到满大街都能看到的程度,在没有大规模商业应用之前,好像问题还没有那么突出,纠纷也没有那么多。现在的使用者或者编程的人实际上是一个主体。比如说一家公司研发了人工智能之后进行撰稿、写作等商业应用,因为是同一个主体就没有纠纷。但如果一家公司研发出了人工智能后进行转让或者出租,出现了人工智能的所有人和使用人不是同一个的情况,这就容易产生纠纷了。

有法官认为,可以根据个案的具体情况,根据编程人、使用人的贡献度进行综合判断。我认为这也是在目前状况下比较明智的选择。(王方)

(责编:龚霏菲、王珩)

分享让更多人看到

商标法追赶人工智能的步伐

商标法追赶人工智能的步伐?

2020年6月

李·柯蒂斯和蕾切尔·普拉茨,HGF律师事务所特许商标律师,英国曼彻斯特

人工智能(AI)有可能对我们生活的方方面面产生影响,目前针对这一话题众说纷纭。然而,尽管媒体广泛宣传人工智能,声称人工智能具有革命意义,但从短期来看,人工智能对我们生活的影响可能相对有限。

人工智能对消费者购买产品服务的方式有何长期影响,对商标法会产生何种连锁反应,这些问题往往无人关注。大多数评论着重于AI对专利、版权和外观设计法的影响。(图片:anyaberkut/GettyImages)

正如从事科研的美国未来学家罗伊·阿玛拉所称,“我们往往高估技术的短期影响,而低估其长期影响。”

人工智能对消费者购买产品服务的方式有何长期影响,对商标法会产生何种连锁反应,这些问题往往无人关注。大多数评论着重于人工智能对专利、版权和外观设计法的影响。

我们的购物方式:时代变迁商标法的基本原则在维多利亚时期已经形成,那时的店员会建议消费者选择购买哪种产品,如同消费者和产品之间的“过滤器”,很大程度上不受品牌影响。(图片:benoitb/GettyImages)

你可能觉得我们购买产品和服务的方式始终如一,但事实并非如此;我们购买产品和服务的方式多年来一直在变化。

想想19世纪人们的购物方式,商标法的基本原则就在那时形成。毫无疑问,人们脑海里会浮现一家维多利亚式传统商店,摆满商品的玻璃柜台前站着一位店员。

那时的店员如同消费者和产品之间的“过滤器”,很大程度上不受品牌影响。在这个过程中,只有店员了解在售产品,消费者购买产品时店员通常会提出建议。

人工智能对消费者购买产品服务的方式有何长期影响,对商标法会产生何种连锁反应,这些问题往往无人关注。

随着现代超市的出现,消费者独立决策,不再受惠于消费者和产品之间的过滤器(店员),因为所有在售产品对消费者可见。(图片:GeorgeMarks/GettyImages)

随着现代超市的出现,维多利亚式购物发生剧变,消费者独立决策,不再受惠于消费者和产品之间的过滤器(店员)。

此外,在这种模式下,消费者已经了解或者有机会了解超市销售的所有产品,因为店中所有在售产品对消费者可见。

随后,产品品牌日益突出,品牌直接向消费者提供附加信息,通过名称发音、视觉效果或概念等形式影响消费者。

在现代超市中,品牌有效取代维多利亚式店员,基本起到与消费者直接沟通的作用。

互联网进一步改变购物习惯社交媒体革命带来影响消费者的新方法,亲朋好友“点赞”成为购物决策的重要因素之一。(图片:ElenaBrovko/GettyImages)

随着网上购物的出现,购物流程再度改变。消费者可购买的产品呈指数性增长,产品信息和消费者的知识也随之增长。

同样,在消费者和产品之间没有过滤器;消费者完全掌握购物决策权。社交媒体革命带来影响消费者的新方法,亲朋好友“点赞”成为购物决策的重要因素之一。

随着名人和体育明星等“外部”影响者登场,“点赞”变得更加重要。

影响购物流程的因素有消费者所能获取的信息,以及购物由谁决策,或者说实际上由什么来决策。而人工智能影响消费者可获取的信息及其购物决策。

亚马逊Alexa、谷歌家庭、消费者聊天机器人等AI应用,Mona和AmazonDash等AI个人购物助手和Pepper这样的AI机器人助手出现后,购物流程的结构可以说又有变化。从许多方面来说,推出AI应用意味着购物流程回到旧的维多利亚模式,同时又存在一些重要区别。

随着网上购物的出现,购物流程再度改变。消费者可购买的产品呈指数性增长,产品信息和消费者的知识也随之增长。(图片:AndreyPopov/GettyImages)AI对购物决策的影响

尽管消费者对AI应用的利用仍然相对有限,但大多数消费者都曾经用过某种形式的AI应用,比如亚马逊网站和其他线上零售平台上出现的产品推荐系统。在这种环境下,AI应用有效充当消费者、产品和品牌之间的过滤器,根据过往购物决策向消费者提出个性化建议。

AI应用对于商标侵权诉讼中“普通消费者”身份的界定和责任问题也有重要影响。

许多消费者不会将购物决策委托给亚马逊Alexa这样的AI应用。然而,AI应用(而非消费者)能够获取在售产品的一切可用信息,因此可以起到类似私人买手的作用。从这个角度而言,消费者有可能完全将购物决策委托给AI应用,而AI应用主要根据消费者过往购物情况来决策。

在《哈佛商业评论》2019年5月刊的一篇文章中,尼古拉·西格尔科夫和克里斯蒂安·特维舍将这种产品呈现模式称为“自动执行”。该刊之前于2017年10月发表的一篇文章中,作者阿贾伊·阿格拉沃尔、乔舒亚·甘斯和阿维·戈德法布提到自动执行模式,它完全颠覆传统购物流程,从“先购物后运输”模式转变为“先运输后购物”。零售不再单纯“回应”消费者需求;人工智能时代趋向“预测零售”。

人工智能时代,零售不再单纯“回应”消费者需求;趋向“预测零售”,AI应用在消费者和品牌之间形成过滤器。商标法概念方面因此出现一些有趣问题,例如“售后混淆”等等。(图片:AndreyPopov/GettyImages)

预测零售模式仍处于初级阶段。要想真正受到欢迎,此类零售模式必须足够准确,以避免大量退货带来的经济问题,快时尚行业已经因此饱受困扰。然而,这种零售模式在商标法概念方面提出一些有趣问题,例如“售后混淆”等等。如果某人没有参与品牌产品的购买过程,那么根据定义,此人只能在收到产品的环节感到混淆,而非销售环节。传统形式的售后混淆涉及第三方,而不是购买者,但预测零售可能预示着消费者会遇到新形式的售后混淆。

即使消费者没有将购买决策委托给AI应用,AI也会影响消费者看待市场、产品和品牌的方式,因为亚马逊Alexa这类AI应用在消费者购物搜索时平均会推荐三种产品。消费者并不了解市场上所有产品,因此即使最终亲自作出购物决策,他们面对的产品选择相对有限。AI应用再度在消费者和品牌之间形成过滤器。

那么,这与商标法有何关联?

上述情况对商标法及其运用具有重大影响。毕竟,商标法涉及购物流程、购物方式以及消费者与品牌之间的互动。

影响购物流程的因素有消费者所能获取的信息,以及购物由谁决策,或者说实际上由什么来决策。而人工智能影响消费者可获取的信息及其购物决策。

在零售方面,AI也引发一些重要问题,涉及比较广告和影响者的相关法规。

此外,商标法的主要基础是人性弱点的概念。把“人性”和“弱点”从商标法中剔除之后还能剩下什么?

某些商标法基本原则涉及人性弱点,如“不完整回忆”、“混淆”、“商标含糊不清”,以及商标的视听效果、概念影响和相互比较。随着超市购物的兴起,商标法的这些方面得到加强,但人工智能崛起后,由于个人消费者面临的产品选择减少,或者至少产品品牌选择减少,又有可能变得不那么重要。

AI应用对于商标侵权诉讼中“普通消费者”身份的界定和责任问题也有重要影响。当某AI应用在很少或没有与人互动的情况下购买产品,这里的普通消费者指谁?或者更重要的是,指什么?导致商标侵权的购买行为应当由谁或者什么负责?

与AI及商标侵权有关的判例法

尽管据我们所知尚无任何商标侵权案件直接涉及AI和赔偿责任问题,但关于这项新技术,可以运用过去十年欧盟法院(CJEU)审理的一些案件来阐明问题。

路易威登诉谷歌法国一案涉及关键词广告和谷歌AdWords系统自动选择此类关键词的问题,判决认定谷歌若非主动参与关键词广告系统则无须承担商标侵权责任。此外,欧莱雅诉eBay案涉及eBay线上销售假冒商品,同样判决eBay若未主动意识到侵权行为则无须承担商标侵权责任。在Coty公司诉亚马逊一案中也有类似论证。因此,如果AI应用提供商有类似于谷歌和eBay两案描述的下架程序,落实到位,并且没有注意到侵权行为,那么他们就不会因侵权行为被追究责任。

然而,有两宗案例表明,如果AI提供商在任何潜在侵权行为中牵扯更多,则有可能要承担法律责任。英国高等法院审理的CosmeticWarriors公司及Lush公司诉亚马逊英国公司和亚马逊欧盟公司一案判定亚马逊对商标使用侵权负有法律责任,因为商标所触发的该公司网站链接并不包含所提到的品牌产品,因而消费者无法判断在售产品是否属于品牌所有者。此外,德国联邦法院审理的一系列涉及OrtliebSportartikel公司的案件判定亚马逊有责任,因为搜索“Ortlieb”一词时,依据产品详情中是否出现该词以及过往消费者行为会触发亚马逊德国网站的广告,而这是AI应用的一个关键部分。法院的理由是,消费者会预期有且只有Ortlieb产品在售,因此受到“制约”。以马库斯·罗维宁的IPKat博客为首,有推测称这一逻辑可适用于所谓的在线产品列表广告(PLA),即搜索提供商根据过往搜索行为主动触发广告,类似于过去的消费者购物行为,对于基于AI的购物推荐和决策这也是主要驱动因素之一。

人工智能与比较广告:考虑因素

在零售方面,AI也引发一些重要问题,涉及比较广告和影响者的相关法规。根据定义,亚马逊Alexa等AI应用属于“影响者”。消费者购物时Alexa平均推荐三种产品以供选择,通常是畅销品牌、亚马逊自有品牌以及受消费者过往购物决策影响的产品。即使AI应用本身没有受到委托进行购物决策,根据定义,它也确实“影响”了购物决策。如果认定这一点,AI应用是否应受制于影响者营销的相关监管框架?

在零售方面,AI也引发一些重要问题,涉及比较广告和影响者的相关法规。(图片:Kinwun/GettyImages)

在这种情况下,AI应用的产品推荐应被明确界定为某种形式的推销。如果AI应用根据有利于AI提供商的标准(如产品利润率)推荐产品,而不是与消费者过往偏好直接相关的标准,那么这个问题就会更加重要。

此外,AI应用还有可能参与比较广告。如果消费者向AI应用咨询某种产品,该应用有可能向有竞争关系的产品供应商收费,为消费者推荐“替代”产品。这可以同线上关键词广告相提并论,关键词搜索的投标过程中已经出现了比较广告的问题。

语音搜索受到欢迎:对商标的影响

AI应用的兴起预示着语音搜索的潜力,这一点广告业并未忽视。有预测称,五年内会有30%到50%的产品搜索将通过语音而不是文字进行。尽管这些预测可能有所夸大,但零售市场的某些领域,比如消费品市场,可能会受到语音搜索的显著影响。

有预测称,五年内会有30%到50%的产品搜索将通过语音而不是文字进行。这有可能引发文字搜索曾遇到的类似问题。商标视觉特点的重要性预期也会下降,更多侧重于发音特点和概念比较。(图片:kyonntra/GettyImages)

语音搜索词投标的出现和兴起将引发与文字搜索类似的问题。此外,由于语音搜索量超过文字搜索,商标的发音特点、视觉特点和概念比较之间的关系将发生变化。商标视觉特点的重要性会下降,未来更多侧重于发音特点和概念比较。这可以等同于维多利亚购物模式让位于超市购物时发生的变化。

此外,尽管没有就比较广告问题做出最终裁决,英国Interflora公司诉谷歌的关键词广告一案未提及欧盟关于误导性和比较广告的指令(指令2006.114/EC),对此阿诺德大法官确实感到意外。或许涉及AI应用参与比较广告的案例会正面处理这一问题。

那么现状如何?

人工智能不会对世界产生最近媒体热点所担心或盼望的那种短期或中期影响,但它确实离我们越来越近。人工智能可能产生突出影响的领域之一就是购物方式,顾名思义,这对于商标法而言意义重大。若拍摄新版《卡萨布兰卡》,亨弗莱·鲍嘉或许会对英格丽·褒曼这样说:人工智能正在改变商标法,或许不是今天也不是明天,但不会等太久,你的余生也会从此不同。

产权组织、知识产权与人工智能

随着世界各地的政策制订者逐渐认识到人工智能对经济和社会的广泛影响,产权组织及其成员国开始研究专属知识产权领域的人工智能问题,分析人工智能对知识产权管理和知识产权政策的影响。2019年9月知识产权与人工智能产权组织对话会第一届会议以及2019年12月至2020年2月人工智能与知识产权政策公众评议之后,产权组织编写完成经修订的关于知识产权和人工智能问题的议题文件,涵盖商标法相关问题,将在2020年7月7日至9日举行的知识产权与人工智能产权组织对话会第二届会议上讨论。

杨延超:人工智能对知识产权法的挑战

一、问题的提出

人工智能(ArtificialIntelligence)已成为各个行业的必争之地。谷歌在2016年明确提出了“人工智能”的公司发展战略,Facebook也于2016年规划了以人工智能为核心的“十年路线图”。2017年我国人工智能市场规模达到237.4亿元,相较于2016年增长67%。到2020年,全球人工智能市场将发展到200亿美元左右的规模。美国白宫于2016年10月发布了《人工智能国家战略》,将人工智能升级为“国家战略”,我国也于2017年7月印发了《新一代人工智能发展规划》。总之,人工智能正在深刻地影响着社会的方方面面。

人工智能对于文学艺术创造领域也产生了深远影响。Google人工智能的画作甚至卖到了8000美元一幅。在日本,机器人创作的小说甚至进入了“星期一奖”的初审。传统人工撰写的新闻稿件也渐进被机器人稿件取代。事实上,机器人参与创作不仅可以节省大量人力,在大数据计算、统计、分析方面,人工智能还具有人无法取代的优势,可以预见,人工智能创作在未来也将迎来爆发式增长。现有知识产权法是基于自然人(freshandblood)创作场景构建的,无论是《版权法》上作者“精神权利”的保护,抑或是《专利法》上关于“创造性”的审查标准,都深深地刻有“自然人”的烙印。大陆法系的知识产权法更上以黑格尔的“作者人格权”学说为基础完成构建的。那么,机器人创作,其知识产权又应当如何理解,在既有的知识产权体系中尚难以找到准确答案。为此,哲学家、科学家、法学家还进行着激烈的辩论。2016年,欧盟委员会法律事务委员会向欧盟提交动议,要求将最先进的自动化机器人定义为“电子人”(electronicpersons),除赋予其“特定的权利义务”外,还建议为智能机器人进行登记,以便为其纳税,使其获得缴纳、领取养老金的账号。

与此同时,为保护人工智能产业,各大公司也在疯狂地进行人工智能专利布局。与人工智能有关的专利诉讼也接踵而至。小i机器人就曾起诉苹果Siri专利侵权,该案历经数年最终以苹果Siri胜诉而告终,2015年北京市高级人民法院作出终审裁决,小i机器人的专利保护请求未能最终获得支持,其中的启发意义深值思考。事实上,在人工智能时代,传统的产业格局将被重新规划,传统产业也面临着被“智能化”改造的命运,由此,知识产权保护也将迎来像“神经网络”、“算法”、“大数据”等一系列全新保护需求。以计算机视觉、自然语言处理、智能驾驶三类人工智产品为例,从2000-2017年上述类别的专利体现出逐年剧增的趋势。

总之,人工智能将从二个维度上全面挑战既有的知识产权法:一方面,机器人参与创作的知识产权法律保护难题该如何破解,另一方面,机器人自身也需要知识产权保护,既有的制度又该如何完善?上述问题甚至还会动摇知识产权法哲学基础,对上述问题的回答最终也将勾勒出人工智能时代知识产权法的轮廓:我们到底需要一个怎样的知识产权法?本文将围绕上述问题予以展开和研究。

二、人工智能对既有“知识产权法哲学”的挑战

从知识产权产生至今,哲学家们、法学家们从未停止过关于知识产权的哲学探讨,其中具有较大影响力的黑格尔的“人格理论”、洛克的“劳动财产理论”以及卢梭的“社会契约论”。关于知识产权的哲学理论也成为知识产权合理性存在的终极解释,那么,在人工智能又会对既有的哲学基础产生怎样的影响,这甚至决定了未来知识产权法发展的路径。

(一)人工智能与黑格尔哲学中的“人格”

大陆法系知识产权法深受黑格尔“人格理论”的影响,黑格尔的人格理论甚至被誉为大陆法系版权法的基石。黑格尔认为:“物”必须从我的意志中获得它的规定性和灵魂,也只有“人能够把他的意志或灵魂通过对物的支配,从而使它具有人的目的性”。作者的“意志”或“人格”等概念,也由此被法学家们用来解释知识产权的合理性。按照黑格尔的理论,在创作的过程中,作者的意志和灵魂已经渗透于作品,作品也由此成为作者人格的组成部分,于是作者可以主张作品是我的,法律上也就有了相应保护作者的“版权”概念。大陆法系《著作权法》中关于作品“著作人格权”和“著作财产权”二元划分的制度体系也正是根源于黑格尔的人格理论。总之,传统版权法被深深打上了“人格”的烙印。

然而,在机器人在创作作品的过程中,似乎再也无法找到传统知识产权法哲学中的“人格”和“意志”的要素,诸如像人工智能创作的小说、画作、诗歌等,机器人通过对海量数据的运算以及自我学习所产生的创作能力,甚至已起超越了机器人设计者本身的预想,这种情况下,作品还是否体现人格,又在体现谁的人格,这些问题都是传统知识产权法的人格理论所无法解释的。

(二)人工智能与洛克“劳动”概念的差异

洛克的“劳动财产理论”同样为知识产权合理性提供了有力的哲学解释,只不过,洛克强调劳动在物成为私有财产权过程中的关键作用。谁在土地上种植庄稼,谁就可以收取果实,按照洛克的理论,财产私有化的基础便是劳动,其理论用于解释知识产权的逻辑在于:一项发明的专利权归“张三”所有,那是因为张三付出了劳动,只不过这里的劳动不是普通劳动,而是一种创造性劳动。英美法系知识产权法中的很多制度都深受洛克的劳动理论的影响,包括英美法系版权法早期确立的“额头流汗原则”作为判断作品独创性标准,也根源于洛克的劳动理论。

如果用洛克的劳动理论来诠释人工智能创作,同样需要解释其中的“劳动”概念。人工智能创造要经历复杂运算、大数据统计、自我学习等系列过程,最终才能完成创作、决策等类似于人的“思维”活动,犹如在AlphaGo在与李世石对弈中,李世石下棋属于我们公认的的脑力劳动,而AlphaGo所完成对海量数据超级运算则可以理解为一种特殊意义的“劳动”。

之所以称它为特殊的“劳动”,还在于“计算”与“意识”之间的区别。人工智能的“劳动”是复杂的数据计算,而人的劳动则是包含了复杂情感的意识。所以,更多学者愿意从工具论的视角将“劳动”归功于人工智能的设计者。然而,在很多人工智能专家眼中,机器或将拥有像人一样的“意识”,李德毅院士甚至在这一基础上还提出了“人工智能会有爱吗”,这样一个更为复杂的命题。总之,人工智能下的“劳动”概念已经远远超越了洛克眼中的人的“劳动”范畴。

(三)人工智能语境下“社会契约论”的重新诠释

在解释知识产权合理性的问题上,卢梭的社会契约论与其他哲学观点形成鲜明对比。在卢梭的哲学中,一切法律的合理性都可以用“社会契约”来解释,根据“社会契约论”的逻辑,知识产权完全是基于发明人与使用者之间利益的博弈(社会契约)的结果,谁拥有知识产权,权利期限为多久,谁可以对它合理使用,一切都是“社会契约”的结果。从知识产权法哲学的研究现状来看,卢梭的“社会契约论”在一定程度上弥补了黑格尔“人格理论”与洛克“劳动理论”的不足,尤其是在解释“为何只有在先申请会受到知识产权保护”、以及“知识产权的法定期限”等问题上提出了“社会契约论”的解释方法。

在涉及人工智能的知识产权案件中,社会契约论有时还会成为法官判案的指导思想。在“方正诉飘柔版权侵权”的案例中,法院的终审判决实质上契合了社会契约论的观点。该案涉及计算机自动生成的字体能否享有版权,法院最终并没有直接回答有或没有,而是变通适用了“默示许可理论”,认为软件商销售软件即为默示许可他人商业性使用,基于“默示许可”使用者使用软件打印字体无需承担侵权责任。总之,社会契约论更关注利益各方合意(明示或者默示),当然合意源于利益博弈的格局,在人工智能背后也彰显着多元化的利益格局,包括投资人、人工智能开发者、同行业竞争者、普通用户等利益群体。从产业发展的角度其利益主体还可分为数据提供商、算法提供商、机器人合制造商、云服务提供商等。人工智能时代知识产权法的新格局,正是各方博弈中渐近形成。

三、人工智能对知识产权法主客体制度的挑战

(一)机器人创作中“作者”概念的解读

在机器人创作中,机器人能否成为作者?由此也掀起了一场关于法律哲学中“人”的概念的大讨论。在既有的法律体系中,机器人还不能视为法律意(义上的“人”,而只能作为“工具”,这也涉及权利主体和客体的讨论,两者划分的标准还在于“人格”要素。根据人格权的定义,人格是人作为人不可或缺的要求,诸如生命、健康、身体、名誉、隐私、姓名等。因此传统人格局限于自然人领域,而公司作为法人系虚拟人格。根据《著作权法》规定,创作作品的公民是作者,显然,《著作权法》将自然人定位为作者,而排除了其他非自然人作为创作主体。类似的法律问题还发生在猴子的“自拍照”是否具有版权的问题上,美国法院最终是以其不符合创作主体为由,否认了该“作品”的版权。因此,如果将自然人作为唯一法律主体的前提不变,再聪明的猴子也无法像人一样享有知识产权,这与猴子的智商无关,与主体的属性有关。

然而,传统人格权制度却受到了来自人工智能的挑战。近些年来,人工智能的专家们在模拟人脑思维方面取得了重大进步,通过对机器人建设了大量的神经元,从而帮助机器人完成信息识别、深度学习、模拟思考等类人化行为,甚至表现出了比人脑更为强大的“创造力”。为此,是否有必要为机器人创设类似于法人一样的虚拟人格也同样值得认真研究。2015年,欧盟议会还专门针对机器人相关的民法规范展开讨论,其报告草案指出应当为机器人创设特定的法律地位,至少那些负责化的、具有自主性的机器人应当具有电子人格,并具有特定的权利和义务。事实上,这里的“电子人格”与法人的虚拟人格的意义仅在于科学规范主体的权利、义务,基于“社会契约论”的逻辑来衡平各方的利益关系。

(二)人工智能语境下“精神权利”的困惑

基于黑格尔人格财产的哲学理论,在文学艺术领域,有所谓“作品系作者人格化身”的说法,反映在《版权法》上即为作者的“精神权利”。我国《著作权法》第10条规定了四项精神权利,即作者的“署名权”、“发表权”、“修改权”和“保护作品完整权”。(法条)深受黑格尔“著作人格权”学说影响的法国和德国也有类似的规定。作为知识产权重要内容的“精神权利”往往被视为作者人格权,在性质上区别于具有知识产权中的“财产权”,这表现在权利流转方面,“精神权利”往往被视为人格权而被禁止转让和继承。

文学艺术所彰显的是人的精神追求,作者“精神权利”亦可以理解为对人精神追求的法律保护,然而,若在人工智能的语境下讨论这一问题,将变得异常复杂。机器人创作的作品,它的“精神”在哪,“精神权利”又在哪?暂且抛开科幻电影中带有复杂情感的机器人场景,就以当下能够帮助人类完成创作的机器人而言,“精神权利”则是一个十分神秘的东西。法律甚至会追问,除“自然人”之外的主体会有精神权利吗?即使机器人的计算能力再强大,其与人的“精神”之间也有着本质的区别。

进一步而言,精神权利是否会延及机器人的设计者呢?设计者属于自然人,其完合符合精神权利的主体要求,然而与传统作品的创作不同,设计者虽然完成了对机器人的设计,但机器人创作的作品又会超出设计者可以预想的范畴。这里要区分二个概念,一个是机器人,一个是机器人创作的作品,这在知识产权领域完全属于两个不同的范畴。设计者可以控制机器人,但设计者却无法控制机器创作的作品,这与传统“工具论”中,人通过控制工具,进而控制“物”的路径出现根本差异,由此,将精神权利简单归于设计者的思路亦存在法律障碍。早在2002年的“DesktopMarketingSystemsPtyLtdv.TelstraCorporationLtd”案中,澳大利亚联邦法院合议庭佩勒姆(Perram)法官就曾对此有过详细的论述:人对软件程序的控制可以被视为对作品的控制,将该人作为计算机软件所的作者并无不妥,但如果软件程序的人并不能控制最终创作之作品的物质形式,那么这种情形下……该人不得被视为作者。

此外,在人工智能语境下讨论“精神权利”,更超出传统“精神权利”概念的内涵。传统的“精神权利”实质上是捍卫作者的“署名权”、“发表权”、“修改权”和“保护作品完整权”等权利,这些权利又被理解为与作者的社会声誉、内心感受、精神追求息息相关,故而被界定为保护“精神利益”范畴。由此,挖掘机器人的“精神权利”,又会涉及机器人精神追求、内心感受等话题的讨论,这一切又将回归到人工智能对知识产权法哲学的挑战,问题由此变得更加基础和复杂。

(三)人工智能语境下的“独创性”概念

“独创性”概念是知识产权法中的核心概念,在涉及作品是否享有版权的问题上,其主要取决于独创性。(法条)英美法系关于作品独创性的判断标准,走过了从“额头流汗原则”到“最低创造性”的演变,而大陆法系则要求要体现作者的个性或者最低创造性,总之,两大法系在“独创性”标准上渐近融合,并且都将其作为判断作品是否受版权保护的重要标准。机器人作品是否受版权保护,所面临的首要问题依然是“独创性”问题。如果简单地从“机器人不是人”的逻辑出发,可以直接否定机器人作品的独创性。然而,在很多领域,机器人创作已让人无法区分作者系人还是机器人,自巴黎索尼计算机科学实验室的GaetanHadjeres和FrancoisPachet在音乐家约翰?塞巴斯蒂安?巴赫(JohannSebastianBach)的歌曲上训练其人工智能系统,该系统使用了352首巴赫的歌曲,将其转换成不同的音符,形成2503个作品,包括专业音乐家和音乐系学生在内的1600名听众中,有超过一半的人以为是巴赫本人的作品。机器人在很多文学艺术领域所表现出来的“艺术造诣”甚至远超人类,如果仅仅因为其系机器人,就否认高质量创作的“独创性”,反而却要赋予更低质量的人类作品“独创性”,这与“独创性”立法目的本身严重不符。

法理学上习惯于将主客体分开研究,在人工智能作品版权的问题上,也有必要秉承这一思路。机器人是不是“人”,它所要解决的是权利主体问题;至于机器创作的作品有没有“独创性”,它要衡量的是作品的创作水准问题,理应属于权利客体的研究范畴。如果不考虑人工智能场景,将创作主体与创作客体混淆研究的方法并无大碍,毕竟在自然人之外不存在其他主体能创像人一样创作作品,然而,人工智能却可以通过自我学习、深度思考完成像人一样的创作,甚至在某些领域其创作水平已超越人类,对于此类作品理应纳入“独创性”的研究范畴,至于其创作主体是否适格则属于另外需要研究的问题。

四、算法与数据:知识产权新客体保护需求

机器人不仅仅可以参与文学艺术创作,它还将被广泛应用到生产生活的各个领域。在人工智能时代,产品将呈现高度智能化的样态,由此也将演生出一系列以人工智能为核心的新的知识产权保护需求,知识产权法又当如何应对,同样是当下亟需思考的话题。任何人工智能产品都离不开算法和数据这两个核心概念,对于人工智能的知识产权保护也将集中在对算法和数据的保护方面。

(一)“算法”的知识产权保护

人工智能“算法”有赖于计算机程序,长期以来,计算机程序更多的是通过版权的方式予以保护。版权关注“算法”的表现形式,而并非是“算法”的核心思想。这样,当侵权者绕开“算法”的代码表现形式,而采用其他代码编译相同“算法”时候便可以绕过侵权,因此传统版权保护“算法”的方法越来越无法满足智能化时代的保护需求,算法商们主张专利保护呼声音越来越高。我国自2006年以后开始允许计算机程序申请专利,但需要其与硬件结合在一起申请;近些年国家专利局进一步放开计算机程序申请专利的要求,国家专利局的《专利审查指南》第九章还专门规定了“关于涉及计算机程序的发明专利申请审查的若干规定”。

然而,人工智能“算法”在专利保护方面还面临着《专利法》第25条的困境。根据《专利法》第25条的规定,智力活动的规则和方法不被授予专利权。《专利法》中的发明专利侧重于对“技术方案”的保护,为此,我国《专利法》第2条还明确规定了专利的范畴为“采用技术手段解决技术问题,以获得符合自然规律的技术效果的方案”。长期以来,计算机“算法”往往被归于“一种智力活动的规则和方法”,面临着《专利法》第25条规则的困境,如果人工智能的“算法”一旦落入《专利法》第25条“智力活动的规则和方法”的范畴,将被直接排除在专利保护范畴之外,专利审查员甚至不用考虑其他“新颖性”、“创造性”、“适用性”等授权条件。

因此,避开“智力规则”而将其归入“技术方案”的范畴,也就成为“算法”获取专利保护的关键。2010年国家专利局《专利审查指南》在其第九章“关于涉及计算机程序的发明专利申请审查的若干规定”中还明确例举了“技术方案”与“智力规则”的区别方法。参见如下图表:

表1

根据《专利审查指南》的要求,上述例举中的八个“算法”案例,其中像“利用计算机程序求解圆周率的方法”(例1)?一种自动计算动摩擦系数μ的方法(例2)?一种计算机游戏方法(例8)就被视为“纯粹的智力规则”而被排除在《专利法》保护范围。根据《专利审查指南》的说明,这些“算法”并不实际地解决一个具体的技术问题,同时也不受自然规则的约束,所获得的也不属于符合自然规律的技术效果,因此被划归为“智力规则”的范畴。然而,像“一种全球语言文字通用转换方法(例3)?一种控制橡胶模压成型工艺的方法(例4)?一种扩充移动计算设备存储容量的方法(例5)、一种去除图像噪声的方法(例6)则旨在于解决一个具体的技术问题,受自然规律的约束,有明确的技术手段和技术方法,所实现的也属于符合自然规律的技术效果,因此属于《专利法》保护的“技术方案”的范畴。

因此,作为人工智能核心的“算法”,系“智力规则”还是“技术方案”,成为其能否获得专利保护的关键所在,而《专利审查指南》重点考查的又是“算法”是否在解决一个具体的技术问题,“算法”本身是否会受到自然规律的约束(物理、化学或电学等),以及“算法”是否会获得一个受自然规律约束的技术效果。总之,随着人工智能产业的发展升级,知识产权法对于“算法”保护还将提出更多要求,以期更好衡平人工智能产业各方的利益,既能发挥知识产权法科技创新之激励作用,又能促进科学研究的传播和普及,在二者之间完成人工智能“算法”保护的制度建构。

(二)“数据”的知识产权保护

人工智能是以大数据的运算作为基础的,缺乏了大数据,人工智能的自我学习和深度思考都将无法完成,因此,大数据也成为人工智能不可或缺的要素。对于大数据又该如何完成知识产权保护,对于完善人工智能知识产权保护体系同样具有重要意义。

纵观世界各国对数据(数据库)的保护,主要有以下三种途径:第一,大数据的版权保护方案。TRIPS协定第10条第2款规定:“数据或者其他材料的汇编,无论采用机器可读形式还是其他形式,只要其内容的选择或安排构成智力创作,即应予以保护”。我国《著作权法》第14条规定:“汇编若干作品、作品的片段或者不构成作品的数据或者其他材料,对其内容的选择或者编排体现独创性的作品,为汇编作品……”。基于上述规定,《版权法》保护数据库要求数据库内容的选择或者编排体现“独创性”。第二,通过《反不正当竞争法》进行保护。如果数据库未经许可被复制或者采集,严重损害了权利人的经济利益、违反市场竞争秩序,可以通过反不正当竞争法进行保护。第三,欧盟的“特殊权利”(SuiGenerisRight)保护,欧盟于1996推出了《关于数据库的法律保护指令》,率先建立了关于数据库的“特殊权利”。目前,数据库的“特殊权利”已经在欧盟成员国范围内得以实施。

那么,契合人工智能的特点和发展方向,何种数据保护方法更有利于促进人工智能产业发展,是需要重点商榷的问题。数据库被认定为《版权法》中的汇编作品而受到《版权法》的保护,这也是世界上绝大多数国家认同的方式,据世界知识产权组织(WIPO)统计,全世界大约有一百三十多个国家为数据库提供了版权的保护。这里需要指出,数据库要获得版权法的保护,需要数据库在选择和编排上体现独创性,然而在人工智能的发展可以完成对数据的准确分析,从而对传统数据库的编排不再有过高要求,因此,人工智能的发展方向实现了从传统数据库的“独创性”转向了智能“算法”的科学性,而将数据库编排要求降至最低,从这一意义上讲,人工智能背景下的数据库存最终将无法通过《版权法》上“独创性”获得保护。

同时,《反不正当竞争法》在保护大数据方面也发挥着重要作用。在“广西广播电视报”件案中,双方诉争的“电视节目预告表”就因缺乏《版权法》意义上的独创性,但最高法院肯定它是“电视台通过复杂的专业技术性劳动制作完成的,电视台对其劳动成果应享有一定的民事权利”即“以报纸形式向公众传播的专有使用权”,从而实现了从《反不正当竞争法》的角度对大数据给予保护。在“SIC实时金融系统”信息数据库侵权案件中,终审法院称“SIC实时金融系统”信息作为一种新型的电子信息产品应属电子信息库,在本质上是特定金融数据的汇编。这种汇编在数据编排和选择上虽无《版权法》所要求的独创性,不构成《版权法》意义上的作品。”最终,终审法院最终只能依据《反不正当竞争法》为依据判令被告进行赔偿。

《反不正当竞争法》的适用需要以扰乱市场秩序作为前提条件,然而在人工智能时代极为突显的问题在于大数据的采集、复制、利用等是否属于不正当竞争则是一个十分模糊的问题,这也为人工智能的数据保护带来了极大的不确定性。相比较而言,欧盟《关于数据库的法律保护指令》的“特殊权利”则给予了数据更为周延的保护。这里的“特殊权利”包括“撷取”与“反复利用”二种情况。所谓“撷取”(extraction)是指“采取任何方法或以任何形式,将数据库内容的全部或实质部分(substantialparts)永久或暂时转载到别的载体上”(类似“复制”);所谓“反复利用”(re-utilization),也译为再利用或二次使用,在WIPO提案中改为“利用”(utilization),是指“通过销售拷贝、出租、联网或其他传输方式将数据库的全部或实质内容以任何一种形式提供给公众”(类似“发行”)。事实上,“特殊权利”是以洛克的“劳动财产理论”作为哲学基础,不考虑数据库编排的“独创性”而基于数据库市场价值而给予其保护。美国政府为了使自已的数据库在欧洲也能获得特殊权利保护,还于1996年5月向美国国会众议院提交了H?R?354法案,旨在于给予数据库类似于特殊权利的保护,不过因为争议很大最终未能获得美国国会通过。

五、反思:我们需要一个怎样的知识产权法?

人工智能时代,我们到底需要一个怎样的知识产权法?是人工智能时代亟需思考的问题。这是当下亟需回答的问题:

(一)冲破传统哲学思维禁锢,拥抱人工智能时代的法律价值

随着人工智能深度思考和深度学习的全面升级,机器人所彰显的“人”属性越发强烈,毫无疑问,这对于传统哲学认知将带来极大的冲击。与人工智能一样,“人格”、“创作”、“劳动”、“发明”这些传统语境下的哲学概念也在一步步完成着自我进化。传统的知识产权法哲学理论,如黑格尔的人格理论,洛克劳动财产理论,抑或是卢梭的社会契约论,虽在特定历史时期对于知识产权合理性的解释发挥了重要作用,然而面对人工智能的创作的知识产权问题时却面临着历史局限性和理论困境,为此,当传统的哲学体系难以有效解释相关知识产权法律问题时,有必要洞察人工智能的技术特质,进一步创新和发展人工智能时代知识产权法的哲学体系,从而人工智能时代知识产权的立法和司法提供更加扎实的理论根基。

(二)设置机器人虚拟人格,完善知识产权主体制度

在人工智能时代,机器人将与“人”一样成为创作主体。传统条件只有“自然人”才能创作的格局或将被全面打破,原有“工具论”已经无法解释当下的机器人创作。为此,欧盟正在试图为机器人创办的虚似的“电子人格”。公司法意义上的“法人”同样也是虚拟的法律主体,虚拟的法律主体会像自然人主体一样享受法律权利、承担法律义务。事实上,所有虚拟人格的意义还在于厘清人类社会的权利义务关系,公司作为虚似人格蕴育了有限责任制度,从而厘清了个人与单位的责任划分。同样,机器人作为虚似人格的目的也在于解释机器创作的法律现象,从而防止对机器物毫无边界的滥用,既有虚拟人格便有版权主体,从而终结机器创作物为无主物的时代。

机器人虚拟人格的设立还有助于厘清机器复杂创作过程中各方的利益关系。机器人参与创作的复杂性,还在于在这一过程中还融合了众多主体,包括机器人的投资人、机器人的发明人、机器人用于训练写作的既有作品的版权人,应当说,上述人员对于培养机器人的创作能力都具有十分重要的意义。如果在一起机器人创作作品的版权诉讼中,允许上述人员均来主张权利的话,势必导致法律关系复杂无序,进而影响对争议的解决。按照机器人人格拟制学说,该作品的知识产权归机器人所有。至于各方对于机器人享有的权益或通过合同解决,或在机器人备案登记时注明。而法院只需认可机器人的版权利益,无需判断机器人背后复杂的利益关系,事实上,按照机器人虚拟人格,只要机器人作为主体所享有的权利一旦确定,相关利益方的权益问题自然迎刃而解。这样,机器人的主体概念将进一步融合各方利益主体,借助机器人人格拟制学说,用极简的思维模式化解背后复杂的利益纠葛。

在机器人虚拟人格的理论下,还有必要对机器人“精神权利”予以限制。需要正视机器创作与人工创作的区别,作为自然人的创作甚至可以理解为一种对艺术追求和人文精神的需要,然而机器创作则以作品使用为主导,作为机器人虚拟人格将不再享有像自然人作者那样的“精神权利”,而版权对它保护的重点也将从人格转为财产。

(三)完善算法与数据的知识产权保护制度

人工智能将围绕“算法”与“数据”展开“思考”。随着“算法”与“数据”所带来的产业价值的不断提升,它们也将成为新时期知识产权法关注的重点,并且有必要弥补传统知识产权法对算法和数据保护的不足。为适应产业发展需要,我国《专利法》也正在逐步放开对计算人“算法”的专利保护,但针对人工智能产品的专利申请,《专利审查指南》还有必要进一步完善和补充,以便给予申请者更好指导。

针对“数据”的保护,也有必要进一步完善相关数据保护制度,从而建立《版权法》、《反不正当竞争》、“特殊权利”三位一体的数据保护模式。其中有关“特殊权利”模式,可以参考《欧盟数据保护指令》中有关“特殊权利”的规定,以期全面规范和激励大数据产业发展。

(四)针对机器人作品,完善授权使用制度

在人工智能时代,机器人将会大量参与创作,由此创作艺术作品也将呈现几何倍数的增加,对于艺术作品的高效利用也将成为一个重要问题。传统的版权授权制度存在效率低下的问题,为此,可以参考孤儿作品管理制度来完善人工智能背景作品的利用。我国现有著作权法并没有规定“孤儿作品”,但在著作权法第三次修改草案(送审稿)第51条规定规定了“孤儿作品”,即在权利查找无果的情况下,可直接向版权管理机构提存费用,进而直接使用相关作品。欧盟在2012年通过了《欧盟孤儿作品指南》也作出了相关“孤儿作品”的规定。

面对大量的由人工智能创作的作品,也将出现无力于寻找版权人的局面,甚至也没有必要去一定要寻找到版权人,因此对于人工智能创作物而言,它从一开始就不存在所谓“精神权利”的概念,它的产生便是为了使用,否则机器创作便丢失了意义,为此可以建立类似于“孤儿作品制度”,对于机器创作物而言,使用者直接提存使用费用便可放心使用,这将极大提升人工智能背景下作品的利用率,也符合人工智能高效创作的产业需求。

六、结语

未来已来,人工智能已悄然走到了我们身边,一时之间,机器人、智能创作、新科技、算法、大数据等一系列关键词都纷至踏来,全面冲击着现有的知识产权制度。然而,这一切都将激发我们全面反思现有的知识产权制度。事实上,任何一次技术变革都将对知识产权制度产生深远影响,印刷术取代了传统手工制书,从而催生了复制权;广播电视技术的发展催生了传播权,互联网技术又将知识产权从传统的纸质时代带入了全面的数字化时代,由此还诞生了像互联网络传播权等一批新兴的知识产权权利样态。只不过,与前面的技术革命相比,人工智能不再仅是工具的升级,它所要颠覆的恰是我们对传统知识产权哲学的认知,甚至人工智能对于创作能力的发展还将超越我们可以想象的空间。可以想象,未来,它对知识产权的挑战还将继续,而对这一话题的研究也才刚刚开始。

来源:《治理研究》(原《浙江省委党校学报》)2018年第5期返回搜狐,查看更多

版权声明:本文内容由互联网用户自发贡献,该文观点仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌抄袭侵权/违法违规的内容,一经查实,本站将立刻删除。

上一篇

下一篇