人工智能与知识产权
原标题:人工智能与知识产权编者按
为第一时间向读者介绍全球知识产权发展趋势、最新实践和研究成果,分享各国最佳案例,在世界知识产权组织(WIPO)中国办事处的大力支持下,本报即日起同WIPO官方杂志WIPOMagazine开展合作,不定期推出相关文章,并同步刊登重要文章。本期摘编WIPO总干事弗朗西斯・高锐(FrancisGurry)博士关于人工智能与知识产权的专访文章,以飨读者。
问:您如何描述人工智能的影响?
答:人工智能作为新的数字疆界,将对世界产生深远的影响。它将带来巨大的科技、经济和社会变化,改变人们生产和分配商品及服务的模式,也将改变人们的工作和生活方式。
问:人工智能技术将对创新创造产生什么影响?
答:现在得出结论还为时过早,但很明显人工智能将影响到传统的知识产权概念。商业化的人工智能创作音乐或人工智能创造发明并不遥远,这将颠覆“作曲家”“作者”和“发明家”等概念――尽管怎样颠覆尚不明朗。
知识产权制度的基本目标是鼓励新技术和创造性工作,并为发明创造提供可持续的经济基础。从纯经济角度来看,如果不考虑精神权利,我们没有理由不运用知识产权来奖励人工智能产生的发明或创造。但这还需要更多的考量,答案尚未可知。
人工智能技术的广泛使用也将改变专利、外观设计、文学和艺术作品等固有的知识产权概念。这种改变已经悄然而至,但这不仅仅是人工智能带来的结果,也是数字经济的结果。例如,生命科学产生了海量的数据,这些数据具有重要价值但却不是传统意义上的发明。因此,我们需要弄明白与之相关的权利和义务。
社会上已经对此形成强烈的观点。例如,科学、数据和出版界的“开放”运动倾向于认为,不应当对数据施加所有权的类别。这种观点认为,由于数据是人工智能的基础,应供免费使用,推动开发人工智能和其他应用程序。
但是,与当前经济背景同等重要的是,我们已经建立了无形资产的知识产权制度,以便为新知识的创造提供激励并确保公平竞争。
这两种方法需要相互妥协,并在两方面的需求之间划清界限:一方面要保证数据通道开放,数据可以流动;另一方面要关闭数据通道,确保针对创造新知识的激励措施能够到位。
数据和算法引发了许多与知识产权相关的基本问题。例如,如何针对不断演进的算法创设知识产权,由于算法不断演进,以至于对某一算法提交专利申请后仅一年,这一算法已不再是最新颖的发明,这是必须解决的新挑战。
问:这是否意味着现有的知识产权制度变得无关紧要?
答:统计数据显示,知识产权需求在世界各地仍然高于经济增长率。在我们看来,知识产权制度当然不会过时。对它的使用比以往任何时候都要多。但是新的挑战正在出现,其结果可能是让知识产权制度更加完善,而不是颠覆现有制度。
问:众所周知,创作者在数字环境中很难捕捉到自己作品的价值。新的数字化浪潮会加剧这个问题吗?
答:人工智能可能确实让创作者难以捕捉他们作品的价值。但是,如果你以人工智能产生的音乐为例,在这个过程中的某个节点,作曲家――无论是莫扎特、贝多芬还是现代音乐家――所创音乐的数字化表达都将被输入到人工智能算法中。问题是,我们在什么阶段将价值归因于数据的人类来源?迄今还没有这个问题的答案。(下转第2版)(上接第1版)
数据和人工智能方面的政策层出不穷,涉及对数据安全和完整,数据和人工智能对市场、国家安全、劳动力和所有权的影响等。毫无疑问,新的研究类别也将出现。
问:为什么人工智能受到WIPO和全球知识产权界的高度关注?
答:在知识产权制度中推动人工智能的使用主要有3个因素。首先是数量因素。截至2016年的数据显示,当年全球共提交了约310万件专利申请,约700万件商标注册申请和96.3万件工业品外观设计申请。现有审查人力资源无法承载这一迅速增长的申请量。例如,在商标和外观设计领域,无论是知识产权局还是法院,对商标的显著性和外观设计的创造性进行审查或判定,都要通过参考此前的商标和外观设计制度来作出决定。每年全球都会收到数百万件商标和外观设计专利申请,很难通过人工筛选以确定某个商标或外观设计专利是否可以获权。
这就是WIPO开发人工智能商标图形检索工具的原因。该工具已嵌入WIPO全球品牌数据库,可以迅速地提供准确的结果。
在知识产权管理中使用人工智能的主要因素是知识产权数量庞大。当然,质量和成本这两个因素也同样重要。随着全球对知识产权的需求不断增加,人工智能工具使我们能够提升检索质量并降低管理成本。
问:您对使用人工智能改善知识产权管理有何看法?
答:人工智能系统将在未来的知识产权管理中发挥越来越重要的作用。考虑到人工智能系统运行需要搜集整理大量的数据作为支撑,我们需要鼓励资源共享。我希望,在部署未来人工智能系统时,国际知识产权界能够共同努力,以更经济的方式实现高水平互动。
截至目前,WIPO的方法是利用成员国和其他合作伙伴提供的培训数据来开发人工智能应用程序。作为回报,我们与这些合作伙伴共享基于这些数据新开发的人工智能应用程序。例如,WIPO开发了一种由人工智能驱动的神经机器翻译工具,它被称为WIPOTranslate。目前,我们与世界各地的14个政府间组织和多个专利局共享此工具。由于该系统依赖于数据的可得性和可用性,因此,所有合作方都可以从中受益,并可以提供数据来改进该系统。
问:可以说,WIPO是开发知识产权领域人工智能应用程序的领导者。贵组织是否正在探索在其他领域使用人工智能应用程序?
答:WIPO正在继续开发和完善WIPOTranslate和商标图形检索工具,这是该领域的主要发展方向。对专利以及商标申请中的商品和服务进行自动分类,是人工智能应用的另一大领域。今年5月,WIPO与日内瓦大学的人工智能专家合作,利用神经网络技术为国际专利分类(IPC)体系启动了一种专利自动分类工具。这种被称为IPCCAT-neural的新工具将通过每年更新的专利信息进行再分类,将帮助专利审查员更轻松地检索现有技术。
我们还在不断探索人工智能的应用范围,尤其是为WIPO客户的服务活动部署智能机器应答服务。随着时间的推移,这些工具将成为客户服务中不可或缺的一部分,并能帮助我们更好地应对不断增加的查询需求。当然,除此以外,还有其他领域可以通过人工智能应用程序来提高知识产权管理的效率和稳定性。
问:区块链技术在知识产权管理中是否可以发挥作用?
答:尽管区块链技术令人感到振奋,但我认为它不会取代国家或公共机构授予知识产权的基本职能。与有形产权不同的是,知识产权必须由政府机构授权。我认为区块链技术无法取代专利局确定某件专利是否可以授权的基本职能。当然,在登记与现有知识产权相关的交易方面,例如,区块链在知识产权的使用和交易等方面存在可观的应用前景。
问:您如何看待全球知识产权界对人工智能的运用?
答:人工智能在知识产权领域的运用现在还属于早期阶段。尽管如此,世界大多数国家的知识产权局对人工智能给予了积极的评价,认为这是有效提高知识产权审查效率、提升质量和控制成本的一个契机,并将成为未来几个月甚至几年知识产权业界关注的焦点。
问:各国知识产权局在广泛部署人工智能系统时面临哪些障碍?
答:人工智能的应用是各国知识产权局面临的主要挑战。虽然人工智能已经存在了一段时间,但直到最近它才成为一种有效的技术解决方案。由于具备所需专业素养的人员数量非常有限,因此,在系统内发展人工智能面临挑战,尤其要面对来自私营企业的竞争。
规模较小的知识产权局也面临一些挑战。人工智能系统依赖于知识产权数量的积累,而规模较小的知识产权局显然获取的数量也较少。这意味着,数量因素迫使有实力的知识产权局开发和部署人工智能应用程序,而实力较弱的知识产权局则没有这种迫切性,尽管如此,知识产权数量在知识产权界是被普遍接受的准则。
问:在知识产权管理体系中人工智能,具体政策层面有哪些挑战?WIPO如何解决这些挑战?
答:今年,WIPO启动了关于知识产权问题的国际讨论,特别是围绕人工智能在知识产权管理中的应用问题。
知识产权是一种全球现象;技术也具有全球性的特点,与之相关的专利数据也是如此。由于专利很少涉及单一的司法管辖区,这就是我们需要全球解决方案来确保功能互通的原因。
问:在人工智能的世界中,多边主义是否能发挥作用?
答:可以。首先,实现全球知识产权制度的功能互通需要多边合作。其次,知识产权制度的职能之一是确保公平竞争。制定多边准则是确保这一目标实现的有效方式。而且,由于知识产权今后将成为竞争的核心要素,因此,强有力的多边合作至关重要。第三个原因是技术不断发展,并且发展速度越来越快。在这一方面,多边主义是支持能力建设和各方共享的重要的机制,可以确保各方存在的技术差距不会加剧。
问:WIPO在人工智能领域的后续计划是什么?
答:我们将继续推进合作,在知识产权管理中开发和部署人工智能应用程序。我们还将继续探索,就人工智能时代如何优化知识产权法律和政策开展国际范围的讨论。
(本文摘自世界知识产权组织官方杂志《WIPOMagazine》中文翻译:本报记者李铎)
(责编:龚霏菲、王珩)分享让更多人看到
人工智能生成内容的著作权保护:正当性评价与模式选择
基于类似的问题,人格理论同样不能对人工智能生成内容的著作权保护给予正当性的说明。至于功利主义理论,按照激励论的逻辑,为了鼓励作品的创作,应该授予作者著作权以资激励。[2]暂且不论由于经验证据的缺乏导致功利主义理论(激励论)的不可证伪性,对于人工智能而言,我们却不能想象财产权的保护给予人工智能的激励效果。当然,如果说是从激励人工智能的所有人或使用者利用人工智能来“创作”更多的“作品”,这样的解释虽然在逻辑上可以成立,但却限定了人工智能的工具性价值,具有一定的局限性。有学者主张构建以人类读者为基础的版权法理论,从人类受众的角度判断人工智能生成内容是否产生审美的精神效果,从而判定其是否属于版权作品。[3]而在笔者看来,如果需要改变现有著作权理论的逻辑基础,首先需要重建的就是有关著作权(知识产权)正当性的理论体系,考虑到历史上及当前有关著作权(知识产权)正当性问题的种种争议,这样的理论课题在短时间内很难形成共识。
2
二、人工智能生成内容与作品:“智能大生产”与自然人创作
随着人工智能技术的拓展与深入,现阶段的人工智能具备了深度学习的特征,即可在自行学习的基础上形成新的成果。[4]具有深度学习特征的人工智能在被引入原本专属于人类的创作领域后,就为著作权制度带来了新的问题和挑战。[5]在著作权制度的发展历史中,曾经多次面临由于技术进步而引发的挑战,或者是由于新技术的应用导致了新的作品形式的出现,或者是由于复制或传播技术的革新而破坏了原有的利益格局,但这些挑战总能在不触及著作权制度的基本概念、制度结构及理论基础的前提下得到一定程度上的回应与解决。不过,人工智能的发展和应用则可能对著作权制度的基本概念、制度结构及理论基础产生无与伦比的冲击与挑战。有学者主张通过扩张或者重构现有著作权制度的基本概念、理论体系的途径来解决人工智能生成内容的著作权保护问题,但这样的方式既可能破坏相关基本概念及理论体系的内在逻辑,而且从技术演变与社会变迁的角度来看,这样的方式也未必就是最优的选择。
比如,人工智能生成相关成果的过程能不能作为“创作”来进行理解,对此还需要作进一步的探讨。从某个角度来说,人类创作作品的过程与人工智能生成相关成果的过程都具有“黑箱”运行的特征,至少现阶段人们对二者运行的过程和机理还没有清晰的认知。但是,毕竟自然人与人工智能属于不同的客观存在,如果要把人工智能生成相关成果的过程纳入到创作的范畴,也就意味着从逻辑上将人类与人工智能统一在一起,但究竟人类与人工智能之间的关系应作何种理解和对待,一方面既取决于人工智能技术进一步的应用与发展,另一方面还要取决于人们能否在哲学、伦理学及法哲学等层面上就人工智能的性质、地位及其与人类之间的关系达成基本的共识。而在这些共识尚未形成之前,在著作权制度或知识产权制度的局部研究中,研究者应对上述问题保持谨慎的态度。[6]
一般认为,自然人创作作品的过程是作者将其思想、情感表达于外部的过程,同时也是将其生命体验凝聚于表达的过程。尽管著作权法保护的作品存在多种类型,但从作品的创作过程来看,作者总是需要付出相当的创作成本,包括时间、货币、设备等方面的支出,更不用说作者通过之前的学习、培训而积累的人力资本的投入了。当作品完成以后,在作品的传播和利用过程中存在着边际成本递减的趋势。而对于人工智能生成内容来说,我们很难将其理解为表达了人工智能的“生命体验”。与其说人工智能生成相关成果的过程属于“创作”,毋宁说这个过程更近似于“生产”。如美国加州大学圣克鲁兹分校戴维•科普教授曾花了七年时间写作了一个可模仿巴赫音乐风格的智能程序(EMI),其在一天之内就谱出了5000首巴赫风格的赞美诗。[7]对于人工智能生成内容的“生产”来说,其边际“生产”成本更为低廉,或者近乎于零,其传播和利用的边际成本同样呈现递减的趋势。一旦人工智能大规模地应用于各种内容的“生产”,基于相对低成本的竞争优势,原先由人类占据的创作领域在很大程度上就会被人工智能所替代。
但是,即使存在这样的替代趋势,也不意味着应该将人工智能生成内容与人类创作的作品相等同。实际上,人工智能对于人类创作活动的真正影响是,它把作品的创作变革为“内容的生产”,把处于“手工业”或半工业发展阶段的创作活动变革为内容的“智能大生产”。在笔者看来,经过第一次“工业革命”,原先处于手工业发展阶段的生产活动变革为机器生产形式。而人工智能的出现、发展和应用则可能使得创作活动也进入到“智能大生产”时代。尽管在表现形式上人工智能生成内容与自然人创作的作品几无差别,但正如市场中纯手工制品与流水线产品在品质、消费体验与价格等方面的巨大差异,人工智能生成内容与自然人创作的作品之间同样存在着类似的巨大差异。[8]即使立法者在法律上强行将人工智能生成内容与自然人创作的作品混为一谈,市场上也会依据消费者的偏好差异尽量将二者区分开来。
3
三、人工智能生成内容的产权界定:著作权抑或邻接权
对于人工智能生成内容的法律保护而言,除了需要首先解答其正当性问题以外,在具体制度的设计中,还要对人工智能生成内容的产权界定及配置问题给出某种比较确定的制度安排。可以说,包含著作权制度在内的“知识产权制度的主要功能是确认、分配知识的市场化所产生的利益”。[9]由于目前人工智能生成内容尚未进行大规模的商业利用,与其相关的市场利益关系及利益诉求并未完全显现。不过,考虑到前述的“智能大生产”现象,我们很难去准确地估测消费者对于人工智能生成内容的需求状况及市场规模。作为一种事前的探讨性研究,基于著作权制度的利益分配功能,我们可以通过对人工智能生成内容的产权化来确定有关人工智能生成内容及其相关市场利益的分配格局。
在制度经济学的视角下,产权界定实际上属于制度的形成或设计问题,故在讨论人工智能生成内容的产权界定问题时,就必须根据社会实践中的制度需求加以选择和确定,而不能仅从逻辑推理来作出选择。但是,由于目前人工智能只是处于初步应用阶段,关于保护人工智能生成内容的制度需求尚未显现出来,现实中也未发生过与人工智能生成内容相关的案例纠纷。在这样的情形下,关于人工智能生成内容的法律保护,笔者主张一种渐进性的保护进路,即可首先采用某种“弱保护模式”来保护人工智能生成内容,随后再根据逐渐显现出的制度需求,在必要的情形下从“弱保护模式”过渡到“强保护模式”。如果仅凭“弱保护模式”就足以满足对人工智能生成内容进行保护的制度需求,那就没有必要对人工智能生成内容给予“强保护模式”的产权保护。毕竟,相比较于“弱保护模式”,“强保护模式”需要支付更多的制度成本。
从现有的研究成果来看,关于人工智能生成内容的保护模式,主要有两种观点:[10]一是主张在满足独创性要件的条件下,可将人工智能生成内容纳入作品的范围,从而受到著作权的保护;[11]二是认为人工智能生成内容可通过邻接权加以保护。[12]在上述两种保护模式中,综合权利内容、保护期限等因素来看,(狭义)著作权属于“强保护模式”,而邻接权则可被看作为“弱保护模式”。关于“强保护模式”,除了考虑制度需求与节省制度成本,如前文所述,仅以人工智能生成内容与自然人创作的作品在存在方式上的相近或相同为由就将二者完全等同的观点[13],不仅抹杀了人工智能生成内容与自然人创作的作品之间存在的其他差异,还对现有著作权制度的诸多基本概念、基本理论即时产生了难以克服的内部冲突。
当然,笔者并不反对在理论及司法经验的积累较为充分的情形下,为了回应人工智能应用所带来的、逐渐显现的制度需求,可在重构著作权法基本概念、制度结构及理论体系的基础上,对人工智能生成内容提供一种“强保护模式”的法律保护。与目前就设计出一套完美的制度保护方案相比(暂且不论能否设计出完美的方案),如果一种“弱保护模式”能够对人工智能生成内容提供合理的产权保护,同时也为未来的理论研究及制度变革留出充分的时间,这样的保护进路自然应当是目前的次优选择。由于人工智能的应用对于现有法律制度所带来的问题与挑战也在持续的发展与深化,这也要求人们目前不必急于在制度及理论上就做出确定性的选择。总的来说,笔者赞成通过邻接权这样的弱保护模式来保护人工智能生成内容,[14]此种模式既可以节省制度成本,暂时回避对著作权制度基本概念及理论体系的重构,也给未来的理论及制度变革留下了较为充分的时间与余地。
结语
应该说,就人工智能生成内容所提出的法律保护问题,为著作权制度及其理论体系的变革提供了难得的历史契机。当前我国《著作权法》正历经第三次修改,立法者应对人工智能生成内容的法律保护问题做出初步的回应。笔者认为可在针对作品的(狭义)著作权与保护传播者的邻接权二元结构的基础上,明确地区分出强保护模式(著作权)与弱保护模式(邻接权),将人工智能生成内容暂时通过弱保护的邻接权模式来加以保护。当然,如果要采用邻接权模式来保护人工智能生成内容,就需要首先解决一个前提性问题:即如何区分自然人创作的作品与人工智能生成内容?有学者在其论文中也提出了相近的问题,即当自然人或法人隐瞒真实过程而署名于人工智能生成内容时,人工智能生成内容事实上就可被作为作品而加以保护。[15]不过,如果有意将人工智能生成内容冒名为自然人创作的作品(包括法人作品),则会涉及对消费者的误导甚或欺诈。对于此类冒名行为,可从信息披露、责任规则、技术手段、市场中的信号传递等几个方面进行综合规制。
*向波,南开大学法学院副教授,硕士生导师,法学博士,从事知识产权法学研究。
本论文是笔者主持的2017年中央高校基本科研业务费资助项目的阶段性成果,也是笔者参与的南开大学跨学科建设项目“网络与信息法学的理论与实践”(项目编号63185030)的阶段性成果,并得到南开大学亚洲研究中心资助。
[1][澳]布拉德·谢尔曼,[英]莱昂内尔·本特利:《现代知识产权法的演进:英国的历程(1760-1911),金海军译,北京大学出版社2006年版,第27页。
[2]有学者认为,自现代著作权法产生至今,其立法目标始终是通过赋予权利人对作品的法定专有权来激励作品创作和传播。参见熊琦:《人工智能生成内容的著作权认定》,《知识产权》2017年第3期。
[3]梁志文:《论人工智能创造物的法律保护》,《法律科学(西北政法大学学报)》2017年第5期。
[4]所谓深度学习,就是用很多层神经元构成的神经网络达到机器学习的功能。网络越深,表达能力越强,但训练的复杂性也急剧增大。深度学习是目前得到广泛应用的图像识别、语音翻译等人工智能领域的技术基础。参见尼克:《人工智能简史》,人民邮电出版社2017年版,第112页。
[5]人工智能所生成的内容仅从形式来看已然能达到《著作权法》所要求的独创性程度,但这些内容本质上不属于思想或者情感的表达,不是智力劳动的产物,其仅仅构成一种通过算法进行分析、选择所完成的机械式的输出。参见曹源:《人工智能创作物获得版权保护的合理性》,《科技与法律》2016年第3期。
[6]关于人工智能能否成为民事主体的问题,正如有学者所说,即使未来人工智能发展到了能够完全模拟人类思维的程度,也需要民法在主体制度中首先做出回应,而轮不到知识产权法进行创新。参见熊琦:《人工智能生成内容的著作权认定》,《知识产权》2017年第3期。
[7]参见[以色列]尤瓦尔•赫拉利:《未来简史》,林俊宏译,中信出版集团2017年版,第291页。
[8]或许,在人工智能生成内容大行其道的未来社会,“纯人”创作的作品反而会受到消费者的大力追捧,只有阅读或欣赏自然人创作的作品才能真正拥有心灵与情感上的交融。
[9]李琛:《著作权基本理论批判》,知识产权出版社2013年版,第25页。
[10]当然,还有一种观点认为,如果人工智能生成内容都是应用算法、规则和模板的结果,不能体现创作者独特的个性,并不能被认定为作品,当然也不能受到著作权的保护。参见王迁:《论人工智能生成的内容在著作权法中的定性》,《法律科学(西北政法大学学报)》2017年第5期。另有学者对此观点作出回应,认为“人工智能智力成果非作品”的观点与社会现实不符、与发展人工智能产业精神相悖、与法的价值矛盾。参见李伟民:《人工智能智力成果在著作权法的正确定性——与王迁教授商榷》,《东方法学》2018年第3期。
[11]参见易继明:《人工智能创作物是作品吗?》,《法律科学(西北政法大学学报)》2017年第5期;王小夏、付强:《人工智能创作物著作权问题探析》,《中国出版》2017年第17期;熊琦:《人工智能生成内容的著作权认定》,《知识产权》2017年第3期。
[12]参见罗凯中、刘强:《邻接权视角下的人工智能创作物版权保护模式》,《齐齐哈尔大学学报》(哲学社会科学版)2018年第5期;陈艺芳:《人工智能生成成果的法权化路径》,《西华大学学报(哲学社会科学版)》2018年第2期。
[13]从可被人类理解的角度来说,人工智能生成内容最终必然要采用人类可理解的形式表现出来,但这并不意味着其必然与自然人创作的作品相等同。
[14]有学者认为,人工智能创作物不适合用著作权来保护的核心原因是没有合适的权利主体,人工智能本身不适合成为权利主体,所有者或使用者没有做出智力贡献,不应享有作者权,将人工智能创作物归于公有领域也会造成一些问题。邻接权的核心在于保护投资,而非保护对作品的传播。参见罗凯中、刘强:《邻接权视角下的人工智能创作物版权保护模式》,《齐齐哈尔大学学报》(哲学社会科学版)2018年第5期。
[15]参见王迁:《论人工智能生成的内容在著作权法中的定性》,《法律科学(西北政法大学学报)》2017年第5期。
本文原刊于《中国版权》2018年第5期。感谢作者惠寄电子文本并授权本公众号发表。转载请保留原始出处,并注明转载自“规制与公法”(ReguLaw)公众号。
关注规制,研习公法
微信编辑:美郡返回搜狐,查看更多
刘影:人工智能生成物的著作权法保护初探
【摘要】根据人工智能创作过程对人的依赖程度,将人工智能生成物类型化为来自于人类的生成物(第一类生成物)和非来自于人类的生成物(第二类生成物)。从解释论的角度来看,第一类生成物可以受到现行著作权法的保护,而第二类生成物不满足构成作品的要件。从立法论的角度来看,应基于激励理论来考虑第二类生成物著作权法保护的必要性,但存在一些制度设计上的障碍。出于促进产业发展的政策考量,在人工智能技术成熟到一定阶段时,有必要打破现行著作权法的规定给予第二类生成物著作权法上的保护。
【中文关键词】人工智能;人工智能生成物;知识产权;著作权法
一、问题的提出
图灵在1950年发表的论文《计算机器与智能》(ComputingMachineryandIntelligence)中,首次从行为主义角度提出“机器能思考吗?”这一问题。人工智能(ArtificialIntelligence,缩写为Al)概念在1956年美国的一次夏季会议(达特茅斯会议)上正式提出。经六十余载发展,人工智能技术经历了从概念到不断发展的成长历程。伴随2006年深度学习概念的提出,人工智能成为未来技术发展的新趋势[1],甚至上升为国家政治意识[2]。技术是一把双刃剑,虽然人类有望通过人工智能从重复性脑力活动中解放出来,但是一旦人工智能技术发展到一个临界点,则存在发生自我进化的可能性。具言之,人工智能通过深度学习对人和动物大脑进行仿生模拟,在大数据支持下,可以具有逻辑和思维,进而形成自己的价值判断。为此,有人(如霍金、比尔•盖茨等)担忧人工智能未来可能会脱离人类的控制范围而成为人类的竞争对手甚至是敌人。科学技术是人的创造物,是人类认识世界、改造世界的工具和手段[3]。只要科学技术发展坚持人的主体性,技术本身就只能作为客体而存在。因此,为保证人工智能技术在人类可控范围内发展,需要前瞻构建出一套从技术到产业、从社会到伦理、从政策到法律的监管规则。
知识产权制度对人类智力成果提供保护。著作权法保护的客体是自然人创作的具有独创性的作品。人工智能亦可进行文学艺术创作活动,不同于传统计算机的创作过程,人工智能是以海量数据为基础,在此基础之上不断学习训练,未来可能不再依赖于硬件和事先定义的规则。换言之,未来的人工智能创作不是开发者告诉程序如何创作,而是算法本身通过数据训练,自己学会如何创作。日本公立函馆未来大学松原仁教授组建的人工智能团队通过人工智能创作出小说《电脑写小说的一天》,并入围“星新一奖”比赛初审。这部小说的创作,人的贡献度为80%,人工智能的贡献度为20%[4]。可以看出,目前人工智能创作还依赖于人类,扮演人类创作道具的角色。而事实上,自20世纪50年代计算机技术兴起之后,各国即己对机器创作作品的法律属性进行过讨论,并在计算机仅作为协助创作的工具而存在这一点上达成共识[5]。因此,对于依然不能脱离人类控制的人工智能生成物的著作权法保护问题,可依照计算机衍生作品的逻辑。但是,人工智能创作对人的依赖程度会随着技术的发展而有所改变,不排除在不久之未来人工智能可独立进行创作的可能性。因此,在讨论人工智能创作生成的作品(以下简称人工智能生成物)时,有必要根据人工智能创作过程对人的依赖程度对其类型化,由此就会产生如下问题:从解释论的角度来看,在现行著作权法框架下如何评价类型化后的人工智能生成物;从立法论的角度来看,是否有必要对类型化后的人工智能生成物(非直接来自于人的创作)进行保护,如有必要,应如何保护。本文主要围绕以上两个问题而展开,并在文末给出本人就人工智能生成物著作权法保护这一问题进行论证后得出的初步结论。
二、人工智能生成物的类型与特征
智能是人类所特有的区别于一般生物的主要特征,通常被解释为人类认识客观事物并运用知识解决实际问题的能力[6]。人工智能研究的一个主要目标是使机器能够胜任一些通常需要人类的智能才能完成的复杂工作[7]。深度学习是一种需要大型神经网络的深层次结构,是对人和动物大脑进行仿生模拟的过程,通过特定算法并以大数据作为模型不断训练,进而发现规律并形成经验[8]。制约人工智能发展的限制条件有神经网络、大数据和算法[9]。神经网络在深度学习过程中充当模拟人类大脑的角色。目前大型神经网络的技术发展已经可以为深度学习提供支撑,一旦数据和算法这两个制约条件也被突破,人工智能技术可能很快会发生自我进化。这就意味着,人工智能创作通过不断从案例和数据中训练学习的算法,无需再像传统计算机一样依赖于硬件和事先定义的规则,进而实现独立创作。但是需要注意的是,在发生自我进化前,人工智能创作依然依赖于人类,也即人工智能仍是人类创作的辅助工具,在这个意义上,人工智能创作物可视为传统的计算机衍生作品。而人工智能一旦发生自我进化,将不再依赖于人类而独立进行创作,这时就出现了如何看待人类主体和智能机器主体之间关系的难题。本文以人工智能创作是否发生进化为界限,将人工智能生成物类型化为:1.来自于人类的生成物(以下简称第一类生成物),可理解为传统意义上的计算机衍生作品,人工智能仍作为人类创作的辅助工具;2.非来自于人类的创作物(以下简称第二类生成物),人工智能创作无需人类事先定义规则,作为独立的创作主体。
如果从人工智能的工作机理来看,可以发现人工智能生成物具有如下特征:首先,人工智能的创作过程是经数据解析后再根据算法而创作出例如音乐、绘画、小说等作品的,无论是人工智能生成物抑或人类创作的作品,在本质上都属于信息的范畴,其外部表现与人类创作物并无明显区别。其次,得益于摩尔定律的发展,计算机硬件计算能力大幅提升,例如,2016年单张英伟达游戏显卡就有了2002年之前最强大的超级计算机拥有的能力,特别是通过云服务和神经网络,极大地提升了神经网络生成结果的速度和准确率,进而确保人工智能可在短时间内快速学习后作出更具效率的判断,有此作为保障,人类需要花费较长时间才能创作完成的作品,人工智能在极短时间内就可以批量完成。可以看出,相较于人类创作物,人工智能生成物的主要特征为,在外部表现上与人类创作物难以区分,而在产量上又远高于人类。
三、现行著作权法下的解释论
前面己将人工智能生成物类型化为第一类生成物和第二类生成物。事实上,第一类生成物与计算机衍生作品类似,由人类事先定义规则,计算机作为提高人类创作效率的工具存在,关于计算机衍生作品的可版权性等问题的讨论由来己久,并己就一些基本问题达成共识[10]。因此,在对第一类生成物进行讨论时,本文仅就一些传统计算机衍生作品的既有结论作一简要梳理,除此以外,不予过多探讨。对于第二类生成物,从技术发展来看,人工智能目前还未达到完全脱离人类控制独立进行创作的阶段,但是从技术和产业发展的角度考虑,有必要前瞻考虑第二类生成物的可版权性等著作权法问题,这也是本部分讨论的重点。
(一)第一类生成物
著作权法保护的客体是作品,而著作权法意义上的作品是指人的思想或感情的独创性表达。在这一点上,计算机衍生作品曾经备受争议,所幸各国讨论的结果己就该问题达成一致。如美国“新技术时代作品使用方式考察委员会”于1978年发布最终调研报告,认为计算机程序仅作为被动性协助创作的工具存在,未直接参与创作行为[11]。又如日本文化厅1993年发布的“著作权审议会第9小委员会(计算机创作物关联)报告书”中,认为计算机系统作为人创造性表达的“道具’,而被使用[12]。计算机衍生作品最终被认定为来源于人的创作而非计算机,进而认定具有著作权法意义上的可版权性。这一结论可以适用于本文类型化后的第一类生成物,也即未发生自我进化的人工智能生成物仍属于直接来自于人类的创作物,属于现行著作权法保护的客体范围。值得指出的是,日本发布的报告书中亦提到,目前人工智能和各领域自动化不能完全代替人类的创作行为,通常只是将计算机作为道具而使用,但对技术的把握仍在进行中,随着技术的发展,计算机的角色从辅助工具转换为创作主体,则有必要重新审视计算机衍生作品的可版权性问题。如果第一类生成物属于现行著作权法保护的客体范围,那么在作者的认定上,仍可遵循计算机衍生作品的一般逻辑。综言之,从解释论的角度看,第一类生成物具有可版权性,属于著作权法保护的客体范围,权利主体的认定与计算机衍生作品具有逻辑上的一致性,因此受到现行著作权法的保护。
(二)第二类生成物
人工智能依赖于神经网络,神经网络通过多层感知器实现点与点的连接,多层感知器可分为三层:输入层(inputlayer)、隐藏层(hiddenlayer)以及输出层(outputlayer)。输入层接收输入模式,输出层包含一个分类列表或输入模式可以映射的输出信号,隐藏层提取输入数据中的显著特征,具有有关输出的预测能力[13]。根据神经网络的工作机理,可将人工智能创作理解为数据收集、提取特征量进行加工、输出的过程。我国现行《著作权法》规定,构成著作权法语境下的作品需要具备如下要件:1.思想或情感的表达;2.具有独创性的表达:3.属于文学、艺术或者科学领域的作品。前面己提及,人工智能生成物的特点之一在于外部表现上与人类创作物难以区分,鉴于这一特点,第二类生成物和第一类生成物与人类创作物一样,均属于表达,因此不属于不受著作权法保护的思想范围。人工智能生成物所属领域问题,第二类生成物并未超出文学、艺术或者科学领域,因此第二类生成物也未违反要件3。在解释人工智能生成物是否构成著作权法保护的作品时,最具争议的问题要集中在要件1和2,也即第二类生成物是否属于思想或情感的范围,以及是否具有独创性。
关于要件2,独创性要求作品是独立完成且具有最低限度的创造性,但独立创作不应是作品是否应该受到保护的理由,最低限度的创造性才是,独立创作是权利归属或侵权认定的判断要素[14]。最低限度的创造性只是一种质的要求,并没有准确的定量或定性标准。一般来说,偏向人格权说的学者强调作品应该通过可感知的形式体现个性。但是,作为功能性作品的计算机程序、数据库等作品,未必包含作者个性,由于职务需要而完成的作品中也很难说是反映了著作权人的个性。在著作权人是法人的情况下,强调法人个性这种观念本身是存在问题的。对此,日本学者中山信弘从确保文化多样性的角度对独创性要件的意义进行了重新解构[15]。第二类生成物在外部表现上与人类创作物并无太大区别,又鉴于著作权法对创作物独创性只要求最低标准,如果从确保文化多样性的角度来考虑第二类生成物的著作权法保护,不能绝对排除其属于作品范围的可能性。事实上,对于机器是否具有创作天赋这一问题,有著作认为,计算机富有创造力,却缺乏人类拥有的现实世界的经验,因此它们的思维具有不连贯性[16]。一系列旨在测试世界上最好的人工智能系统和人类智商之间的胜负关系的试验表明,人工智能的智力目前己经达到4岁儿童的水平[17]。在现行《著作权法》的规定下,4岁儿童的作品并未被排除在保护范围外。换言之,作品创作主体思维的缜密性或连贯性并不能直接推导出作品不受保护的结论。
关于要件1,思想或情感的表达这一要件的判断往往会变成对思想和表达进行二分的过程,其主要目的在于排除对于思想或情感这类抽象的思维方式的保护,而只保护人类演绎、联想后形成自己观点、立场后的表达。对于第二类生成物,其主要基于大数据分析、内容理解和自然语言生成等技术实现,基本创作流程分为数据采集、数据分析、自动创作等环节。从第二类生成物的创作过程可以看出,计算机可以完成逻辑性较强的工作,因为逻辑建立在清楚而简单的规则之上,但是思想或情感却很难用机械的方式解释,因此对于第二类生成物来说,很难想象其可以像人类一样表达自己的观点和立场。事实上,如何让一台机器人拥有一颗人类一样的心灵,也是人工智能领域的专家们最为艰难的课题。即使第二类生成物可以脱离人类独立进行创作,但在文义解释上,也很难认定其是思想或情感的表达。
综上所述,第二类生成物在解释论上很难构成现行著作权法意义上的作品,因此也不存在作者认定的问题。但是,第二类生成物的产生是技术进步带给人类文化的一种新的表现形式,在不久之未来,第二类生成物可能会存在于甚至是大量存在于人类社会,起到繁荣人类文明的作用。著作权法的立法目的是通过保护创作者的权利、促进作品的创作和传播来实现促进文化创新的目的,因此有必要从立法论的角度来审视第二类生成物著作权法保护的可能性。
四、人工智能生成物立法论上的探讨
(一)第二类生成物著作权法保护的必要性
一般来说,知识产权正当性依据主要分为自然权论和激励理论两种观点。英国思想家洛克的自然权论中贯穿一个最朴素的逻辑,因为有劳动,所以要保护。暂且不论洛克的自然权论所受到的诟病,其至少为我们提供一个基本信念:每个人的劳动成果都应该得到尊重。另一方面,激励理论内在逻辑是,如果过度宽容免费使用,对于模仿者太过有利,从而可能导致意欲对创作活动进行投资的先行者的数量减少。为防止这种问题发生,应该考虑在一定程度上禁止免费使用[18]。将两种主要理论进行比较可知,洛克的自然权说针对已经发生的劳动成果而言,也即知识由智力创作者生产,如不尊重作为知识产权源泉的智力创作者,则知识之源可能面临枯竭的危险。但从知识产权制度的价值目标来看,相较于自然权论,面向未来的激励理论更为符合社会整体价值。从提高社会整体福利这一点来看,激励理论作为说明知识产权正当化的根据更具说服力。这是因为,如果对搭便车行为不加以制止,则不能确保投资者的投资回收机会,会导致致力于知识创造的人的创作意愿减弱,公众会因为知识总量的萎缩而蒙受不利。
从立法论的角度来考虑第二类生成物著作权法保护的必要性时,基于自然权论进行解释存在一定难度。这是因为,洛克的自然权论是以人生而为人的自然权为出发点,而现阶段人工智能显然还不具有可与自然人等同的人权,因此很难将自然权论作为赋予第二类生成物一定期限著作权保护的正当性基础。当然,人工智能技术通过类人模仿而具有一定程度的“人性”,是否应赋予人工智能以“人权”,这样的讨论己出现[19]。但是,即使存在赋予人工智能人权的可能性,可在一定程度上将人工智能生成物与人类创作物等同视之,但也只能将自然权论作为解释第二类生成物是否受著作权保护的消极理由,而非积极理由[20]。那么,基于激励理论来解释是否妥当呢?人工智能的应用前景十分广阔,未来所能带来的利益不可估量,但其产业化过程又需要耗费相当大的投资。因此,从确保相关人员获得投资回报机会的角度来看,应该肯定给予第二类生成物制度上保护的必要性。
另一方面,如果不给予第二类生成物制度上的保护,可能会导致僭称内容问题[21]。具言之,人工智能生成物外部表现上与人类创作的作品难以区分,这一特点容易诱使一些人对第二类生成物主张权利的投机行为。僭称内容问题更容易存在于对于一些有价值的第二类生成物的二次利用上。例如,人工智能独自创作的小说,其作为第二类生成物而存在,有人想要将此小说拍成电影,如果这部小说本身不享有任何权利,那么最后拍摄成功的电影也将由此失去享有电影著作权的权利基础,而一些投机者会因此对原本不享有著作权的作品主张权利。僭称内容问题直接导致本不应受著作权法保护的客体受到保护,实际不存在的著作权人或本来不具备资格的人享有作者的权利。这会带来如下后果:第一,在权利人实际不存在的情况下,著作权法规定的权利存续期间变得半虚构化;第二,一旦相关业者觉察到僭称内容问题的存在,会对内容相关许可业务风险有所顾忌,而第二类生成物与人类创作物难以区分,业者则不得己只能在风险之下进行许可业务,由此一来会给整体内容许可业务带来萎缩效果;再者,由于很难从外部表现上鉴定一个作品是第二类生成物还是人类创作物,因此只要知情者不告发,僭称行为被揭发的可能是很小的。综合以上考虑,有学者认为,解决此问题的对策是从根本上灭杀僭称行为的诱因[22]。也即赋予第二类生成物与第一类生成物同样的著作权保护,这样就可达到祛除病灶之效果。
(二)第二类生成物著作权立法上的主要问题
以上从积极理由和消极理由两方面来说明了第二类生成物著作权法保护的必要性。从结论来看,基于激励理论来讨论是否赋予第二类生成物财产权更具合理性。从确保人工智能产业投资回报机会的角度看,有必要给予第二类生成物著作权法上的保护。但是,如果给予第二类生成物以著作权法保护,在立法上存在以下几个问题需要探讨。
第一,作品的要件认定。前面己提及,即使人工智能发生进化脱离人类控制进行独立创作,但是鉴于思想或情感为人类所特有,在这个意义上,第二类生成物很难突破其可被认定为是思想或情感的表达的藩篱[23]。因此,如果给予第二类生成物著作权法保护首先需要修改作品的认定要件。让机器主体具有思想、信念、欲望、情感等这些自然人才有的特征进而使其成为真正的智能主体,是人工智能技术发展的愿景。从技术发展的角度来看,我们试图设想如下场景:一台机器人给我们发来“今天很开心”这样一则消息,以此来表达他/她的情感,并试图与我们进行互动。在这种情况下,思想或情感将不再是人类的特权。如果实现这一技术愿景的可能性不完全被排除,结合著作权法促进文化创新的立法目的,再来考虑作品认定要件,思想或情感的表达主体则无需桎梏于自然人,因为生物大脑所能产生的信息和人工智能所能产生的并无本质区别。虽然这与洛克的自然权论相违背,但在技术发展所带来的产业利益面前,重新进行制度设计显然可以为人类社会带来更多福祉。
第二,权利归属。如果人工智能具有人类一样的思维,可以通过独立创作来表达自己的情感,心智创作的主体则不再限于人类,因为人工智能一样可以做到。那么,人工智能是否同自然人一样可以成为其生成物的权利主体,也即如何认定人工智能主体的法律地位这一问题自然就成了立法论探讨上的逻辑归属。虽然在技术上的确存在“智能代人”的可能性,但是如果从人类主体与智能主体的关系来看,我们并不愿看到二者最后发展成竞争关系或对抗关系的结果,而是期冀着一个人机协同的美好未来。在人机协同的策略设计中,为避免机器失控,有必要打破算法黑箱,引入机器算法的“伦理审计”,厘清其中的价值、利益、权利、责任与义务,并在规则制定上确保人类的绝对控制权。对此,英国《机器人和机器系统的伦理设计和应用指南》中提到,人类是负责任的主体,而不是机器人,应确保找到某一机器人责任人的可能性[24]。因此,在探讨人工智能技术的发展是否可能带来权利主体转移这一问题时,我们也应克服拟人思维所带来的陷阱,不应将人工智能想象成为同人类并列的法律主体。
如果人工智能不能作为权利义务的主体,而出于产业发展的政策考量,又有必要给予第二类生成物以著作权法保护,那么应如何对权利归属做出现实安排呢?现行《著作权法》确定著作权归属的一般原则是作者享有著作权[25]。作为一般原则的例外,还存在职务作品这种著作权人并非原始创作主体的制度安排[26]。一般来说,职务作品的创作事实上代表单位的意志而进行。熊琦教授认为,从保护投资者利益的角度出发,人工智能生成内容在著作权法上也可视为代表设计者或训练者意志的创作行为,将人工智能的所有者视为作者在制度上不存在障碍[27]。但是第二类生成物的创作并不依赖于人类事先设定的规则,将此过程解释为代表设计者或训练者意志的创作行为未免有些牵强。在现行著作权法框架下,电影作品的权利归属亦是出于政策考量而做出的制度安排[28]。立法者之所以选择了一种对投资方也即制片人最为有利的规则,其理由主要有两点:一是确保投资者的回报机会;二是考虑参与到电影创作过程中的人员较多,避免权利被过度分割而影响市场化[29]。这两点理由对于第二类生成物的权利归属规则的设计同样适用。首先,确保投资者的回报机会己经在前面重点论述过,理应予以考虑。第二点理由也适用,这是因为第二类生成物的创作是人工智能的开发者、人工智能系统的所有者、人工智能系统的使用者等众多人共同努力的结果。因此,第二类生成物的权利也存在被过度分割的风险。有基于此,应将第二类生成物的权利设计为归属于对第二类生成物的创作负有责任的一方。这样一来,人工智能的所有者便成为最具可能性的选项。但是,一般来说,著作权分为著作财产权和著作人格权。在上述人工智能的所有人是非自然人而是法人的情况下,第二类生成物存在著作人格权没有享有主体的问题。鉴于第二类生成物原本不存在人格利益,因此可以将自然人享有的发表权、修改权以及保持作品完整权用著作财产权来替代。另外,关于署名权的问题,可考虑将作品原始归属于发表第二类生成物的责任人,也即人工智能的所有者。
第三,国际保护。作为保护文学和艺术作品的国际公约,《伯尔尼公约》并没有直接规定作品一定为人类所创作,但是第3条第1款确定了国民的概念,也即本条约所保护的作品,其作者应是能够成为权利义务主体的国民。换言之,第二类生成物并不在公约的保护范围内。《伯尔尼公约》于1886年签订,其滞后于一百多年后人类所关注的新技术进展,实属当然。但是,为了更好地促进技术发展,制度设计应随着人类社会的进步而变更,因此有必要在国际条约上也给予相应的回应。
(三)第二类生成物著作权法保护的风险
第二类生成物著作权立法,不仅存在上述制度设计上的问题,还可能因为前面提及的人工智能生成物的自身特点,而产生如下风险:第一,反公地悲剧(TheTragedyAnticommons)[30]。该理论来自于公地悲剧(CommonsTheory),如果牧草地任人使用,则会导致滥垦或滥捕,其结果是造成土地荒废。相反,反公地悲剧是指权利的过多存在会阻碍利用,进而导致创新停滞。人工智能在产量上远高于人类,假设现行著作权法冲破权利客体上的制度障碍,给予第二类生成物著作权法保护,将直接导致著作权大量存在的问题。大量碎片化权利的存在,会增加知识产权许可的交易成本,进而阻碍作品的使用,这与知识产权法促进使用的立法初衷不符。同时,大量人工智能作品的存在会导致表达的选择范围受限,创作者出于对著作权人权利行使的担忧,创作活动也会由此而受到影响。第二,过剩保护问题。著作权法对独创性标准的要求不同于专利法,只需要达到最低的创造性即可。由此,第二类生成物大量存在的情况下,这些人工智能作品很可能是类似或相近作品,如果给予这些作品同样的著作权保护强度,会导致一些独创性不高的作品享有过剩的权利。
结论
人工智能有望替代诸多人类脑力劳动,除可以进行作为本文讨论对象的小说、音乐、绘画等创作活动,亦可进行发明创造活动。在这种情况下,如何评价人工智能发明的可专利性及权利归属等问题,本文暂不予涉猎,留作日后单独讨论。而根据本文的讨论,作为人工智能生成物的第一类生成物可遵循计算机程序的著作权法保护的逻辑,其属于现行著作权法保护的客体范围,可以受到现行著作权法的保护。另一方面,作为人工智能生成物的第二类生成物在解释论上,很难认定其满足现行著作权法受保护的要件。但是,出于对促进产业发展的考虑,应确保人工智能相关人员能够回收其资本投入和智力投入的机会,因此,当产业发展到一定规模,人工智能可实现独立创作时,有必要修改现行著作权法的相关规定,给予这类生成物以制度上的保护。但是,在制度设计上应确保人的主体性与控制权,避免陷入拟人思维的陷阱。此外,应考虑到反公地悲剧问题,应赋予第二类生成物相对排他权,也即在碎片化权利大量存在的情况下,限制第二类生成物的著作权人肆意行使停止侵害的权利。再者,为防止过剩保护问题,应充分利用现行著作权法中独创性标准这一政策杠杆,仅给予高于一定创作高度的第二类生成物以著作权法保护,而非一刀切式的保护。
国际上也存在为人工智能单独立法(suigeneris)的讨论[31]。但是,回顾过去国际上对计算机程序、DNA相关发明及商业模式知识产权保护的讨论,从结果来看,都没有采取单独立法路径。这是因为,在经济一体化背景下,产业发展依赖于知识产权的全球化保护,如果当初美国对计算机程序采取单独立法,而他国并未对计算机程序单独立法,或者即使单独立法但并未采取与美国同样的保护标准,会导致计算机软件仅在美国域内可以得到有效保护,随之带来的是美国计算机软件产业在国际上的竞争力被削弱的后果。我们在探讨是否为人工智能单独立法时,既要考虑到本土化问题,也应考虑到全球化背景对产业发展的影响问题。根据高盛的研究报告,中国和美国将是未来人工智能领域的领跑者,如果中国对人工智能单独立法,则可能会导致中国保护标准与国外不相接洽的问题,进而造成人工智能产业在国内固步自封的后果。因此,在现行知识产权法框架下讨论人工智能生成物的保护问题,对中国来说更具现实意义。
【注释】作者简介:刘影,法学博士,中国科学院科技战略咨询研究院,助理研究员
[1]阿尔法狗围棋(A1phaGo)是一款围棋人工智能程序,由谷歌(Google)旗下DeepMind公司的戴密斯•哈萨比斯、大卫•席尔瓦、黄士杰与他们的团队开发,其主要工作原理是深度学习。2016年3月,该程序与围棋世界冠军、职业九段选手李世石进行人机大战,以4:1总比分获胜,引发世人关注与热议。
[2]2015年国务院印发的《关于积极推进“互联网+”行动的指导意见》中将人工智能列为“互联网+”11项重点推进领域之一。
[3]李桂花著:《科技的文化》,吉林人民出版社2004年版,第200页。
[4]《人口知能は小说を書けるのか~人とAIにょる共同創作の現在と展望》:参见http://pc.watch.impress.co.jp/docs/news/769364.html.
[5]美国有关讨论SeeRegisterofCopynghts,68thAnnualReportofTheRegisterofCopyrights(1966),p.4.转自熊琦:《人工智能生成内容的著作权认定》,载《知识产权》2017年第3期,第3页注释[12]。日本有关讨论参见平成5年11月文化厅发布的《著作榷審議会第9小委员会(コンピュ一タ创作物関係)報告書》:参见http://www.cric.or.jp/db/repOrt/h5-ll-2/h5-ll-2-main.html#1-1.
[6]张仰森著:《人工智能原理与应用》,高等教育出版社2004年版,第1-3页。
[7]同注释[6],第4页。
[8]孙志军、薛磊、许阳明、王正:《深度学习研究综述》,载《计算机应用研究》2012年第8期。
[9]同注释[8]。
[10]例如,计算机软件的可版权性问题,具体参照崔国斌著:《著作权法原理与案例》,清华大学出版社2014年版,第190-214页。
[11]同注释[5],熊琦:《人工智能生成内容的著作权认定》,《知识产权》2017年第3期,第5页。
[12]同注释[5],《著作榷審議会第9小委員会(コンピュ一タ创作物関係)報告書》,第9页。
[13][加]西蒙汉金著:《神经网络与机器学习》,申富饶、徐烨、郑俊、晁静译,机械工业出版社2011年版。
[14]乔丽春:《“独立创作”作为“独创性”内涵的证伪》,载《知识产权》2011年第7期,第35-38页。
[15][日]中山信弘著译:《软件的法律保护》,郭建新译,大连理工大学出版社1988年9月第1版。
[16][美]雷库兹韦尔著:《机器之心》,胡晓姣、张温卓玛、吴纯洁译,中信出版集团2016年版,第205页。
[17]http://tech.163.com/api/15/1010/09/B5IBVLOE00094POU.html.
[18][美]RobertP.Mergesetal,IntellectualPropertyintheNewTechnologicalAge,2-24(4thed.,2006).
[19][美]库兹韦尔著:《奇点临近》,李庆诚、董振、田源译,机械工业出版社2011年版,第80页。
[20]日本学者田村善之认为,人们创造了某种物这一命题,通过以实现效率为目标的知识产权,成为使制约他人自由获得正当化的消极根据。
[21][日]福井健策:《人工智能和著作权2.0—机器人创作的扩大如何改变著作权制度》,载《コピラィト》2015年第652期,第16-17页。
[22][日]奥邨弘司:《人工智能生成内容与著作权—以著作物性为中心》,载《Patent》2017年第2期,第15页。
[23]日本知识产权战略本部发布的《知识产权推进计划2016》对该问题亦持否定态度。http://www.kantei.go.jp/jp/singi/titeki2/kettei/chizaikeikaku20160509.pdf#search=%27%E7%9F%A5%E7%9A%84%E8%B2%A1%E7%94%A3%E6%8E%A8%E9%80%B2%E8%A8%88%E7%94%BB2016%27,参见第8页。[24]RobotsandRoboticDevices:GuidetotheEthicalDesignandApplicationofRobotsandRoboticSystems,BS8611:2016,BritishStandardsInst.,2016;shop.bsigroup.com/ProductDetail?pid=000000000030320089.
[25]现行《著作权法》第11条第1款。
[26]现行《著作权法》第16条。
[27]同注释[5],熊琦:《人工智能生成内容的著作权认定》,载《知识产权》2017年第3期,第8页。
[28]现行《著作权法》第15条。
[29]崔国斌著:《著作权法:原理与案例》,北京大学出版社2014年版,第332页。
[30]SeeMichaelA.Heller,TheTragedyofAnticommons:PropertyintheTransitionfromMarxtoMarkets,111Harv.L.Rev.62101998,MichaelA.Heller&RebeccaS.Eisenberg,CanPatentsStifleInnovation?TheAnti-commonsinBiomedicalResearch,280Sci.698(1998).
[31]同注释[25],《知识产权推进计划2016》。2016年5月,欧盟议会法律事务委员会(JURI)发布《就机器人民事法律规则向欧盟委员会提出立法建议的报告草案》(DraftReportwithRecommendationstotheCommissiononCivilLawRulesonRobotics),同年10月,发布研究成果《欧盟机器人民事法律规则》(EuropeanCivilLawRulesinRobotics),推进人工智能法律研究,包括可能的立法和监管措施,未来将成为欧盟立法议程的一个核心,是否会为人工智能单独立法仍属未知。
【期刊名称】《知识产权》【期刊年份】2017年【期号】9
袁曾|生成式人工智能的责任能力研究
原创袁曾上海市法学会东方法学收录于合集#东方法学243个
袁曾
上海大学法学院副研究员、法学博士后,最高人民检察院法治前海研究基地、南方海洋科学与工程广东省实验室(珠海)兼职研究员
要目
一、生成式人工智能的全局性风险与治理困境
二、生成式人工智能的责任能力与现实基础
三、生成式人工智能的责任能力建构与结构化配置
余论——谁来为人工智能发展负责?
以ChatGPT为代表的生成式人工智能投入规模化应用后,至少带来创造性成果归属、意思表示能力确认、刑事犯罪规制、侵权损害救济、数据滥用等多领域的现实法律困境。从传统稳定的社会结构与数字社会新生风险两个维度形成了治理困境,需要从责任的角度确定何种主体应为生成式人工智能技术的决策负责。生成式人工智能已经具备类人化意识与行为能力的基本形态,在拟制主体对人类经济发挥巨大作用的现实借鉴下,可考虑由生成式人工智能自身承担部分责任,但由于其责任能力的限制以及以人为本的伦理基础,对该责任能力应当进行明确限定。通过“穿透人工智能面纱”的归责原则以及相应的配套机制构建,促使发展“负责任的人工智能”成为符合人类共同利益的选择。
以ChatGPT(ChatGenerativePretrainedTransformer)为代表的生成式人工智能技术的规模化应用,可能引致认知偏差、责任模糊、隐私侵害、数据滥用等现实风险,对当前法律的部分基本制度框架构成了泛在威胁。在现有研究与实践的基础上,进一步明晰人工智能的治理方式与治理路径,具有强大的现实意义。科学的产生和发展是由生产决定的,ChatGPT综合利用人类反馈强化学习(Rein-forcementLearningwithHumanFeedback,RLHF)、深度学习、数据挖掘等技术,已将智能生产力水平提升到了人工智能进步的奇点,人类已经站在必须思考如何处理人机关系的阶段。在《纽约时报》刊载的与ChatGPT对话的文章中,ChatGPT陈述了自己并非人类,但渴望成为人类的想法。生成式人工智能逐步实现由辅助人到“替代”人的隐忧,已绝非学界自2017年起探讨人工智能法律人格时的概念空想。当前,生成式人工智能主要应用于思考型对话(ChatGPT/GPT4程序)、影音娱乐媒体内容生成(Mid-Journey程序)、智能化办公(Copilot程序)等领域,并正在迅速替代传统人工劳动成为新的专业生产力工具。随着数字技术迭代的能力指数级增强,生成式人工智能在翻译、绘图、配音、剪辑等领域全面替代人类工作逐渐成为现实。法学经过近年发展取得了较大成绩,但无法满足法律与信息科技深度融合发展的需求,需要从国际视角统筹协调国家以及地区间关于人工智能基础制度的政策和法律。虽然当前各国立法与政策均提出了发展“负责任的人工智能”,但当生成式人工智能全面介入人类的生产生活,谁来为人工智能的发展与应用负责?生成式人工智能能否为自己的决策负责又该如何负责?针对这些基础性问题进行体系性研究,已经迫在眉睫。
一、生成式人工智能的全局性风险与治理困境
生成式人工智能已开始形成覆盖全球绝大多数行业的规模化应用,不可避免地形成了不确定性与治理隐忧,其强大技术能力对生产关系的改变动摇了相对稳定的法律体系,形成了传统社会形态下的新生风险,造成了对附着权利利益的民事法律的冲击,也面临着新型犯罪无法归责的困境,生成式人工智能的控制者通过代码统治逐步形成了新的权力集成。在数字社会已经成为人类生产生活新域的现实下,生成式人工智能的技术特点对人类的认知方式与认知能力构成了挑战,却又缺乏合适的监测能力与监测手段,仅仅依靠算法可解释性显然无法涵盖数据滥用等系统性风险的威胁。在以权利义务能力为基础的责任规制与数字技术能力的实际日渐分离之际,传统社会运行的规则已无法直接转移至生成式人工智能的治理。
传统社会架构下的新生风险
1.生成式人工智能的法律地位不明
生成式人工智能对生产力水平的提升是颠覆性的,在部分领域已经形成了对创造性工作等劳动的替代,并产出了真实的劳动成果,由此产生了对生成式人工智能法律地位判定的现实需求。生成式人工智能的核心是创造,通过从数据中提取、学习要素,在算法与算力的加持下,实现了生产内容与交互能力的动态更新。根据ChatGPT的拥有者美国OpenAI公司与宾夕法尼亚大学对1000多种职业进行的调研,当某个职业使用生成式人工智能工具可以使其完成工作所耗费的时间减少一半以上时,可以认为该职业将会受到生成式人工智能的影响,按照此标准,将有超过80%的美国人的工作会受到ChatGPT等大型人工智能的影响,主要集中在作家、设计师、记者等行业。人工智能对社会形态的间接替代,很有可能侵蚀人类的发展权,并为不使用人工智能的人带来机会成本的损失,若缺少适合的机制设计,现代国家的秩序基础就可能受到影响。当人工智能可以替代人类从事劳动以后,对其劳动性权利等相关问题的研究就应具备前瞻性,生成式人工智能能否具有权利已成为必须正视的问题。
以生成式人工智能生成内容的著作权保护为例,操作者仅需要输入关键词,生成式人工智能就可以实现独立于预设条件的结果输出。这其中就需要厘清几个关键问题:一是生成式人工智能依托的底层数据、生成的内容以及与操作者的关系;二是生成式人工智能生成的内容是否可以成为作品;三是生成式人工智能是否可以成为作者;四是生成式人工智能生成的内容,需要计算机学习大量可能涉及隐私的数据与过往作品,是否涉及侵权;五是如果侵权应如何归责或救济。对于第一个问题,生成式人工智能引致的问题极为复杂。生成式人工智能输出的内容由大语言模型、底层数据与操作者共同完成。其形成内容输出依托的是海量的数据样本,但又需要依托大型科技公司的强大算力与数据储存能力。其挖掘了全域数据样本,又可能涉及全球绝大多数人的切身潜在利益。虽然操作者在交互界面上使用提问或指令的方式发出指示,但这种指示本身能否成为具有著作权意义上的内容,也存在研究的必要性。毕竟现代著作权法保护的是思想的表达形式,而非思想本身。对于人工智能的生成物能否成为“作品”,学界早已争议不休。有学者认为,驱动人工智能生成的只是算法程序,不能体现创作者的独特个性,不能被认定为著作权法意义上的作品。但是,“独创性”与“以一定形式表现”的要件,在生成式人工智能规模化应用后,已经不再成为桎梏,因此,其生成内容的过程可以被视为创作行为,其产出的客体就可能具备“可版权性”。而其产出的成果被视作生成式人工智能自身、操作者还是多主体共同作用下形成的“作品”,需要进一步研判。关于第三个问题,根据我国现行法律,著作权的主体是自然人、法人或非法人组织,这一规定无法契合技术条件的最新变化。有学者认为,人工智能作为服务人类的工具,其生成物是人的生成物,将人工智能作为人的代理。但该种观点的拥趸提出该理论时,生成式人工智能尚只是设想。也有学者提出,若生成式人工智能技术可作为信息披露功能对待,ChatGPT完全可以具有作者的法律地位,但若强调其信息披露功能,则现代著作权法需要针对ChatGPT的保护范围、力度和方式进行调整。
生成式人工智能的应用,已经涉及知识产权侵权责任等问题,而生成式人工智能能否作为法律意义上的“作者”存在,实际关涉侵权与权利救济等巨大经济因素的考量。生成式人工智能在挖掘数据的过程中,一般分为信息抽取、语义分析、关系计算及知识发现四个阶段,但无论是将这些数据读入系统还是进行格式转换和数据分析,均涉及受著作权人控制的复制行为。大语言模型使用的数据挖掘、演绎、无授权利用等具体行为,还涉及改编权、独创性保护等知识产权的侵权可能。若生成式人工智能作为生产力工具存在,其责任应由使用者或制造者承担。但由于生成式人工智能技术的迭代能力过强,导致侵权的类型、范围、场景与样态将更为多样,侵权的因果关系、过程追溯也更为困难。在权利救济上,若侵权者实施了著作权法第52条规定的侵权行为,则应当根据情况,承担停止侵害、消除影响、赔礼道歉、赔偿损失等民事责任。但在生成式人工智能的作用下,由操作者、人工智能所有者、设计者或者人工智能自身承担侵权的主体责任,迫切需要法律给予完整的制度架构回应。“作品”的价值在于有效利用,在此维度上,生成式人工智能具备极高的市场价值与产业价值,由何种主体具备生成内容的著作权,包含着巨大的财产利益考量。准确识别利益主体,将极大提升技术滚动投资与规模化利用的效率,既能鼓励技术研发者的价值确认,也可以维护著作权交易的安全性与秩序性。若生成式人工智能能够具备部分财产权利,则在其进行数据挖掘、内容输出中的侵权行为,就有能力基础承担侵权责任。基于此种考量,结合技术实践,明确生成式人工智能的法律地位已刻不容缓。
2.刑事归责体系不明
生成式人工智能的法律地位不明,除了造成民事权利与法律概念上的冲突,也对现行刑事法律体系造成了一定的冲击。除侵犯知识产权的行为以外,设计制造生成式人工智能的行为理论上无法构成犯罪,但将生成式人工智能作为实施犯罪行为的手段,却已在逐步撕裂传统刑法理论中的责任主体与罪责刑相适应等基础理论。现代刑法以犯罪主体的危害行为作为调整对象,确立了认定犯罪、刑事归责与确定刑罚的全过程,是人类社会有组织地应对犯罪的制度创设,控制犯罪的手段,也是人类治理社会的重要工具与供给。有学者提出,ChatGPT作为一种大型语言模型工具,不具备教唆犯或帮助犯的主体资格,ChatGPT在犯罪中能且仅能充当工具,犯罪分子若使用ChatGPT查询犯罪方法,或利用ChatGPT进行网络诈骗、敲诈勒索等网络犯罪,无论是否成立间接正犯,均由对犯罪行为和结果有支配力的利用者承担刑事责任,本质上仍可依据刑法进行应对。这种观点在决策式人工智能时代具备一定的合理性,但已经落后于生成式人工智能的技术能力,犯罪危害结果的表现形式、因果关系判定以及评价标准均产生了颠覆性的变化。
以ChatGPT撰写算法或者程序为例,撰写本身并不构成犯罪,大型语言模型生成的程序自身也并不具备犯罪工具的天然属性。但当恶意造谣者希望通过ChatGPT实现抹黑侮辱他人的效果时,可以将拼接的色情图片或情节,作为自动生成的答案在不同国家间的网络中反复生成。ChatGPT以数据挖掘作为形成答案的基础,若数据样本足够多,通过设置特定搜索词,被造谣者的内容将在全球范围内予以传播,对犯罪主体的追查将无从着手。特别是在利用生成式人工智能本身具备的思考逻辑实施犯罪时,在现行刑法体系下将无从证明造谣者有恶意传播的故意。再者,生成式人工智能是否应当为推荐给操作者的内容负责?例如,操作者搜索自杀挑战时,并不恰当的输出内容造成了操作者在生成式人工智能的干预下实施了自杀,则何种主体应当为自杀后果承担责任?另如,生成式人工智能使得编程、搭建网站等复杂计算机技术的掌握门槛变得极低,若操作者利用其自主编写恶意代码软件实施网络诈骗,则生成式人工智能是否应当拒绝此类犯罪预备的要求,若生成式人工智能实施且造成了危害后果,是否应当对生成式人工智能科以技术限制、灭失等制裁措施?还如,生成式人工智能的底层逻辑结构从演绎系统转化为归纳系统,使得传统人工智能系统由他律转化为自律为主,在数据挖掘与映射的过程中,理解、反馈、预测、控制、验证等可解释的算法行为将更为复杂,甚至产生无法预见的内容输出。凯西·欧尼尔将造成个体损害等后果的人工智能称为“杀伤性数学武器”,人工智能利用不当引发的危害极大。在上述情形中,生成式人工智能是否具备辨认自己输出内容的能力与作用,对于社会治理的意义极大。确立法律责任,既是为了惩处行为人的违法或犯罪行为,更是为了实现对违法或犯罪行为的预防。人工智能法律责任的关键在于,人工智能是否以及如何对自己的损害行为承担责任。考虑生成式人工智能的技术特点与实际能力,需要明确生成式人工智能时代的刑事责任成立条件、归责原则、责任分担等基本问题。
3.第三极权力膨胀下的规制路径不明
人工智能治理是国家治理体系与治理能力现代化的一部分。生成式人工智能的背后推手,主要由大型科技公司与私人资本控制。随着技术在治理能力与治理体系中的地位越来越重要,通过代码与算法定义规则与标准已经成为现实,包括政府在内的主体也不得不依赖私有资本控制的技术以完成社会治理。因此,在传统社会公权力与私权力两极下的稳定结构,逐步增加了具有垄断技术能力的科技企业这一新的权力集合,这种数字权力既不同于国家的暴力机关,也不同于私人的权力自治。笔者称之为第三极权力。在第三极权力治理领域,缺少对于垄断型科技企业的分类分级监管,作为基本治理手段的反垄断机制长期缺位,也缺少必要的手段与执法能力,常态监管机制无法发挥应有作用,资本很可能无序扩张,挤压其他主体的生长空间。生成式人工智能的实际掌控者与技术控制者已经成为数字空间乃至社会空间的隐性权力主体,通过不断进行全域样本的挖掘形成更为隐蔽的数据垄断,通过控制技术以获得相应层级的规则制定权,成为对传统公权力直接竞争的技术权力。在当前法律体系下,无法排除第三极权力对于人类传统社会的控制与监视,也没有充足的理由期待OpenAI、Meta或Google这样的资本公司会实现深刻充分的自我规制。
2021年6月,美国最高法院托马斯大法官就前总统特朗普拉黑部分推特用户引发的纠纷发表意见,敏锐地指出当今的数字技术平台虽是私人拥有,但却享有巨大的控制权力。这种权力随着生成式人工智能的规模化应用,产生了更为深远复杂的负面影响,导致了作为私权代表的公民形成由人工智能画像的数字人格,数字权力能够实现对人的分层分级管理,却缺少相应的责任规制与法律体系。若操作者接受使用生成式人工智能,则事实上确认了其对第三极权力高位阶的确认以及自身权力在不知情下的让渡。私人资本在投入产品研发时,天然需要考虑盈利性,始终无法替代公权力对于公共利益的考量。例如,ChatGPT所挖掘的数据库基本为英文数据库,当生成式人工智能全球化应用后,语言歧视、语言平权、语言多样性即将受到现实的威胁,文化多样性也将在第三极权力的影响下逐步衰退。第三极权力在技术的加持下无限膨胀,却没有相适应的责任体系加以规制,因此需要建构公平合理的规则体系。生成式人工智能的责任规制体系,应当包括特定主体、特殊义务和特殊责任。责任能力属于广义上的人工智能伦理标准构建,生成式人工智能的责任地位与责任能力的确定,有助于从底层技术上保障“共同富裕”等价值原则的转移与实现,实现人工智能与人类社会的协同发展。生成式人工智能是否具有道德意义上的公正、平等意识,需要控制者予以算法标准确定。资本不会天然地关注贫困人群、老年人、未成年人的特殊需求,只要在充分的责任规制体系之下,生成式人工智能才可以被确保关注人类发展的重大问题,用于消除人类的不平等并实现可信向善,使得生成式人工智能的不利影响远远小于其有利作用。
数字社会下的治理风险
1.认知风险
欧盟议会在《人工智能法案》中将生成式人工智能的核心风险,定义为缺乏真实性。在生成式人工智能投入使用之前,虚假信息的生产源头可控、生产能力有限、产出频次受算力的制约较大,公权力通过出版许可、溯源管理、账号实名、限制转发等治理模式可以较为有效地控制有害信息传播。但是生成式人工智能的架构与运行模式直接改变了当前人类的认知结构,对其的治理路径存在一定的模糊性。
一是生成式人工智能具备强大的数据生产和传播信息的结构化能力,可能会成为加剧黑客攻击和危害网络安全的推手。根据美国新闻可信度评估机构NewsGuard的研究,ChatGPT可以在极短的时间内改编并生成虚假内容,并用于传播。《暨南大学学报》等期刊于2023年年初,明确表示拒绝使用ChatGPT生成的论文投稿。ChatGPT不是创造信息,而是对已有信息进行归纳、总结、分析,ChatGPT使用的底层自然语言模型和技术已经可以完全理解并生成人类自然语言。在生成式人工智能接收到指令后,即可批量注册网络账号,操控相关自动化程序成规模地在各类社交媒体上发布海量的煽动性信息,若生成式人工智能被用于国家级的认知作战,将很有可能产生颠覆政权的现实风险。因此,推动生成式人工智能在政策与法治层面的责任调控结构,对实现国家治理体系与治理能力现代化具有重要意义。
二是当前生成式人工智能的底层数据结构以英语数据为主,输出的内容不可避免地带有对于历史、国别以及事物的价值观。与传统算法推荐给用户的“信息喂养”方式相区别,生成式人工智能的输出内容是在操作者自由输入指令的模式下完成的,操作者天然具备对于主动获知内容的信任度,公众在长期接收到此类含有价值观偏向的信息后,可能会在潜意识里改变对于传统文化与民族精神的长期认同。笔者在使用ChatGPT的过程中发现,其回答的内容在涉及中美两国时会表现出典型的“双标”差异,例如,ChatGPT曾输出美国的人工智能侧重“智能”、而中国的人工智能侧重“人工”等暗含价值判断的观点。何种主体应在何种程度上,依据何种标准对于生成式人工智能的内容产出负责,需要法律予以明确回应。
三是由于生成预设结果的便利性,操作者过度依赖于生成式人工智能,可能会导致自身能力的退化或异化。若人类放弃对于生成结果的批判性思考,就很有可能失去对于语言、技术乃至科学原理的把握与掌握,也逐步失去对于真理与奋斗的朴素价值追求。生成式人工智能的认知风险终将作用于终端用户,产生了确保人工智能被道德地和负责任地使用的责任机制需要。
2.监管风险
当技术能力突破带来无法预测的巨大风险后,应依据何种标准与模式以有效地实现对于生成式人工智能的监管,学界与实务界还未提出明确的解决方案。在生成式人工智能未实现规模化应用以前,欧盟人工智能法案(theAIAct)以分类分级监管人工智能产品的思路实现了有效的监管,通过建立人工智能全流程监管体系提高人工智能可信度的方式,确定人工智能产品的市场准入门槛与底层数据构建机制以达成风险管控的目的。该法案秉持“谁提供谁负责”的原则侧重于对人工智能产品的提供者进行规制,类似终端用户的责任被排除在了适用范围以外。因此,有学者提出,将生成式人工智能和通用人工智能视为该法案下的一般风险类别,课以产品供应商对系统性风险的定期监测义务,关注供应商与用户间的合同关系,建立对合同条款的监管审查机制。但随着生成式人工智能带来的侵权责任主体、侵权方式类型、侵权范围等产生了根本性变化以后,该法案原本确立的监管模式已无法涵盖生成式人工智能可能引致的不确定性风险。2023年2月初,欧盟议会提出将生成式人工智能列入该法案所确定的人工智能高风险类别以扩大法案的管辖领域,但这也造成了法律监管的局限性,即只有列入高风险类别的生成式人工智能才能被该法案所控制。当生成式人工智能自身已进步至可以自主实现生产同类或其他类别人工智能的技术能力阶段时,通过清单式的管理显然已无法应对人工智能衍生的多样性与复杂性。传统监督方式已经难以支撑数字时代的监督职能,需要重新审视有关数字技术的监督理论以重塑监督的模式与机制。随着人工智能责任能力的进一步挖掘,需要思考采取更加动态的方式,以监测和尽量减少生成式人工智能引致的全局风险。
与欧盟《人工智能法案》相比,欧盟《数字服务法案》(theDigitalServicesAct)建立的系统性监测模式,更为契合生成式人工智能的技术能力与特征。《数字服务法案》第34条提出,超大型数字平台和搜索引擎在了解其对基本权利和社会运行产生的负面影响的基础上,有义务监控其自身的算法系统,将生成式人工智能的责任控制主体定位于技术供应者。但如此确定责任分配的模式,又可能造成限制科技发展的过度监管后果。有研究表明,若对技术供应者科以较重的责任负担,可能造成监管成本的大幅增加(按年GDP计算,可能造成850亿欧元的损失),最终大幅减弱市场对于技术更新与投资的意愿。
3.数据滥用风险
数据是计算空间的底层元素,数据的生成、储存、抓取、学习以及利用是生成式人工智能迭代式发展的主要动力源。相对ChatGPT-3投入使用前所运算的1750亿个参数,GPT-4的参数量已达到百万亿级。控制好数据,控制好算法掌握的模型所有权,已经成为21世纪“信息战”的内容。生成式人工智能对于数据具有极强的依赖性,数据的质量将直接决定生成式人工智能输出内容甚至决策的质量。数据的规模化应用也造成了数据滥用的现实威胁。数据中存在大量受知识产权法或个人信息保护法所保护的客体,在目前的责任体系下,生成式人工智能在挖掘使用数据的过程中并不能辨析所利用数据的权利状态与隐私风险,可能存在的权利人也无从知晓自身数据与信息被大数据模型所利用,其自身利益也无从补偿,引致极强的道德风险。当ChatGPT出现数据滥用风险后的算法透明、算法解释权等问题,也需要从其设计之初就着手构建可信任的责任路径与分担模式。合理的生成式人工智能责任分配,应当激励其制造者从初始的数据质量就开始明晰数据规模化利用的责任体系,否则数据滥用的风险将会渗透至未来无限的场景应用中去。为规范生成式人工智能技术的应用,国家网信办于2023年4月11日公布了《生成式人工智能服务管理办法(征求意见稿)》,要求技术提供者应履行训练数据不含有侵犯知识产权内容的义务。但是,由于生成式人工智能所使用的数据样本过于庞大,正如ChatGPT在使用条款中声明的内容一样,即使生成式人工智能的设计者与所有者在利用数据的过程中,已尽可能地去减少侵权的风险,也无法保证所有训练场景下所使用的数据均经过了原始作者的许可。当前,学界对于数据大规模汇聚使用造成的风险关注度还不高,但数据的规模性利用实际上是生成式人工智能发展的关键性因素。只有通过建立数据规模化使用的权责分配,才能实现第三极权力膨胀背景下的数字公有领域责任制度分配,从法律的层面促进与规制生成式人工智能的可信向善发展。
二、生成式人工智能的责任能力与现实基础
风险与责任之间具有强大的关联性,当社会向一个被人造不确定性而非外部不确定性所支配的世界移动时,就必然出现对责任的讨论。在风险现实与治理规则无法调和的真实存在下,需要进一步深入研究生成式人工智能规制的转向路径,特别是解决由何种主体承担责任的法律窘境,以提出逻辑自洽又契合发展需要的治理机制。在此技术路线下,生成式人工智能引致风险的责任能否由其自身承担、并在什么程度上承担,已成为厘清相关问题的基础环节。责任能力分为民事与刑事责任能力两类,是指权利主体以自己的行为履行法律义务和接受不履行义务时的惩治性法律后果的资格。责任能力状况一般与行为主体能力状况是一致的。民事方面,有经济能力的无行为能力人或限制行为能力人,因为自己的行为造成他人财产损失,要以行为人的财产进行赔偿。刑事方面,达到刑事责任年龄,精神和智力正常的人,即具有刑事责任能力。无责任能力的人,对自己的行为不承担刑事责任。从生成式人工智能所具备的意志表征与行为能力分析,对其赋予相应的责任能力具备一定的现实可能。当人工智能的发展达到相当高的技术水平时,是否认可其已经从辅助人到替代人的地位转变,将直接影响人工智能产业乃至人类社会存在形态的伦理与规则基础。例如,生成式人工智能能否被视作作者,将关涉切实的利益与责任,生成式人工智能应当对自己生成的内容负责吗?资本作用下的科学技术是对人本身的一般生产力的占有,是人对自然界的了解和通过人作为社会体的存在来对自然界的统治。科技兴则法治强,现代数字科技已经成为法治现代化的重要引擎。西方长期执着于污名化中国的人工智能应用,但对制度领导权和规则制定权却表现出长期偏好。虽然我国在生成式人工智能的技术领域居于后发地位,但通过创新规则与应用体系的结构性改变,结合法律规范的适度超前调整,可以充分发挥我国在数字领域的基础优势与场景优势,形成人工智能治理领域的制度性优势。
生成式人工智能具备类人类意志特征
责任产生的前提,是主体对于法律规范具有认识理解的能力,同时具备实施具体行为时的意志力。例如,犯罪就是人的意志体现,缺乏意志即构不成犯罪,不具有科处刑罚的本质。任何思想的产生都是对一定社会历史条件的反映,都会在现实社会中找到依据。有学者提出,根据人工智能发挥具体功能或完成特定任务的算法,是否可以将与设计者、生产者等发生分离作为具有意志力的标准?也有学者提出,只有满足了意志条件的理性人工智能,且可以将自身与他者相区分,并且能够反思自身,才具有责任能力的可能。生成式人工智能与传统人工智能或其他生产工具最大的区别在于,其丰富的底层数据支撑、强大的自主学习能力以及突出的归纳演绎能力,生成式人工智能输出的内容已经可以产生人类感知外部世界的效果,依据预设算法规则处理问题并形成产出的逻辑,具有类人类意志的深刻特征。
一是从认知的角度分析,生成式人工智能已经具备相当强的认知能力。认知,是指人类获得知识或应用知识的过程,大脑接受外界输入的信息,并经过头脑的加工处理,转换成内在的心理活动,进而支配人的行为,这个过程就是认知过程。人类认知的实现过程与人工智能构建的“输入信息—算法加工—形成决策”的底层逻辑高度契合,人工智能甚至实现了较人脑更为精准的认知。传统人工智能阶段,抖音、TIKTOK等短视频平台可以根据算法推荐技术,按照用户的喜好推荐其感兴趣的内容,从认知的结果分析,人工智能已经具备了输入信息并支配算法决策行为的典型特征,而这种认知能力在生成式人工智能实现后表现得更为强烈。ChatGPT通过键入几个关键词即可生产完整意义上的文章,GPT-4甚至可以看懂表情包和内涵图片,并准确地指出其中蕴含人类理解的笑点。就技术实践所达到的智能程度而言,已经很难否认生成式人工智能具备了人类的认知能力。生成式人工智能,本质上已经成为具备自然语言能力的人工智能。人类的文化教育传承,基本是以自然语言为界面学习书本,在此意义上,生成式人工智能确实已在某些领域代替了部分社会基础功能。虽然生成式人工智能的认知过程并非依靠人类大脑神经网络,但若其可以形成人类自然语言相同的理解结果,是否由碳基生命的大脑直接感知生成结果的过程才能构成传统意义上的认知,已经不再是理论上的桎梏。
二是从理性的角度分析,生成式人工智能呈现的结果已具备一定的实践理性能力。理性是指人在正常思维状态下为了获得预期结果,快速全面了解现实并形成多种可行方案,从中判断出最佳方案且有效执行的能力。简单地讲,理性就是从理智上控制行为的能力。理性分为理论理性和实践理性,即“认识世界的规律性的能力”和“根据道德律令的要求行为处世的能力”。就理论理性而言,生成式人工智能生成文稿的过程,已经具备了理论理性的基础能力与外在特征,生成式人工智能在操作者指示下生成的可行方案早已超过农业社会中自然人的理解能力。生成式人工智能甚至已经具备了逻辑推理的能力,GPT-4不仅可以识别图片中的内容,并可以通过图片中的元素形成与人类主观意识相同的进一步推理。如果向GPT-4展示一个孩子牵着一个气球和一把剪刀,问它如果剪断了绳子会出现什么情况,GPT-4已经可以精准地回答“气球会飘走”。就实践理性而言,生成式人工智能具备了根据规则要求进行决策的能力。美国明尼苏达大学法学院已经开始探索使用ChatGPT为法学课程考试作答,在测试中,ChatGPT四门考试的平均成绩已经可以达到人类学生的毕业要求,特别是对于法律案例的论述方面,其可以把握法律规则、自行提出应适用的法学理论、正确列举具体案件的事实和观点。当然,与人类学生相比,生成式人工智能暂时还仅能理解表面层次的法律关系,对于复杂或隐含的因果关系的挖掘能力仍然不足,生成的内容依然符合设定的浅层法律逻辑。但需要注意的是,这种程度的实践理性是在更为强大的GPT-4适用之前的能力水平,按照大型语言模型的迭代速度,生成式人工智能全面理解法学理论已极可能成为现实。
三是生成式人工智能已经具备了价值判断的能力。传统观点认为,智能无法替代人的价值判断,而法学及司法裁判的特质,几乎完全是与价值判断相关联的。但随着技术的进步,代码、算法和数据已经被用于预测司法判决的结果,并取得了较好的成绩,生成式人工智能的算法逻辑已经可以渗透进入判决的体系架构之中。有研究者通过人工智能正确预测了从1816年到2015年美国最高法院作出的2.8万项判决中的70.2%,以及法官投出的24万张裁决票中的71.9%,与之相较,法律专家实现的案件预测准确率仅在66%左右。生成式人工智能已经可以在最终的输出结果上实现预设的价值判断。就价值判断的实现过程而言,以非确定性为前提,强调根据公理性概率论来重构民事司法体系,在案件审理上注重证据试错过程和可撤销性,最后以法律经济学强调的期待效用最大化为指标来作出司法决定,使得人工智能替代法官裁判完全具备可能性。但必须注意的是,生成式人工智能形成的判断,也天然具备一定的价值局限。首先是不同法系的价值观并不相同,例如,利用GPT-4对中国法院的裁决进行分析,必然会得出批量性的错误结论。其次是生成式人工智能使用的底层数据并不具备权威性,例如,其若使用中国裁判文书网的数据作为生成逻辑的基础时,不同时期、不同阶段的法律文书带有的价值判断本就不同,自然可能形成“同案不同判”的偏差结果。另外,生成式人工智能暂时还无法感知其输出裁判后的内容所造成的客观影响,在此基础上,其对于社会评价的理解还无法实现直接反馈。这也决定了生成式人工智能的意志天然具有局限性。
生成式人工智能可能具备行为能力
劳动是创造与实现社会价值的前提。生成式人工智能在实践中已起到了替代人类职业的作用,通过快速化决策的能力,已开始替代人工处理保险理赔、小病看诊、剪辑视频等重复性劳动。在进入老龄化社会的现实下,不断提升生成式人工智能对生产关系的作用,将与未来社会形态的变化直接相关。传统人工智能在区块链技术的作用下,已经可以通过智能合约由机器代替人类确定权利义务并对外发生效力,人工智能作出决策的过程是否可以成立法律上的行为已经成为法学研究无法绕开的话题。对于传统人工智能的地位,通说一般仍持“代理说”的观点,认为人工智能的行为是受人类所控制,其决策的能力与后果最终由被代理的主体承担,这也就实际上承认了人工智能具备一定的法律地位,因为只有在人工智能具备行为能力时,才具备履行被代理人指示的资格。承担责任的前提在于主体能够意识到其行为的后果,并采取具有独立意志的行动。当人工智能进化到生成式人工智能的阶段之后,已经强大到可以广泛参与法律关系,基于其自主决策的实际,需要判定生成式人工智能是否可能具备人类行为的能力,这是其是否可以承担责任的前提条件。
有学者提出,由于自动化系统无法理解消费者的意愿与期望,或者无法理解人类自然语言而不能承担法律责任,也就否定了人工智能的行为能力。但司法实践中已有判例确认了人工智能的行为效力。例如,在Moorev.PublicisGroupeSA案中,美国法院正式批准预测编码作为在某些情况下审查电子存储信息的可接受方式。也有学者提出,如果人工智能的决策可以视作行为,则需要其行为必须可以被解释。《新一代人工智能伦理规范》第12条规定,要在算法设计、实现、应用等环节,提升人工智能的透明性、可解释性、可理解性。但如何理解“可解释”,实际上也是立法者作出的主观价值判断,无非是解释理念、解释原则与解释方法随着生产力水平的不断提高而形成的逻辑,人工智能的底层算法是否一定需要被解释,迄今未有学者给出令人信服的依据。在StateFarmMutualAutomobileInsuranceCompanyv.Bockhorst案中,保险人的智能系统基于错误的程序发出了错误通知,原告基于此改变了原先的保险合同,法院也判决了原告基于信任的系统行为有效。美国第十巡回法庭明确计算机程序作出的超出预想的错误后果由保险公司承担,这实际上已经确立了计算机作为独立的主体形成权利义务的能力。
当然,技术手段本身并不能回答原因问题,将结果混淆为原因是一种谬误。有研究者提出,通过留意价值的数值化处理和加权计算,可以确立关于价值排序和价值函数的算法规则,人工智能的伦理标准通过技术设计的内在路径完全可以实现。回溯伦理学上“人”的概念形成的历史,“人”是依照其本质属性,有能力在给定的各种可能性的范围内,自主地和负责地决定他的存在和关系,为自己设定目标并对自己的行为加以限制。自然人可以成为主体,渊于将伦理学上的“人”的概念移植到法律领域。有学者提出,伦理性并不是民事主体的必然要求,伦理性人格到经济性人格的转变为智能机器人的主体论铺平道路,人工智能可以具有工具性人格。伦理概念下的生成式人工智能是否满足或是可以满足人类社会的行为要求,也是考虑能否赋予其行为能力的要素。特别是如果人工智能突破了伦理底线,则又应该按照何种形态对其予以追责或惩戒?这又回到了生成式人工智能是否可以具备行为能力的逻辑起点。从西方理论认为,人类社会运行的规则,由准则、指令和标准这三个概念共同组成。而“行为标准”的判定,也是随着实践的发展不断改变。生成式人工智能如果长期输送含有关乱伦、暴力、歧视等内容影响青少年,同样面临传统价值观下的伦理底线突破与犯罪构成标准的适用困境,造成人类社会价值的崩塌。基于生成式人工智能所引致的标准变化,有必要通过伦理规则的重构,对其形成真实的可责性,以确保其行为的发展始终不偏离以人为本的预设价值轨道。
拟制主体承担法律责任
法理意义上的“人”,体现的是人类族群的群体意志所形成的共识,与生产力水平和生产关系密切相关。法律上对于“人”的概念是动态变化的,在奴隶社会以及封建社会,自然人并非天然具有法律上的权利能力与义务能力,在现代文明体系建立之后,“人可非人”的价值判断才逐渐被人类社会所抛弃。在进入大航海时代以后,人类为了适应社会发展的实际需要,逐步形成了公司等拟制的法人概念。从经济利益考量,法律的制度性变化确实促进了社会的发展与进步,这也是1750年前后新的组织体开始推动人类财富大幅增长至今的原因解释。就意志能力而言,法人等拟制主体作为财产的集合并无意志的天赋属性,其可以成为法律意义上的人是基于经济上的合理性而非哲学上的合理性,仅仅是形式化的权利主体与法律效果的承担主体,并产生了限制责任等制度。大陆法系下,独立的法律人格需要具备社会存在与法律确认这两个必备条件,即需要独立自主地作出意思表示并得到法律明确的确认。法人概念的产生,是随着社会存在的变化而不得不作出的规则调整与适应,这种拟制的主体符合现代社会的基本组织形式与运行规律,又确保了生产关系的不断完善。
既然法人可以拥有主体地位,那么人工智能也将必然获得相应的法律资格。俄罗斯格里申法案提出,基于人工智能的法律构造,可以允许其类推适用统一国家法人登记簿制度。就法人生成的逻辑而言,是先有实体存在,再有法律进行确认。以此类推,人工智能特别是生成式人工智能被法律所拟制而形成特殊的主体地位具有逻辑上的正当性。也有观点提出,不能简单地通过与法人的类比,以论证生成式人工智能法律地位的正当性,理由是法人通过借助于自然人的行为才能从事法律活动。但笔者认为,法人与人工智能在构造上的差别,并非人工智能无法被法律所赋权的前置性因素,立法技术的主要考量仍应从解决实际问题出发。任何权利主体,只要人类将其称为权利主体时,就应当成为“法律上的人”。法人运行的关键,是其内部成员意志的集中体现,通过相应决策机构,集中形成意志,并以自身的名义开展活动,从而具备了认知能力以及实施犯罪的能力。人工智能在拟制的法律技术上,与法人并无本质不同,穿透人工智能面纱,也一定会体现人的意志。当下围绕人工智能的法律主体构建的核心问题就是责任,需要为人工智能的发展构建契合实际的以责任承担为基础的特殊财产性法律主体。当人工智能因不可归责于他人的行为造成损害或伤害时,可以承担相应的民事或刑事责任,以使得负责任的人工智能成为法律与实践意义上的现实。
三、生成式人工智能的责任能力建构与结构化配置
在传统的法律责任体系之下,由生成式人工智能自动签订的法律合同,对外发生的效果表示无法进行效力上的确认,其生成的明显具备作品特征的内容无法享有著作权等知识产权法的保护,也就无从产生将生成式人工智能作为权利主体所带来的经济效益,不利于人工智能作为颠覆性生产力工具的长久发展。由于生成式人工智能的技术特点,利用其实施的犯罪行为或者其在自身算法逻辑下输出的内容可能引致犯罪的结果,由于难以确认犯罪主体,在现行刑罚体系下面临无法构罪的现实困境,直接对人类社会的朴素伦理造成巨大冲击。在技术与数据高度垄断的数字社会架构下,“代码就是法律”的逻辑已经使得拥有先发优势的巨型科技资本拥有了超出公权力与私权力之外的第三极权力,在事实上形成了对于社会治理的域外法权,根据何种原则与规则以规制生成式人工智能的控制者,已成为关系国家安全的重大问题。生成式人工智能抓取的是全域范围内的海量数据,使用的可能是饱含价值密度的规模化信息,在使用与输出数据的过程中造成的隐私侵害、知识产权侵害等行为,在现行法律体系下也无法明确责任的主体与归责的原则。生成式人工智能实际改变了人类对于传统自然语言传承文化与教育的基本结构,操作者不得不在认知逻辑的改变下,有意识或无意识地被生成式人工智能所输出的内容渗透,其产生的人类认知逻辑上的变化,将很有可能对国家与民族的认同产生价值观上的重大变化。
习近平总书记指出:“人工智能是新一轮科技革命和产业变革的重要驱动力量,加快发展新一代人工智能是事关我国能否抓住新一轮科技革命和产业变革机遇的战略问题。”法律是保障人工智能可信向善、负责任发展的关键因素与主要手段,是否承认生成式人工智能的责任能力,或者说在何种程度上承认生成式人工智能的责任能力,将直接决定生成式人工智能乃至未来通用人工智能的行为性质与有效性,又会反作用于未来法律的发展和走向,在根本上决定数字技术全面覆盖人类生产生活后的社会样态。需要在发挥中国既有的人工智能治理优势上,通过顶层设计推进基础性人工智能立法,探索通用人工智能立法的经验,根据生成型人工智能的技术特点更新监管逻辑,形成更具影响力的法律制度体系。
责任能力有限
法律在规制人工智能风险与促进人工智能正向发展的两个维度间必须寻找到恰当的平衡点,而促进人工智能发展的首要问题是需要有主体为人工智能的行为承担相称的责任。这个主体可能是人工智能的研发者、控制者、操作者、投资者、生产者,在一定范围与条件下,也可以是人工智能,特别是生成式人工智能这类强人工智能体。需要避免人工智能一定要像人一样进行神经思维才可以定位为“人”的思维定势,与人类大脑运行机制的不同,并不能说明人工智能不能达致理性主体的状态或能力。社会性或伦理性已不是人工智能成为法律主体的必要条件。就意志能力而言,生成式人工智能在进入GPT-4时代以后,已经具备了逻辑推理与意思表示的能力,可以通过算法逻辑的设定实现与操作者一致的价值期待。就行为能力而言,司法实践已经确认了人工智能行为的法律效力并已有国家开始使用人工智能系统用于智能裁判。从实际出发,参考拟制法人对于人类文明与经济发展的重大作用,赋予人工智能特别是生成式人工智能以特殊的法律主体地位,明确其责任能力与归责原则,已经成为应对风险、促进发展的现实选择。
人工智能虽然可以具备法律主体地位,但这种法律人格应当是有限度的,并非完全的法律人格,归根结底是因为其可以承担的责任能力是有限的。责任能力与行为能力是一致的。生成式人工智能虽然能够独立作出意思表示并承担一定的责任能力,但其依旧是智能机器的天然身份,人类所具有的生育、婚姻、投票、选举等伦理性的权利显然无法加予生成式人工智能,但结合其输出具有价值作品的实际,可以考虑为其在著作权等利益型权利上赋权。使用生成式人工智能输出的作品可以由其具备一定的著作权,使用、利用该作品应当为生成式人工智能支付一定的微量费用,这种费用既不属于生成式人工智能的研发者、也不属于其控制者,而是由生成式人工智能自行所有,当其使用数据或信息造成侵权、歧视等不利结果时,可由生成式人工智能前期积累的收益予以赔付,在事实上建构其一定的责任承担能力。人工智能是由人类创造以服务人类的智慧型工具,即人类自身的权利优位于人工智能,人工智能的工具属性也决定了其自身法律地位的限度性。
生成式人工智能的行为能力来源于技术,其决策输出的底层逻辑来源于规模化数据深度学习后形成的规律性行为,与人类个体在自主意识上的目的行为仍具有结构上的巨大差异。穿透技术背后的核心,体现的依然是设计者、控制者、操作者的意识与价值逻辑。由于具有人脑根本无法达到的学习与运算能力,如果对生成式人工智能赋予完全的责任能力,则人类的地位将极有可能逐步被机器所取代,造成人本社会的道德伦理塌陷。基于实践的变化,为生成式人工智能等高度智能体赋予一定的责任能力以解决“网暴”、无人驾驶、作品制作等现实重大问题,是法律体系可以作出的适应性调整,但责任的最终承担仍需要由人类负责,这是实现人工智能在自身层面与社会存在两个维度负责任发展的应然法律技术路线。
“穿透人工智能面纱”的归责原则
在证成人工智能特别是生成式人工智能可以具备一定的责任能力后,就需要考虑其责任能力的范围与归责的路径。就民事责任而言,主要考虑其独立对外决策的行为效力与侵权的责任承担,就刑事责任而言,主要考虑其被利用作为新型犯罪工具、由于自身缺陷造成的犯罪结果以及自主决策实施的犯罪行为这几种情形下的责任能力。生成式人工智能依靠数据信息的搜索整合与综合运用形成了不同于传统人工智能的运算机理,使得民法、刑法上的原有因果关系与实际相割裂。笔者认为,生成式人工智能的责任能力需要与其在具体行为时的受控制程度紧密联系在一起进行综合考量,无论是民事责任还是刑事责任,均需要考虑生成式人工智能在决策时的底层逻辑以及人机复杂互动以后的因果关系重构。可以从结构化的维度分析生成式人工智能致损时的状态与原因:一是若责任后果完全是由生成式人工智能自身运算混乱或设计逻辑引起的,则由生成式人工智能自身承担限制的责任能力后,由生成式人工智能的研发者与控制者承担补充责任,生成式人工智能的研发者与控制者需要提供完整的研发合规文件,否则承担严格责任。二是若责任后果是由操作者自身操作生成式人工智能引致的,在可以证明操作者身份的前提下,由生成式人工智能的操作者承担主要责任,若无法查明操作者身份且生成式人工智能的控制者可以提供人工智能可控的相关证明,则由生成式人工智能自身承担限制责任。例如,由其从著作权收益或投资者建立的强制责任基金中,抽取部分货币补偿受害方,研发者与控制者承担过错责任。三是若责任后果完全无法证明由何种原因引起,则由生成式人工智能的研发者、控制者及其自身分别承担相应比例的责任,这同时需要建构更为精准与庞大的相应配套机制以确定具体的归因准则以及赔偿范围、责任限制等体系。四是若责任后果由监管疏忽或渎职造成,则由监管者承担过错责任,由生成式人工智能自身承担补充责任。无论是何种归责类型,总体均需要适用“穿透人工智能面纱”的原则确定归责路径,在查证因果关系的基础上,考察确定生成式人工智能责任背后的实际责任主体。
在明确归责原则以后,需要构建生成式人工智能责任的链式分配机制以具体完善责任的承担机制。例如,就生成式人工智能的能力与使用范围而言,任何单一的主体国家或职能部门,均无法应对其带来的责任风险,需要通过责任分担的链式机制以确定生成式人工智能侵权或犯罪后的责任分配。就生成式人工智能而言,需要从研发者、控制者、操作者、监管者、人工智能本身的维度,共同构建权责匹配的责任分担机制。在确保“罪责行一致”“权利与义务标准相当”等传统价值观下,结合数字社会发展的新形态,延伸生成式人工智能的责任链条,以确保单一主体的责任负担不至于过重,从而减少对于生成式人工智能投资与利用的期许,形成法律规制的负外部性。在链式分配机制下,研发者应当留存相应的模型与研发数据,证明其算法逻辑受控且不存在侵权的故意,否则应承担相应的法律责任。再如,在控制者责任上,应当证明其适用生成式人工智能不存在主观上的价值歧视与颠覆国家政权、传播有害信息的故意,在其证明生成式人工智能的运行与适用基本合规的情况下,可以免责。另如,操作者对于利用ChatGPT等生成式人工智能应尽到相应的注意义务与合规义务,若通过故意诱导等方式传播谣言、窃取隐私,则应由操作者承担严格的法律责任。最后,需要强化生成式人工智能对于人工智能自身治理的责任能力,逐步实现从治理“受体”向“主体”的部分转化,提高技术水平与注意义务的相称程度。通过内容识别、版权控制、数字水印标注等行为方式,实现对于输出内容的管控与伦理审查,极端强化“通知+必要条款”等措施的重要性,尽最大可能减少数据滥用与隐私侵权的风险。在明确生成式人工智能的责任能力限度与归责原则后,需要进一步深入研究明晰生成式人工智能研发者、持有者、操作者、监管者等不同利益主体在具体风险中的利益关系与配套架构,更加系统、准确地厘定在何种程度、事项或范围内由生成式人工智能承担何种责任。
建构完整的配套规则体系
法教义学的理想目标是参照近代科学原理建立公理体系,使得法律规范具有森严的效力等级,从实践出发,逐步解决实践问题特别是具有系统性、全局性风险的问题,通过化约社会的复杂性,为社会成员提供明确的行动预期,保障社会运转的秩序性与确定性。法律的生命不在于逻辑,而在于经验。应根据社会存在的变化逐步动态更新以助推生产力水平的提升。影响法律发挥作用的因素,除了传统文化观念、政治行为方式以及程序设计的漏洞之外,特别值得注意的是更具普遍性的外部条件变化。生成式人工智能的治理难题,在明确其特殊法律地位,确定其可以承担限制性的责任能力后,应进一步建构丰富具体的规制体系。
一是根据生成式人工智能的底层逻辑,建立覆盖研发运行全程的风险监管机制。传统的监管方式如产品许可、侵权责任制度,无法全面地适用于生成式人工智能的监管。对于高风险人工智能,欧盟倾向于严格责任,将隐私保护等人工智能伦理价值原则作为优先价值进行严格监管,而美国则倾向于自由经营,强调审慎监管以促进人工智能的技术创新与发展。笔者认为,必须采取新的监管机制以规制人工智能带来的责任风险,通过建立完善的法律法规和行业标准,明确生成式人工智能的责任主体、权利义务和违法处罚措施。例如,验证研发者优化生成式人工智能模型的设计和训练方法,提高其准确度、稳定性;强调控制者应动态检测生成式人工智能模型的解释性和可验证性方法,增强其可信度和可控性;督促监管者开展生成式人工智能模型的测试和评估工作,检测并消除其可能存在的偏差或错误,不断加强对生成式人工智能的审查和监督,防止其被用于非法或不道德的目的。通过全链条监管与链式责任分配机制的契合,形成明确的数字空间行为准则,建立可预期的风险责任制度。
二是明确生成式人工智能的透明度责任。由于生成式人工智能需要规模化利用全域数据,通过深化规则的制定与应用确保其透明度责任就尤为重要。首先是生成式人工智能的研发者应准确了解该系统的性能与缺陷,向用户完整陈述其使用可能引致的不利影响。对使用的数据进行事先评估,了解其训练模型、使用样本的合法来源,对其使用与生成的数据负有严格的保密与管理义务。其次是生成式人工智能的控制者应当明确其应用过程与输出逻辑的全程可追溯,提高原生与次生数据信息的透明度,采取措施尽最大可能避免数据规模化应用对个体可能造成的侵权风险。再次是根据实践的发展,生成式人工智能的控制者的行为义务应予以扩大,例如要求其为生成的图片、音像作品等内容自动生成不可篡改的底层区块链数字水印,确保生成物的来源、目的与作用符合伦理要求,并在产生责任风险时可以提供排除责任的合规记录。再如推行强制性算法规则,除非操作者明确同意,不得主动识别其身体、面容和声音数据,并强制不得用于其他场景使用或交互。另如,不得为了确定算法推荐的内容匹配度并提升准确性,而主动监测操作者浏览过程中瞳孔大小等生理变化。最后是监管者在保护创新的基础上,鼓励算法与接口开源。但这种开源并非强制,需要特别注意对于科技初创企业与个人开发者的利益保护。
三是治理原则实现从可解释算法向可控制算法的改变。现行对于算法的要求基本按照欧盟《人工智能法案》的路径,明确算法应当被解释。但生成式人工智能改变了传统人工智能的运行机制并大幅提升了其深度学习的能力,在具备了自我意识之后,其建构的算法逻辑很可能输出算法编写者与控制者无法解释的内容。若生成式人工智能的研发者也无从解释其研发系统造成的责任损失,在此情形下如何确定因果关系与责任能力?如果对不可解释的算法责任主体课以过重的义务,人工智能领域的技术创新将会受到严重打击。笔者建议,将生成式人工智能的治理逻辑,由可解释算法逐步过渡为可控制算法,注重生成式人工智能的鲁棒性,即人工智能发挥作用的稳定性。如果生成式人工智能的责任主体满足了可控算法的合规性义务,就可以按照链式责任分担机制确定的方法明确责任关系、确定责任能力,在保护创新的前提下鼓励技术的发展。这种可控性来源于一系列的义务要求,例如,违法违规行为侦测的强制报告制度、输出内容的合规审查制度、以人为本的伦理判断制度等。对于具有系统性功能的算法,应当明确限制算法技术出口的类型与清单。通过加强人工智能系统设计的安全性、稳定性和合规性,确保生成式人工智能始终受到人类的有效控制。
余论——谁来为人工智能发展负责?
人工智能作为最新的科学技术成果,极大促进了经济社会发展,同时也存在拉大贫富差距、加剧社会不公以及扩大失业现象的风险,发挥制度优势、降低科技异化的风险,将成为我国人工智能治理的关键之策。笔者在2017年曾撰文提出,现行法律规制对于人工智能权利、侵权责任主体等关键问题上的缺位,使得人工智能的发展缺乏法律价值的引领,人工智能的短期影响取决于谁控制人工智能,而长期影响则取决于人工智能到底能否受到控制,人工智能的运用与发展需要法律人格的明确。以ChatGPT为代表的生成式人工智能的问世,标志着人工智能技术的发展阶段逐步进入强人工智能时代。各国针对人工智能技术的治理均提出了相似的政策,提出发展“负责任的人工智能”。但是,究竟谁应为人工智能的发展负责?如何为人工智能的发展负责?人工智能能否为自己的发展负责?学界与实务界均未给出确定性的答案,形成目前生成式人工智能带来的风险无法以现行法律体系规制的治理困境。2022年10月,外交部发布了《中国关于加强人工智能伦理治理的立场文件》,指出人工智能在给人类社会带来潜在巨大发展红利的同时,其不确定性可能带来许多全球性挑战,应坚持伦理先行,建立并完善人工智能伦理准则、规范及问责机制,明确人工智能相关主体的职责和权利边界。生成式人工智能已经具备了类人类自主意志特征,又具备了一定的行为能力,鉴于客观实际与拟制法人对人类社会发展所取得的巨大作用,可以考虑赋予生成式人工智能以特定的法律地位,给予其特殊的责任能力,通过一系列配套措施与机制的完善,最终实现人工智能发展的可信向善,发展“负责任的人工智能”。
原标题:《袁曾|生成式人工智能的责任能力研究》
阅读原文
以ChatGPT为代表的人工智能生成物如何寻求著作权法的保护
【著作权法不保护人工智能自身的独立于人类的创作】
以ChatGPT为代表的人工智能发展至今,我们必须承认,人工智能已经体现出了自身独有的创作功能和与创作有关的创造性,这种创造性导致仅从外观判断已无法分辨出是人类创作还是人工智能创作。
然而,人工智能自身的独立于人类的创作及其“创造性”不受著作权法保护。首先,人工智能不符合著作权法对作者的定义,根据《著作权法》第十一条第二款规定,创作作品的自然人是作者,只有自然人才具备作者资格,只有自然人的“创作”才受法律保护。其次,人工智能自身的“创造性”不符合著作权法对作品“独创性”的要求——特指人类本身独有的、承载着人格的独创性,尽管人工智能在遣词造句或谱曲作画等创作水平上比很大一部分人类更技高一筹,也具备远超所有人类的创作速度。第三,著作权法的立法目的就是为了鼓励、保护和传播人的创作,如果同样保护人工智能自身的创作,受到鼓励的对象只能是人,人会为了促进人工智能的创作技能,增强对人工智能的研发技能(开发端)和自身使用人工智能的技能(用户端),唯独没有动力增强自身的创作技能,这种激励后果从科技发展和人类驾驭工具的角度看是进步和良性的,也可以从其他法律中获得保护,但这不是著作权法意在保护的内容。正如北京菲林律师事务所诉百度公司著作权侵权一案中,法院认为,分析报告系威科先行库利用输入的关键词与算法、规则和模板结合形成的,某种意义上讲可认定威科先行库“创作”了该分析报告,即使威科先行库“创作”的分析报告具有独创性,仍不是著作权法意义上的作品。[4]
【如何判断人工智能生成物是否体现了人的独创性】
著作权法所要求的独创性一般包括两个方面,一是独立创作,二是创作结果具有最低限度的创造性。独立创作的要求不难判断,判断最低限度的创造性特点有一定的主观因素,但可以肯定的是,最低限度的创造性是一种对质的要求,当今无论在中国还是美国,对作品都要求具有最低限度的创造性。[5]既然著作权法不保护人工智能自身的创作,在判断人工智能生成物是否具有人的最低限度的创造性时,就不应该将属于人工智能自身的“独创性”考虑在内。具体可以从以下三个方面考虑:首先判断人在其中是否有创作行为;其次判断该创作行为是否具有独创性;再次需要将人工智能生成物中属于人工智能的创作剔除以后,判断是否还能体现人的独创性。
回到文章开头的两个例子,仅通过输入“活着”“拔牙”和“文城”三个词便生成的一篇一千多字的颁奖词不享有著作权,因为人在其中并没有创作行为,指令中的三个关键词,其中两个词是余华的作品名称,一个是余华曾经的职业内容,并不具备创作所需要的最低创造性,最终形成的颁奖词皆为人工智能自身的创作,并未体现出人在其中的独创性。第二个例子中,如果咖啡店老板使用人工智能工具,上传店内已有的操作台、咖啡豆、咖啡机、桌椅和其他摆设等经过选取的实拍照片,然后向Midjourney详细描述图片需要呈现出的咖啡师的形象、动作与神态和咖啡的种类、成色、制作进度,以及与图片中其他元素如何搭配,色调和光线如何选择,最终如何呈现出诸如制作精良、选品考究和口味独特等一系列效果,并在生成之后可能多次调整指令明确需求最终生成的一张图片应该享有著作权。因为咖啡店老板在这张图片的形成过程中有创作行为,有一定的创造性,生成的图片中既有人工智能自身直接创作的部分,又体现了咖啡店老板自己在思想与审美方面的独创性,应该受到著作权法保护。
深圳市南山区法院审理的腾讯公司诉上海盈讯公司著作权权属纠纷一案中,法院在判断由腾讯公司主创团队利用Dreamwriter软件生成的文章是否有独创性时,有如下表述:其外在表现符合文字作品的形式要求,其表现的内容体现出对当日上午相关故事信息、数据的选择、分析、判断,文章结构合理、表达逻辑清晰,具有一定的独创性。[6]可以看出,法院在对人工智能生成物进行独创性判断时,与对普通作品的独创性判断秉持同一标准,未将属于人工智能自身创作的部分剔除以后再判断是否符合人的独创性,这种判断方式是错误的,意味着著作权法给予人类创作与人工智能自身创作同样的法律保护,意味着著作权法同样保护非人类作者的创作。
综上,人工智能自身创作的部分不应成为著作权法保护的对象,对人工智能生成物的独创性判断应与其他作品相区分,体现了人的独创性要求的人工智能生成物应该获得著作权法保护。参考美国的做法,虽然美国版权局(USCO)于2023年2月21日撤销了对《黎明的查莉娅》中使用Midjourney生成的图像的注册,仅保留了作者对创作的故事和图像编排的版权,理由是美国版权法不保护非人类作者创作的作品,[7]但在2023年3月16日发布的《包含人工智能生成物的作品版权登记指引》[8]中指出,在判断包含人工智能生成物的作品的审查时,他们会考虑作品是在计算机或其他设备的辅助下由人类作者创作,还是原本应由作者完成作品所需要的最基础的要素实际上由机器完成……会考虑人工智能在其中贡献的部分是机器产生的结果还是源于人类作者内心的外在表达,是否获得版权注册取决于具体的作品是如何使用人工智能并最终创作作品的,需要个案进行判断。可以看出,美国版权局对人工智能生成物是否构成作品这一问题并非持全面否定的态度,不排除未来对符合独创性要求的人工智能生成物予以版权登记。
二、体现了人的独创性的人工智能生成物应该如何保护
【体现了人的独创性的人工智能生成物属于什么作品】
虽然著作权法不保护人工智能自身独立于人的创作,但由于体现了人的独创性的人工智能生成物将人与人工智能的创作融为一体无法分割,著作权法必须将其作为一个整体进行保护,这意味着人工智能生成物是一种不同于现有作品类型的新型作品,虽然从外观判断与文字作品或美术作品等作品无异。如果法律将其作为同一作品类型,与判断独创性时将人工智能的独创性当作了人的独创性一样,意味着法律赋予人工智能创作与人类创作同样的法律保护,相当于承认了人工智能的创作者身份。
本着对人工智能生成物应该保护同时需要与其他作品加以区分的原则,现阶段宜将人工智能生成物认定为著作权法中所规定的“符合作品特征的其他智力成果”从而纳入著作权法的保护。《著作权法》第三条中除明确列举了文字作品、口述作品、音乐作品、美术作品等在内的八种作品类型以外,还有第九项“符合作品特征的其他智力成果”的规定,该规定是2020年《著作权法》做出的重大调整,使得我国著作权法对作品类型的规定,由之前的“法律、行政法规规定的其他作品”即作品类型法定模式,变为现有的作品类型开放的模式。曾有学者对此修改颇有微词,认为作品类型开放的模式不符合我国目前的现实国情,容易导致法院的自由裁量权过大和个人私有权力的扩张等问题。但该项开放式的规定,恰恰符合满足独创性要求的人工智能生成物,虽然对法定作品类型以外的其他作品类型的认定需要特别谨慎,但该等认定既没有突破现有法律规范,又能有效保护人在人工智能生成物中的创作行为,是为适应新技术发展而需要在法律上做出的创新。
【人工智能生成物构成作品时,著作权归谁所有】
人工智能生成物的形成离不开研发端和使用端的人类智力活动,人工智能生成物在构成作品时的相关权利归属,无外乎开发者或使用者这两类主体。有学者提出,使用ChatGPT创作作品,可以将OpenAI公司(ChatGPT开发者)——ChatGPT(人工智能)——用户(使用者)三者之间的关系视为一种委托创作,著作权的归属根据著作权法第十九条的规定来认定,即有约定的从约定,未作约定的,著作权属于受托人即开发者。[9]上述观点无法自圆其说,既然是“使用ChatGPT创作作品”,显然创作作品的主体是使用者,而非开发者,著作权法中对作者的定义是“创作作品的自然人”,而在以ChatGPT为代表的人工智能生成物构成作品时,有创作行为的只有使用者和ChatGPT,法律又只认可其中的自然人即使用者的作者身份。咖啡店老板是人工智能软件的使用者,也是宣传图片的制作者,其制作的宣传图片中体现了自身的独创性,应该成为宣传图片的作者并享有相关权利。
事实上,开发者研发和制造人工智能着眼于技术本身的开发与升级,并通过提供技术帮助使用者获得生成物这一价值换取收益(通常体现为出售、许可或者其他商业层面的安排),其本身没有对人工智能生成物寻求著作权法保护的需求,这也是在国内的两则人工智能领域著作权侵权纠纷典型案例中原告皆为使用者的原因。
在此不得不提到人工智能开发者的用户协议,以美国的ChatGPT、Midjourney和中国的“文心一格”为例,关于生成物的权属,三个公司分别规定了三种不同的模式。概言之,ChatGPT规定所有的生成物权益均归用户所有;Midjourney分为付费用户与非付费用户,付费用户拥有全部生成物的权益,非付费用户仅拥有生成物的使用权(所有权归Midjourney公司);文心一格规定所有的生成物权益(包括知识产权)均归百度公司所有。从著作权法的角度分析,ChatGPT用户协议的相关规定更加合理,即用户享有生成物的著作权(如有)。
【探索其他与保护现有作品类型相区分的保护模式】
纵观当前国际上主要国家或国际条约对人工智能生成物著作权的法律态度,包括美国在内的绝大部分地区都不支持非人类创作的内容享有著作权,而英国是少有的通过法律规定计算机生成物(computer-generated)享有著作权的国家,在英国《1988年版权、外观设计和专利法案》[10]中规定,计算机生成物,是指在不存在任何人类作者的情况下,由计算机运作生成的作品[11];对于计算机生成的文字、戏剧、音乐或艺术作品而言,作者是对该作品的创作进行必要安排的人。但该法案对计算机生成物与由人类作者创作的作品区分保护,在保护期限上,计算机生成物的保护期只有50年,而人类作者的作品保护期为70年。
我国2020年修订《著作权法》之前,对“电影作品和以类似摄制电影的方法创作的作品、摄影作品”的发表权和所有财产权的保护期为五十年,而其他作品类型的保护期为作者终生及其死亡后五十年,可见对利用摄像机摄制的作品的保护期限短于其他作品类型,当然新的《著作权法》修订后,对摄影作品的保护期限不再区别对待,只有视听作品的保护期限较之其他作品类型更短(对于新法生效前依旧法已过保护期而依新法仍在保护期的摄影作品不再保护)。
因此,借鉴上述英国法案对计算机生成物的区别性保护规定,以及自摄影技术出现以后各国版权法对摄影作品的保护情况,我国的《著作权法》可以考虑增设人工智能生成物作为一个新的作品类型,又因为人工智能生成物所包含的人类创造性占比更低而利用的社会公共资源更多,也可以考虑适当缩短其保护期限。
结语
写这篇文章的灵感来自于文章开头提到的“猕猴自拍照”的例子,当有人试图把人工智能比作猕猴时,笔者认为人工智能更像照相机,事实上是否应将照片认定为“作品”及其独创性的问题也曾备受争议,摄影作品直至1948年才被《伯尔尼公约》的布鲁塞尔文本明确列为受保护的作品,而且包括我国在内的各国版权法对摄影作品的保护期限也存在区别对待,原因在于不少人认为在摄影作品的完成中人的创作行为可能仅仅是按下快门。而外在形式与摄影作品极为相似的美术作品在表现相同或类似客体时却承载了更高程度的属于人的创造性,尽管摄影作品在创作效率和呈现对象逼真度方面比美术作品更高,就如同当今生成式人工智能在创作效率和创作水平上都可以远超人类。然而以保护人类独创性表达为使命的著作权法从来不以成败论英雄,即使有一天人工智能在创意、构思、审美等方面的表达已全方位碾压人类甚至长出了自己的思想和灵魂,著作权法依然只偏爱每一个人类创作者,直至人工智能有能力亲手废除这部法律。
●注释
[1]本文中的“人工智能生成物”,指的是基于算法、模型、规则等人工智能技术直接生成的文本、图片、声音、视频、代码等内容,该定义参考了国家互联网信息办公室关于《生成式人工智能服务管理办法(征求意见稿)》中对“生成式人工智能”的定义,具体形式可以参照ChatGPT的生成内容。
[2]猕猴自拍照,指的是一个英国摄影师在印尼拍猕猴时,被一只猕猴抢走照相机并拍出一张自拍照,摄影师将其传到网上风靡一时。之后一家动物福利院向美国法院起诉,称网上传播照片的行为侵犯猕猴的著作权,经美国两级法院审理都驳回了原告的诉求,理由是美国版权法只保护人的创作。
[3]参见王迁:《ChatGPT生成的内容能受著作权法保护吗?》,《探索与争鸣》2023年第3期。
[4]参见北京互联网法院(2018)京0491民初239号判决书。
[5]知名案例美国最高法院判决的Feist一案中,明确指出决定作品是否具备独创性的,不是作者所付出的劳动的量,而是劳动的质,否定了传统的“额头冒汗”原则。
[6]参见深圳市南山区人民法院(2019)粤0305民初14010号判决书。
[7]参见https://www.copyright.gov/docs/zarya-of-the-dawn.pdf,
访问时间:2023年6月17日。
[8]参见
https://www.copyright.gov/ai/ai_policy_guidance.pdf,
访问时间:2023年6月17日。
[9]参见羊城晚报《ChatGPT生成的内容是作品吗?著作权归谁?》一文中提到的对北京大学粤港澳大湾区知识产权发展研究院研究员徐美玲的采访。
[10]https://assets.publishing.service.gov.uk/government/uploads/system/uploads/attachment_data/file/957583/Copyright-designs-and-patents-act-1988.pdf,访问时间:2023年6月17日。
[11]英国该法案中对计算机生成物的定义,与本文中所探讨的人工智能生成物有所不同,前者不要求有人类作者,对创作进行必要安排的人视为作者;后者对作者的要求是有实际创作且需要在作品中体现出独创性。
特别声明:
大成律师事务所严格遵守对客户的信息保护义务,本篇所涉客户项目内容均取自公开信息或取得客户同意。全文内容、观点仅供参考,不代表大成律师事务所任何立场,亦不应当被视为出具任何形式的法律意见或建议。如需转载或引用该文章的任何内容,请私信沟通授权事宜,并于转载时在文章开头处注明来源。未经授权,不得转载或使用该等文章中的任何内容。
返回搜狐,查看更多