曾雄、梁正、张辉:欧盟人工智能的规制路径及其对我国的启示 ——以《人工智能法案》为分析对象
人工智能作为一种颠覆性技术,将改变就业结构、冲击法律与社会伦理、侵犯个人隐私、挑战国际关系准则等,甚至对公共管理、经济安全和社会稳定乃至全球治理等带来深远影响。因此,针对人工智能引发的各种问题以立法手段予以应对已是势在必行
(一)人工智能立法的必要性问题:我国已经完成了《网络安全法》《数据安全法》《个人信息保护法》等的立法工作,这些法律规则作为底层的规则基石为人工智能的健康发展提供了坚实保障。但在人工智能应用层面,相关立法仍然缺位,一些人工智能应用已经进入法律的空白区。因此,需要加快人工智能的立法研究,特别是应就人工智能的产品和流通进行立法规范,才能充分保障社会和个人的安全。
(二)人工智能立法的体例问题:目前,用于应对人工智能风险的制度规则过于分散,而且法律位阶较低,不利于相关机构开展监管活动,也不利于企业自我合规。因而应为人工智能制定一部专门的综合性法律,将人工智能用于不同场景中所遵循的共性规则进行提炼,成为规范人工智能多场景应用的基本规则,如学界内提出的构建综合性立法和具体场景立法相结合的“总-分”式立法体系。综合性立法是进行人工智能顶层设计的最佳形式,本文也认为应为人工智能制定一部单行法,因为综合性立法比分散立法的规范效率高。
(三)人工智能立法的主体内容问题:本文提出应进行“事前-事中-事后”全链条的监管机制设计。在事前阶段,在人工智能产品流入市场前进行风险评估,实现风险管控;在事中阶段,进行持续的市场监督,实施产品召回制度;在事后阶段,进行善后学习,实现人工智能风险事故的数据共享和风险监测。
(四)人工智能立法的价值定位问题:不管如何,应始终坚守一个基本原则,即政府对产业治理的根本出发点是为了实现更好的发展。在推动立法的过程中,也应坚持规范与发展并重的原则。《深圳经济特区人工智能产业促进条例》作为我国人工智能领域的首次地方性立法,明确了对人工智能产业实行包容审慎监管,同时强调使用政策指南、沙盒技术、应用试点等监管工具。深圳作为人工智能产业发展较为迅速的区域,已经开展立法活动,可以为国家层面的人工智能立法提供经验。
欧盟《人工智能法案》规制路径概览
近年来,人工智能愈加凸显出对经济与社会发展的强大驱动力与潜力,但同时,其发展也带来一定的风险。基于此,欧盟两年前着手制定《人工智能法案》(以下简称《法案》),意图通过统一的法律监管框架,以基于风险识别分析的方法,为不同类型的人工智能系统提出不同的要求和义务,从而确保基于人工智能的商品和服务在高度保护健康、安全、公民基本权利和保障公共利益的前提下,促进人工智能规范化的开发、使用和营销。
2023年6月14日,欧洲议会表决通过了《法案》草案,预计在欧洲议会、欧盟委员会和欧盟理事会完成谈判后,《法案》将在今年晚些时候通过。《法案》最终审批通过后,将会为企业和组织留出一段宽限适应期,通常为两年左右。
《法案》的主要内容
《法案》是第一部通过议会程序专门针对人工智能的综合性立法。虽然欧洲议会和欧盟委员会、欧洲理事会之间对于人工智能监管仍存在一些分歧,《法案》的最终版本仍将妥协和调整,但《法案》确立的规则将完全符合欧盟的权力和价值观。
(一)管辖范围和域外效力。《法案》主要监管人工智能系统的提供者和部署者,两个定义的范围都非常广泛,只要是提供人工智能服务的主体,无论是开发、发行,还是仅仅作为经销商或中间授权方,都属于监管的对象。对于人工智能系统的产业参与者,只要其针对欧盟市场提供产品或开展服务,或其产品、服务有可能在欧盟境内被销售、使用,甚至位于欧盟的用户可能因使用其产品受到不利影响,都需要遵守《法案》的相关规定。
具体而言,《法案》的管辖(包括域外适用)范围,包括属人、属地和实质判断多个管辖标准,提供者和部署者的下列活动均会受到《法案》监管:(1)将人工智能系统投入欧盟市场或在欧盟内投入使用的提供者,无论这些提供者是在欧盟域内还是欧盟域外国家;(2)在欧盟域内设立机构或位于欧盟域内的人工智能系统的部署者;(3)即使提供者或部署者的营业场所位于欧盟域外第三国,而该第三国因国际公法适用欧盟成员国法律,或者该系统输出的内容在欧盟域内使用;(4)基于健康、安全或基本权利使用在欧盟投放市场的人工智能系统受到不利影响者。
(二)基于风险识别的监管框架。《法案》对不同人工智能的风险程度进行分级并采取不同的监管措施,将人工智能的风险等级区分为不可接受的风险、高风险、有限风险、低或轻微风险,其中前三类将受到《法案》的监管:
(1)不可接受的风险的人工智能系统是禁止的。对人的安全具有不可接受的风险的人工智能系统将被禁止,如部署潜意识技术的人工智能系统、公共场所的“实时”远程生物识别系统、使用敏感特征的生物识别分类系统、预测性警务系统、执法边境管理、工作场所和教育机构中的情绪识别系统、无针对性地从互联网或闭路电视录像中抓取面部图像以创建面部识别数据库的系统等。
(2)高风险人工智能系统要重点监管。《法案》要求提供者将产品投入市场前,均应在欧盟委员会的数据库进行注册,并进行一般性事前评估:在使用“CE”标识(即安全合格标志)并投放市场前,均应遵守现有产品安全法规的相关要求,如欧盟尚无相关产品安全法规的,提供者应自行进行合格性评估。而对用于生物识别的高风险人工智能系统,则需由欧盟认证机构进行评估。《法案》还对人工智能产业链的不同参与者也提出了细化要求:提供者是人工智能系统的最终负责人,部署者要履行风险防范义务,其他参与者要履行以审查义务为核心的一系列的合规义务。
(3)有限风险人工智能系统需遵循透明度要求。该类风险等级的人工智能系统无须取得特殊牌照、认证或履行报告、记录、留存等义务,但应遵循透明度原则,允许适当的可追溯性和可解释性,应让用户知悉其与人工智能系统的交流或互动。
(三)通用型人工智能和基础模型的特别监管。《法案》审议过程中,以ChatGPT-3、DALL-E、Midjourney等为代表的通用型人工智能的风靡引起欧盟立法者的关注,故在《法案》中对通用型人工智能系统和基础模型有特别监管措施。
通用型人工智能系统是指具有广泛适用性的人工智能系统,包括但不限于图像和语音识别、音频和视频生成、翻译和其他功能。基础模型是指经过大量的数据训练,具有很强的可适应性的人工智能系统模型,典型代表如GPT模型、StableDiffusion模型等。《法案》对通用型人工智能系统和基础模型提出了特别要求,即应当适用高风险人工智能系统的监管规则,其中通用型人工智能系统的提供者应履行相关的内部控制和合格性评估程序,产品投入市场后10年内向监管部门提供技术文件等。
基础模型的提供者应在欧盟数据库中进行注册,制定详细的技术文件和易懂的使用说明,建立质量管理体系等。
(四)倡导负责任的研究和创新。具体路径包括建立人工智能科学家和工程师的道德责任、研究人工智能的伦理设计、推动人工智能跨学科、多主体之间的对话、加强社会公众参与。《法案》还提倡监管沙盒,即由公共当局建立现实生活中的受控环境,并在有限的时间内促进创新人工智能系统的开发、测试和验证,然后再有计划地投放市场或投入使用。《法案》鼓励成员国研究和开发对社会与环境有益的人工智能方案,如为残疾人提供方便、解决社会经济不平等问题,这些体现了人本主义,即实现可持续发展、科技向善、多方共治和社会包容等人文目标。
(五)严格的执行机制和惩罚措施。《法案》规定,欧盟委员会负责促进《法案》的实施并协调各成员国监督机构之间的合作,各成员国监督机构具体负责对高风险人工智能系统合规情况的监督,有权要求系统提供者对不合规的人工智能系统进行改进,甚至禁止、限制、撤销或召回不符合《法案》要求的人工智能系统。为制裁不遵守法案的行为,《法案》制定了不同的行政罚款:对不遵守禁止性人工智能系统相关规定的主体,将被处以最高4000万欧元或全球年总营业额的7%的罚款;对不遵守高风险人工智能系统项下有关数据及数据治理、明确说明义务的主体,将被处以最高可达2000万欧元或全球年总营业额的4%的罚款;对未遵守《法案》其他规定(包括对于基础模型的规定)的主体,将被处以最高可达1000万欧元或全球年总营业额的2%的罚款。
《法案》面临的挑战
(一)人工智能迭代快,监管机制前瞻难。欧洲立法者希望为人工智能领域的规范发展建立一套完整、系统的监管框架,但人工智能近年来的快速发展和更新迭代,为《法案》预期目标的实现带来了不小挑战,《法案》在审议过程中的争论以及《法案》推进到后期时,对通用型人工智能和基础模型不得不紧急“打补丁”,都反映出法律的监管滞后于人工智能行业的发展。
(二)超前制定监管措施,引发产业发展担忧。欧盟数字领域立法一直走在前列,但总体而言,属于偏规制型的立法,对产业促进方面的规定较少。《法案》超前和过度的监管让人工智能实务界充满担忧:如可能使人工智能企业在欧洲承担过高的成本,可能迫使创业者和创新者转移至监管环境宽松的地方等。
(三)企业自治要求高,规制有效性存疑。《法案》对人工智能系统提供者附加的合规评估义务仅涉及内部程序,外部监督不足,对批准入市后的人工智能系统监管过于宽松,可能降低规制的有效性和可执行性。
《法案》广泛的管辖范围和域外效力,基于风险等级的全过程监管以及严格的执行惩罚措施,引发了欧盟企业对合规压力和隐形成本的担忧。欧盟在平台责任、隐私保护、网络版权等方面出台的规则均较早,但形成反差的是,欧盟近20年互联网产业发展并未领先。政府对产业治理的根本出发点是为了更好的发展,因此,在推动立法过程中,应坚持规范与发展并重的原则,使用政策指南、沙盒技术、应用试点等监管工具,实现规范发展和鼓励创新的双重价值目标。
[本文系国家社科基金项目(项目编号:19XFX013)《租购并举住房法律制度建构研究》的阶段性成果]
(作者单位:西南政法大学民商法学院)
浅析人工智能生成内容的保护路径
原标题:浅析人工智能生成内容的保护路径随着人工智能技术的成熟,越来越多的行业开始将这项技术运用于商业生产中,如利用人工智能技术进行自动的图像、符号信息处理,进而产生有欣赏价值的绘画、文学内容等。那么,这些内容是否符合我国著作权法中对作品的定义?相关主体是否可以通过著作权法来进行保护?这些问题在司法实务界和理论学界均存有一定的争议。在笔者看来,分析这些问题应把握两个原则:第一,不能因为保护某些行业而采用功利主义来论断适用某项法律,即对人工智能投资者、使用者的保护不一定要通过著作权法的路径来实现;第二,在大陆法系中需要保障法律的稳定性,不能因出现新事物而轻易改变既有法律规则,因此不宜为人工智能创设新的民事主体类型。
功利主义分析的误区
作品的构成要件包括“属于智力成果”“具有独创性”“表达相对完整”等要素。笔者认为人工智能自动生成的内容难以符合第一个要件,即智力成果是由民法上的自然人或法人创作而产生。但是,从外在表现上看,人工智能生成内容有的难以和自然人或法人创作的作品相区分,如果有人把它当成自己的作品使用、寻求著作权法保护,能否得到支持?这就引发了人工智能生成内容是否应该获得著作权法保护的问题。部分学术和司法观点认为:人工智能生成内容从外在表现上难以与人类的作品区分开来,如果有人将其冒充为人类所创作的作品,事实上很难识别出来,因此区分是没有意义的。另外,如果不给予人工智能生成内容著作权保护,人工智能生成物的投资者就缺少对该内容的垄断性,这可能会损害其利益。基于上述理由,如果人工智能生成物外在表现上类似于人类的创作,那么该内容应该被认定为作品。但笔者认为这种推论存在一定逻辑缺陷,需要加以厘清。
思考人工智能生成内容是否应该获得著作权法保护,需要从两个层面思考问题:一是从本质主义的视角,人工智能生成内容是否满足作品的实质性要求;二是从功利主义角度,给予人工智能著作权有无必要。回答第一个问题,需要厘清我国法律对于作品的实质判断要件。其中,著作权法实施条例第三条所称的“创作”和人工智能生产过程是否等价?如果人工智能生成过程属于著作权法实施条例第三条所称的“创作”,那么人工智能生成物可以被认定为作品,但谁才是这一作品的作者和著作权人?这仍然是法律要解决的问题。从功利主义出发,则需要厘清人工智能生成内容是否值得保护。如果回答是肯定的,则需要研究应采取什么路径来进行保护。如果采取著作权法保护路径,该如何确定著作权归属?此时,无论从本质主义还是功利主义层面,都要解决人工智能的法律地位问题。
具体而言,人工智能生成内容的使用涉及人工智能研发者、人工智能使用者、生产内容使用者之间的利益平衡。例如,媒体斥资购买人工智能软件,使用人工智能生成新闻稿件或股市和金融市场快报,若其他媒体未经同意擅自使用该文稿,此类行为无疑会分流前者的受众,损害前者的商业利益。此时,如果将人工智能生成的新闻稿认定为作品,则前者的利益可以获得著作权法的保护。如果新闻稿的独创性较低,无法被认定为作品,还可以通过反不正当竞争法来保护前者的利益,因此,著作权法保护并非是唯一路径。功利主义分析常见的误区是:以保护人工智能使用者的利益来证明人工智能生成内容应当受著作权法保护,这在逻辑上是有缺陷的,两者不是必然的因果关系。
人工智能的法律属性
将人工智能生成内容认定为作品,还面临一个难以逾越的理论难题:人工智能生成的内容不是人类智力创作成果,不满足作品必须是由自然人或法人所创作、具有创造性这两个条件。为此,有人提出可以扩大受著作权法保护的主体的范围,将人工智能作为“赛博人”,即拟制的人加以保护,并且这方面有法人制度可供借鉴。然而,这种思路不仅会导致知识产权法的重大变化,而且也将影响民法有关主体的规定。
根据有关法律规定,法人和自然人一样,具有独立的民事权利能力和民事行为能力,法人以其独立的财产作为民事责任的承担。如果将“赛博人”拟制为新的民事主体,其权利由谁享有?义务和责任由谁负担?如果为其创设新的民事主体规制,那么法人制度的存在还有什么意义?显然,在可以预见的时期内,“赛博人”是无法自行负担其权利和义务的。但是“赛博人”产生的后果,需要由对应的自然人或法人来享受权益承担义务和责任,如此,为什么不采用类似动物致人损害、产品责任这样的传统民法制度来解决有关问题?
具体而言,在权利方面,将人工智能视为“无体物”,其生产的内容视为由“无体物”产生的“孳息”,由人工智能的投资者享有对于“孳息”的利益。责任方面,因人工智能进行的文本和数据挖掘、算法自动生成文字等内容,由此造成的民事责任、知识产权责任由财产的所有者、使用者承担无过错责任。因此,引入“赛博人”作为新的法律主体的必要性要画个大大的问号。更核心的问题是人工智能生成内容也不具备创造性,因为就目前的“弱人工智能”而言,其可以进行运算但是不会进行思考,遵循数理逻辑但不具备自然人或法人的理性。除此之外,人工智能更没有自然人非理性的情感机制。因此,人工智能不具备著作权法上作者的“人格”特质,其生成的内容也不具备创造性,而创造性是人类特有的能力,是人区别于物的根本属性之一。
“工具论”的合理性
人工智能不具备独立的民事主体资格,人工智能自动生成的内容不满足作品的“智力成果”要件,但是,这并不能排除人工智能生成内容可能受到著作权法的保护,只是著作权主体仍为自然人或法人,而该类人工智能生成内容是作为人利用技术辅助生成的作品加以保护的。创作作品是人的主体性的实现,是人的自由意志的运用,人可以直接创作作品,也可以借助一定的工具完成、甚至通过委托他人实现创作目的。就部分“弱人工智能”生成内容而言,本质上是创作者借助人工智能这一工具进行创作,而生成物是人意志发动的结果,是人的自由意志的实现,因而是人的意志的产物。人工智能生成内容的过程是运用一定的算法进行信息加工选择的过程,因此算法体现程序设计者的主体意志和选择,而程序的使用者某种程度上承认、接受了该算法,创作方向和人工智能设计方向有着高度的契合,这种对算法的接受也是使用者自由意志的选择。所以人工智能生成内容归根结底是人的自由意志的运用和实现。人工智能使用者运用人工智能生成的表达可以作为使用者的作品加以保护。
通过以上分析可得出初步的结论:人工智能不宜被视为独立的作者或著作权人,但部分内容可以作为人工智能使用者的作品得到著作权保护,也即有人参与创作的人工智能生成物可以被认定为作品。
从功利主义出发,论证人工智能生产内容应该以著作权法保护是有逻辑缺陷的。除此之外,部分观点反驳“工具论”的理由是:既然从内容本身无法分辨一项表达究竟出于人工智能还是自然人或法人,那么在司法实践中还有必要去进行分辨吗?但笔者认为,这实际上是一个证据的问题,应该从举证角度去考虑。即便一项表达事实上出自于人工智能,但由自然人对其进行署名并登记,那么如果无相反证据,法律应推定该表达属于人类智力成果,构成作品。以证据来推定事实是法律制度对现实生活的简化,追求法律的形式正义就需要接受应然层面和实然层面的一定脱节。
因此,在无法举证证明作品不是由人创作而是由人工智能生成的情况下,只能认定该表达构成作品,受到著作权法的保护。在总体上不对人工智能自动生成内容提供著作权保护的情形下,这将导致部分人工智能生成内容实际上可以冒充人类的创作而得到著作权保护,但并不能因此说明所有人工智能生成内容都可以作为作品受到保护,只要它形式上看起来类似人类的创作,这就好比某些假冒商标的商品无法被识别出来,不能因此主张所有的假冒该商标的商品都应该被认定为真品。(华东政法大学龙文懋龙明明)
(本文仅代表作者个人观点)
(责编:林露、李昉)分享让更多人看到