人工智能合理使用版权的两难与出路
原标题:人工智能合理使用版权的两难与出路人工智能时代序幕的开启,为知识产权保护带来了崭新的课题。知识产权保护是科技创新驱动发展的刚需,其制度设计并非纯粹的法理逻辑推演,而应充分体现科技创新和产业发展的需要。就人工智能的知识产权保护而言,技术与产业发展需要与现行知识产权制度之间存在着一定的紧张关系,这突出表现为人工智能正在颠覆人们对传统知识产权哲学的既有认知,挑战着独创性概念,引发机器人能否成为作者的广泛争议。相比之下,人工智能作为读者所引发的版权侵权问题尚未获得应有的关注,却同样亟待解决。因为该问题也对传统的合理使用制度提出了挑战,该问题的不确定性会加重人工智能的研发成本,减缓科研进展和社会进步。
人工智能是一种使机器智能化的活动,实现智能化的关键在于机器学习,即从数据中学习,通过输入并分析海量信息来“训练数据”,形成数据模型。在这一阶段,版权作品等信息作为输入数据被无数次地完全复制,甚至更改。这可能侵犯被利用作品的复制权或汇编权等。人工智能“训练数据”是否必然构成版权侵权,抑或能否受到合理使用制度的庇护,这个问题关系到人工智能技术的未来发展。过于严苛的版权保护会阻碍人工智能技术研发;而宽松的版权保护又可能改变版权利益格局,抑制人类作者的创作动力。
两种类型
人工智能根据输出内容的不同可以区分为“表达型”与“非表达型”。“非表达型”人工智能在使用作品时,并不涉及作品的独创性表达,而是以作品的事实性信息为对象或将作品作为数据看待,着重分析其原始数据文本的物理特征。例如,在“AuthorsVSGoogle”案中,谷歌搜索引擎复制图书的目的仅在于向用户提供图书出版的事实信息,而非图书内容,法院裁定该复制行为属于合理使用。在该情形下,利用作品的目的是通过分析作品表达背后的“思想”来构建数据模型,而非生成“表达性”的可能替代被利用作品的内容,属于“非表达性合理使用”。根据“转换性使用”规则,作品使用目的越具有“非表达性”,则“转换性”程度越高,越可能认定为合理使用。这类合理使用在国际上已基本形成共识。例如,欧盟委员会2016年提出的《单一数字市场版权指令草案》第三条规定,成员国应当对作品的复制权提供例外,允许对合法获取的作品进行复制,但以研发等非商业目的为限。
关于“表达型人工智能”是否构成合理使用的问题,尚未形成定论。在这类人工智能开发中,输入并分析作品的目的在于,通过分析作品的独创性表达来训练人工智能的表达技巧以创作新作品。例如谷歌的“下一个伦勃朗计划”,人工智能将伦勃朗所有的画作输入到数据模型中进行分析,从而“创造”出更多伦勃朗风格的作品。尽管风格属于思想,而非表达,但人工智能生成物可能会对被使用作品形成市场替代效应。而无论是“合理使用三步法”还是“转换性使用”,都要求作品使用行为不能对该作品的市场产生不合理的影响。知识产权保护的边界是不断变化的,随着电视节目模式和计算机字体的独创性标准逐渐放宽,作品表达的规律也可能具有独创性,而基于该规律产生的人工智能生成物就可能因与被利用作品具有实质性相似而构成侵权。可以想象,如果伦勃朗在世,他很可能起诉谷歌侵犯其版权。
解决路径
然而,若由此否定合理使用,则人工智能技术发展将受阻。因为海量的被复制作品意味着高额的版权许可费,开发者要么很难以承担成本而放弃开发,要么倾向于使用已过版权保护期的作品,但基于过时信息开发出的技术可能并不实用,信息的片面性还可能形成带有偏见性的数据模型,即所谓的“数据歧视”。
但这也并不意味着该选项的反面(允许合理使用)是更优的选择。如果支持合理使用抗辩,则吸收了海量作品智慧而产生的机器生成物可能会挤占人类作品市场,从而对人类创作起到反激励作用。此外,网络时代的版权格局正在从传统的以作者利益为核心转向以使用者为中心。历史上,版权和技术的历史性叙述主要表现为强势的版权人和弱势的使用者之间的对立。如今这一形势发生了翻转:人人都可以通过媒体技术成为作者,网络公司则成为用户创作作品(例如自制视频、博客或邮件中的信息等)的使用者。在平台经济中,价值并非来源于数据上的知识产权,而来自于通过授权而使用数据的能力,因此使用者反而成为了版权利益格局中的强势一方。假如作为使用者的人工智能开发者(以大型网络公司为主)仍然受到合理使用的庇护,作者的利益空间就会进一步被压缩。
在公共政策层面,合理使用制度具有重新分配公共福利的功能,它通过限制权利人的经济利益而使特定群体获得补贴。通过对经济权力和表达权利进行再分配,合理使用制度使公众能够自由地从事有益于社会的活动,同时又防止权利人的“垄断权”无限扩张。如果合理使用为机器学习提供侵权庇护,那么公共利益再分配会逆向发展:以牺牲弱势的用户的利益为代价,让作为既得利益者的大公司获得更多经济利益。
合理使用制度的这种困境难以通过自身的制度完善加以解决,因为作者的版权利益与使用者所代表的技术进步价值难以在该制度下得到调和。笔者认为,以法定许可为主,并搭配公共许可的做法是比较适宜的解决方案。首先,人工智能开发者无需事先获得许可就可以使用作品,但需要向版权人支付费用,海量作品许可费收取可以由集体管理组织来负责。其次,由于表达型人工智能的生成物可能替代被利用作品,从而影响作者的市场收益,有必要允许作者享有随时退出法定许可的权利。法定赔偿制度中的“权利保留”,即权利人的“选择退出”机制,可满足这一需要。最后,网络用户作为非职业的创作者难以与集体管理组织形成稳定的交易模式,这一缺陷可以由公共许可来弥补,即释放部分版权权利以换取网络效应收益或搭售服务收益。(西南政法大学民商法学院胡晶晶)
(本文仅代表作者个人观点)
(责编:林露、李昉)分享让更多人看到
人工智能发展中的法律问题研究
●应当赋予人工智能“有限的”民事主体地位,人工智能并不享有伦理性的人格权或身份权,而是享有经济性的财产权利以及承担相应的义务。同时,应否定人工智能的刑事主体资格,最终的刑事责任应由人来承担。
●目前由人工智能生成的内容不适合获得版权保护。具有创作功能的人工智能软件本身就是商品,而开发者许可他人利用人工智能生成相应内容的本质是服务,让开发者销售商品和服务行为回归市场本身,通过价格机制调节,才是人工智能产业发展的一般途径。
●人工智能市场领域作为新兴发展领域,应从反不正当竞争以及反垄断这两个公法上的规制入手,为人工智能寻求一个健康的市场环境。在反不正当竞争的公法规制方面,应迎接三个方面的挑战,即《反不正当竞争法》一般性条款的泛化运用、商业秘密及数据反不正当竞争保护的不足。在反垄断的公法规制上,应对通过算法共谋的垄断协议行为、通过数据垄断滥用市场支配地位行为以及未达到申报标准的经营者集中行为加强规制。
人工智能发展中的法律问题研究[①]
课题组长:童 潇
课题主要成员:董笃笃 王 哲 李 爽 夏海斌
课题参与成员:贾雯婷 尹丽湘 尤文韵 吴俊燕 殷明君王雪原 毕 明 张 冰 褚宏俐 陈 杨
引 言
自1956年人工智能(ArtificialIntelligence,AI)的概念首次提出至今,人工智能在制造业、金融业、医疗行业、服务业、交通运输、安全防御等领域的应用成果有目共睹,深刻地改变了人类的生活、生产和工作方式。随着第三次人工智能浪潮的开启,人工智能的发展正进入新阶段,呈现出深度学习、跨界融合、人机协同、群智开放和智能操作等新的模式特征。然而,与之相伴而生的是,人工智能时代也不可避免将对社会秩序的维持产生不容忽视的冲击,作为维护社会秩序屏障的传统法律体系,已不足以调和新的冲突与矛盾,在民事主体法、著作权法、侵权责任法、人格权法、交通法、劳动法等现有法律体系均同人工智能所带来的生产生活变化形成相应冲突的同时,相关人工智能的法律问题也引发了法学界的重点讨论和研究。
在人工智能的法律问题研究广泛展开之后,课题组通过对现有文献的梳理,发现目前的研究方向总体更趋向于以法律作为一个外部框架来探讨法律如何应对人工智能发展形成的各种新型法律问题及如何对于人工智能的发展进行规制。在这一方面的研究中,既包括针对目前的弱人工智能(ANI)的实际应用进行法律规制的相关研究,也包括对于未来的强人工智能(AGI)可能在人类社会所引发的问题进行预测性的研究,甚至还包含了对于未来的超人工智能(ASI)会造成什么样的颠覆性后果、是否对其进行严格法律约束的相关思考。对比三个层次的研究,由于弱人工智能事实上已出现在生产生活的方方面面,相关法律问题已逐步出现并急需得到解决。同时,对弱人工智能在具体应用实践中所作出的法律体系回应也比较容易整合入现有的法律体系框架当中。因此,本课题所立足的人工智能语境,并非比较超前且理想化的强人工智能范畴,而是基于当下现实的弱人工智能范畴,不将强人工智能乃至超人工智能纳入讨论范围,而仅限于探讨分析弱人工智能时代对现有法律体系可能造成的影响与挑战。
在此背景下,本课题重点选取人工智能法律主体资格、人工智能著作权保护及人工智能的市场准入和规制这三个较为突出的重点法律问题进行逐一分析,并提出一定的应对构想与思路,以进一步促进我国人工智能产业健康发展和相关法律体系的进一步完善。
一、人工智能的概念和发展现状研究
(一)人工智能的概念和特征
要在法律的框架中讨论人工智能,首先要明确的是其法律地位问题,人工智能享有何种法律地位,直接影响着如何对人工智能进行保护和规范,进而影响着人工智能和人类的未来。在讨论人工智能法律地位问题之前,应先对人工智能的相关概念加以界定,以为后文相关问题的展开和研究打下基础。
1.人工智能的概念
(1)人工智能的定义
2017年7月,我国发布《新一代人工智能发展规划》,从顶层设计上为人工智能的发展铺路。人工智能经过半个多世纪的发展,目前仍缺乏通用定义。人工智能的一个比较流行的定义,也是该领域较早的定义,是由约翰·麦卡锡在1956年的达特矛斯会议上提出的:人工智能就是要让机器的行为看起来就像是人所表现出的智能行为一样。但是这个定义似乎忽略了强人工智能的可能性。自20世纪90年代以来,国内外学者从不同角度,对人工智能的定义做了大量研究。课题组通过对相关人工智能定义进行总结,将人工智能定义分为三类:“功能相仿说”、“智能模拟说”和“生物构建说”。
1)功能相仿说
功能相仿说侧重对人工智能产出效果的重视,即以人工智能最终实现的智能产出能够满足人类生产生活需求为核心目标,至于其智能衍生的过程是否根据人类智能活动来进行模仿,不是该学说关注的重点。其代表人物如美国计算机科学家PeterNorvig,其将人工智能定义为:对计算机系统如何能够履行那些只有依靠人类智慧才能完成的任务的理论研究。[②]美国斯坦福大学尼尔逊教授将其定义为:怎样表示知识以及怎样获得知识并使用知识的科学;美国麻省理工学院的温斯顿教授将其定义为:研究如何使计算机去做过去只有人才能做的智能工作。[③]我国钟义信教授认为:人工智能就是探索人类智能(自然智能的最佳代表)的工作机理,并在此基础上研制各种具有人类智能水平的人工智能机器,为人类各种活动提供智能服务;[④]美国高盛集团发布的《2016高盛人工智能(AI)生态报告》将其定义为:制造智能机器、可学习计算程序和需要人类智慧解决问题的科学和工程。
2)智能模拟说
智能模拟说侧重于认为人工智能中智能的实现过程需要模拟人类的思维方式来进行,即相关认识、心理和决策等思维过程是模仿人类的思考方式进行的。相关代表人物中,闫志明教授等认为,人工智能是一个模拟人类能力和智慧行为,涉及计算机科学、控制论、信息论、神经生理学、语言学、心理学等的跨领域学科。[⑤]蔡曙山等认为,人工智能,就是让机器或人所创造的其他人工方法或系统来模拟人类智能;[⑥]阿里云研究中心2016年发布的《人工智能:未来制胜之道》将其定义为:研究、开发用于模拟、延伸和扩展人类智能的理论、方法、技术及应用系统的一门新的技术科学;北京36氪研究院2017年发布的《人工智能行业研究报告》将其定义为:使用机器代替人类实现认知、识别、分析、决策等功能,其本质是对人的意识与思维的信息过程的模拟,是一门综合了计算机科学、生理学、哲学的交叉学科。
3)生物构建说
生物构建说侧重于认为人工智能不仅思维模式需要模拟人类,连其相关产品的结构也应模仿人类的构造来生成。其代表观点中,卡内基梅隆大学认为,人工智能,即当人造物展现智能行为时,它的表现基于人类所使用的相同方法。[⑦]例如,考虑一个具有听觉的系统,弱人工智能仅仅关注系统的表现,而强人工智能支持者的目标在于,通过模拟人类听觉系统,使用等效的耳蜗、听力管、耳膜和耳朵其他部分的部件(每个部件都可以在系统中执行其所需执行的任务)来成功地获得听觉。弱人工智能的支持者单单基于系统的表现来衡量系统是否成功,而强人工智能的支持者关注他们所构建系统的结构。
课题组偏向支持功能模仿说,即人工智能主要是为了解决目前实际困难和需求而存在的,人工智能只是在大多数时候会用上人的智能的模拟,但并不全是模拟人脑的思维的。课题组认为可将人工智能定义为:人工智能是为了进一步提升生产效率及丰富人类生活,研究、开发接近或超过人类智能水平的计算机系统和技术,并广泛应用于人类生产、生活的科学和工程。
(2)强弱人工辨析
目前,多数观点认为强人工智能有可能制造出真正能推理和解决问题的智能机器,并且,这样的机器能被认为是有知觉的,有自我意识的。强人工智能可以进一步分为两类:一是类人的人工智能,即机器的思考和推理就像人的思维一样;二是非类人的人工智能,即机器产生了和人完全不一样的知觉和意识,使用和人完全不一样的推理方式。多数观点认为弱人工智能技术不可能制造出能真正推理和解决问题的智能应用,这些应用只不过看起来像是智能的,但是并不真正拥有智能,也不会有自主意识。主流科研集中在弱人工智能上,且一般认为这一研究领域已经取得可观的成就。强人工智能的研究则处于停滞不前的状态下。
课题组认为,强人工智能和弱人工智能最本质的区别在于意识的自主性和创造力,在于其处理逻辑的模式,前者是主动获取的,后者则是被动接受的。
强人工智能是以自身为主体,通过观察、总结、尝试、验证等一系列学习活动,从环境中抽取出合适的逻辑,来解决相似的输入、输出问题,同时对处理结果进行评估,修正原有的处理逻辑,其处理逻辑是可以在线动态完善的,其不仅可以向他人学习,还可以直接向大自然学习。因此,强人工智能一定程度上可以不接受人类制约,拥有独立发展的能力。就像许多科幻电影和小说中所描述的那样,强人工智能充分体现了人类在人工智能相关研究上的探索和追求。强人工智能不仅在哲学上存在巨大争论(涉及到思维与意识等根本问题的讨论),在技术上的研究也具有极大的挑战性。强人工智能当前鲜有进展,美国私营部门的专家及国家科技委员会比较支持的观点是,至少在未来几十年内强人工智能难以实现突破。
弱人工智能是以自身为客体,软件工程师为主体,根据市场应用需求,设计出相应的处理逻辑,并写成程序,直接灌注到系统之中,形成系统的处理逻辑。当环境发生改变,即输入、输出不再契合时,弱人工智能处理逻辑的改变只能依靠软件工程师来更新、修复。弱人工智能的智能和行为一般为人类所控制,其根本没有意向状态,只是受电路和程序支配简单地来回运动而已。[⑧]迄今为止的人工智能系统都还是实现特定功能的专用智能,如拟合股票市场的某个规律并做出预测、拟合用户偏好并做出推荐,或者像Alfago拟合围棋的取胜规律。目前的主流研究仍然集中于弱人工智能,并取得了显著进步,在语音识别、图像处理和物体分割、机器翻译等方面取得了重大突破,甚至可以接近或超越人类水平。
法律的制定可能超前于现实但不能偏离现实,基于以下几点现状考量,本文探讨人工智能发展中的法律问题主要集中于弱人工智能时代发展将带来的法律问题,并提出解决方案。究其缘由,其一,从逻辑上来说,课题组认为强人工智能弊大于利,将会给社会带来不可估量的道德伦理风险。如以强人工智能机器人犯罪为例,如果一台先进的机器人犯了罪,那么它应该如何接受法律制裁?律师如何去证明非人类的机器人有“犯罪心理”?这一点可以通过借鉴或调整现有的法律原则来实现吗?其二,从技术上来说,主流人工智能研究的方向从来就不是朝向强人工智能方向发展,现有技术的发展也不会自动地使强人工智能成为可能。目前我们所处的阶段,人工智能依然依赖于专家设置的系统结构体系,人工智能的学习性也依赖于人所拟制的算法来运作,如智能法律机器人、特斯拉的辅助驾驶等应用,这与强人工智能(有意识的、能知觉)还存在着巨大的断层。其三,从市场方面来说,在现实层面,人工智能技术取得的成绩都是弱人工智能领域的,如苹果的Siri在语音识别、实时翻译等方面取得的成功,IBM的“深蓝”在运算方面取得的成绩等。即使谷歌制造的AlphaGo在深度学习层次取得了进步,也是某种特定类型的智能行为。正如专家所说,“人机大战对于人工智能的发展意义很有限。解决了围棋问题,并不代表类似技术可以解决其他问题,自然语言理解、图像理解、推理、决策等问题依然存在,人工智能的进步被夸大了。”强人工智能的提出者约翰·罗杰斯·希尔勒本人亦不相信计算机能像人一样思考。
2.人工智能发展的特征
最近几年,随着人工智能技术的突破,以及互联网、大数据、并行计算等相关技术群的成批成熟,人工智能技术在快速的更替换代中不断发展。我国专家认为,人工智能技术发展和产业应用正在双双进入临界点,人工智能正在进入2.0新阶段。当前,人工智能发展呈现突飞猛进的势头,具有以下三个方面的显著特征。
(1)智能高效性
人工智能同其他机器及相关产品的最主要区别在于人工智能具有了一定的人类的智能,相关算法、数据和基础硬件使人工智能的智能性得以实现,是人工智能技术的灵魂。目前在人工智能的多个研究领域都在向认知智能挑战,如图像内容理解、语义理解、知识表达与推理、情感分析等,这些认知智能问题的突破,将再次引发人工智能技术的飞跃式发展。Facebook提出在未来5至10年,让人工智能完成某些需要“理性思维”的任务;“微软小冰”通过理解对话的语境与语义,建立用于情感计算的框架方法;IBM的认知计算平台Watson在智力竞猜电视节目中击败了优秀的人类选手,并进一步应用于医疗诊断、法律助理等领域。
(2)成长自主性
人工智能发展另一显著特征在于其成长自主性,不同于其他产品和设备需要完全通过人类的指令和系统的更新来完成产品的升级,人工智能通过深度学习和自主学习等算法便可以在提供基础数据养料的情况下不断适应和成长。人工智能技术虽然目前无法像人类一样思考问题,但其具有学习能力,其智能的实现依托于大量的学习,可能一开始也经常出现错误,但它能吸取教训,这样就保证了人工智能能应对更多的复杂情况。2016年初,谷歌AlphaGo战胜韩国围棋世界冠军李世石的围棋人机大战,成为人工智能领域的重大里程碑性事件,人工智能自主学习应用系统的智能水平再次实现跃升,初步具备了直觉、大局观、棋感等认知能力。
(3)产品颠覆性
人工智能发展的第三显著特征在于其相关应用产品对目前生产生活具有颠覆性冲击。目前,人工智能应用系统已经在多个领域启动并取得重要进展,包括:计算机科学、金融贸易、医药、诊断、重工业、运输、远程通讯、线和电话服务、法律、科学发现、玩具和游戏、音乐等诸多方面。应用系统是最直接的生产力工具,能利用人工智能技术优化工作流程,大大提高生产效率;同时,在人类社会生活中,人工智能的应用也会改变甚至颠覆人们的生活方式。例如,无人驾驶技术难点不断突破,自动驾驶汽车已经得到美、英政府上路许可;各类语音控制类家电产品和脸部识别应用在生活中已随处可见;德勤会计师事务所发布财务机器人,开始代替人类阅读合同和文件;IBM的沃森智能认知系统也已经在医疗诊断领域表现出了惊人的潜力,诸多人工智能产品都显示出对传统生产、生活的巨大冲击力和影响力。
(二)人工智能对传统法治体系带来的冲击与挑战
人工智能是一种新兴技术,在我国将其作为提升综合国力、占领未来科技主导权的重要发展战略的同时,我们不可忽略人工智能技术发展对传统法律体系的冲击。本课题将从人工智能法律主体资格、人工智能创作物的著作权归属及人工智能的市场准入和规制等三个方面论述人工智能对我国法治建设可能带来的相应冲击,以及我国法治建设应如何做出相应的回应。
1.人工智能对法律主体资格的冲击与挑战
机器人是机器还是人,在法理上涉及主客体二分法的基本问题。在民法体系中,主体(人)与客体(物)是民法总则的两大基本范畴。主体与客体、人与物之间有着严格的区别。凡是人以外的不具有精神、意思的生物归属于物,是为权利的客体。若将机器人视为“人”,赋予其相应的主体资格,难以在现有的民法理论中得到合理的解释。民法意义上的人,须具有独立之人格(权利能力),该主体既包括具有自然属性的人(自然人),也包括法律拟制的人(法人)。然而,在人工智能背景下,上述观点正遭受不断冲击,实际上,呼吁赋予高度自主的人工智能产品以拟制人格的主张已屡见不鲜。
当人工智能自主作出决策,并影响人类的自由意志和生活方式这种情况出现时,如何控制人工智能系统,使它们在积极的社会活动中不会干扰人类的权利;在人工智能造成损害时,即便是出于善意的驱使,如何确保这些损害得到弥补或赔偿等问题,都值得人类思考。随着人工智能尤其是强人工智能的拟人化或者说智能化程度的不断提高,它不仅仅是外在表现形式和语言行为越来越像人,有时它也会不受人的控制自主行动,一个不可避免的问题摆在人类面前,我们该如何对待智能机器人;当人工智能产生法律纠纷时,人工智能是否可以独立承担部分主体责任。机器人不是具有生命的自然人,也区别于具有自己独立意志并作为自然人集合体的法人,是否可以将其作为拟制之人以享有法律主体资格值得人类思考。
2.人工智能对著作权归属带来的冲击与变革
传统理念中,知识产权法为人类的精神劳动产生的智力成果提供保护,通过赋予垄断性权利来激励创新活动与知识分享,从而促进整体社会效益的提升。劳动价值论、功利主义说等知识产权的基础理论,主要围绕着人类自身展开。而人工智能产生的创造性成果由于缺少人类智慧性因素的充分融入,能否成为著作权法保护的客体引发了学界和理论界的广泛讨论。[⑨]
人工智能作品的出现,颠覆了人们对于作者与版权、发明家与专利等带有人身性质的知识产权权利义务关系的传统认识。例如美国媒体盘点了2016年世界范围内计算机创意项目,发现人工智能已经可以谱写流行歌曲,撰写小说、电影剧本,甚至绘画,乃至生成诗篇和散文。人工智能用于文艺创作,无论在表现手段、创作格局,还是拓展想象空间方面,都值得重视。人工智能创作物的诞生,无疑打破了以往仅能由人类创作作品的规律。
虽然使用人工智能进行创作设计研发阶段的成本高,但投入使用后创作周期短、创作数量大,其在艺术创作领域的活跃发展引发了关于人工智能创作物著作权保护的争议。不管是保护还是不保护人工智能的创作物都有一定的弊端,如果给予人工智能创作物版权保护,可能会导致版权作品数量急剧增长,并在某些领域对人类作品造成冲击,且人工智能作为创作主体的资格亦备受质疑;如果不保护人工智能的创作物,则会出现人工智能创作物大量涌入市场,有可能助长抄袭、搭便车等不正之风。[⑩]
3.人工智能对市场带来的冲击与变革
拥有海量数据资源和强大算法支持的人工智能系统正在影响甚至替代个体进行决策,然而在算法偏差和机器歧视的影响下,社会问题的出现屡见不鲜。例如,由科技巨头微软公司研发的人工智能机器人Tay,能够模仿人类用户的评论,并根据互动情况去发表自己的评论,在首日投入使用中就吸引了众多用户的关注,但Tay在某些用户的“指引”下,不仅辱骂用户,还发表种族歧视和性别歧视的言论。同时,谷歌的算法歧视问题早已引起人们注意,相关调查发现,在谷歌搜索中,搜索黑人的名字会比搜索拜仁的名字更容易出现暗示具有犯罪历史的广告;在谷歌的广告服务中,男性会比女性看到更多高薪招聘广告。
人工智能在各个领域的运用,当前还只能说是刚刚起步。但从效率这一出发点来看,无论是国家还是市场都有较强的推动力来进一步推广人工智能的运用,在这个过程中,技术的进步也将以更高的速度表现出来。当人工智能被应用于本来就充满流动性、风险与不确定性的市场时,便可能带来既无创新价值,又危害巨大的灾难性后果。例如2010年5月6日,美国股市发生了“闪电崩盘”,一万亿的资产价值瞬间蒸发,美国证券交易委员会(SEC)花了半年的时间才搞清楚原来是不同炒家的计算机程序在相互竞争的过程中导致了失控。在这个被称为高频交易的神秘世界里,这些系统可以“迅雷不及掩耳”地收割小型获利机会,还可以相互探测和利用彼此的交易策略。像这样的人工智能对决不仅存在于股票市场,还存在于任何投机性的多方博弈市场。事后追责型的法律对策,无法阻止人们在巨大利益的引诱下,利用人工智能进行这种损害范围无法控制的赌博式行为。[11]因此,未来有关人工智能的市场准入及市场规制问题,也值得广泛的关注和思考。
二、人工智能主体资格问题研究
在目前法律界对人工智能探讨的问题中,人工智能的法律主体资格问题一直是研究的焦点之一。课题组将分别从民事主体资格和刑事主体资格两个角度,对学术界的代表性观点进行梳理和总结,并就其中的法律问题进行探讨和分析。
(一)民事主体资格
在民法体系中,主体(人)与客体(物)是民法总则的两大基本范畴。随着人类社会进入到智能时代,传统民法的主、客体框架已受到人工智能带来的相应冲击。一方面,人工智能与传统机器的区别在于其具有“人”的自主性;另一方面,人工智能与人的区别又在于其不能完全脱离人的控制而呈现出来的“物”性,因此,如何对人工智能的民事主体资格进行确认显得尤为重要。
1.学界观点
对人工智能相关产品的民法地位,即其是否具有人格属性的讨论比较多,代表性观点如下:
(1)电子人说
欧盟委员会法律事务委员会已于2016年5月31日向欧盟委员会提交动议,要求将最先进的自动化机器“工人”的身份定义为“电子人”(electronicperson),并通过法律赋予其劳动权等特定的权利和义务,同时建议为“电子人”开立资金帐户以使其享受劳动者的相关权利、履行相关义务。人工智能对民事主体制度的挑战,已经从劳动者的定义及劳动权利主体制度中拉开帷幕。2017年10月,欧盟议会法律事务委员会发布的《欧盟机器人民事法律规则》(EuropeanCivilLawRulesinRobotics)中,就涉及重构责任规则和考虑赋予复杂自主机器人以“电子人”的法律地位。
(2)代理说
“电子代理人”一词最早见于美国法学会和美国统一州法全国委员会拟订的《统一计算机信息交易法》。代理说认为,人工智能的行为均来自于其管理人的意思表示,行为后果归责于被代理人,相当于管理人的代理人。这种学说无疑承认了人工智能的法律地位,但是它只能实施法律行为,在造成侵权时无法履行赔偿义务,其机器属性亦决定了它不能完全享有代理人相应的法律权利。
(3)有限人格说
有限人格观点认为,首先,人工智能已经是一种“真实”“独立”且“自主”的存在。人工智能已经应用于自驾领域、教育医疗健康领域、金融领域、安防领域以及电商零售领域等,它可以借助人类提供的基础硬件设备对人类的生活造成各种各样的影响,特别是人工智能具备的自主学习能力将加速这种独立性和自主性。所以,赋予人工智能独立法律人格是其发展的内在要求。
其次,人工智能具有独立自主的行为能力和责任能力。虽然人工智能的诞生依赖于人类的预先设定,但是当人类预先设定之后,它可以在给定的框架内进行自我思考和自主学习,甚至有可能发展为类人主体。单纯以人工智能的存在是以人类智力活动为前提这一理由,并不能否定人工智能的自我意志。
再次,赋予人工智能法律人格是有效管控人工智能风险的必要手段。[12]人工智能的出现极大地改变了人类生活,它在很多领域会将人类从繁琐劳动中解放出来,使得人类实现自由的程度得以上升。但同时,在它的应用过程中,必然会引发对传统道德和价值观的冲击。所以,必须赋予人工智能法律人格,将人工智能纳入到统一的技术和伦理规范体系之中进行规制,并建立相应的法律制度机制来消解人工智能可能带来的风险和危害。
(4)否定说
否定说认为,机器人不是具有生命的自然人,也区别于具有自己独立意志并作为自然人集合体的法人,将其作为拟制之人以享有法律主体资格,在法理上尚有斟榷之处。[13]弱人工智能时代下模拟和扩展“人类智能”的机器人虽具有相当智性,但不具备人之心性和灵性,与具有“人类智慧”的自然人和自然人集合体是不能简单等同的。本质上属于“工具”的人工智能体并不能拥有民事权利能力。其次,尚无自由意志的人工智能所做的行为没有动机,无法产生一个以发生私法上效果为目的的意思表示,即人工智能和特定权利人之间也不可能存在代理关系,更不能适用限制行为能力人或无权代理人所做出的意思表示需要被追认的法律规则,即人工智能并不具有民事行为能力。
2.课题组观点
课题认为,强人工智能时代的到来将遥遥无期或许也并不可能实现。而即使强人工智能存在理论上的可能性,人类也很难同意世界上存在威胁人类生存的另一个高智慧群体的存在。因此仍限定于在弱人工智能的范围讨论是否赋予其民事主体的地位。本课题观点认为应赋予人工智能“有限”民事主体地位。
首先,需要明确的是,人工智能不同于以往的计算机。其不仅能够实现自己的任务,并且“当存在不确定的结果时,它能够实现最好的结果,而这个结果正是所希望实现的”。人工智能的行为与以往利用计算机所为的行为的本质区别就在于:人所起到的作用不同。以往计算机完全听命于人的操作指令,可以理解为是设计者辨认能力和控制能力的延伸。而人工智能基于机器学习和深度学习,已经能够自行判断、收集和学习新的数据。某种程度上已经不再局限于设计者最初预定的程式,能够自行衍生出新的决定并实施。人所制定的算法规则或数据输入不再是人工智能行为的唯一来源。即人工智能机器人的行为存在着一定程度的自主性。这也正是我们讨论人工智能法律主体地位的必要原因之一。
其次,在一定程度上赋予人工智能民事主体地位符合现实社会需求。课题组认为,学界有观点直接从伦理和哲学层面否认人工智能民事主体地位而忽略了现实因素。民事主体资格的承认尽管要考虑到伦理性,但法律人格区别于伦理人格,法律发展到今天,伦理因素已经被弱化。法律人格的确立标准中,伦理性并不成为唯一因素,财产和责任基础的独立性以及社会功能的重要性已然成为重要考量因素。例如公司、合伙企业人格的确立,实质上是一种功利主义视角下特定自然人利益的延伸。民事主体赋予的衡量标准在于法律接纳该类主体应满足社会效益最大化和当事人利益最大化的要求,或者至少不会对特定人群的利益产生不利影响。[14]而对于人工智能的发展前景来看,可以预见到的是,在未来人工智能将更广泛地参与到民事活动中,改变甚至颠覆人类现存生产工作和交往方式,由此出现一个以新的技术结构支撑新的社会结构的人类新时代。但是正如本文开头所强调的,智能机器人归根结底依旧是由人类创造并服务于人类社会发展的智慧型工具,这从根本上决定了智能机器人的发展必须遵循“以人为本”的价值原则,必须以保护、不侵犯人类权利为基本底线。
综上所述,课题组赞同赋予人工智能“有限的”民事主体地位。这种有限性主要体现在:其一,行为能力的有限性,其行为应当受到使用者或占有者的最终控制。其二,权利义务的有限性,人工智能并不享有伦理性的人格权或身份权,而是享有经济性的财产权利以及承担义务。例如,机器人能够签订合同等等。其三,责任能力的有限性,很显然,基于人工智能被发明的目的和从目前可以预见的未来来看,人工智能不可能像自然人和法人一样拥有属于自己的财产。因人工智能无独立的财产,其承担法律后果的能力是不充分的,另一方面如何证明智能机器人的侵权行为事实上已经脱离人的控制,是来自其自我学习、自我感知,进行相应的独立判断下的行为也存在着相当大的举证困难,也有可能引发转嫁责任的道德风险。因此部分责任后果最终还是要由人来承担。课题组认为可以以产品责任为原则,适用《侵权责任法》《产品质量法》等的相关规定追究销售者和制造者的责任。
3.人工智能参与民事活动配套机制构建
法律规范应当与人工智能技术发展相适应。在肯定人工智能具有有限的民事法律人格的条件下,也应在民事活动领域及时建立完善的配套机制。
(1)设立专门的人工智能监管机构
人工智能对于技术知识的要求比较高,需要有专业技术人才及监管部门配合才可有力监管。而现有的监管体制不足以对人工智能进行有效监管,因此需要建立新的监管部门,例如美国“机器人委员会”等对人工智能及相关产品进行专业监管。另外由于人工智能种类与功能繁多,无法保证每一类人工智能都被准确划归到某一行业进行监管,课题组建议可以将人工智能监管部门划分为多个片区进行精准化管理,比如分为家用型人工智能和公用类人工智能。
(2)建立人工智能登记制度
课题组建议建立人工智能登记制度,每一台人工智能产品都需到监管部门强制登记,获得“身份证”,同时确定其专属管理人。在登记时明确其生产应用的目的或用途,进而将其民事行为能力限制于其目的范围内。当人工智能产品从事超越其预定目的之外的行为致使他人损害构成侵权的,可借鉴公司法中“刺破公司面纱”理论的归责原则确定责任主体,即除智能机器人以其自身财产承担责任外,还可根据具体情况要求其设计者、制造者、所有者或使用者承担责任。
(3)建立人工智能强制保险或赔偿基金制度
人工智能技术一方面为人类造福,而另一方面也增加了人类无法预测的风险。鉴于此,为分散人类面临的智能机器人的侵权风险,课题组建议构建强制保险或赔偿基金制度。可要求智能机器人的所有者购买强制责任保险,用以补充智能机器人对受害人的赔偿。另外,也可以在引入强制保险的基础上,根据受益人共摊风险的原则,在包括人工智能投资者、开发者、生产者、使用者等多方受益人中构建人工智能保赔协会,当出现登记在保赔协会名下的人工智能侵权时,受害者可以要求保赔协会承担相应的责任。
此外,也有相关专家建议,在国家有关机关的主导下,构建人工智能赔偿责任基金。通过人工智能损害风险分摊机制,在满足一定条件的情况下,动用人工智能赔偿责任基金,按规定对受害人予以赔偿。这不仅有利于更好地保护受害人的权益,维护正常的社会秩序,而且为人工智能参与人类生产、生活活动提供了更好的保障。
(二)刑事主体资格
黑格尔认为,犯罪被视为理性存在者的行为,违法者通过他的行为表明其同意适用法的惩罚。现代刑法在犯罪构成认定方面亦坚持主客观相统一的认定标准,在犯罪主观方面强调认识因素与意志因素。认识因素是指行为人对自己行为及其结果的社会危害性的认识以及对犯罪的基本事实情况的认识。意识因素是指行为人根据对事物的认识,决定控制自己行为的心理因素。可以说,犯罪是犯罪人自由意志的体现,只有从犯罪人的自由意志中才能找到刑罚的正当根据。对于不具有认识因素的“无知”行为或是受到强制的“无选择”的非自愿行为不应当受到刑罚的谴责。[15]
因此,人工智能可否像法人一样作为又一新兴主体进入刑法视野成为被规制的对象,其核心在于分析客观上造成法益侵害结果的人工智能是否具备可追究刑事责任的主体意志自由。[16]
1.学界观点
人工智能在刑法领域引发的问题,引起了刑法学界对人工智能的刑事主体地位的一系列争论。目前,就人工智能能否成为刑事法律上的责任主体、能否对人工智能单独施加刑罚措施等问题有着不同的观点。
(1)肯定说
据报道,2017年10月25日一个名叫索菲亚(Sophia)的“女性”机器人被授予沙特阿拉伯国籍,该机器人成为史上首个被授予国籍的机器人。有观点认为,[17]沙特赋予机器人Sophia以国籍,很好地解决了人工智能刑事主体资格的问题,因为此时Sophia具有公民身份,无论是她对别人造成伤害还是别人对她造成伤害都需要依据刑法的规定进行处罚。人工智能的机器人不仅可以直接对他人人体造成侵害,而且在认识能力和意志能力方面,都可能接近甚至超越人类,因此完全有成为犯罪主体的余地。
对于此观点,本课题组并不认同。虽然Sophia被授予了国籍,但是在法律角度并不具有现实的可行性。因为就现在的人工智能技术发展看来,自然语言处理水平尚未发展至Sophia在电视节目中表现的程度。Sophia的言论可能全部都是由其背后的团队提前预设好的台词和剧本,根本不具有自由意志。也有学者曾对此进行过进一步的讨论,认为Sophia并无可能对其性自主意志进行实质判断,其也没有实际的感知力,如果男性自然人对其实施猥亵、强奸等行为,并无法进行相应罪名的认定。
另外,学界也有观点从另一角度肯定了人工智能的主体地位。[18]提出以智能机器人为代表的人工智能可以通过深度学习产生自主意识和意志,并在自主意识和意志的支配下实施严重危害社会的犯罪行为,此时智能机器人已经具备刑法中犯罪主体的主要条件,确实需要承担相应的刑事责任。
该观点认为,首先,若智能机器人在设计和编制程序范围内实施行为时,不应承担刑事责任。从目前人工智能发展水平来看,智能机器人的行为仍在人类设计和编制的程序范围之内,即使智能机器人已经可以通过学习根据自主判断实施相关行为,但这些行为均受到人类设计和编制程序的控制或者限制,且完全符合人类设计和编制程序的目的。就此而言,人类是智能机器人的创造者,完全可以在智能机器人产生自主的意识和意志之前通过程序给智能机器人设定行为目的和行为边界。此时,人工智能只是不法分子实施非法目的的“工具”,而不应当对其实施的行为承担刑事责任。
但该观点同时提出,随着时代的发展,人类不应忽略这种已经可能产生和人类一样甚至超过人类智商的新事物的存在。若人工智能真的开始具有独立的辨认能力与控制能力,那么就应当认为人工智能可以成为刑事责任主体并需要承担刑事责任。认为智能机器人完全可以通过不断学习规则建立“自省”与“道德感”,这已经远远超出了自然行为论、因果行为论、目的行为论、社会行为论、人格行为论所能预见并认识的范围。
(2)否定说
目前也有观点直接否认了人工智能的刑事主体地位。认为人工智能不具有刑法评价意义上的行为认识与控制要素的自主性,也就不具有人的目的理性所支配的可问责基础,欠缺作为刑事责任主体的本质要素。[19]
首先,人工智能对自身行为不具有认识能力。人工智能在预先设定的程序指令中运行,即使通过深度学习使程序摆脱了人类的控制并在客观上造成法益侵害结果,但人工智能本身缺乏对外在行为的真实理解,无法认知自身行为对客观世界产生的影响,因而无法认识自身行为的社会属性,也就不具有规范评价意义上的行为“目的性”与独立控制行为的意志自由可言。
其次,人工智能不具有理解并遵从法规范的能力。人工智能本身对刑法规范既没有理性的认识与遵从能力,也无法感知违反规范所造成社会否定性评价所带来的消极后果,其单纯依据程序设定实施的行为,或者因为出现故障导致人工智能未依据事先设定的程序运行,欠缺刑法所要求的对法规范遵从的意志自由。
再次,人工智能行为属性判断无客观标准。例如在当前人工智能应用最广泛的自动驾驶领域,自动驾驶系统只是一套机器系统,它们并不会作出真正的决策,它们只是根据对环境的感知,按照某种特定的原则和设计做出反应,而人类在驾驶时对于整套系统的感知和反馈模式拥有完全的控制权。不论自动驾驶汽车是符合人类预设的程序处于正常行驶状态还是造成了客观的事故损害,并无明确标准判断其是基于自主意志实施的行为还是基于人类本身的程序控制状况所出现的不同结果,唯一能作出的合理解释仍应回归于人类当前技术手段的缺陷使得作为辅助工具的人工智能出现目的偏差进而造成损害后果。
2.课题组观点
综合上文中列举的不同的学术观点,本课题组支持人工智能刑事主体资格的否定说。
回归本部分前述首要观点,分析人工智能是否具有刑事法律主体地位的核心应在于分析人工智能是否具备可追究刑事责任的主体意志自由。目前人工智能的发展处于弱人工智能的初级阶段,尚不具备主体意志自由。智能机器人的行为还限制在人类设计和编制的程序范围内,智能机器人实现的是人的意志而非自主的意志,因而人工智能相关“刑事犯罪”最后的责任始终应由人来承担。具体而言,可以分为两种情况进行讨论:第一,若危害行为是人工智能完全在人类控制下实施的,此时人工智能的客观危害行为应归责于使用者本身。第二,如人工智能的行为超过了人预设的界限而造成危害行为,由于人工智能本身尚不具有意识性和目的性,该行为的性质类似于“微波炉爆炸”,可以适用产品责任解决,追究生产者等责任。例如,目前国外有关人工智能立法的草案对于特殊场景下机器人实施侵害行为规定了刑事责任,但利用机器人实施侵害行为的刑事责任承担者仍是机器人的设计者或制造者,机器作为实施犯罪的工具本身并不是犯罪主体。
进一步而言,假设人工智能相关产品具备行为辨认能力,最多是指通过算法和深度学习,具有对行为结果的计算和确定能力,在此方面人工智能体可能达到甚至超越人类的水平。然而,刑法上所说的行为辨认能力不仅是指对行为后果的把握,更是指对行为意义的认知。正如一个精神病人杀死一个人的时候,即使他知道要用枪杀死这个人,甚至也知道他枪杀一个人的后果,但是他却不能像正常人一样认知杀死这个人的真正意义。正因为此,刑法上认为这样的人不具有辨认自己行为的能力,因而不能承担刑事责任,即在刑法上不具有可罚性。所以,将对行为结果的辨认能力视为对行为的辨认能力实际上是限缩了行为辨认能力的外延,是不恰当的。
正如肯定说中有学者所提出的,若时代真的发展进入了强人工智能时代,人工智能开始产生了自主的意识和意志,又该如何抉择?本课题组观点是,人工智能如果真的产生了意识,给人类带来的将是诸多无法预测的场景。从目前人类社会来看,作为“工具”的弱人工智能已经完全够用了,强人工智能时代的到来总体而言是弊大于利,应该禁止强人工智能相关技术和产品的研发应用,从源头上将它放入“潘多拉魔盒”,那么也就不存在主体的认定问题了。
同时,根据民事责任、行政处罚以及刑罚的惩治严厉程度来看,在当前人工智能机器人无法通过民事、行政手段予以追责处罚的情况下,刑法的社会防卫功能不应过于积极主动,当人工智能致使公私财产损失或者致他人人身侵权损害后果时,刑法不应越过前置性规制法律直接规定相应刑事责任,否则违背了刑法二次保障法的地位,也有违刑法的谦抑性品格。综上所述,课题组认为就目前现状看来,不应给予人工智能刑事主体资格的认定。
三、人工智能著作权问题研究
人工智能在新闻和视觉艺术领域参与创作活动的现象虽然在如今已成常态,但如何认定由此生成内容的可版权性及其权利归属,在法律上却并未形成统一意见。因此围绕人工智能生成内容的可版权性和版权归属问题成为近些年来学界讨论最多的问题之一。
当前国内研究人工智能创作物保护的主要争议有二:一是人工智能创作物能否成为作品,二是人工智能能否成为作者或者著作权主体。二者都关系到人工智能创作物能否获得著作权法保护。[20]之所以存在上述争议,原因在于人工智能创作颠覆了著作权视野中关于作者的基本理解,也颠覆了法律关于主客体不能互换的基本原理。在此本课题组将从人工智能生成内容可版权性和市场自由两个角度对人工智能生成内容的可版权性做出探讨。
(一)学界关于人工智能生成内容可版权性的主要观点
我国目前关于人工智能生成内容的可版权性问题主要存在两种观点,一种观点认为人工智能创作物不能成为作品而排除著作权保护,而另一种观点则认为人工智能创作物著作权保护具有可行性,而在主张可版权性的一方中,又衍生出例如邻接权保护、法人作品保护等不同的保护模式。
世界各国著作权法多以独创性作为作品的核心要素,只有具备相应独创性的智力创作成果才可成为著作权客体,受著作权法保护。[21]除独创性外,可复制性也是各国著作权法给予作品保护的基本条件。[22]从独创性的视角出发,学界对人工智能创作物是否具有独创性形成了各种不同的认识,并基于各自不同的认识对人工智能创作物的保护路径提出了不同的看法,归纳起来主要包括以下几种:
1.不具独创性说及其保护路径主张
人工智能因具备深度学习能力而被应用到创作领域。有学者将其生成内容的过程表述成一个不断迭代、不断抽象的计算过程,以便确定最优算法。[23]尽管人工智能创作软件基于各种深度学习技术已经具备一定“创作力”,但这种“创作力”实际为计算。[24]计算是利用算法和规则的过程,其结果可以重现。而创作是个性化的表达,需要一定灵感。因此,人工智能生成内容的过程是计算而非创作,利用相同的算法采用相同操作可以重复内容。另外,整个计算过程是自主运行的,使用人无法在创作物生成过程中添加自己的个性表达。[25]这种计算从根本上抹杀了人类使用过程的创作空间,排除了处理结果具有个性化特征的可能性。但否定人工智能创作物独创性,并非同时否定人工智能创作物的利用价值。因此,也有学者主张,著作权法保护的是人类的表达,对于机器的表达可以由不正当竞争法来保护。[26]也有学者提出,对于人工智能创作物可以选择单独立法进行特殊保护。[27]
2.具有独创性说及其保护路径主张
以深度学习为代表的新一代智能学习算法技术的运用,[28]使得人工智能创作物不仅是基于既定算法、程序作出的指令性输出,且能够在没有预先算法或者规则的设定下,通过主动学习来进行创作。[29]基于此,有人认为,人工智能程序可以利用随机数生成器,使不同次运行的创作物各具个性。[30]人工智能创作物的创作过程能够满足独立创作和独具特色的要求。在对人工智能创作物的保护路径问题上,由于区分人工智能创作物与人类作品的成本较高,通常需要完备的登记制度和监管机制,[31]因此,在不区分来源的情况下,基于创作物表现形式和其独立创作过程,人工智能创作物可以成为著作权客体而受到法律保护。[32]可将人工智能生成内容视为人工智能程序的编程者的人类创作,[33]该创作物是否构成作品可以适用与人类作品一样的独创性标准进行判断,权利归属也可以适用著作权法中的法人作品制度。[34]
3.独创性不足说及其保护路径主张
该观点认为,人工智能利用公共领域作品以及不构成作品的素材,学习先有作品的风格进行创作,创作物与在先作品不构成实质性相似,其在作品类型中最为接近于演绎作品。基于著作权法不保护思想,而在先作品风格属于思想的范畴,因此人工智能创作物并非对在先作品的演绎。[35]考虑到人工智能创作软件对创作物不可替代的作用,可以尝试比照“剧本”作品进行分析。具体而言,可把人工智能创作软件当作“剧本”,把使用人视为“表演者”,人工智能创作物系使用人对“剧本”进行“表演”后的作品。基于此,人工智能创作物应为演绎作品,权利归属可以参照现行著作权法中的演绎作品制度处理。另亦有主张独创性不足的学者认为尽管人工智能创作物与人类作品形式上相似,但其本质上属于信息产品,其法律属性不同于民事法律关系的传统客体,既不是典型的物或行为,也非人类的智力成果或人身利益,该种独创性不足的生成内容(人类在其中起到的作用有限)可以通过邻接权进行保护。[36]
4.课题组观点
课题组在总结学者关于人工智能生成内容的可版权问题中发现,人工智能创作软件是生成创作物的根本,对于具有“创作力”的人工智能本身,能否作为创作物的作者或者权利主体问题,即使是认为人工智能生成内容可受版权保护的大部分学者的答案也是否定的。
立法应当未雨绸缪,同时也要注意前瞻性的限度,不能针对过于遥远的未来作远景规划。固然,民事主体经历了从“人可非人”到“非人可人”的历史变迁,[37]但这种历史变迁的背后,是经济交往的需要,而非泛滥的博爱情感。通过著作权法保护人工智能生成内容,不能与赋权给人工智能划等号。实际上,从科学技术层面来看,目前的人工智能尚不具备产生独立意志的可能性,功能与能耗的限制消解了人工智能之主体地位的现实基础。库兹韦尔笔下的人工智能发展的“奇点”是否真的存在及何时到来,没有人能给出确切、可靠的答案。[38]人工智能不具有独立意志,不能真正认识到自己行为的法律后果,不具备承担责任的可能性和必要性,主体身份无从获得。相比之下,法人或者其他组织之所以能被视为作者,法人作品之所以能受到著作权法保护,就在于法人作品是代表法人或者其他组织意志创作,并由法人或者其他组织承担责任。[39]承认人工智能的主体地位,步子迈得过于大,远离法理、逻辑和常识。从立法的实效来看,赋权给人工智能达不到预期的激励创作的立法目的。人工智能本身没有利益需求,不存在物质方面的刺激和精神方面的满足,赋权给人工智能不会对内容生成产生任何影响。著作权制度不能对人工智能本身提供任何激励,在赋权给人工智能的模式中,人工智能都只扮演招牌幌子和敲门砖的角色。
(二)市场自由视角下人工智能生成物保护
虽然学界对于人工智能生成内容的可版权性做出了初步的探讨,但是各派观点也在不同程度上存在着完善空间。
1.现有理论的反思
站在人工智能生成内容需要保护的立场下,不具有独创性说中,对人工智能创作物进行单行立法保护,似乎是一种更为可取的保护路径。但是,一方面,人工智能创作物仅仅是人工智能应用产出的一种,由于当前商业模式创新有限,对人工智能创作物采用单行立法保护,似乎时机还不够成熟。只有当人工智能技术发展到一定的程度,对包括人工智能创作物在内的应用产出有充分的了解和认识后,专门的立法似乎才会有必要和可能。此外,即便是专门立法,以何种方式对人工智能创作物进行保护,也是必须回答的问题。
在此前提下,反不正当竞争法的保护路径似乎回避了对人工智能创作物定性、归属等基本法律问题。诚然,反不正当竞争法对著作权及其客体商业运用过程中权利人的利益保护具有不可替代的作用。但是如果对人工智能创作物的法律属性等基本问题缺乏明确的认识,一方面,对人工智能创作物的法律保护难免会失之周全,另一方面,在人工智能创作物法律属性不明确的前提下,通过反不正当竞争法对其进行保护也无法正常实现。即便是在市场运行领域,要适度保护人工智能创作物,也必须以明确谁对其享有权利,享有什么权利,该权利与其他相关权利的界限在哪。
此外,演绎作品的保护路径具有一定的合理性,但人工智能创作物与演绎作品具有明显的区别,将其作为演绎作品而给予保护,似乎在制度安排上也很难与法律对其他演绎作品的保护相协调。再次,著作权法中的演绎作品同样是人类的作品,而非机器的作品,将人工智能创作物作为演绎作品进行保护同样绕不开保护对象性质差异性这个基本的问题。
2.跳出作品观看人工智能生成内容的保护
围绕人工智能的生成内容是否构成作品的核心无疑是对于独创性的判断,即人工智能的生成内容是否体现了最低限度的智力创作。该种判断事实上所要确认的是人工智能能否获得和作品相同的或者类似的保护。在回应人工智能生成内容是否具有独创性上,一种观点认为,从目前有关人工智能的各种报道和描述来看,至少在现阶段,人工智能生成的内容只是应用某种算法、规则和模板的结果,与为形成作品所需的智力创作相去甚远。[40]另一种观点认为,独创性的判断对象是已经形成的表达本身,判断时只需要对表达作形式上的审查,独创性的判断是一个纯客观的过程,是表达形成后的事后判断。[41]当我们已无法区分所欣赏的作品为人类创作还是机器生成时,就意味着该内容应被认定为作品,所以人工智能生成内容客观上应视为满足独创性要件中对最低创造性的要求。[42]
本课题组认为在回应人工智能生成内容的保护方面,并非只有将其生成内容认定为作品这一条途径。强行突破著作权法以人为核心的保护,抑或一方面承认人工智能生成物具有独创性,而又不将该种独创性归因于生成内容的过程,强调人在创作中的作用都是不合逻辑的。独创性或者说作品应该体现某种选择,这是人之为人,人之创作的作品之所以为作品的缘由,如果某位艺术家在自己家门无意打翻一桶颜料,而颜料正好在地上绘制出了一个精美的形状,第二天邻居看到以为是艺术家的新作,于是纷纷前来拍照,参观,这时在地上由于偶然产生的精美图像,在现在著作权的基本理论下很难认定为作品。同理,人类在无意识选择下生成的内容都尚不能构成著作权法下所保护的作品,弱人工智能根据算法、模板和程序生成的内容,完全没有任何的意志表达,又何能称之为作品呢?
因而对于人工智能生成内容的保护,应该回归到保护之目的说,并设计出一套合理的保护方案,方为正途。目前,各国建立的以人为中心的著作权制度,均未将机器的表达纳入其中。各国司法实践建立起的独创性标准虽有不同,但都是建立在对人的智力成果的评价基础之上的。人工智能创作物并非人的创作,既不能称其为编程者的智力成果,也不能将其作为使用人的智力成果。[43]将人工之智能的创作物定性为作品,又将其权利划归为相应个人、法人或非法人组织是不合逻辑的。
3.人工智能保护的必要性分析
对于人工智能生成内容的保护,需要回归到保护的必要性中。课题组对于相关学者的观点进行总结,发现对于人工智能生成内容保护的必要性其实主要集中在两个方面,其一是,对于人工智能生产内容的保护有益于人工智能产业的发展,其二,若不保护,大量的流入公众领域的人工智能生成内容将导致整个版权产业的巨大不稳定。
针对以上理由,本课题组认为,首先,国家对于人工智能产业的支持和鼓励不是为人工智能生成内容提供版权保护的必然事由。对于人工智能产业的扶持和保护事实上可以通过政府和市场之关系进行调节,对于人工智能生成内容的立法保护则更需要进行严格的论证。正如习近平在《习近平谈治国理政》一书中所言,“市场决定资源配置是市场经济的一般规律,市场经济本质上就是市场决定资源配置的经济。”[44]而实际上,将人工智能产业交由市场本身进行资源的配置,发挥政府在市场经济中的调节作用,本身就是产业发展的基本路径和模式。。
其次,对于人工智能生成内容的著作权法保护并不能回应著作权法保护人的创作活动和推动文化传播的立法本意。人工智能软件的开发确实投入了一定的成本,如果软件开发者或者使用者对于人工智能生成的内容无法享有某一程度上的权利保护,会对开发者或者使用者的利益造成某程度上的损害,但是据此而赋予人工智能生成内容类似录音录像制品一样的邻接权,事实上和著作权法的保护本意是不相融洽的。以录音录像制品为例,录音录像制品的保护事实上存在这样的逻辑脉络,即若不赋予录音录像制作者相应的权利,将会导致大量盗版的录音录像制品存在,[45]如此一来便不会有人从事付出大量劳动和投资的录制工作,最后导致的后果将是作品的传播受到了极大的影响。一方面,邻接权是对于录音录像行业的保护,而更深层面上是对于著作权法立法本意的回归,即促进文化的传播[46]和对投入精神创作的作者的保护。而反观人工智能生成内容的保护,则无法回应立法保护的本意。人工智能生成内容的著作权或邻接权保护,虽然起到了对于人工智能开发者的保护,但是人工智能开发者背后并无投入精神创造的人类,或者说其背后的“投入精神创作”的主体和人工智能开发者相同。
再次,对于人工智能生成内容的著作权或邻接权保护,是否有利于文化传播是存在重大疑问的。目前人工智能生成的内容和人类创造的作品还存在一定质量上的差距,即便给予该种内容亦版权法上的保护,也并不利于优质文化的传播。而当人工智能可以生成和人类作品并无太大差别或者难以区别的内容时,我们面临的挑战不再是不保护人工智能作品将会造成版权秩序混乱、版权纠纷增加之风险[47]抑或劣币逐良币的效应将导致文艺市场失去高贵、深刻并让人感同身受的作品,[48]而是整个人类创作领域的重大变革。人工智能本身可以量产,这就意味着将会有源源不断的“作品”产生,人类的作品将不再有竞争力可言。从长远看,著作权法并没有必要对于这种未来会对人类创造本身造成巨大灾难和威胁的人工智能提供保护。
4.现状分析和应对之策
制度设计应该具有一定的前瞻性,无论是人工智能生成内容的过去和未来都不应该是著作权法保护的对象,我们亦不能因对人工智能创作的“非创作性投入”进行专用权保护可促进人工智能创作软件的的开发应用,推动相关产业链的形成[49]为由,而要求对于人工智能生成内容进行著作权法上的保护。事实上许可人工智能生成内容进入公有领域,并不会对于人工智能产业造成破坏性的打击,亦不会阻碍智能创作产业的发展。
首先,人工智能产业并不仅涉及人工智能的创作领域,人工智能在金融、公共安全、教育、手机、交通、医疗、零售、工业、智能软件等领域都发挥着越来越大的作用,将人类从繁琐的劳动中解放出来。[50]许可人工智能生成内容进入公共领域并不会对于人工智能产业本身造成太大的影响。
其次,人工智能的创造并不会因为智能生成内容被许可进入公有领域而止步不前,人工智能创作软件的开发成本完全可以在商品销售领域获得弥补。例如,美联社于2014年7月开始使用的人工智能软件Wordsmith,其由美国北卡罗来纳州的自动化洞察力公司(AutomatedInsights)开发,[51]开发者通过软件的销售完全可以实现公司盈利的目的。
最后,人工智能开发者仍然可以通过合同安排,在私有领域对于人工智能的生成内容进行专有权利的安排,进而推动人工智能企业开发面向个体的具有个性的人工智能生成内容,此亦无损人工智能开发者之利益。例如,“Jukedeck”是英国的一家人工智能音乐创作平台,该平台为用户设置了类型化创作通道,并通过服务合同的方式许可用户免费使用其人工智能创作软件进行创作,音乐版权归平台所有,用户若要下载使用该音乐,应支付相应费用。开发者可以通过和使用者的约定,明晰人工智能生成内容的归属和使用方式,而开发者并不当然享有生成内容的专有权利。
课题组认为,具有创作功能的人工智能软件本身就是商品,而开发者许可他人利用人工智能生成相应内容的本质是服务,让开发者销售商品和服务行为回归市场本身,通过价格机制调节,才是人工智能产业发展的一般途径。
四、人工智能市场准入和市场规制的法律问题
人工智能极大地便利和丰富了人们的日常生活,但人工智能带来的风险也不可小觑,如国家安全风险、个人隐私风险、伦理风险等等,[52]事实上,从人工智能进入市场的开端,到人工智能在市场中实际的商业运作,都少不了法律的规制。课题组将主要从三个方面展开,一是人工智能的市场准入,二是准入后人工智能的市场规制,三是国家在进行立法规制时应有的配套激励措施。
(一)人工智能市场准入原则
市场准入原则是贯穿于人工智能市场相关立法的整体思想准则,是对人工智能进行法律规制的宏观思路把握。在市场准入原则的把握上,我们应该对人工智能市场的一般和特殊、研发和应用,以及强弱人工智能进行区分。
1.对一般市场与特殊市场进行区别
目前,人工智能在诸如信息、金融、医疗、法律、电商等多个市场领域均有渗入与发展,而这些市场由于其行业特性,在发展人工智能时所面临的问题与风险不尽相同,因此针对人工智能的一般市场和特殊市场的准入原则也应有所不同。人工智能一般市场可以理解为人工智能的技术应用已经比较成熟或者不会涉及国家、社会或个人重大利益的市场,比如说日常的电子商务市场、教育市场或者一般家用的小型机器人市场、智能家居市场等。一般市场中人工智能的风险是较为可控的,因此为了鼓励中、小规模的主体进入市场,准入的门槛应该降低。
而对于特殊市场的准入原则则要基于市场的特殊性,对欲进入市场的主体提出特殊的条件,甚至严格制约人工智能的市场准入。第一,涉及国家安全或重大利益的特殊市场主要指有关军事、国防、国家重大经济安全等,在对国家安全造成重大威胁时甚至应该禁止人工智能的市场准入。第二,涉及社会重大公共利益的特殊市场包括无人驾驶系统和日后可能出现的医疗手术机器人等,在此类的市场领域中,如果没有比较明确的资质要求,则会使重大安全事故发生率成指数型上升,社会公众利益得不到保障。第三,涉及个人重大利益的特殊市场目前主要指与个人信息与隐私安全密切相关的市场。为了避免个人信息与隐私泄露给本人带来的潜在风险,针对某些靠收集整理个人信息数据为主要商业经济来源的市场领域来说,应该设定相应的准入要求。
2.对技术研发和市场应用进行区别
研究人员曾对人工智能的层次作出划分,将人工智能从下往上划分为基础设施层、算法层、技术层、应用层。基础设施、算法、技术方向以及具体技术都是属于技术的研发阶段,而被划分到应用层的行业解决方案则属于最终的市场应用阶段。[53]
不难理解,人工智能技术的研发不仅是应用的前一阶段,也是应用的根基。课题组认为,应给予人工智能基础层技术研发宽松的环境,原因有三:第一,从人工智能所依赖的底层算法看起,此阶段的研发还未分离出上层的不同领域,某些算法更是被大多数不同市场领域的人工智能引以为共同的本源,宽松的准入环境有利于促进技术更多方面的发展。第二,我国目前还处于人工智能技术的研发初期,部分关键的算法以及芯片技术还依赖于国外的进口,这可能会影响到我国“2025计划”的顺利实现。因此,从技术研发层面应鼓励不断创新与进化。[54]第三,由于只是技术的研发,其具有基层普遍性,但却暂未牵涉到上层应用层面的社会实际推广,因此可以采取较为宽松的准入原则。
在市场应用阶段上,课题组认为应该结合该行业的具体特性,为人工智能设置一定的准入要求,其原因依然有三:第一,相较于技术研发,应用阶段具有了更多的市场运营属性,将一项技术正式投入到具体应用中,显然对社会的影响也更大。第二,对于人工智能的市场应用层面来说,有可能面临着诸如社会伦理等更为深层次的忧虑,不排除某些人工智能会因为对社会伦理的冲击而被禁止进入市场。第三,应用也比技术研发有着更强的商业利益追求,比如可能某项技术还没有尽善尽美,但是经营者为了营利则希望尽早投入市场生产经营,这背后的道德风险不可小觑。综上所述,对于特定的技术应该设置特定的标准,除非达到了该标准,否则不能轻易投入市场使用。
3.对强弱人工智能等级进行区别
人工智能也有了“强”和“弱”的等级区分。谈到市场准入的监管原则,还必须在厘清本报告第一部分对于“强弱”人工智能的介绍,对二者进行区别。
课题组认为,强人工智能和弱人工智能最本质的区别在于创造力,在于其处理逻辑的形成,通俗来说,弱人工智能并不具有自主的创造力,其本质上还是供人们使用的一种工具,只不过由于一些特殊的编程或芯片技术而拥有了一些类人类的能力。事实上,我们目前所发展出的人工智能,都是属于弱人工智能的领域,监管也是谈论对弱人工智能的监管,因此将准入原则划定在弱人工智能领域范围内较有现实意义。但是在弱人工智能领域,也有较强和较弱的弱人工智能之分。那么显然对于更易于被普通人所使用操作的纯粹工具性质的较弱的弱人工智能的市场准入标准要偏低一些;而对于较强的弱人工智能,由于其相较难以控制或者背后暗含的伦理等问题,在设置准入标准时应该从严。
事实上,受目前科学技术水平的制约,人类还并没有真正发明出不受人类控制的强人工智能,但是可以预见,如果有一天强人工智能问世,那么将会给人类社会带来巨大的冲击。这种冲击不仅包括伦理道德、市场安全方面,更包括规则制定乃至整个社会秩序方面。因此,课题组认为强人工智能是弊大于利的,应该从立法上禁止强人工智能相关技术和产品的研发应用,禁止强人工智能的市场准入,从源头上将其放入潘多拉魔盒,在本部分中提及的对人工智能的规制也均指弱人工智能。
(二)人工智能市场规制
由于市场主体所惯有的逐利性,对于市场主体的规制显得十分重要,人工智能领域也不例外。本部分将主要从反不正当竞争以及反垄断这两个公法上的规制入手,以为人工智能产业发展寻求一个健康的市场环境。
1.人工智能反不正当竞争市场法律规制
不正当竞争虽然从市场主体的行为表现形式上来看与市场侵权行为十分类似,但是它并不等同于市场侵权行为,它们的规制对象有很大区别。德国曾将反不正当竞争纳入侵权法中,后来通过不断的案例分析与发展,逐渐明确了反不正当竞争法的特性,而将其独立立法并归入经济法范畴。人工智能的出现给我国《反不正当竞争法》带来了三个方面的挑战,其加剧了反不正当竞争法一般性条款的泛化运用,突显了以反不正当竞争法来保护人工智能相关的商业秘密的不足,更是在数据保护方面对反不正当竞争法提出了新的要求。
(1)反法一般性条款的泛化运用
我国《反不正当竞争法》第二章规定了包括混淆行为、虚假宣传、商业秘密等在内的七种类型化不正当竞争行为,却难以囊括新兴技术发展背景下频繁出现的各种不正当竞争行为。为了弥补列举式立法的缺陷,《反不正当竞争法》第2条规定:“经营者在生产经营活动中,应当遵循自愿、平等、公平、诚信的原则,遵守法律和商业道德。”该条款属于反不正当竞争法的一般性条款,也是兜底性条款,赋予了法官较大的自由裁量权。这种兜底性条款体现了较强的立法技术,能够在新的技术环境背景下处理瞬息万变的各种不正当竞争行为。但正因如此,法院在处理非类型化的不正当竞争行为时,侧重于依据该一般性条款,造成了一般性条款的泛化运用。[55]最新修改的《反不正当竞争法》为了应对互联网背景下一般性条款的泛化,增加了第12条有关互联网不正当竞争的条款,俗称“互联网专条”,以期缓解这种现状。例如在360诉搜狗恶意插入链接,强制进行目标跳转一案中,原本以“违反诚信原则和商业道德”这个一般性条款为判决依据的行为,就可以在新法实施后纳入互联网专条的管辖范围。
然而随着人工智能时代以不断创新的科技进步冲击着法律的稳定性,为了更好地规制不正当竞争行为,一般性条款的泛化运用必将加剧。以我国发生的首例大数据产品不正当竞争纠纷案为例,在该案中,原告淘宝公司开发并投入运营了一种为淘宝、天猫店铺商家提供大数据分析参考,帮助商家实时掌握相关类目商品的市场行情变化,改善经营水平的数据产品。原告诉称,被告美景公司组织、帮助他人低价获取淘宝公司涉案数据产品中的数据内容,从中牟利,构成了不正当竞争行为。本案中涉及的争议对象大数据正是人工智能的底层技术设计,但是由于缺乏相应的“人工智能专条”,法院在裁判时依然以被告“明显有悖公认的商业道德”为依据认定被告存在不正当竞争行为。一般性条款的泛化不仅不利于保障市场经营主体的合法权益,同时由于赋予法官的自由裁量权过大,行为主体的可预期性下降,也不利于健康良好的市场秩序。在人工智能时代,我们呼吁“人工智能专条”的出现。
(2)商业秘密的反不正当竞争保护
在人工智能时代,会产生海量的数据资源,这种数据资源如果被经营者收集、整理、分析而具有了一定的经济价值,并被经营者采取相应的保密措施,就会形成商业秘密。我国《反不正当竞争法》第十条规定了不得侵犯他人的商业秘密,可见如果数据经过处理并满足商业秘密的构成要件的话,可以通过商业秘密路径得到保护。但是不得不指出的是,通过《反不正当竞争法》对商业秘密形成的是一种“弱保护”,保护的是经营者的利益,而不是权利。即经营者对商业秘密的享有不是绝对排他性的权利,而仅是在受到他人侵犯时才能通过诉诸不正当竞争来间接保护。我们认为,人工智能时代仅靠反不正当竞争法对商业秘密进行保护已经远远不足了。
由于人工智能目前还处于发展初期,商业秘密给一个企业带来的市场竞争价值难以估量,这也是我们建议重视对商业秘密保护的原因之一。虽然我国《民法总则》已经将商业秘密纳入知识产权保护客体,但是在实践中缺乏配套的细则规定,目前仍主要靠反不正当竞争来保护经营者的商业秘密,这种保护实难称之为完善,与人工智能时代由数据形成的商业秘密的重要性与众多性难以匹配。因此除了《反不正当竞争法》对商业秘密的保护,可以将商业秘密作为经营者享有的绝对性权利,类比专利权、著作权等知识产权保护客体,单独进行立法保护。
(3)数据的反不正当竞争保护
目前看来,数据是目前大多数人工智能行业的基础,人工智能给我国《反不正当竞争法》带来的挑战集中体现在对数据的保护上。有些数据可能经过市场经营主体的整合分析研发形成了商业秘密,但是有些数据可能只是经过简单的收集处理,难以论证其经济价值或没有被采取保密措施,此时就难以归入商业秘密范畴,从而丧失了通过《反不正当竞争法》进行保护的可能。但是,对那些虽然不符合商业秘密和作品保护条件,同时经营者也投入了大量资金与劳动形成的、能给经营者带来竞争优势的数据信息,若被不当“盗用”或“扒取”,也会给经营者及市场竞争带来不利损害。[56]如果放任这种情况的发生,势必会挫伤数据开发者的积极性,阻碍人工智能技术的革新。
遗憾的是,我国《反不正当竞争法》并没有将此类数据信息纳入保护范围,也就是说,在反不正当竞争法第二章规定的七种类型化行为里,并没有侵犯数据权益的情形,虽然有反不正当竞争法一般性条款的兜底,但是对一般性条款的滥用必会造成人工智能市场的不稳定性。2018年5月,日本修改了其《不正当竞争防止法》,在第二条关于“不正当行为”定义的例举中新设了非法获取、使用和提供受用户账户和密码等系统管理方式保护的、仅向特定使用者提供的数据之情形。人工智能领域的数据信息可能构不成传统意义上的商业秘密,但基于数据的重要性十分有保护的必要,并且由于某些数据信息的价值性没有那么突出,也不必将保护力度提升至类似于商业秘密权的强保护。因此课题组认为,借鉴国外的做法,类比侵犯商业秘密的规定,将侵犯数据信息纳入不正当竞争保护范围,具有合理性。
2.人工智能反垄断市场法律规制
人工智能时代的到来催生了新型的垄断行为,使市场垄断更为隐秘,难以被监管机关察觉,或者难以落入《反垄断法》的适用范围。这些行为包括通过算法共谋的垄断协议行为、通过数据垄断滥用市场支配地位行为以及未达到申报标准的经营者集中行为。
(1)通过算法共谋的垄断协议行为
传统的垄断协议行为一般都是明示的,即行为主体间故意通过书面形式或口头形式达成一致的意愿协议,以固定价格、排除竞争等。这种明示的共谋行为比较容易留下证据,也比较容易能被监管机关分辨出来。但是随着人工智能的出现,垄断协议行为渐渐开始向默示化发展,即表面看来是由于计算机和算法运行而导致的垄断行为,其实是算法背后经营者的刻意操纵。
早有学者指出,算法已经成为经营者共谋达成垄断协议的工具,例如在美国,数位当事人就被指控共谋使用特殊定价算法,在亚马逊平台上在线固定海报画的销售价格。[57]据称,合谋者为实施协议,对招贴画的销售采用了特别的价格算法,目的是协调各自的价格变动,并编写了服务于价格算法软件的计算机代码,以便设定与协议一致的价格。这种利用大数据整合算法,达成统一的市场定价,在国内外已经屡见不鲜。通过迅速处理竞争对手的市场信息和其客户的专有数据,计算机可能会更有效地监测竞争对手的价格或客户,这虽然增加了市场透明度,但也增加了发生协同行为的风险。[58]同时,这种默示化的垄断协议行为没有明显的物理痕迹,不易于被发现,增加了监管的困难。针对这一现状,我们认为在未来反垄断法的司法实践中,可能不得不将“垄断协议”做扩大化解释。
(2)通过数据垄断滥用市场支配地位行为
企业拥有市场支配地位本身不会构成反垄断法的规制对象,关键点在于企业是否滥用了其市场支配地位,阻碍了其他经营者进入市场。在人工智能时代,具有行业优势性的企业对于数据的垄断已经是不争的事实。例如大型的搜索引擎企业或者网络购物平台,这些平台由于所经营的业务,对用户数据的抓取具有先天性的优势。对于控制大量数据的企业来说,具有市场支配地位不会构成垄断,但如果其利用收集到的大量市场数据,排除了下游经营者的市场进入,阻碍了其他经营者的市场竞争,就触及了垄断行为。利用数据进行垄断是人工智能时代比较显著的特征。
我国《反垄断法》第17条规定的滥用市场支配地位中并未涉及数据垄断行为,如果企业通过其市场支配地位收集到数据,但是并不向第三方开放,从而阻止了其他经营者进入市场,这是否会造成垄断行为值得思考,毕竟企业费力抓取来的数据信息在某些情况下也属于需要被保护的合法权益。欧洲法院(ECJ)曾在相关案例中针对该问题提出了“必需设施”理论,即如果市场经营主体垄断的数据属于市场的“必需设施”,则认为其构成垄断行为,反则反之。[59]我们认为当特定数据构成“必需设施”时,应该认为经营者通过数据垄断滥用了市场支配地位。
(3)未达到申报标准的经营者集中行为
经营者集中也是反垄断法加以规制的一种行为,它是指两个或者两个以上的企业相互合并,或者一个或多个个人或企业对其他企业全部或部分获得控制,经营者集中可能会造成经济力量过度集中,进而限制竞争。我国并未禁止经营者进行集中,而是采取了事前的强制申报制度。根据国务院颁布的《关于经营者集中申报标准的规定》,对于营业额达到一定标准的企业如果想进行集中就必须申报,即以营业额为申报标准。但是这一标准却在人工智能时代面临着风险,我国的人工智能企业刚刚处于起步阶段,许多企业的营业额并不高,市场价值难以在目前真实显现,如果此时拥有人工智能产业的企业进行集中,可能难以达到申报标准从而逃脱监管,但是这并不意味着未来这些企业的集中不会给竞争秩序造成损害。
这一问题也普遍存在于全球各个国家,德国等国家已经意识到这一问题,德国《反对限制竞争法》就引入了一项新的考虑交易价值的合并控制标准,即以交易额门槛补充基于营业额的法定事先申报门槛。[60]我国的申报标准也主要以营业额为依据,这可能会导致营业额较低但是未来价值较高的人工智能企业逃脱申报,因此在认定申报标准时是否可以参照合并时的交易额高低,而不是企业本身营业额的高低是值得思考的问题。
(三)人工智能市场激励政策
市场准入和市场规制本身就具有某种意义上的双向含义,既是通过限制某些人工智能的市场准入和市场竞争行为加强对人工智能风险的防范,也是对某些人工智能放宽准入标准以及维护市场良好竞争秩序以达到对于人工智能的激励效果。我国目前已经对人工智能的激励有了宏观的政策思路把握,但是通过上述对于市场准入和市场规制的分析,课题组拟再从细节方面提出以下三个方向性建议,包括促进技术研发的成果共享、完善对于商业秘密和数据的保护以及加强反垄断的执法力度。
1.技术研发的成果共享
从人工智能的结构层次来看,层级越高人工智能的领域技术分化就越明晰,而针对处于底层的算法设计和技术方向,则应该建立技术共享平台,促进技术研发的成果共享。对技术研发阶段的共享激励存在三个方面的现实意义。其一,就我国人工智能行业市场来看,企业比较倾向于从应用层入手直接进行市场运作,而对于比较核心的算法设计与芯片技术还过多地依赖着外国进口,促进技术研发成果的共享能够整体提升我国技术研发水平。其二,技术研发作为比较基础的人工智能,还没有具体地向某个行业进行分化,没有具体地被应用到行业解决方案上。不排除此阶段的人工智能被应用于各个领域的可能性,它具有更多的公益性而不是商业逐利性,促进共享比较合适。其三,核心技术研发属于创新的一部分,但创新则需要较大的成本,对于比较基础性的人工智能技术,只有建立技术共享平台,鼓励技术共享,才能提升创新发展的效率。
2.完善对商业秘密和数据的保护
如上文中市场规制部分所论述的,商业秘密和数据信息是人工智能时代需要重点关注的对象。正因为人工智能还属于发展初期,市场竞争还存在太多的不确定性,与人工智能相关的商业秘密往往倾注了市场经营主体较多的心血,甚至是一个企业的核心竞争力,商业秘密的意义被大大提升了。对于商业秘密,仅靠反不正当竞争法的保护已经不够了,而应该趁着在《民法总则》里商业秘密被纳入知识产权保护客体的契机,承认经营者对商业秘密享有的所有权,着重于从知识产权方面进行类似于著作权、专利权的保护。而数据信息是人工智能时代被赋予市场经济价值和市场竞争筹码的另一客体。有些数据信息可能因为经营者的整合研发和采取的保密措施而被纳入商业秘密保护范畴,但是对于其他的数据信息并不是没有保护的必要。目前数据的所有权问题尚且有较大争议,我们不便于直接确定数据信息的所有权问题,但是对于某些企业不正当地窃取他人数据的行为,可以很好地用《反不正当竞争法》进行规制。同时为了避免反法一般性条款泛用的加剧,我国可以在《反不正当竞争法》里增加与数据相关的类型化不正当竞争行为。
3.加强反垄断的执法力度
对于人工智能给反垄断带来的诸多挑战,我们可以通过行为类型化的分析一一解决。在市场经营主体利用默示化的算法进行垄断协议的行为上,我们可以拓宽“垄断协议”的内涵理解,例如如果某些算法可能会导致快速的反复的价格变动,最终会促成统一的价格,这就可以相当于商人之间的实际谈判协商达成共谋协议。[61]同时,可以将行为主体间没有达成共谋协议的证明责任转移给各个涉嫌的经营者。在市场经营主体利用数据滥用市场支配地位的行为上,我们要看到对于数据保护的矛盾性,何种数据需要给予经营者垄断性的保护,禁止他人的不正当竞争行为,何种数据需要禁止经营者的垄断,需要有一个较为明确的标准。为了加强对人工智能行业经营者的集中监管,课题组建议将申报标准由营业额标准修改为交易额标准,同时在交易额的认定上要符合通常的市场经济规律,避免诸如一元的名义交易额或者过低的交易额的出现。
结 语
人工智能技术的飞速发展催生了无人驾驶汽车、智能医疗、智能创作软件等新兴产业,亦暴露出一系列值得探究与思考的法律问题。本课题对人工智能法律主体资格、人工智能创作物的著作权保护及人工智能的市场准入和规制等问题进行了探析,充分认识到科学技术的新发展给法律滞后性带来的挑战。
首先,通过对人工智能的法律主体资格分析,课题组认为应当赋予人工智能“有限的”民事主体地位,人工智能并不享有伦理性的人格权或身份权,而是享有经济性的财产权利以及承担义务。课题组认为应否定人工智能的刑事主体资格,最终的刑事责任应由人来承担。其次,对于人工智能创作物能否受到知识产权保护问题,虽然传统知识产权制度以人类的创新成果为保护对象是人工智能创造物受知识产权保护面临的障碍,但是课题组论证了目前由人工智能生成的内容不适合获得版权保护,人工智能生成物应当作为公共产品进入市场流通。最后,人工智能市场领域作为新兴发展领域,应从反不正当竞争以及反垄断这两个公法上的规制入手,以为人工智能寻求一个健康的市场环境。
我国的人工智能研究已走在世界前列,但与这一新兴技术相应的法律规范及制度尚不健全,相关问题目前主要由伦理道德和社会舆论进行约束,而缺少相应的监督机制,也无权威机构进行规范。有鉴于此,应当及早建立对人工智能问题的法律认识,及时采取相应的行动,为人工智能产业营造良好的社会市场环境,以进一步促进人工智能技术的良性发展,顺利实现智能化社会的转型。同时,我们必须谨记无论未来人工智能发展至何种程度,也永远不能取代人类的智慧,科学工作者的辛勤劳动和努力创新才是人类进步的主要动力。我们要合理利用人工智能为我们带来的各种便利,但不能过度依赖人工智能,同时也要认真思考人类社会与人工智能之间的关系,从而决定未来的法律是否应当适应人工智能的发展而做出相应的调整变化,相信未来法律与人工智能之间的平衡会越来越完善。
编后语:人工智能是引领新一轮科技革命和产业变革的战略性技术,是我国产业转型升级的战略抓手。在推动人工智能健康发展的现实需要下,人工智能与各行业全方位深度融合,催生了数据驱动、人机协同、跨界融合、共创分享的智能经济形态。如何妥善应对人工智能带来的挑战,为产业健康发展营造良好环境,有必要在法律制度层面进行深入研究。本课题分析了人工智能对传统法治体系带来的冲击和挑战,并着重对人工智能法律主体资格、人工智能创作物的著作权保护及人工智能的市场准入和规制三个问题进行了深入研究。课题成果具有现实针对性、观点具有一定参考价值,为促进人工智能发展的法律法规和政策体系建设提供了有益的指导。
课题组长简介:
童潇,男,华东政法大学互联网+法律大数据平台常务副主任,副教授。
(责任编辑:邓海娟 核稿:陈书笋)
[①]2018年上海市人民政府决策咨询研究政府法制专项课题。
[②](美)StuartJ.Russell,PeterNorvig著:《人工智能:一种现代的方法》(第3版),殷建平、祝恩、刘越等译,清华大学出版社2013年版,第3-5页。
[③]王家祺、王赛:《人工智能技术的发展趋势探讨》,《通讯世界》2017年第8期。
[④]钟义信:《人工智能:概念•方法•机遇》,《科学通报》2017年第22期。
[⑤]闫志明、唐夏夏:《教育人工智能(EAI)的内涵、关键技术与应用趋势——美国《为人工智能的未来做好准备》和《国家人工智能研发战略规划》报告解析》,《远程教育杂志》,2017年第1期。
[⑥]蔡曙山、薛小迪:《人工智能与人类智能——从认知科学五个层级的理论看人机大战》,《北京大学学报(哲学社会科学版)》2016年第4期。
[⑦]【美】史蒂芬·卢奇、丹尼·科佩克著:《人工智能》(第二版),林赐译,人民邮电出版社2018年版,第11页。
[⑧]马修U.谢勒:《监管人工智能系统:风险、挑战、能力和策略》,曹建峰、李金磊译,《信息安全与通信保密》2017年第3期。
[⑨]季冬梅:《人工智能发明成果对专利制度的挑战—以遗传编程为例》,《知识产权》2017年第11期。
[⑩]雷悦:《人工智能发展中的法律问题探析》,《北京邮电大学学报》2018年第2期。
[11]郑戈:《人工智能与法律的未来》,《时事观察》2017年第10期。
[12]杨清望、张磊:《论人工智能的拟制法律人格》,《湖南科技大学学报(社会科学版)》2018年第6期。
[13]吴汉东:《人工智能时代的制度安排与法律规制》,《法律科学》2017年第5期。
[14]许中缘:《论智能机器人的工具性人格》,《法学评论》2018年第5期。
[15]邱兴隆:《刑罚的哲理与法理》,法律出版社2003年版。
[16]时方:《人工智能刑事主体地位之否定》”,《法律科学(西北政法大学学报)》2018年第6期。
[17]姚万勤:《人工智能影响现行法律制度前瞻》,《人民法院报》2017年10月25日。
[18]刘宪权、胡荷佳:《论人工智能时代智能机器人的刑事责任能力》,《法学》2018年第1期。
[19]时方:《人工智能刑事主体地位之否定》,《法律科学(西北政法大学学报)》2018年第6期。
[20]目前有关人工智能创作内容的术语有人工智能生成内容、人工智能作品、人工智能创作物、人工智能创作成果等不同的表达。
[21]美国《版权法》第102条,日本《著作权法》第2条,意大利《版权及邻接权保护法》第1条。
[22]《中华人民共和国著作权法实施条例》第2条。
[23]蔡自兴等:《人工智能及其应用》,清华大学出版社2016年版,第290-291页。
[24][加]SimonHaykin:《神经网络与机器学习》(原书第三版),申富饶等译,机械工业出版社2011年版,第398页。
[25]SeePhilipGalanter,ThoughtsonComputationalCreativity,DagstuhlResearchOnlinePublicationServer2,(July7,2009),http://drops.dagstuhl.de/opus/volltexte/2009/2193/,2018年7月5日最后访问。
[26]杨延超:《为人工智能筹划法律保护》,《经济参考报》2017年12月5日,第8版。
[27]SeeJaniMcCutcheon,CuringtheAuthorlessVoid:ProtectingComputer-GeneratedWorksFollowingIceTVandPhoneDirectories,37MelbourneUniversityLawReview46,78-79(2013).
[28]腾讯研究院、中国信通院互联网法律研究中心:《人工智能:国家人工智能战略行动抓手》,中国人民大学出版社2017年版,第49页。
[29]易继明:《人工智能创作物是作品吗?》,《法律科学》2017年第5期。
[30]SeeJamesGrimmelmann,CopyrightforLiterateRobots,101(2)IowaLawReview657,659-660(2016).
[31]曹源:《人工智能创作物获得版权保护的合理性》,《科技与法律》2016年第3期。
[32]吴汉东:《人工智能时代的制度安排与法律规制》,《法律科学》2017年第5期。
[33]SeeAnnemarieBridy,CodingCreativity:CopyrightandtheArtificiallyIntelligentAuthor,5StanfordTechnologyLawReview1,21(2012).
[34]易继明:《人工智能创作物是作品吗?》,《法律科学》2017年第5期。
[35]陶乾:《论著作权法对人工智能生成成果的保护--作为邻接权的数据处理者权之证成》,《法学》2018年第4期。
[36]许明月、谭玲:《论人工智能创作物的邻接权保护--理论证成与制度安排》,《比较法研究》2018年第6期。
[37]李拥军:《从‘人可非人’到‘非人可人’:民事主体制度与理念的历史变迁--对法律‘人’的一种解析》,《法制与社会发展》2005年第2期。
[38][英]玛格丽特·博登著:《AI:人工智能的本质与未来》,孙诗惠译,中国人民大学出版社2017年版,第85页。
[39]《著作权法》第13条第3款。
[40]王迁:《论人工智能生成的内容在著作权法中的定性》,《法律科学(西北政法大学学报)》2017年第5期。
[41]孙山:《人工智能生成内容著作权法保护的困境与出路》,《知识产权》2018年第11期。
[42]熊琦:《人工智能生成内容的著作权认定》,《知识产权》2017年第3期。
[43]此处指的是第二类计算机生成内容和具有一定学习能力的可以脱离指令输入的人工智能生成内容。
[44]习近平:《习近平谈治国理政》,北京外文出版社2014年版。
[45]乔玉君:《论著作邻接权的法律保护》,《科技与法律》1997年第1期。
[46]关于邻接权的传播功能,亦有学者指出,“传播功能”是邻接权客体所具备的核心功能,也是邻接权客体正当性的最有力证明。王国柱:《邻接权客体判断标准论》,《法律科学(西北政法大学报)》,2018年第5期。
[47]李伟民:《人工智能智力成果在著作权法的正确定性--与王迁教授商榷》,《社会科学文摘》2018年第7期。
[48]易继明:《人工智能创作物是作品吗?》”,《法律科学》2017年第5期。
[49]许明月、谭玲:《论人工智能创作物的邻接权保护--理论证成与制度安排》,《比较法研究》2018年第6期。
[50]《走向智能推荐:2018年中国人工智能行业研究报告》,http://baijiahao.baidu.com/s?id=1596679755391284602&wfr=spider&for=pc,最后访问日期2018年1月19日。
[51]徐曼:《国外机器人新闻写手的发展与思考》,《中国报业》2015年第23期。
[52]董妍:《人工智能的行政法规制》,《人民法治》2018年11期。在该文中作者总结了学者们所提到的人工智能的十大风险,包括意识形态和国家安全风险;军事风险;公共安全风险;社会不稳定风险;伦理风险;个人隐私风险;算法歧视和数据歧视;知识产权风险;信息安全风险;未成年人身心健康风险。
[53]腾讯研究院:《人工智能》,中国人民大学出版社2017年版,第24页。该书中指出,基础设施层包括硬件/计算机和大数据;算法层包括各类机器学习算法、深度学习算法等;技术层包括计算机视觉、语音处理等多个技术方向和图像识别、语音合成等多个具体技术;应用层是指行业解决方案,包括金融、安防、交通、医疗、游戏等。
[54]吴汉东:《人工智能时代的制度安排与法律规制》,《法律科学(西北政法大学学报)》2017年5期。
[55]田小军、朱萸:《新修订《反不正当竞争法》‘互联网专条’评述》,《电子知识产权》2018年第1期。
[56]管育鹰:《人工智能带来的知识产权法律新问题——国外发展动向与我国应对路径思考》,中国法学网。http://www.sohu.com/a/275639314_648952,最后访问日期:2018年12月29日。
[57]黄晋:《人工智能会不会促进垄断》,《经济参考报》2018年11月。
[58]韩伟:《数字市场竞争政策研究》,法律出版社2017年版。
[59]转引自韩伟:《数字市场竞争政策研究》,法律出版社2017年版。
[60]黄晋:《人工智能对反垄断法的挑战》,中国社会科学网:http://ex.cssn.cn/zx/bwyc/201810/t20181010_4666741.shtml,最后访问日期:2018年12月29日。
[61]李振利、李毅:《论算法共谋的反垄断规制路径》,《学术交流》2018年第7期。
人工智能伦理问题的现状分析与对策
中国网/中国发展门户网讯 人工智能(AI)是第四次产业革命中的核心技术,得到了世界的高度重视。我国也围绕人工智能技术制定了一系列的发展规划和战略,大力推动了我国人工智能领域的发展。然而,人工智能技术在为经济发展与社会进步带来重大发展机遇的同时,也为伦理规范和社会法治带来了深刻挑战。2017年,国务院印发的《新一代人工智能发展规划》提出“分三步走”的战略目标,掀起了人工智能新热潮,并明确提出要“加强人工智能相关法律、伦理和社会问题研究,建立保障人工智能健康发展的法律法规和伦理道德框架”。2018年,习近平总书记在主持中共中央政治局就人工智能发展现状和趋势举行的集体学习时强调,要加强人工智能发展的潜在风险研判和防范,维护人民利益和国家安全,确保人工智能安全、可靠、可控。要整合多学科力量,加强人工智能相关法律、伦理、社会问题研究,建立健全保障人工智能健康发展的法律法规、制度体系、伦理道德。2019年,我国新一代人工智能发展规划推进办公室专门成立了新一代人工智能治理专业委员会,全面负责开展人工智能治理方面政策体系、法律法规和伦理规范研究和工作推进。《中华人民共和国国民经济和社会发展第十四个五年规划和2035年远景目标纲要》中专门强调要“探索建立无人驾驶、在线医疗、金融科技、智能配送等监管框架,完善相关法律法规和伦理审查规则”。这些均体现了我国对人工智能伦理及其治理的密切关注程度和积极推进决心,同时也突出了这一问题的重要性。
当前人工智能伦理问题
伦理是处理人与人之间关系、人与社会之间关系的道理和秩序规范。人类历史上,重大的科技发展往往带来生产力、生产关系及上层建筑的显著变化,成为划分时代的一项重要标准,也带来对社会伦理的深刻反思。人类社会于20世纪中后期进入信息时代后,信息技术伦理逐渐引起了广泛关注和研究,包括个人信息泄露、信息鸿沟、信息茧房、新型权力结构规制不足等。信息技术的高速变革发展,使得人类社会迅速迈向智能时代,其突出表现在带有认知、预测和决策功能的人工智能算法被日益广泛地应用在社会各个场景之中;前沿信息技术的综合运用,正逐渐发展形成一个万物可互联、万物可计算的新型硬件和数据资源网络,能够提供海量多源异构数据供人工智能算法分析处理;人工智能算法可直接控制物理设备,亦可为个人决策、群体决策乃至国家决策提供辅助支撑;人工智能可以运用于智慧家居、智慧交通、智慧医疗、智慧工厂、智慧农业、智慧金融等众多场景,还可能被用于武器和军事之中。然而,迈向智能时代的过程如此迅速,使得我们在传统的信息技术伦理秩序尚未建立完成的情况下,又迫切需要应对更加富有挑战性的人工智能伦理问题,积极构建智能社会的秩序。
计算机伦理学创始人 Moore将伦理智能体分为4类:伦理影响智能体(对社会和环境产生伦理影响);隐式伦理智能体(通过特定软硬件内置安全等隐含的伦理设计);显示伦理智能体(能根据情势的变化及其对伦理规范的理解采取合理行动);完全伦理智能体(像人一样具有自由意志并能对各种情况做出伦理决策)。当前人工智能发展尚处在弱人工智能阶段,但也对社会和环境产生了一定的伦理影响。人们正在探索为人工智能内置伦理规则,以及通过伦理推理等使人工智能技术的实现中也包含有对伦理规则的理解。近年来,越来越多的人呼吁要赋予人工智能机器一定的道德主体地位,但机器能否成为完全伦理智能体存在巨大的争议。尽管当前人工智能在一些场景下的功能或行为与人类接近,但实则并不具有“自由意志”。从经典社会规范理论来看,是否能够成为规范意义上的“主体”来承担责任,并不取决于其功能,而是以“自由意志”为核心来构建的。黑格尔的《法哲学原理》即以自由意志为起点展开。因此,当前阶段对人工智能伦理问题的分析和解决路径构建应主要围绕着前3类伦理智能体开展,即将人工智能定性为工具而非主体。
当前阶段,人工智能既承继了之前信息技术的伦理问题,又因为深度学习等一些人工智能算法的不透明性、难解释性、自适应性、运用广泛等特征而具有新的特点,可能在基本人权、社会秩序、国家安全等诸多方面带来一系列伦理风险。例如:人工智能系统的缺陷和价值设定问题可能带来公民生命权、健康权的威胁。2018年,Uber自动驾驶汽车在美国亚利桑那州发生的致命事故并非传感器出现故障,而是由于 Uber在设计系统时出于对乘客舒适度的考虑,对人工智能算法识别为树叶、塑料袋之类的障碍物做出予以忽略的决定。人工智能算法在目标示范、算法歧视、训练数据中的偏失可能带来或扩大社会中的歧视,侵害公民的平等权。人工智能的滥用可能威胁公民隐私权、个人信息权。深度学习等复杂的人工智能算法会导致算法黑箱问题,使决策不透明或难以解释,从而影响公民知情权、程序正当及公民监督权。信息精准推送、自动化假新闻撰写和智能化定向传播、深度伪造等人工智能技术的滥用和误用可能导致信息茧房、虚假信息泛滥等问题,以及可能影响人们对重要新闻的获取和对公共议题的民主参与度;虚假新闻的精准推送还可能加大影响人们对事实的认识和观点,进而可能煽动民意、操纵商业市场和影响政治及国家政策。剑桥分析公司利用 Facebook上的数据对用户进行政治偏好分析,并据此进行定向信息推送来影响美国大选,这就是典型实例。人工智能算法可能在更不易于被察觉和证明的情况下,利用算法歧视,或通过算法合谋形成横向垄断协议或轴辐协议等方式,破坏市场竞争环境。算法决策在社会各领域的运用可能引起权力结构的变化,算法凭借其可以处理海量数据的技术优势和无所不在的信息系统中的嵌入优势,对人们的权益和自由产生显著影响。例如,银行信贷中通过算法进行信用评价将影响公民是否能获得贷款,刑事司法中通过算法进行社会危害性评估将影响是否进行审前羁押等,都是突出的体现。人工智能在工作场景中的滥用可能影响劳动者权益,并且人工智能对劳动者的替代可能引发大规模结构性失业的危机,带来劳动权或就业机会方面的风险。由于人工智能在社会生产生活的各个环节日益广泛应用,人工智能系统的漏洞、设计缺陷等安全风险,可能引发个人信息等数据泄露、工业生产线停止、交通瘫痪等社会问题,威胁金融安全、社会安全和国家安全等。人工智能武器的滥用可能在世界范围内加剧不平等,威胁人类生命与世界和平……
人工智能伦理风险治理具有复杂性,尚未形成完善的理论架构和治理体系。人工智能伦理风险的成因具有多元性,包括人工智能算法的目标失范、算法及系统缺陷、受影响主体对人工智能的信任危机、监管机制和工具欠缺、责任机制不完善、受影响主体的防御措施薄弱等。人工智能技术和产业应用的飞速发展,难以充分刻画和分析其伦理风险及提供解决方案。这要求我们必须克服传统规范体系的滞后性,而采用“面向未来”的眼光和方法论,对人工智能的设计、研发、应用和使用中的规范框架进行积极思考和构建,并从确立伦理准则等软法开始,引领和规范人工智能研发应用。
关于人工智能的发展,我们既不能盲目乐观,也不能因噎废食,要深刻认识到它可以增加社会福祉的能力。因此,在人类社会步入智能时代之际,必须趁早从宏观上引导人工智能沿着科学的道路前行,对它进行伦理反思,识别其中的伦理风险及其成因,逐步构建科学有效的治理体系,使其更好地发挥积极价值。
人工智能伦理准则、治理原则及进路
当前全球人工智能治理还处于初期探索阶段,正从形成人工智能伦理准则的基本共识出发,向可信评估、操作指南、行业标准、政策法规等落地实践逐步深入,并在加快构建人工智能国际治理框架体系。
伦理准则
近几年来,众多国家、地区、国际和国内组织、企业均纷纷发布了人工智能伦理准则或研究报告。据不完全统计,相关人工智能伦理准则已经超过40项。除文化、地区、领域等因素引起的差异之外,可以看到目前的人工智能伦理准则已形成了一定的社会共识。
近年来,中国相关机构和行业组织也非常积极活跃参与其中。例如:2018年1月,中国电子技术标准化研究院发布了《人工智能标准化白皮书(2018版)》,提出人类利益原则和责任原则作为人工智能伦理的两个基本原则;2019年5月,《人工智能北京共识》发布,针对人工智能的研发、使用、治理 3 个方面,提出了各个参与方应该遵循的有益于人类命运共同体构建和社会发展的15条原则;2019年6月,国家新一代人工智能治理专业委员会发布《新一代人工智能治理原则——发展负责任的人工智能》,提出了人工智能发展的8项原则,勾勒出了人工智能治理的框架和行动指南;2019年7月,上海市人工智能产业安全专家咨询委员会发布了《人工智能安全发展上海倡议》;2021年9月,中关村论坛上发布由国家新一代人工智能治理专业委员会制定的《新一代人工智能伦理规范》等。从发布内容上看,所有准则在以人为本、促进创新、保障安全、保护隐私、明晰责任等价值观上取得了高度共识,但仍有待继续加深理论研究和论证,进一步建立共识。
治理原则
美国、欧洲、日本等国家和地区在大力推动人工智能技术和产业发展的同时,高度重视人工智能的安全、健康发展,并将伦理治理纳入其人工智能战略,体现了发展与伦理安全并重的基本原则。
习近平总书记高度重视科技创新领域的法治建设问题,强调“要积极推进国家安全、科技创新、公共卫生、生物安全、生态文明、防范风险、涉外法治等重要领域立法以良法善治保障新业态新模式健康发展”。近年来,我国在应对新技术新业态的规制和监管方面,形成了“包容审慎”的总体政策。这项基本政策在2017年就已正式提出。在2020年1月1日起实施的《优化营商环境条例》第55条中更是专门规定了“包容审慎”监管原则:“政府及其有关部门应当按照鼓励创新的原则,对新技术、新产业、新业态、新模式等实行包容审慎监管,针对其性质、特点分类制定和实行相应的监管规则和标准,留足发展空间,同时确保质量和安全,不得简单化予以禁止或者不予监管。”这为当前人工智能伦理治理提供了基本原则和方法论。一方面,要注重观察,认识到新技术新事物往往有其积极的社会意义,亦有其发展完善的客观规律,应予以一定空间使其能够发展完善,并在其发展中的必要之处形成规制方法和措施。另一方面,要坚守底线,包括公民权利保护的底线、安全的底线等。对于已经形成高度社会共识、凝结在法律之中的重要权益、价值,在执法、司法过程中都要依法进行保护。这既是法律对相关技术研发者和使用者的明确要求,也是法律对于在智能时代保护公民权益、促进科技向善的郑重承诺。
治理进路
在人工智能治理整体路径选择方面,主要有两种理论:“对立论”和“系统论”。
“对立论”主要着眼于人工智能技术与人类权利和福祉之间的对立冲突,进而建立相应的审查和规制制度。在这一视角下,一些国家和机构重点关注了针对人工智能系统本身及开发应用中的一些伦理原则。例如,2020年《人工智能伦理罗马倡议》中提出7项主要原则——透明、包容、责任、公正、可靠、安全和隐私,欧盟委员会于2019年《可信赖人工智能的伦理指南》中提出人工智能系统全生命周期应遵守合法性、合伦理性和稳健性3项要求,都体现了这一进路。
“系统论”则强调人工智能技术与人类、其他人工代理、法律、非智能基础设施和社会规范之间的协调互动关系。人工智能伦理涉及一种社会技术系统,该系统在设计时必须注意其不是一项孤立的技术对象,而是需要考虑它将要在怎样的社会组织中运作。我们可以调整的不仅仅是人工智能系统,还有在系统中与之相互作用的其他要素;在了解人工智能运作特点的基础上,可以在整个系统内考虑各个要素如何进行最佳调配治理。当前在一些政策和法规中已有一定“系统论”进路的体现。例如,IEEE(电气与电子工程师协会)发布的《合伦理设计》11中提出的8项原则之一即为“资质”(competence),该原则提出系统创建者应明确对操作者的要求,并且操作者应遵守安全有效操作所需的知识和技能的原则,这体现了从对使用者要求的角度来弥补人工智能不足的系统论视角,对智能时代的教育和培训提出了新需求。我国国家新一代人工智能治理专业委员会2019年发布的《新一代人工智能治理原则——发展负责任的人工智能》中,不仅强调了人工智能系统本身应该符合怎样的伦理原则,而且从更系统的角度提出了“治理原则”,即人工智能发展相关各方应遵循的8项原则;除了和谐友好、尊重隐私、安全可控等侧重于人工智能开放和应用的原则外,还专门强调了要“改善管理方式”,“加强人工智能教育及科普,提升弱势群体适应性,努力消除数字鸿沟”,“推动国际组织、政府部门、科研机构、教育机构、企业、社会组织、公众在人工智能发展与治理中的协调互动”等重要原则,体现出包含教育改革、伦理规范、技术支撑、法律规制、国际合作等多维度治理的“系统论”思维和多元共治的思想,提供了更加综合的人工智能治理框架和行动指南。基于人工智能治理的特殊性和复杂性,我国应在习近平总书记提出的“打造共建共治共享的社会治理格局”的指导下,系统性地思考人工智能的治理维度,建设多元共治的人工智能综合治理体系。
我国人工智能伦理治理对策
人工智能伦理治理是社会治理的重要组成部分。我国应在“共建共治共享”治理理论的指导下,以“包容审慎”为监管原则,以“系统论”为治理进路,逐渐建设形成多元主体参与、多维度、综合性的治理体系。
教育改革
教育是人类知识代际传递和能力培养的重要途径。通过国务院、教育部出台的多项措施,以及联合国教科文组织发布的《教育中的人工智能:可持续发展的机遇与挑战》、《人工智能与教育的北京共识》13等报告可以看到,国内外均开始重视教育的发展改革在人工智能技术发展和应用中有着不可或缺的作用。为更好地支撑人工智能发展和治理,应从4个方面进行完善:普及人工智能等前沿技术知识,提高公众认知,使公众理性对待人工智能;在科技工作者中加强人工智能伦理教育和职业伦理培训;为劳动者提供持续的终身教育体系,应对人工智能可能引发的失业问题;研究青少年教育变革,打破工业化时代传承下来的知识化教育的局限性,回应人工智能时代对人才的需求。
伦理规范
我国《新一代人工智能发展规划》中提到,“开展人工智能行为科学和伦理等问题研究,建立伦理道德多层次判断结构及人机协作的伦理框架”。同时,还需制定人工智能产品研发设计人员及日后使用人员的道德规范和行为守则,从源头到下游进行约束和引导。当前有5项重点工作可以开展:针对人工智能的重点领域,研究细化的伦理准则,形成具有可操作性的规范和建议。在宣传教育层面进行适当引导,进一步推动人工智能伦理共识的形成。推动科研机构和企业对人工智能伦理风险的认知和实践。充分发挥国家层面伦理委员会的作用,通过制定国家层面的人工智能伦理准则和推进计划,定期针对新业态、新应用评估伦理风险,以及定期评选人工智能行业最佳实践等多种方式,促进先进伦理风险评估控制经验的推广。推动人工智能科研院所和企业建立伦理委员会,领导人工智能伦理风险评估、监控和实时应对,使人工智能伦理考量贯穿在人工智能设计、研发和应用的全流程之中。
技术支撑
通过改进技术而降低伦理风险,是人工智能伦理治理的重要维度。当前,在科研、市场、法律等驱动下,许多科研机构和企业均开展了联邦学习、隐私计算等活动,以更好地保护个人隐私的技术研发;同时,对加强安全性、可解释性、公平性的人工智能算法,以及数据集异常检测、训练样本评估等技术研究,也提出了很多不同领域的伦理智能体的模型结构。当然,还应完善专利制度,明确算法相关发明的可专利性,进一步激励技术创新,以支撑符合伦理要求的人工智能系统设计。
此外,一些重点领域的推荐性标准制定工作也不容忽视。在人工智能标准制定中,应强化对人工智能伦理准则的贯彻和支撑,注重对隐私保护、安全性、可用性、可解释性、可追溯性、可问责性、评估和监管支撑技术等方面的标准制定,鼓励企业提出和公布自己的企业标准,并积极参与相关国际标准的建立,促进我国相关专利技术纳入国际标准,帮助我国在国际人工智能伦理准则及相关标准制定中提升话语权,并为我国企业在国际竞争中奠定更好的竞争优势。
法律规制
法律规制层面需要逐步发展数字人权、明晰责任分配、建立监管体系、实现法治与技术治理有机结合。在当前阶段,应积极推动《个人信息保护法》《数据安全法》的有效实施,开展自动驾驶领域的立法工作;并对重点领域的算法监管制度加强研究,区分不同的场景,探讨人工智能伦理风险评估、算法审计、数据集缺陷检测、算法认证等措施适用的必要性和前提条件,为下一步的立法做好理论和制度建议准备。
国际合作
当前,人类社会正步入智能时代,世界范围内人工智能领域的规则秩序正处于形成期。欧盟聚焦于人工智能价值观进行了许多研究,期望通过立法等方式,将欧洲的人权传统转化为其在人工智能发展中的新优势。美国对人工智能标准也尤为重视,特朗普于2019年2月发布“美国人工智能计划”行政令,要求白宫科技政策办公室(OSTP)和美国国家标准与技术研究院(NIST)等政府机构制定标准,指导开发可靠、稳健、可信、安全、简洁和可协作的人工智能系统,并呼吁主导国际人工智能标准的制定。
我国在人工智能科技领域处于世界前列,需要更加积极主动地应对人工智能伦理问题带来的挑战,在人工智能发展中承担相应的伦理责任;积极开展国际交流,参与相关国际管理政策及标准的制定,把握科技发展话语权;在最具代表性和突破性的科技力量中占据发展的制高点,为实现人工智能的全球治理作出积极贡献。
(作者:张兆翔、谭铁牛,中国科学院自动化研究所;张吉豫中国人民大学法学院;《中国科学院院刊》供稿)
我国人工智能产业发展面临的三大问题
2019年,人工智能数据、算法、算力生态条件日益成熟,我国人工智能产业发展迎来一轮战略机遇,智能芯片、智能无人机、智能网联汽车、智能机器人等细分产业,以及医疗健康、金融、供应链、交通、制造、家居、轨道交通等重点应用领域发展势头良好。展望2020年,全国各级地方将根据自身实际情况申报和落地人工智能创新应用先导区,国内人工智能产业投融资将更关注易落地的底层技术公司。
2020年形势判断
从产业链建设看,人工智能数据、算法、算力生态条件日益成熟。算法、数据和计算力是推动人工智能技术进步和产业发展的“三驾马车”。
一是在算法方面,2019年,基于视觉、触觉传感的迁移学习、变分自动编码器(VAE)和生成对抗网络(GAN)是无监督学习中新涌现的算法类型。预计2020年,上述新兴学习算法将在主流机器学习算法模型库中得到更高效的实现,Caffe框架、CNTK框架等分别针对不同新兴人工智能算法模型进行收集整合,可以大幅度提高算法开发的场景适用性。
二是在数据方面,2019年,我国5G、物联网、汽车电子等多种新兴技术产业的快速发展,数据总量呈现海量聚集爆发式增长。预计2020年,我国5G通信网络部署加速,接入物联网的设备将增加至500亿台,数据的增长速度越来越快,世界领先的互联网公司大数据量将达到上千PB,传统行业龙头型企业数据量将达到PB级,个人产生数据达到TB级。
三是在算力方面,2019年以来,我国人工智能的算力仍以GPU芯片为主要硬件承载,但随着技术的不断迭代,预计2020年,ASIC、FPGA等计算单元类别将成为支撑我国人工智能技术发展的底层硬件能力。
从政策推动来看,全国各级地方将根据自身实际情况申报和落地人工智能创新应用先导区。2019年,我国31个省份中已有19个省份发布了人工智能规划,其中有16个制定了具体的产业规模发展目标,以北上广深为代表的城市积极地制定了行之有效的政策,对人工智能产业的落地和发展产生了较大的推动作用,成为中国人工智能行业的重要实践者和领头羊。
尤其是2019年下半年以来,上海市和深圳市获批成为我国首批人工智能创新应用先导区,为我国人工智能产业应用发展带来新契机。预计2020年,国内更多城市(群)将聚焦智能芯片、智能无人机、智能网联汽车、智能机器人等优势产业,面向医疗健康、金融、供应链、交通、制造、家居、轨道交通等重点应用领域,积极申报和搭建符合自身优势和发展特点的人工智能深度应用场景,以“先导区”工作为抓手,促进人工智能产业与实体经济深度融合。
从投融资情况看,我国人工智能产业投资市场将关注易落地的底层技术公司。在过去5年间,我国人工智能领域投资曾出现快速增长。2015年,人工智能产业投融资规模达到450亿元。到2019年,仅上半年国内人工智能领域就获得投融资超过478亿元。近四年来,人工智能领域投融资集中在企业服务、机器人、医疗健康、行业解决方案、基础组件、金融等落地前景较好领域。预计2020年,新零售、无人驾驶、医疗和教育等易落地的人工智能应用场景将更加受到资本关注。
同时,由于中国在人工智能底层技术方面仍落后于美国,随着人工智能在中国的进一步发展,底层技术的投资热度将持续增长,那些拥有顶级科学家团队、雄厚科技基因的底层技术创业公司将获得资本市场的持续资金注入。
三大问题
我国人工智能领域的基础创新投入严重不足。
从企业研发创新看,中国人工智能企业的创新研发支出仍远远落后于美国、欧洲和日本。2018—2019年,美国人工智能领域企业投入的科技研发费用占据了全球科技支出的61%,我国人工智能领域企业研发支出虽然快速增加,增速达到34%,但实际占据的全球科技支出份额明显小于美国。
从人工智能知识产权保有量看,我国各类实体拥有的人工智能专利总量超过3万件,位居世界第一,但中国相关企业拥有的人工智能相关专利多为门槛较低的实用新型专利,发明专利仅占专利申请总量的23%。同时,根据世界知识产权组织的数据,我国企业拥有的95%的人工智能设计专利和61%的人工智能实用新型专利将会在5年后失效,相比之下,美国85.6%的人工智能专利技术在5年后仍在支付维护费用。2020年,我国需要在人工智能基础研究与创新,打造核心关键技术长板、加强知识产权保护方面加大投入力度。
我国人工智能产业的算力算法核心基础相对薄弱。我国人工智能发展在数据规模和算法集成应用上都走在世界前列,但在人工智能基础算力方面,能提供国产化算力支持的企业还不多。
在人工智能的算力支持方面,IBM、HPE、戴尔等国际巨头稳居全球服务器市场前三位,浪潮、联想、新华三、华为等国内企业市场份额有限;国内人工智能芯片厂商需要大量依靠高通、英伟达、AMD、赛灵思、美满电子、EMC、安华高、联发科等国际巨头供货,中科寒武纪等国内企业发展刚刚起步。
在人工智能算法方面,主流框架与数据集领域国内外企业龙头企业包括谷歌、脸书、亚马逊、微软等,深度学习主流框架TensorFlow、Caffe等均为美国企业或机构掌握,百度、第四范式、旷视科技等国内企业的算法框架和数据集尚未得到业界的广泛认可和应用。2020年,我国需要进一步部署加强人工智能基础设施建设,并重视国内人工智能算法框架的创新推广。
以算法战、深度伪造为代表的人工智能技术滥用给经济社会带来严重负面影响。算法战指的是将人工智能算法、机器学习等技术全面应用于对敌作战中的情报收集、武器装备、战场勘测、指挥协同、决策制定等环节,核心目标是利用人工智能技术提升军事作战能力;深度伪造(Deepfakes)是“DeepMachineLearning”(深度学习)和“Fake”(造假)的英文组合词,是一种基于深度学习的人物图像合成技术,随着人工智能算法开源不断推进,深度伪造技术门槛正在不断降低,非专业人员已经可以利用简单开源代码快速制作出以假乱真的视频和图像。
2019年以来,基于人工智能的算法战和深度伪造的正在扩大军事影响、形成网络暴力、破坏政治选举、扰乱外交关系等方面被滥用,并给社会和国家带来极大风险。上述对人工智能技术的滥用给我国家安全、产业安全、社会经济安全带来巨大风险,需提前预防可能风险,并寻求国际支持。
对策建议
以算力为核心加强人工智能基础能力建设。首先要大力推进人工智能算法库、解决方案库、数据集及公共服务平台建设,强化人工智能发展基础。其次加强面向人工智能发展应用的5G网络、边缘计算硬件新兴信息基础设施建设。最后要对各行业企业自动化、智能化改造的产出、效果进行科学有效测算,指导企业找准技术研发投入的切入点,利用好人工智能技术实现经济社会高质量发展。
体系化梳理我国人工智能产业供应链现状。我们既要关注重要整机产品以及大厂商、大企业,也要覆盖量大面广的细分领域及增长势头良好的隐形冠军。
推动国内人工智能企业加快开拓国内外应用市场并提升出海抗风险能力。我国需要加强国内应用市场推广,挖掘多种类型的应用场景,培育各种规模的竞争主体,进一步提升新技术的应用水平和应用层级。同时,引导对外应用市场开拓,支持企业开拓海外市场,对出海企业在经营合规管控、知识产权管理、专利诉讼等方面的具体问题给予窗口指导。最后,提升企业自身的抗风险抗打击能力,鼓励新兴领域的独角兽企业尽快做大做强,形成较大规模体量和较强技术竞争力。
在国际社会上提出发展“负责任的人工智能”。首先应加紧研究并提出中国版的人工智能伦理守则或框架,形成人工智能伦理风险评估指标体系或风险管理指南,为人工智能企业提供风险识别、评估及应对的系统指引。其次应加强与联合国、欧盟及其成员国、G20等国际组织的合作,参与搭建多层次国际人工智能治理机制,提出发展“负责任的人工智能”供全球各国讨论,在全球人工智能伦理框架的制定议程中发挥建设性作用。
来源:赛迪研究院
更多资讯,请扫描下方二维码,关注中国微米纳米技术学会微信公众号