赵磊、赵宇:论人工智能的法律主体地位
“这是一个最好的时代,也是一个最坏的时代”,文学巨擘狄更斯在以法国大革命为背景的小说《双城记》中如是写到。的确,以互联网技术为代表的第三次工业革命极大地扩展了人与人之间的联系、爆炸性地增加信息量级之后,以人工智能、大数据和互联网社会三者共同早就的第四次工业革命正在极大地改变着世界。一方面,在依托互联网建立的云计算,并以此为基础获得的大数据配合智能计算机的深度学习算法,人工智能系统成功地模拟了人类的智慧动力。不仅如此,在人工智能仅仅开始试用的领域如语言写作、信息检索甚至投资决策类领域中,其表现已经明显超越人类的能力,其解决问题的速度、定位信息的准确性以及能够连续长时间工作的耐受力方面具有显而易见的优势。人工智能已经被认为成为计算机技术领域的最前沿,这已经意味着生产力的进一步解放。而另一方面,物理学家史蒂芬-霍金对人工智能的担忧犹在耳边,以电影“终结者”系列为代表的讲述人工智能机器人脱离人类控制而“暴走”最终给人类带来毁灭性灾难的场景仍在眼前,人工智能系统引发的事故已经开始浮现:2016年由微软开发的聊天机器人Tay在Twitter上线后公开发表含有性别歧视、种族歧视、同性恋攻击等方面的言论,虽然事后微软表示这是由于黑客对漏洞的攻击以及Tay受到了某些信息源的刺激所致;1989年连续败给苏联围棋冠军古德科夫的人工智能机器人在众目睽睽下突然向金属围棋棋盘释放强电流杀死古德科夫;1978年受电磁波干扰的日本工厂的切割机器人转身切割工人。以上种种都反复说明了一个事实,硬币皆为两面。在人类已经不断用自己的理性认识、改变世界并开始创造“理性”的时候,就要做好一个准备,一个“理性”超越人类的且失控的准备。
法律的的作用既在于定纷止争,也在于未雨绸缪。吴汉东教授认为,人工智能在知识产权的获得、侵权责任承担、个人隐私的人格权保护等方面存可能在巨大的法律问题。基于人工智能的负外部性,有必要“以人工智能的技术发展与规制为主题,形成包含法律规则、政策规定和伦理规范的社会治理体系”。郑戈教授则认为人工智能的立法须“指定一个现有的政府部门负责确立相关的行业技术标准、安全标准和个人数据保护标准,而这个标准不应当是自上而下武断强加的,而应当是对行业自身所发展出来的标准与公共利益、个人权利保护原则的综合考量,其制定程序应当遵循公共参与、听证等行政程序规则。”
然而,需要特别注意的是,无论是基于人工智能的负外部性抑或是基于其行业标准进行规制立法或其他监管层面的顶层设计,都无法离开一个重要的事实:人工智能不同于传统的科技发展。以核能为例,我们能够基于核能双刃剑而可能产生的巨大负外部性,在核安全领域对核能行业进行严格立法和监管。这个制度框架的搭建必要性的基础是核能作为立法规范的客体具有特殊性及其所需兼具保护的法益——安全、高效和促进清洁能源的发展具有特殊性。一言以蔽之,传统的科技发展带来的社会变革所需要的制度指引以解决的问题是如何在对待新的客体,并在客体存在差异时仍在制度体系内识别、保护相关法益。然而,人工智能的制度设计不仅仅是客体差异引发的法律问题:虽是“人工”,却具有“智慧”的系统产生了类似于人类的活动,因此制度设计上也许对待人工智能首先要考虑的是人工智能本身是否是法律关系的主体而非客体。当然,如果从工具论的角度将人工智能仅理解为人类创造的工具,那么无论多么聪明、多么像人而不是人的人工智能都只是客体而非主体。然而,这种理解不但狭隘,且不合逻辑:工具和工具之间如何能产生法律关系?显然,人工智能之间是可以发生类似的法律关系。比如智能投顾开始逐渐成为代客理财的选择的今天,就能想象基金管理人的人工智能系统同证券市场上金融消费者雇佣的人工智能进行交易。在整个交易中,自然人或法人这样的传统法律主体只是背后的委托人或雇主。虽然这种交易目前还没有广泛开展,但可以想象的是这种交易在技术上完全可以实现。显然,此时的人工智能已经可以通俗地理解为从事这个领域的另一种“人”,在这个领域中的具体行为与自然人的行为产生的法律后果可能无异。因而,对于人工智能所需要考虑的问题已不同于以往科技进步带来的问题,即人工智能是否可以具有法律主体资格的问题。
二.人工智能主观能动性的决定性因素——设计理念
人工智能是否具有法律主体资格,这取决于其是否具有自然人相同或相似的属性与法律地位。从法理上说,一国公民是具有一国国籍的自然人,可以在其所属国享有法律规定的权利与义务,包括公法意义上的权利和私法意义上的权利。机器人公民无法像自然人一样行使权利、承担义务,其根本原因在于人工智能系统不具有主观能动性。主观能动性通常是指人的主观意识和实践活动对于客观世界的反作用或能动作用,是人之所以与物、动物相区别的核心要素。人类之所以具有主观能动性,是因为大脑的作用。人的大脑是人类思维的物理本体,是世界上最复杂的物质,其构造与运行机理的奥秘至今仍未被揭示。但是主观能动性应当具有理论上求解范围不局限于某个领域的特点。比如不同人在面临同一个问题或场景时,对问题或场景的描述都不相同,反应也不相同。并不存在一个内涵与外延确定的反应的全部方式集合,每个人并的反应并不是这个集合中元素或元素的组合。自然人遇到任何问题或场景首先要辨识,其次是反应,这个反应具有非常高的偶然性,伴随着人的主观情绪变化。而法人或非法人组织由于在法律上视为主体,而其本质却是不具有生物学上的意义,其问题的辨识和反应都是依靠自然人完成。只是通过私法上相应的归属规范将自然人的行为的法律后果归于法人或非法人组织,法定的自然人的行为或意思表示即视为法人或非法人组织的行为或意思表示。拥有主观能性的法律主体可以行使权利、履行义务,正是因为法律赋予了其权利能力。因而倘若人工智能对问题的反应如同自然人能够进行开放式求解而非如同传统机器对特定类问题依靠穷尽解法求解,则可以认为人工智能具有有一定的主观能动性,也就具有了权利能力的基础。因此应当确定的是人工智能的基本原理,以确定其是否可能具有法律主体的相应资格。
一般认为,“人工智能”一词肇始于一九五零年代美国的一次学术会议,由来自生命科学、计算机、数学、神经科学等领域的学者聚集在一起的头脑风暴(Brainstorm)。由麦卡锡提议将这种人类造的可能能够感知、意识、学习甚至自主创造新的智能的机制(institution)称为“人工智能”(ArtificialIntelligence)。目前常见的人工智能包括的皆是某个领域的人工智能如道路驾驶、下棋、计算等方面。从长远看,随着人工智能技术的进一步发展,在广泛的通用领域发展出通用人工智能(ArtificialGeneralIntelligence)是可期待的。
从人工智能的技术特性看,其智能化的发展是基于不同的设计理念。早期人工智能的设计理念是符号主义(Symbolism),符号主义的理论前提是,“其一,人类富有智能地处理各项实务的能力,得归功于人类理性思维事物的能力;其二,人类理性思维事务的能力,等同于一种自动处理各种物理符号的内部心理能力”。换言之,在符号主义视野下,人之所以能产生各种思想、表达和行为,是由于人本身产生的一系列物理符号的支持。各组物理符号包含了带有特定含义的符号,这些符号是人类活动的基础。各类符号的排列组合构成了我们想象、创作、发明的基础。因此,以符号主义为设计理念的人工智能重在提供一套符号系统,由系统识别所需要解决的问题,并通过符号的选取和排列拆分建立新的符号链条。可能在一个问题的解答中会产生若干符号链条皆是答案,由系统作出不断排除筛选后最终确定一个最优解。前述提到的Alfago就是基于符号主义的设计理念。而事实上,现存的从事某一领域的人工智能的设计理念大部分均是来自于符号主义。在这类人工智能中,问题解答的每一步都伴随着大量运算——对大量符号的选择和排列。这正是基于“任何物理符号系统若具有充分的组织形式和规模均会表现出智能”的理念。此外,对问题的准确识别是符号主义系统的巨大问题。因为同一个问题可有不同问法,也就有不同的符号链条;而字面意思相同问题在不同情形下代表的含义则可能不同,此时需要准确找到问题对应的符号链条,要求超高的运算能力。符号主义理念代表了人工智能的设计从功能主义为切入点,以解决问题为目的,将一切问题识别为机器语言,将一切答案通过符号的排列组合选择而来。显然,这一类人工智能需要依托超高速的运算和超大量的符号存储。运算速度越高、符号容量越大,问题的识别越准确,提供的解答越多,最终解越优化,整个解答过程越迅速。然而,这一类人工智能仅能在限定的领域(符号容量)内做出识别与求解,其本质上依靠的仍旧是人类事先输入的符号和运算方式。尽管它在某些领域会显得非常智能比如完败李适时和柯洁的Alfago,但是这仍旧是来源于其对全部围棋落子求解答案符号的排列组合选择。因此这种人工智能可理解为性能格外突出的计算机,不能超越其设计使用范畴,亦没有任何主观能动性。其对问题的机械符号化理解使得任何问题的解决方式都十分单一,没有任何超越推理答案范畴的可能性。
另一种人工智能的设计理念称为联结主义(connectionism)。与符号主义相比,联结主义显然更具仿生学的特色。联结主义首先将智能视为大脑中神经元的联结和信息传导的结果。在人类大脑中,大量神经元相互联结并对刺激大脑的信息进行传递,使得人类大脑能够产生思维。这种刺激可以是视觉的、听觉得、嗅觉的等等。神经元则包括了能够接受刺激、传导信息的各个单元。因此,如果人工智能能够模仿人脑神经元接受刺激并进行信息传递,那么就能如同人脑一样产生思想进行思维活动,并且产生自我学习的能力。联结主义设计理念下的人工智能包含着人工神经网络系统,网络系统的神经元的联结可以改变。而最重要的在于人类事先向人工神经网络输入了控制和改变神经元联结的算法,在这套算法的指引下,人工神经网络受到刺激后,不同信息输入系统,神经元进行不同联结,传递不同信息,产生了仿生学意义上类似于人脑的反映。显然,在联结主义的设计理念中,事先输入的算法极为重要,这决定了人工神经网络对什么刺激有反应、对什么刺激没有反应,也决定了人工神经网络受刺激后的联结如何连接。事实上,这套事先置入的算法类似于人类的世界观,世界观是多样的、算法也是多样的。我们常常认为难以理解他人做出的某些行为而去向他讲道理,有时能讲得通有时讲不通甚至反被他人嘲笑。这是因为不同个体之间世界观不完全相同,而讲道则是基于个体的世界观宣扬方法论的过程。在世界观差别不大的情况下,方法论的宣扬可能被采纳,道理就讲通了。而世界观差别较大时,基于世界观产生的方法论差异极大,显然他人不大可能接受方法论的宣扬。同理,对于联结主义的人工智能来说,事先置入的“世界观”即算法决定了其神经元的联结,最终也决定了问题的求解。如果算法差异极大,那么最终的求解也必然差异极大。但是这套算法保证了所有的刺激均可以在算法的控制下实现某种信息的传递并得出人工智能的反馈。此外,对某种信息的一次接触后,神经元可以不断联结、不断改变联结、得出相似或相异的答案。这样,联结主义理念下的人工智能就可以通过自我信息的交互不断优化求解,产生类似于人类的学习能力,实现提高自身水平的过程。相比于基于高速运算和海量符号选择以实现智能化的符号主义模式,联结主义对所有问题识别为不同的刺激,自主依据人工神经网络的信息交互模仿在类似刺激下,人类的脑回路或反应,求解的答案不限于一个固定的答案池中的的选择,而是开放式的,且可以不断自主创设新的联以自我提高。AlfaZero仅使用了四个神经网络专用芯片,通过三天的自我对弈490万盘棋,一出关即100:0横扫Alfago。基于联结主义设计理念的人工智能已不再局限于数据库的存储量,因而产生了多维的求解视角。而最重要的在于其人工神经网络自我创设联结以实现强化学习的能力更是符号主义理念下的人工智能所不能具备的。
比较两种模式,符号主义设计理念下创造的人工智能非但不具有人的主观能动性,其有限求解的局限事实上使得这个显得非常“智能”的机器仅能在特定领域下对问题进行识别并寻求有限解中的最优解,既不能超越场景也不能跳出求解方式的有限性,因此并没有赋予其法律主体资格的必要。其一切活动终局性的结果是已然确定的,只不过具体的答案不同,可能对外产生的活动来源于人的指令或者设定,只是人将其作为具体活动方式的“顾问”,但活动的法律性质不会因人工智能产生任何变化。而联结主义的人工智能由于其自我创设联结从而具有学习能力,使得其不但能够不断提高求解的能力、扩大求解范围,且从技术上由于多样的联结方式突破了求解的固定最大范围,能够期待运用于广泛的场景中。因此,联结主义理念下的人工智能有了一定的主观能性,甚至在一定范围上有了意思表示之能力。
以联结主义为设计理念的人工智能突破了符号主义人工智能难以“具体问题具体分析”的能力限制,并在一定程度上能够实现自由意志的表达,虽然实现这种自由意志的表达的过程是人类设计的。当然这并不是说现代以此为设计理念的人工智能已经可以实现人机交互的高度自由化。这是因为现有技术下的人工智能虽然具有强化学习能力,但是这种能力基于算法的指引下通过比较不同联结,不断修正其参数后最终选择的结果。这种学习能力在初始阶段会显示非常高效的提高,因为不同联结差异较大,参数不断被修正,其能力提高较快。随着场景不断增加,问题的差异程度降低,联结的差异性也降低了,此时人工智能的学习效率下降。场景相似度较高的情况下,系统会将其默认为之前辨识过的场景。而场景辨识能力能力的高低,则取决于置入算法的科学性。因此虽然理论上联结主义可以无限度求解并不断提高学习能力,但是由于事先置入算法的限制,使得相似场景识别难以十分精确,所以此时人工智能无法准确辨别与之前相似场景的区别,求解必然不准确。若考虑算法的限制和场景识别的准确性,联结主义理念下的人工智能虽比起符号主义有了求解范围、学习能力和理论上应用领域的提高,但是由于置入算法的限制,导致了其辨识场景精确度的限制,仍然难以作为如同人类一样能够对各类场景做出完全真实意思表示,或者说,其意思表示能力受到了算法的限制。因此,算法的重要性不言而喻,“对于人工智能最重要的就是使得其算法能够像具有解决问题能力的自然人一样有效”。当然,从发展的眼光来看,目前任何对人工智能下结论的观点都是轻率的。应当强调的是现代的部分人工智能系统已经具备了一定的深度学习能力,但这依然是建立在其事先所设定程序和既有数据基础上的,并非自觉自发地的自我学习能力。因此,那种轻言人工智能系统全面取代人类,甚至可能灭亡人类的观点是不负责任的,也是站不住脚的。不过,对于那些辨识场景区别较大、精度要求不高的工作,联结主义理念下的人工智能系统已经开始并会越来越多地替代人类,其发展势头之迅猛,怎么估计都不为过。随着越来越多的“Sophia”出现,对其进行正确引导、予以规范化管理,就成为下一步人工智能发展的关键。从这个意义说,随着人工智能越来越多地参与法律活动,甚至人工智能已经开始代替人类从事法律行为的如今,赋予其法律主体资格不失为一种有益尝试和可供选择的路径。但是法律主体资格亦不单一,将人工智能视为人或其他主体则需要进一步探讨。
三.人工智能的法律主体资格
联结主义人工智能在一定程度上具有了自然人所具有的主观能动性,甚至具有了意思表示之能力。在学术界仍存在不少反对人工智能具有法律主体资格的声音:“以这种拟人化的想象来理解机器人,试图制定规范来约束它们的行为,甚至赋予它们法律主体资格,这便显得有些不合时宜了”。事实上,否认人工智能具有任何法律主体地位的学说如“奴隶说、工具说”都未能考虑到人工智能已在一定程度上具备了意思表示能力。
(一)人工智能是否是“人”
在现行法律体系下,法律主体或法律关系的主体依法域变化。在宪法法域下,法律主体是公民和国家;在行政法法域下,法律主体是行政机关与行政相对人;而私法领域下,则是自然人、法人及非法人组织。从法解释学上,法律主体的范畴盖然不能超出上述范围。
人工智能法律主体资格之考虑应该不应扩展到宪法领域。以Sophia为例,可以看出公法层面的法律人格对于人工智能系统没有实际意义。首先,人工智能系统不具有生理意义上的性别区分。性别是生物学上的概念,人类分为男性女性,是因为其天然的身体构造以及内在基因差异而成的。虽然Sophia被认为是一名女性,但这仅仅是开发者对其外形和行为模式的性别设定。近期,Sophia甚至为沙特的女性权利呼吁,但这并非因为其具有真正的女性身份,不过是其控制者的商业炒作而已。其次,人工智能系统不能成为宪法意义上的权利享有者和义务承担者。正如法人无法享有宪法上的选举权与被选举权一样,赋予不具有自主意识的主体以政治权利是可笑的、荒唐的,更无必要。最后,人工智能系统应该为人类社会服务,没有必要赋予其“人权”。人类社会的法律制度之所以赋予人工智能系统以法律人格,目的是更好地利用科学技术改造社会,服务人类。
事实上,作为私法上法律主体的自然人,指的是法律上的人而非生物学上的人。虽然现代民法鲜有不将生物意义上的人视作法律上人的作法即不赋予其自然人的民事权利能力。区分法律上的人与生物学上的人似乎没有什么意义,但是,这一点对于明晰自然人随着民事主体制度的建立而确立其法律主体地位、理解自然人的范畴大有裨益。
如果说生物学上的人指的是作为人类这个生物种群概念,那么法律上的人则是在生物学的人上附加了“人格”的特征。法律上的人,“是享有法律人格,并据以独立参加法律活动、享有权利、履行义务、承担责任的主体。”因此,倘若生物意义上人不具有独立参加法律活动、履行权利义务并承担责任的资格,则不能视为法律意义上的人,古罗马时期的奴隶即是如此。自原始社会发展而来,法律上的人呈现出逐渐与生物意义上的人范畴不断接近的趋势。封建时期法律意义上的人与人之身份息息相关。贵族或平民、男人或女人这些都影响了完整意义的法律上“人”之认定。随着市民社会的兴起和资本主义萌芽的出现,平权思想的勃兴使人们开始意识到生物意义上的人均应为法律所承认为主体。随着法国大革命将“人生而平等”的理念不断推向全世界,及至今日,现代文明国家已经不在法律主体资格的确立方面对生物意义上的人作出任何差异性规定了。
在现代区分公私法的法律体系中,自然人的概念也就与生物意义上的人的概念外延几乎重合,是指“具有生命的人类个体,是一个相对于法人的民法概念”。自然人与同是作为民事法律主体的法人与非法人组织相比,最明显的特征即是具有生命。生命的长短、延续受到自然的支配亦受到人力的影响,但绝非人力所彻底改变。这也是生命最大的特征。如前所述,与民事法律客体的物相比,现代民法上自然人的概念外延已经几乎与生物学意义上的人概念外延重合,但认为认为自然人就是生物学意义上的人或具有生命的人则未免不合时宜。事实上,赋予生物学意义上的人以人格是自然人概念内涵中核心的因素,而康德哲学中最为重要的论断就在于人只能作为目的而绝不能作为工具,这正是人格笼罩下自然人的属性。古罗马时期没有人格笼罩的人就会被当做工具或者物对待。人工智能不论发展的哪一步都不能超出人类所创造的工具这一本质属性。人工智能系统的底层技术主要是计算机运算、大数据以及移动互联网。在这个基础上,人工智能可以完成非常复杂的计算,并据此作出在速度上远超自然人的判断和决策,而且在这个过程中,不受外界的任何干扰,排除了人类在行为决策中的怯懦、犹豫、患得患失等人性弱点。在Alphago几次以绝对优势战胜世界顶尖围棋选手的比赛中,可以清楚地看到这一点。不过,人工智能系统的能力范围是以事先被输入必要的数据、设定目的程序实现的。设想一下,如果让只设定了围棋程序的Alphago与国际象棋选手去比赛,结果会如何?这样的Alphago是否有一天对国际象棋产生兴趣,主动自觉地去学习国际象棋?除了那些可以凭借明确规则、准确地计算可以完成的工作,人工智能系统是否可以主动从事个性化的工作,如艺术创作、烹饪、情感陪护等?这些问题的答案至少到目前为止是否定的,其行为模式都是由人类预先设定好的,其目的也在于为人所设定的目的服务。由此观之,人工智能是无法归类入人(自然人)的范畴的。
由此可以看到,人(或自然人)最重要的法律特征和法律上的属性在于人格,使得其不能作为工具而只能作为目的。显然,人工智能不是“人”,因为它不符合人(或自然人)这一特质。
(二)人工智能能否成为其他法律主体
如前所述,依据康德哲学,人(自然人)不能作为工具而只能作为目的的属性从根本上排除了人工智能属于法律意义上人的可能性。那么,人工智能是否可以超脱民事立法中自然人与法人二元结构而作为其他的主体存在呢?虽然从实证法的角度讲这是无法通过任何现有的法律释义解释出来,但是作为新兴领域的人工智能倘若确有作为法律主体的必要,则之后的制度设计未尝不能作出更改。
民事主体制度也随着历史变迁不断变化。在法人未得到民事立法确立其主体资格之前,只有部分自然人享有法律主体资格。在法人的法律主体资格得到法律确认后,法人开始与自然人一样具有了人格。由于“法的人格者等于权利能力者”这种独立的人格是法人之所以区别于其成员独立存在的原因,也是其享有权利、承担义务的原因。人格是权利义务的起点,享有独立人格的法人便可以以自己的名义独立地从事经营活动并独立承担民事责任。由此,赋予法人人格便赋予了法人独立法律主体地位。这一点上似乎法律的目的就是承认法人的人格,法律主体地位是法人获得人格后的客观结果。但实际上,从法人的起源上看,逻辑则是恰好相反的。赋予法人法律上的主体资格并不是因为赋予了其人格客观导致的结果,反而是之所以赋予其人格就是因为需要一个具有主体资格的法人出现。具体言之,出于功能主义的需要,经济发展需要一个能独立行使权利、履行义务和承担责任的法律实体,因此法律上需要将人与财产的集合体视为法律上能够与自然人相并列的主体,因而赋予其人格,使得其具有了法律上的能够以自己的名义行使权利履行义务的资格。从这个角度上讲,法人是法律的产物。也正是由于法人是法律的产物,因而其作为法律主体受到了与自然人不同的约束。比如现代民法不会因为自然人财产减少等原因减损其人格,而法人可能因为其责任财产不当减少,或沦为内部人的工具而导致其人格形骸化。
对应到人工智能,现行民事主体二元结构下,人工智能难以取得一席之地。但是如前所述,联结主义理念下人工智能的出现使得其具备了主观能动性。随着人工智能的不断发展,智能化强于sophia或AlfaZero的人工智能会不断涌现在越来越重要的领域。比如根据彭博社报道,首个由人工智能管理的全球股票ETF已经在2017年11月开始交易。可以预见的未来,人工智能将更多地参与需要大量人工计算和分析的领域。而对于类似担任基金经理的人工智能系统,显然需要有能力接受自然人的委托,和其他自然人甚至人工智能系统进行交易,这都需要其本身具有法律主体资格。因此同样出于功能主义的考量,法律授予这类人工智能以人格,使其获得法律主体地位。2016年,欧洲议会向欧盟委员会提出为机器人制定民事规范(CivilRulesonBobotics)的报告,第50条f款表明,“从上远看,应当为机器人创设特殊的法律地位,以保证复杂的自动化机器人能够作为电子人(electronicperson)的法律主体存在。这样它们有承担弥补自己造成损害的责任,并且能在其自主做出行为决策或以任何方式与第三方交往时享有电子人格(electronicpersonality)”。
如同最初法人获得法律主体地位一样,现行法律同样不需要局限于现有民事主体分类,完全可以新创设一个特殊的人工智能法律主体。当然,人工智能毕竟是由于智能才享有的法律主体资格,因此其资格也受到了技术的影响。不分青红皂白一律赋予其法律主体资格并不合时宜,仅对联结主义理念下的人工智能,在其智能范围内授予其法律主体资格更为合适。
此外,也并非所有联结主义理念下的人工智能均可享有法律主体地位。第一,比如AlfaZero这样的人工智能,尽管其智能化程度很高,学习能力也很强,但是没有必要授予其法律主体资格。因为它仅用于围棋领域,无论围棋水平多么出神入化,都不存在从事法律行为、行使权利与承担义务的可能性,亦丧失了其具有法律主体地位的目的。这并不是说只有设计目的是从事法律行为的人工智能才能行使享有法律主体地位。因为倘若人工智能的目的是从事事实行为如发明、创作或准法律行为如催告等,仍与其权利义务相关,此时仍有必要承认这类人工智能具有相应的法律主体地位,其因此才可能基于创作出作品而享有著作权。而权利与义务的原点即是权利能力,是以,对于设计目的没有必要授予其权利能力的人工智能或从事领域与权利义务无关的人工智能如下棋、唱歌、跳舞等,不应授予其法律主体地位。
第二,人工智能的法律主体地位毕竟是基于社会发展需要而由法律认定的,其获得法律主体地位后行使法律行为、参与法律关系产生的法律问题难以机械套用传统的民事主体规则。法律应该严格控制人工智能系统法律人格的取得,规定较高标准,并且由相关机构进行实质性审查,履行类似法人登记的手续才能赋予。
四.人工智能的意思表示和法律后果承担
如前所述,可以承认人工智能系统以私法意义上的法律主体地位。接踵而来的是两个问题。其一,被赋予了一定权利能力的人工智能将会以具有法律人格的法律主体参与各种各样的市场交易,换言之,人工智能需要从事各种各样的法律行为。而在其从事法律行为的核心就是意思表示。那么人工智能的意思表示如何形成,是否应该对意思表示作出相应限制?其二,作出意思表示的人工智能从事一定法律行为后,法律后果如何承担?
(一)人工智能的意思表示
首先,同作为法律的产物,不妨考察与人工智能法律主体相似的法人的意思表示如何形成。毋庸庸质疑的是,法人本身不能思考也不能表达。如前所述,其意思表示是通过法律上的归属规范将本质上人的意思表示归属于法人。因此,法人的意思表示是由其法人机关或者说由人组成的法人组织机构实现的。一方面,法人具有法律主体资格,对外能以自己名义活动。这一点就体现在法人自己的名称或曰商号(虽然商号非法人独有);拥有独立的财产,这个财产基础完全独立于法人的组织机构或设立法人的自然人,这也是法人人格的物质基础;凡有人格者必有思维。拥有了法人人格后,法人依靠法人机关进行思考和活动,法人机关也犹如人之大脑一般代替法人决策,代表法人对外活动。而法人机关依法必须设立的原因正因为其代表法人做出意思表示、从事法律行为。法人的意志由法人机关实现,人工智能系统的意思仅凭其运算能力和基于大数据的分析,可否形成独立的意思?这个问题又要回到两种设计理念下的人工智能。如前所述,符号主义理念下的人工智能限于其有限的问题辨识与求解,本身不应享有法律主体地位,不具有法律人格,因此当然没有意思表示能力。具有法律主体地位联结主义理念下的人工智能,在某个领域如股票交易、基金买卖等方面实现了高度智能化。可以说在这个领域内比人类专家或专业的投资经理还要专业,并且可以期望对此领域内的问题与场景实现了高度辨识,也能够做到通过不断的自我学习提高水平并且其理论上无限求解下实现了“具体问题具体分析”。因此,可以人为联结主义理念下的具有法律主体资格的人工智能在其从事的领域内,基于问题与场景识别、算法指挥下的创设联结并传递信息最终得出求解的过程即为其意思表示的过程。
其次,如果将这种机器依靠技术手段进行信息处理并表之于外的过程视作意思表示的过程,那么事实上此与无论是自然人或是法人的意思表示具有了巨大区别。前已备述之,本质上法人依靠自然人进行意思表示。而自然人进行意思表示的过程是其行使主观能动性的生理过程。承认人工智能具有一定的主观能动性却无法保证这种基于运算和信息交互的主观能动性能如同人类的主观能动性一样“可靠”。这种担心主要源于我们队机器人思维过程的“黑箱”无法完全认知。事实上,虽然人工智能是人类创造的,联结主义设计理念下的人工智能的也不断在模仿人类的思维过程创设联结,其置入算法也是人类设计的。但即使如此,其联结的具体方式、传递信息与处理信息的过程仍使“黑箱”。因此会担心一旦人工智能出现“暴走”情形,做出反常的意思表示和决策将带来的巨大法律风险。但事实上,人类对自身基于生理上的意思表示过程,即信息的输入、处理和决策的思维过程也不完全了解,对于人类来说也是“黑箱”。此外,人类的思维过程常常更加不合理、更加反常,且更会受到场合、时间、身体状态等各种非理性因素的影响。然而除了现代民法设置的行为能力上年龄与精神状态的限制,没有人会质疑为何承认人类意思表示能力,仿佛精神正常的成年人的意思表示能力都是一样的,一定不会做出超乎理性的选择。因此,并没有必要对人工智能的非人类心理决策过程过分担心。不过,考虑到人工智能确有“暴走”的可能,可以对适用人工智能进行法律活动的领域比如股票交易进行限制。比如限制其交易的价格、数量、交割方式等。这种限制既包括技术上的事先限制,亦即提前在人工智能系统中置入限制使其无法做出超越范围的意思表示,也包括法律上的明示限制,亦即向交易相对人或市场公开其使用人工智能交易的事实,并明示超过某个范围的意思表示无效或效力待定但赋予相对人撤销权。这样,既不会阻碍人工智能的广泛使用使人类生活更加便利,也不会因为不承认人工智能的意思表示能力而造成大量使用人工智能进行交易的场景下法律效果待定或无法评价的情形出现因而阻碍交易,并且能够防止极端情况下人工智能因“暴走”而做出极端的反常意思表示损害交易相对人或委托人的利益造成难以弥补的损失。
(二)人工智能从事法律行为的后果承担
论及人工智能从事法律行为的后果承担,首先应当明晰法律后果的承担本质上也是权利如何行使、义务如何履行、产生的违约或侵权责任如何承担?仍不妨考察法人从事法律行为的后果承担。事实上,法人具有法律主体资格,其具有法律人格必然得出法人能够以自己的名义从事法律活动,行使权利、履行义务、承担责任。只是这个过程可以由法人机关代表法人进行,比如法定代表人提出抗辩权、行使合同中的撤销权等;也可以由法人本身进行,如法人以自己的财产承担责任。事实上,法人独立的财产是法人具有法律人格的物质基础,而由于法人财产的减少减损了法人的责任财产,实际上降低了法人承担责任的能力,因而法律对法人财产减少的行为做了较为严格的限制。一方面法律对法人财产减少(减资)作了程序性规定以保证法人的责任承担能力不至于降低到损害第三人利益;另一方面,则从反面规定了未依法减损法人财产因而导致法人责任承担能力降低甚至损害第三人利益情况下的后果——此时很可能导致法人人格被否认,使得法人背后的自然人承担责任。
人工智能享有法律主体地位,拥有法律人格决定了人工智能必须能够独立承担法律后果。享有法律主体地位的人工智能在其从事法律活动的领域,可以行使权利、履行义务。关键的问题在于责任的承担。法人从事法律活动以其全部财产负责,股东仅以其出资为限承担责任。而人工智能不同,人工智能享有法律人格的基础不是其财产,而是其类似于人的“智能”。“具有独立意志的人工智能产生的责任无法苛责新技术的创造者”。是以,要求人工智能背后的设计者承担人工智能的责任似乎无限加重了设计者的工作,使得设计者再也不敢创新。但是将人工智能难以以其财产承担责任的风险归于与人工智能进行交易的相对人又似乎不公平。因此应当在两个维度上设立人工智能的责任承担制度。
一方面,原则上人工智能的责任由其自身承担。法人的法律行为后果由其自己独立承担,但其最终权益归属于它的股东。可以考虑为人工智能系统设置类似公司股东的权益归属主体,由人工智能系统的开发者、受让者等相关主体充当。而人工智能从事法律行为的责任承担上,可以考虑为人工智能设立类似公司注册资本的基金,以保证人工智能参与法律活动的初始具有一定的责任财产。随着人工智能参与交易的增多,人工智能因此获得的营利也会增多,其客观上的责任财产也会则多。此时可以对基金基础上增加的财产设立公积金,如公司法上将一部分营利纳入法定公积与资本公积。这个公积金成为人工智能责任财产的一部分,提高了人工智能承担责任的能力。多增加的财产纳入公积金一定比例后,其余的均可作为待分配利润将其分配给权益归属主体。
另一方面,施行强制保险制度。随着科技的进步,高速、核能等现代科技在极大地解放劳动力的同时也往往伴随着潜在的风险,虽然科技工作者长期致力于将风险降到最低,但是一旦发生风险往往意味着巨大的损害发生。人工智能科技也是如此。保险制度能够在“由于人工智能潜在的不可预估性使得人工智能一旦利用不当,可能造成难以估计的重大危害”时,以较小的经济成本通过保险分担风险。而在人工智能领域,英国下议院在2006年提出一份有关无人驾驶汽车法律责任问题的提案,提出汽车强制险在能够驾驶者将汽车控制权完全交给自动驾驶系统时为其提供保障。事实上,对可能产生侵权责任的人工智能投保强制责任险,将“大大减少人工智能侵权事件发生时的经济赔偿纠纷,直接促进人工智能行业的良性发展。”
五.结语
人工智能系统基础技术的发展突飞猛进。如量子技术在人工智能领域的应用,对其大数据计算和处理能力的提高将是革命性的;物联网技术的飞速发展,使得人类社会将很快就会进入到一个“万物互联”的时代;更为重要的是,各国政府、许多科学家以及无数的商业公司,对人工智能越来越重视。最为凸显的问题就是人工智能在能给人类社会带来显而易见的便利的同时,其法律地位也受到了越来越多的关注。而人工智能是否具有法律主体地位取决于其“智能”性,而在目前的技术条件下,其“智能”性则取决于其设计理念。“符号主义”理念将问题转化为符号,依托高速运算,求解也在符号的有限排列组合中寻求最优解,难以具备作为法律主体的“主观能动性”,亦难以行使权利、承担义务。而“联结主义”将人工智能的设计依据仿生学原理,创设了类似于神经元的联结。事先置入的算法对问题与场景的刺激进行识别后,人工智能可以自我创设联结,不断提高求解的水平。基于联结主义下人工智能可以实现理论上求解可能的无限,并在一定领域具有主观能动性,实现“具体问题具体分析”,虽然仍然受到算法和问题辨识准确性的限制,但是随着算法的不断提高,其具有无限发展的可能。因此赋予“联结主义”理念的人工智能特殊的法律主体地位符合经济社会发展的需要,而这毫无疑问地会带来人工智能系统指数式增长,沙特政府赋予Sophia公民身份,其实际的法律价值难以评述,但至少,其象征意义非常重要。这意味着二元法律主体制度受到了严重的冲击以及新法律主体的诞生已近在眼前。见与不见,变革已经开始,这值得我们深思和认真对待。
来源:《人工智能法学研究》2018年第1期,社会科学文献出版社2018年版返回搜狐,查看更多
【闫坤如】人工智能机器具有道德主体地位吗?
人工智能先驱图灵(AlanTuring)在论文《计算机器与智能》中提出“机器是否能够思维?”的疑问,同时提出机器可能具有智能的特征。“一台没有肢体的机器所能执行的命令,必须像上述例子(做家庭作业)那样,具有一定的智能特征”〔1〕。强人工智能就是让机器实现人类智能,并且机器不仅仅是实现人类智能的工具,机器具有人类智能,那么计算机或者机器是否能够成为像人类一样的道德主体呢?这引发学者思考。我们通过学者对道德主体研究的嬗变以及对于道德主体标准的界定来分析。
一、道德主体的研究嬗变
1.道德主体从人到生命体的拓展
人工智能是否具有道德主体地位涉及到对道德主体研究的溯源。道德主体(Moralagent)法律术语译为“道德代理人”,指的是能够具有主观判断且能够承担法律责任的人。道德主体指的是具有自我意识,能够进行道德认知、能够进行推理并形成自我判断、能够进行道德选择与实施道德行为且承担道德责任的道德行为体。从这个意义来讲,只有具有理性思维能力的人类才具有道德主体地位。婴幼儿、精神病患者等理性有限的人群虽然具有某些基本的道德能力,但不能完全对自己的行为负责,不能称其为道德主体。康德(Kant)把道德看作是理性当事人之间的关系,因此,婴幼儿、精神病患者以及其它动物应排除在道德主体的范畴之外。动物伦理学家彼得·辛格(PeterSinger)反对这样的观点,辛格提倡动物解放,认为动物具有与人同样的主体地位;在费因伯格(JoelFeinburg)看来,动物与人都是生物进化的结果,动物具有人类的意识与欲望,应该享有人类主体一样的生存权与自主权,应该赋予动物与人类一样的道德主体地位。植物因为不具备动机、意识、冲动等,所以植物不可能具有人类权益与道德身份。环境伦理学之父罗尔斯顿(HolmesRolston)主张自然内在价值的合理性,环境包括动物、植物在内都具有道德主体地位。自然界的自然属性中包含的一切生命体都具有道德主体地位。
2.道德主体从生命体到技术人工物的转变
1992年,拉图尔(BrunoLatour)提出技术人工物可以执行人类道德,且执行道德规则的方式与人类相似,技术人工物可以看作道德主体。比如,人工设计的道路减速带作为一种道德媒介执行道德规则,对汽车驾驶员的道德行为产生影响,从而避免车辆超速驾驶,这样,调节主体行为的技术人工物具有潜在的道德主体地位。2004年,维贝克(Pe-ter-paulVerbeek)提出“道德物化(materializationof morality)”的观点,所谓“道德物化”指的是把抽象的道德理念通过恰当的设计,在人工物的结构和功能中得以体现,从而对人的行为产生道德意义上的引导和规范作用。维贝克承认了技术人工物具有道德主体地位,人工物与人一样成为道德主体。技术不能简单地被看成是人与世界中介的工具,人工物在人与世界的关系中发挥着主动性作用。技术的调节具有道德维度,技术物是道德承载者。技术人工物等技术装置也显示出道德意蕴,应该把客体的道德维度以及客体对主体道德的调节都纳入道德范畴。阿特胡斯(HansAchterhuis)主张“将装置道德化”,比如,验票闸门规范逃票行为,人工物的行为影响人类行为主体的道德自主性,可以看作是道德主体。人工物不是道德中立的,它们可以引导人类的道德行为以及影响人类的道德结果,技术人工物可以通过使人类行为合乎道德来促进或加强道德。例如,如果一辆汽车在驾驶员不系安全带的情况下发出警告,它就会触发驾驶员的“系安全带”这一个道德行为。在这个意义上来讲,技术人工物具有道德主体地位。
3.道德主体从人工物到智能人工物的转变
机器是否具有道德主体地位涉及到机器与人的区别问题,2006年约翰逊(DeborahG.Johnson)在《计算机系统:道德实体非道德主体》〔2〕一文中围绕意向性展开对于道德主体的讨论。意向性是人区别于机器的根本特征之一,即使机器与人具有同样的行为,但机器不具有意向性,人具有意向性。如果智能机器不具有意向性,那么人工系统能否成为道德主体呢?1978年,斯洛曼(AaronSloman)在《哲学中的计算机革命———哲学、科学与心灵模式》〔3〕一书中论述了“未来机器人能够思考和具有感知力”的可能性场景,因此,应该把机器纳入道德主体的范畴,关注机器的伦理地位。丹尼尔森(Pe-terDenielson)在其著作《人工道德:虚拟游戏的道德机器人》〔4〕和霍尔(JoshStorrshall)在其著作《超越AI:让机器产生良知》〔5〕都承认智能机器具有道德主体地位,关注设计道德机器。科林·艾伦(ColinAllen)、瓦纳(GaryVarner)与泽欣尔(JasonZinser)在文章《未来的人工道德主体原型》〔6〕引入“人工道德主体(ArtificialMoralagents,简称AMAs)”这个术语,直接承认了技术人工物的道德主体地位。机器与人对比是独立的道德主体,机器能够自我推理与自我决策,能够触犯人类的利益,就如同一个人可以触犯到另外一个人利益一样。因此,可以把机器作为道德主体来看待。人工智能专家福斯特(HeinzvonFoerster)认为现有的机器人不仅仅是伦理规则的被动中转者,还在现有道德生态中与其他施事者互动,应该把智能机器作为道德主体来规范。智能机器这种高度进化的技术人工物具有自主行为和智能信息处理能力的,可以称为之道德智能主体。按照这种观点,道德主体的类别除了人类之外,还包括自主机器人和软件主体。
纵观学者对于道德主体的研究,经历了从具有自由意志的人类到生命体、然后到不具有生命体征的人工物最后到智能人工物的研究范畴的转变过程。
二、智能机器的道德主体标准分析
按照博施特罗姆(NickBostrom)和尤德科夫斯基(EliezerYudkowsky)的观点:“制造会思考的机器的可能性可能引发一系列的伦理问题,这些问题既与确保机器不伤害人类有关,也与其他道德上关联的存在者有关,也与机器本身的道德地位有关。〔7〕”机器是不是具有道德主体地位,这涉及到对于道德主体标准的界定。
瓦拉赫(WendellWallach)与科林·艾伦在《道德机器:如何让机器人明辨是非》〔8〕一书中专门花一章的笔墨讨论机器的道德主体地位问题,他们认为应该对道德主体进行不同层次的划分,他们提出三种不同类型的道德主体:操作性道德(operational morality)、功能性道德(functionalmorality)与完全道德主体(fullmoralagency)。所谓操作性道德指的是工程师意识到自身的价值观对于设计的影响以及他们对他人价值的敏感度。就像装有防止儿童使用的安全设置的枪支,这种机器虽然缺乏自主性与敏感性,但在设计中包含了美国国家专业工程师学会(NationalSocietyofProfessionalEngineers,简称NSPE)道德准则以及其他的行业规范所包含的价值理念。功能性道德指的是能够评估自身行为的道德意义的智能系统,这种机器是具有伦理敏感性的机器。完全道德主体指的是具有自主决策系统及其情感交互能力的机器系统。
在笛卡尔看来,机器智能的想法在形而上学上是荒谬的,因为心灵与身体是不同的物质,机器是实物,是人类身体的延伸,在空间与时间上有广延性,心灵则是有意识的精神原子。具有实物的机器不能具有心灵的智能特征。按照人工智能先驱钮厄尔(AllenNewell)与西蒙(HerbertSimon)的观点,计算机程序是一系列的形式化符号,人工智能的符号进路趋向于把机器学习当成是对一套预先确定的概念重新组合的过程,除非工程师有意去设计系统,否则,计算机智能就是建立在一个没有欲望、动机与目标的逻辑平台上,不可能具有操作性道德和功能性道德,更不可能具有完全的道德主体地位,这种观点遭到机器伦理学家的反对。例如,阿萨罗(PeterAsaro)在智能机器伦理中提到三点:“首先,如何设计机器人的行为伦理;其次,人类如何在人工智能伦理中承担责任;再次,从理论上讲,机器人能成为完全的道德主体吗?”〔9〕阿萨罗的第三点涉及到对于机器的道德主体地位的思考。如果技术人工物想成为道德主体,需要满足以下两个条件:首先,技术人工物必须具有道德身份;第二,技术人工物具有道德判断,具有道德选择、行为以及承担责任的能力。按照阿萨罗的观点,理性人具有道德主体地位,人工物只是具有道德调节作用,还不具有完全的道德主体地位。泰勒(PaulTailor)认为道德主体的必备条件要满足以下五点:“第一,判断道德上正确或错误的能力;第二,权衡赞成和反对某些选择的道德理据的能力;第三,依据这种权衡的结果做出决定的能力;第四,拥有实现这些决定所需的意志和能力;第五,为自己那些未能履行义务的行为做出解释的能力等等。”〔10〕按照泰勒对于道德主体的界定,机器不具有道德主体地位。塞尔(JohnSearle)设计著名的“中文屋(ChineseRoom)”思想实验,显示计算机可以在没有理解与智能的情况下通过“图灵测试”。荷兰特温特理工大学的布瑞(PhilipBrey)提出“准道德主体(quasi-morala-gents)”概念,他认为智能机器是准道德主体,作为道德主体应该符合以下三个特征:“有能力根据对与错进行推理、判断和行动的生物;对自己的行为应当遵守道德规范;对自己的行为负责,对自己的后果负责。”〔11〕这三个特征共同构成了道德主体的界定标准。只有理性的人才有能力进行道德推理,只有理性的人才有道德行为,只有理性的人才有道德责任感。不能分辨是非的成年人通常不被认为具有道德主体能力,智能机器可能具有道德决策能力,但大多数智能主体不具备道德思考的能力,因此,智能机器只能算“准道德主体”,不具有完全道德主体地位。塞拉斯(JohnSullins)提出人工道德主体的必要条件是机器具有自主性、意向性与责任。如果机器具有人类一样的自主性、意向性,并且能够像人类一样承担责任,就具有道德主体地位。
从上述道德主体的界定标准来看,只有具有理性思维决策能力、能够独立的承担责任的理性主体才具有道德主体地位,而现在人工智能的发展只处于弱人工智能阶段,人类还不能设计出具有人类情感、具有独立意识、选择自由以及能够独立承担责任的机器。所以,机器不具有道德主体地位。这种思路是以人是唯一道德主体的思路来分析的,但目前学者对于道德主体的研究已经从人类拓展到动物甚至是技术人工物,对于道德主体应该具有新的界定与发展。
弗洛里迪(LucianoFloridi)与桑德斯(Sanders)直接承认智能机器的道德主体地位,进一步给出了人工道德主体的标准。按照弗洛里迪与桑德斯的观点人工道德主体应该具有交互性(interactivity)、自主性(autonomy)与适应性(adaptability)的特征。弗洛里迪与桑德斯提出对于所有X,X是一个道德主体,当且仅当X具有以下内容属性:“第一,X及其环境能够相互作用(交互性)属性;第二,X能够在没有与外部世界交互的刺激的情况下改变其状态(自主性);第三X能够改变其转换规则(属性)‘适应性’;第四,X能够起作用,例如道德上对世界的重大影响。”〔12〕机器如果在没有刺激的情况下具有改变状态的能力、具有改变“转换规则”的能力,就可能具有道德主体地位。按照这种说法,强人工智能机器符合这些条件,因此可以称之为人工道德主体。弗洛里迪与桑德斯认为道德主体的概念并不一定表现出人类主体的自由意志、精神状态或责任,机器可能具有道德主体地位。
通过以上分析,关于道德主体的标准是不一致的,关于机器是否具有道德主体地位也有不同意见,考虑到机器具有自主学习能力、可能具有自我意识、自由意志、人类情感与人类智能,因此,必须在智能机器的设计之初嵌入道德,设计者不能袖手旁观,应该关注机器的道德模型的构建,“赋予机器人伦理原则或者促进机器人解决可能预见的伦理困境,在机器人自主做决定的时候,提高他们的道德考量比重。”〔13〕
三、人工道德主体模型的构建
瓦拉赫与艾伦提出“道德图灵测试”,关注机器设计中的道德嵌入,他们提出“道德图灵测试”的两种进路,即“自上而下进路(top-downapproach)”与“自下而上进路(bottom-upapproach)”,所谓自上而下进路就是把德性论(virtuetheory)、义务论(deontologicaltheory)、功利主义(utilitariantheory)、正义论(justiceasfairnesstheory)等伦理学理论的伦理标准、规范与原则嵌入到人工智能体的设计中,在此基础上,构建人工道德主体模型。阿西莫夫三定律是“自上而下”道德主体模型的模板,“任何讨论‘自上而下’式的机器人道德设计不能不谈阿西莫夫三定律。”〔14〕“自下而上进路”立足于创造一种环境能够让智能机器摸索自我判断的行为模式,比如,像“电车难题”思想实验就是根据不同的情境做出不同的道德选择。“自下而上进路”与“自上而下进路”的道德主体模型构建都坚持道德上“善”的行为标准,不同之处在于“自上而下进路”关注普遍性伦理学理论基础上的道德构建,而“自下而上进路”获得道德的方法是把规范化的价值当作机器隐含的内容。
弗洛里迪与桑德斯在承认机器的道德主体地位的基础上,提出人工道德主体构建的前提是区分道德问题与责任问题。人类能够避免“责任+道德行为=规定行为”和“没有责任就没有道德行为,所以就没有规定行为”的二分法。没有责任,只有道德行动的能力也是道德主体,环境与动物也可以具有道德主体地位,智能机器聪明、自主、能够独立于人类之外执行与道德相关的行为,因此存在“善的人工智能”与“恶的人工智能”的区别。所以道德主体构建要区分人类、智能机器、动物以及环境,这种道德主体的构建方式称之为人工智能的“分布式道德(distributedmorality)”。
美国计算机学家迈克尔·安德森(MichaelAn-derson)、哲学家苏珊·安德森(SusanAnderson)夫妇与克里斯·阿尔曼(ChrisArman)从经典伦理学理论提出道德主体构建模型,他们认为机器伦理不同于计算机伦理,机器伦理关注的是机器对人类用户及其他机器的行为,因此,必须为机器添加道德维度,为了给机器增加道德维度,需要可操作的道德理论与道德原则,在此基础上,他们给出两个道德主体模型:基于边沁(Bentham)的功利主义的伦理主体模型和基于罗斯(Ross)义务论直觉主义伦理学的伦理主体模型。行为功利主义道德主体模型基于边沁的道德算术构建比人类规范的模型,把伦理原则编程为算术,让机器像人一样遵循行为功利主义理论。直觉主义者罗斯满足于将决策权交给决策者的直觉,但罗斯的理论强调表面责任,他认为没有义务是绝对的,也没有给出义务的明确等级,因此,在罗斯的理论下,如何做出道德决策是不清楚的。安德森夫妇与阿尔曼立足于为机器伦理奠定理论基础,他们基于行动的道德理论开发计算机系统,他们结合行为功利主义与义务论直觉主义的理论构建机器学习决策程序,他们的计算机模型克服了罗斯模型的不确定性,使用一种学习算法来调整对责任的判断,既考虑了表面责任,也考虑了过去对涉及这些责任的类似或不相似案例的直觉。
为了构建人工智能的道德主体模型,哲学家与伦理学家积极尝试,致力于在机器中嵌入人类“善”的道德。不同于悲观主义者认为人工智能将不可避免地制造出拥有巨大力量、行为不道德的机器人的观点。乐观主义者坚持用伦理学方法来排除恶意机器人的产生以及发挥作用。例如,鲍尔斯(ThomasPowers)在《康德机器的前景》〔15〕中意欲制造出康德式机器(Kantianmachine)确保机器人行为符合道德规范;阿寇达斯(KonstantineArkoudas)和布林斯乔德(SelmerBringsjord)在《机械化道义逻辑向伦理机器人迈进〔16〕中论证了道义逻辑应用于制造道德机器的可能性;格劳(ChristopherGrau)在论文《“机器人”中没有“我”:机器人功利主义者和功利主义机器人》〔17〕中讨论了功利主义模式下的机器人,格劳运用逻辑学理论或者伦理学理论在人工智能的设计之初嵌入人类道德。“理性机器嵌入了道德元素,如程序规则的行为,可能构成人工道德主体所需的理性。”〔18〕智能机器设计者应该在设计之初保持设计理性,对所设计的智能机器可能存在的伦理问题提前预判与评估,虽然有的学者反对智能机器具有意向性或者具有道德主体地位但均未否认技术物具有道德调节作用,也不否认技术可以通过设计改变人类的道德行为。
总之,智能机器具有不确定性,不管智能机器是否具有人类的道德主体地位,都应该对人工智能可能带来的危害做出防范,人类在智能机器设计之初把“善”的理念嵌入到人工智能中,使得人工智能操作系统不仅要遵守法律,还要遵守社会的道德规范,减少智能机器危害人类的可能性,发挥其对人类进步以及社会发展的作用。
参考文献
〔1〕TuringAM.ComputingMachineryandIntelligence[J].Mind,1950,59(236):433-460.
〔2〕JohnsonDG.Computersystem:Moralentitiesbutnotmoralagents[J].EthicsandInformationTechnology,2006:195-204.
〔3〕SlomanA.TheComputerRevolutioninPhilosophy:Philosophy,ScienceandModelsofMind[J].TheBritishJournalforthePhilos-ophyofScience,1978:1-14.
〔4〕DanielsonP.ArtificialMorality:VirtuousRobotsforVirtualGames[M].Routledge,1992.
〔5〕HallJS.BeyondAI:CreatingtheConscienceoftheMachine[J].I-sis,2008,99(4):872.
〔6〕AllenC,VarnerG,ZinserJ.Prolegomenatoanyfutureartificialmor-alagent[J].JournalofExperimental&TheoreticalArtificialIntelli-gence.2000,12(3):251–261.
〔7〕BostromN,YudkowskyE.TheEthicsofArtificialIntelligence[C]//FrankishK,RamseyW.CambridgeHandbookofArtificialIntelli-gence.NewYork:CambridgeUniversityPress,2014:316-334.
〔8〕WallachW,AllenC.MoralMachines:TeachingRobotsRightfrom Wrong[M].Oxford:OxfordUniversityPress,Inc.2008:91.
〔9〕AsaroPM.WhatShouldWeWantFromaRobotEthics?[J].IRIEIntRevInfEthics,2006,6(12):9-16.
〔10〕TaylorP.RespectofNature:ATheoryofEnvironmentalEthics[M].Princeton:PrincetonUniversityPress,1986:14.
〔11〕BreyP.FromMoralAgentstoMoralFactors:TheStructuralEthics Approach[J].MoralStatusofTechnicalArtifacts,2014(17):125-142.
〔12〕FloridiL,SandersJW.OntheMoralityofArtificialAgents[J].Minds&Machines,2004,14(3):349-379.
〔13〕AndersonM,AndersonS.MachineEthics[M].Cambridge:Cam-bridgeUniversityPress,2011:1.
〔14〕WallachW,AllenC.MoralMachines:TeachingRobotsRightfrom Wrong[M].Oxford:OxfordUniversityPress,2008:91.
〔15〕PowersTM.ProspectsforaKantianMachine[J].IEEEIntelli-gentSystems,2006,21(4):46-51.
〔16〕ArkoudasK,BringsjordS,BelloP.Towardethicalrobotsviamech-anizeddeonticlogic[EB/OL]//M.Anderson,S.L.Anderson&C.Armen(Eds.).AssociationfortheAdvancementofArtificialIn-telligenceFallSymposium(Vol.FS-05-06).MenloPark,Cali-fornia:TheAAAIPress.Retrievedfromhttp://www.aaai.org/Li-brary/Symposia/Fall/fs05-06.2005.
〔17〕GrauC.Thereisno'I'in'Robot':RoboticUtilitariansandUtilitar-ianRobots[C]//MachineEthics:PapersfromtheAaaiFallSympo-siumMenloPark,2006:52-55.
〔18〕AndersonM,AndersonSL.MachineEthics:CreatinganEthical IntelligentAgent[J].AIMagazine,2007,28(4):15-26.
(原载《自然辩证法研究》2019年05期)
马荣春 桑恬:人工智能犯罪主体化否定论
0分享至【作者】马荣春(南京航空航天大学人文与社会科学学院教授);桑恬(南京航空航天大学人文与社会科学学院2020级法律专业硕士研究生)
【来源】北大法宝法学期刊库《山东警察学院学报》2021年第1期(文末附本期期刊目录)。因篇幅较长,已略去原文注释。
内容提要:人工智能的犯罪主体化问题,是人工智能法律问题在刑法领域的具体化和极端化。在事实层面,人工智能的犯罪主体化面临着民事主体资格障碍和刑事司法实践障碍、犯罪能力障碍与受刑能力障碍;在价值层面,人工智能的犯罪主体化面临着刑事法治障碍与“人类中心化”障碍。人工智能能否犯罪主体化取决于人工智能能否在认知理性能力上取得等同于人类自身的主体地位,而人类文明价值和人的尊严价值是否定人工智能犯罪主体化的终极理由。人工智能犯罪主体化问题的讨论,在当下有抑制中国刑法学理论焦躁与冒进并实现其稳步发展的学术意义。
关键词:人工智能;犯罪主体化;责任能力;刑事法治;人类中心化
如何调整“促进”与“规制”人工智能发展的法律价值目标,如何设计人工智能时代的调控规范体系,不仅涉及对传统法律制度的深刻反思,更是以“未来法学”为主旨的有益探索。而各国对于人工智能发展的政策考量,是基于风险的制度选择和法律安排,亦即对智能革命时代的法律制度乃至整个社会规范进行新的建构。这里,“深刻反思”“制度选择”“法律安排”“新的建构”云云,隐含着刑事领域人工智能的刑事责任主体问题,即其犯罪主体化问题。有人指出,制定与技术发展相适应、又不影响技术创新的法律规范将成为衡量立法效果的关键因素。这里,“制定法律规范”隐含着是否制定人工智能犯罪主体化的刑法规范。进一步地,无人驾驶系统造成交通事故,或者人工智能侵犯个人信息或隐私,或者居家智能引起火灾,是否可将人工智能作为刑事责任主体?或当人工智能基于自己的“学习”而导致人死亡,又该如何处理?对此,有必要从刑法学角度来看待人工智能时代的到来,并且适当改变现有的刑法体系,以便应对人工智能时代可能带来的各种挑战。前述提问就是人工智能能否犯罪主体化,即能否成为刑事责任主体的问题。前述问题已经有了肯定回答,如强人工智能产品具有辨认能力和控制能力,能在设计和编制的程序范围外实施危害社会的行为,其具有独立人格和刑事责任能力,可以将其实施的严重危害社会的行为认定为犯罪行为并给予刑罚处罚。
至此,人工智能的犯罪主体化问题即其刑事责任主体问题,已经清晰“淡入”我们的学术视野,正如传统刑法预设的犯罪主体都是自然人,而随着人工智能的广泛推广,直接造成损害的都是机器人,且机器人将改变受害者主要是人的历史,故一种新的适应人工智能时代的刑法理论必将在中国诞生。所谓“必将在中国诞生”的适应人工智能时代的刑法理论即“人工智能刑法理论”。于是,“人工智能刑法理论”与传统刑法理论并存,还是“人工智能刑法理论”融合进传统刑法理论,抑或“人工智能刑法理论”取代或包容传统刑法理论,这一问题不过是人工智能能否犯罪主体化问题的延伸而已。
一
人工智能犯罪主体化的民事主体资格与刑事司法实践障碍
人工智能犯罪主体化的民事主体资格障碍与刑事司法实践障碍,是对人工智能犯罪主体化障碍的事实层面的初步交代。
(一)人工智能犯罪主体化的民事主体资格障碍
这里所说的民事主体资格障碍,即人工智能在民事上的法律人格争议给人工智能犯罪主体化所设置的障碍。这是人工智能犯罪主体化所面临的首要障碍。
有学者指出,最早时候民事主体就是自然人,即自然人才有人格,但是后来法人被民法承认有人格。结合中国民法,除了自然人和法人有主体资格,也承认非法人组织有主体资格。因此,认定智能机器人也有主体人格是迟早的事情,既然可以将行为、归责、责任等概念扩张到法人领域,那么也有可能将其运用到机器人身上。另有学者基于著作权法论证人工智能的民法主体性。具言之,《著作权法》第11条、第16条、第19条、第21条均表述为“法人或其他组织”。将“法人”与“其他组织”并列,就可以推断出“其他组织”不是“法人”,但其可以成为我国著作权法上的权利人,如词典的编辑委员会等。因此,人工智能也可以解释为上述法条中的其他非法人实体。而历史地看,法律可以承认非法人组织(比如合伙)享有一定的法律地位,未来赋予智能机器人法律地位也未尝不可。如果赋予智能机器人电子人格,并令其对其行为承担法律责任,则人们现在担心的很多责任问题都可以得到较好的解决。既然主体范围处于不断的扩张状态中,故有确立“电子人”的法律制度空间。人工智能的民事主体资格问题,是人工智能的刑事主体资格即其犯罪主体化问题的前置。
人工智能能否犯罪主体化问题,其根本在于人工智能是否具有民事主体资格,而是否具有民事主体资格又始终与“人格”紧密联系,正如赋予人工智能以民事人格,等于赋予其公民身份,而如果机器人被赋予公民身份,它就拥有了选举权与被选举权。但一个明显的事实是,法人和非法人组织都有“人”这一构成因素,故“人”这一构成因素将人格赋予法人和非法人组织是符合事物逻辑的,正如公司法人在构造上是自然人与财产的混合体,主体能力源于自然人,而事实是人工智能这一机器里面恰恰没有“人”这一构成因素。易言之,即便法人是“拟制”的,但其“虚中有实”,即“拟制体”中有“人”这一实体,而人工智能即机器人里面并非有“人”这一实体。因此,并不能由法人和非法人组织具有民事人格推出人工智能迟早会具有民事人格,并进而由人工智能的民事主体化走向人工智能的刑事主体化即其犯罪主体化是行不通的。
人工智能是否具有民事人格即民事主体地位,是与其是否具有民事权利能力和民事责任能力直接相关联的。在民法上,“法的人格者等于权利能力者”,而关于人或法人的规定则“表现了最抽象化层次的抽象的法人格”,正如《德国民法典》以权利能力为核心概念进行主体人格的制度设计。在财产权领域,这种构架中的逻辑关系就是“经济人—权利能力—法律人”。在自然人人格场合,“法律人”的成立是通过权利能力将“生物人”自然本性与“法律人”的法律属性直接连接。而在法人人格场合,由于权利能力扮演“团体人格”的角色而形成“团体—权利能力—法律人”的逻辑关系,故法人与同为“法律人”的自然人在某些方面享有人格利益。至于机器人,由于没有自身的目的且为人类设计者所设计,其行为与人类有目的、有意识的行为性质完全不同。同时,机器人没有自身积累的知识,其知识都是特定领域的且都是人类输入的,即其不具备人之心性和灵性,故其与具有“人类智慧”的自然人和自然人集合体不能简单等同,故受自然人控制的机器人尚不足以取得独立的主体地位。因此,将机器人视为“人”,赋予其相应的主体资格,难以在现有的民法理论中得到合理的解释,因为民法意义上的人,须具有独立之人格(权利能力),该主体既包括具有自然属性的人(自然人),也包括法律拟制的人(法人)。除了因为包含“人”的因素,法人之所以在民法中被赋予主体资格,还因为其具有独立的责任能力,正如有些组织(如社团)需要永续存在,需要在法律上有资格持有和处理财产,并对损失进行清算。至于学者所建议的强制保险制度和赔偿基金制度,最终都是让“人”来承担责任,而非让人工智能本身独立承担责任。这便使得人工智能因无“法律责任之实”而无“法律主体之名”。目前人工智能的发展尚未对传统民事法律主体理论提出颠覆性的挑战,即不宜将人工智能规定为民事主体。主要理由在于:一方面,智能机器人是人类创造出来的,其在产生之初即作为民事法律关系的客体而出现;另一方面,智能机器人尚不能独立享有权利,承担义务。在民法理论上,享受权利和承担义务是相对应的,且享受权利和承担义务又分别对应着权利能力和行为能力,但如果欠缺行为能力,对自然人之外的主体来说,法律责任主体地位便难以形成。正如面对人为的全球生态危机,人类有责任恢复自然生态平衡,故必须承认自然界的权利。但是,自然界权利主体的权利申张和落实,必须由人类来代理,即人是自然界这种特殊的权利主体的代理者。之所以如此,是因为自然界及其所包含的其他生命体没有人类的自然意识和自觉行为,即其不具有实现主体权利的行为能力。不具有实现主体权利的行为能力,使得权利主体本身变得“名存实亡”。由此,非自然人不能承担民事责任便意味着不能成为民事法律责任主体,从而不能成为刑事责任主体。由此可见,人工智能的犯罪主体化问题,也是法教义学的问题,而在“一体化法教义学”思维下,人工智能的犯罪主体化是缺失主体资格的“民法供给”的。在这里,还是要对假借自然界权利主体(包括动植物等)来支撑人工智能的民事权利主体地位的观点给予必要的回应:由于人类是自然界生命体的一部分,故在人类之外提出其他生命体权利,从而提倡“非人类中心化”,也是有一定道理的。但人类并非人工智能的一部分,且人工智能并非与人类同属于位次更高的某种生命体类属,故人工智能不可能通过与自然界其他存在物的类比而获得权利主体地位。
学者指出,随着时代变革,法律上的“人”也经历了不断的演化。正如“法人”扩大了法律上的“人”这一范畴,故人工智能法律人格的创设也可依迹而循。由于法人可成为某种类型犯罪的主体,故前述论断是为如下推论作铺垫的:刑法分则共有10章,分别为危害国家安全罪,危害公共安全罪,破坏社会主义市场经济秩序罪,侵犯公民人身权利、民主权利罪,侵犯财产罪,妨害社会管理秩序罪,危害国防利益罪,贪污贿赂罪,渎职罪和军人违反职责罪。智能机器人也可基于自身特点而实施前述部分类型的犯罪。法人可以成为犯罪主体,是否能够因此对应得出人工智能也可以成为犯罪主体的结论?正如我们所知,法人是围绕“人”而形成的一种存在,法人毕竟包含“人”的因素或要素,且“人”是法人的“核心因素”。因此,法人能够成为“道德主体”和“伦理主体”,进而能够成为犯罪主体,即可被犯罪主体化。人工智能是这样的吗?可见,通过法人能够成为犯罪主体即可被犯罪主体化,是对应不出人工智能也能够成为犯罪主体即可被犯罪主体化的,即学者存在着“类比失误”的逻辑问题。人工智能在作为前置法的民法中的主体地位尚存疑问,意味着人工智能在刑法领域的犯罪主体化便面临着前置法障碍,即民法障碍。
(二)人工智能犯罪主体化的刑事司法实践障碍
对于人工智能能否犯罪主体化的问题,可采用反证法加以论证,即假设人工智能能够成为犯罪主体,即赋予人工智能犯罪主体资格,则刑事司法实践将会如何。如果人工智能能够成为犯罪主体,则其完全刑事责任能力与限制刑事责任能力在司法实践中如何区分?这里涉及到技术标准问题,而技术标准的问题就是科学性与合理性的问题,因为技术问题也存在“暗箱”。实际上,摆在完全刑事责任能力与限制刑事责任能力区分问题前面的,是有刑事责任能力与无刑事责任能力的区分问题。有学者指出,以是否具有辨认能力和控制能力,可以将人工智能划分为弱人工智能与强人工智能。弱人工智能虽然可以在设计和编制的程序范围内进行独立判断并自主作出决策,但不具有辨认能力和控制能力,其实现的只是设计者或使用者的意志;强人工智能具有辨认能力和控制能力,其有可能超出设计和编制的程序范围,进行自主决策并实施相应行为以实现其自身的意志。这里,“强”与“弱”的区别具有不可克服的技术模糊性,从而带来犯罪主体与非犯罪主体的混淆问题,亦即即使承认人工智能的犯罪主体化,也存在着罪与非罪的个案实践问题,而前述问题的实质即适用刑法人人平等原则,进而是法律面前人人平等原则问题。有学者根据智能的深浅程度将人工智能分为普通人工智能(计算机)、弱人工智能和强人工智能。其中,强人工智能能够或应被赋予犯罪主体地位或予以刑事责任主体化。由此,我们可提出的一个疑问便是:当弱人工智能相较于普通人工智能,也可视为强人工智能,则弱人工智能不也可以或应该被赋予犯罪主体地位或予以刑事责任主体化吗?易言之,当所谓强人工智能成为刑事责任主体,则所谓弱人工智能岂不至少是限制刑事责任主体?
如果人工智能能够成为犯罪主体,则人工智能的故意犯罪与过失犯罪如何区分?这里涉及人工智能的犯罪心理事实问题。无论是人工智能的故意犯罪,还是其过失犯罪,都逻辑地存在着犯罪心理事实问题。而犯罪心理事实分为显意识和潜意识两大方面,且包含着认识因素、情感因素、意志因素,故犯罪心理事实最终在内容上是主观的,属于精神范畴。但是,人工智能能够形成犯罪心理事实吗?如果能够,我们又如何根据人工智能的犯罪心理事实恰当地“拿捏”出犯罪故意与犯罪过失,进而恰当地“拿捏”出直接犯罪故意与间接犯罪故意、过于自信的犯罪过失与疏忽大意的犯罪过失?进一步地,人工智能的过失犯罪认定又会涉及如何认定“人工智能应该预见自己的行为会发生危害社会的结果而没有预见”或“人工智能已经预见自己的行为会发生危害社会的结果但轻信能够避免”,还会涉及如何确定人工智能应该预见的标准,即是人类标准,还是人工智能标准,抑或人类与人工智能的混合标准?而如果是人工智能标准,那么是人工智能的个别化标准,还是其平均化即一般化标准?如果人工智能能够成为犯罪主体,则人工智能的不作为犯罪如何认定?这里涉及人工智能的作为义务由谁来确定和如何确定的问题,即采用人工智能标准,还是人类标准,抑或人工智能与人类的混合标准?而如果是人工智能标准,那么是人工智能的个别化标准,还是其平均化即一般化标准?显然,如果人工智能能够犯罪主体化,则如何认定人工智能的过失不作为犯罪,将更是一个扑朔迷离的刑法实践难题。
紧接着,如果人工智能能够成为犯罪主体,则可以逆推人工智能也可以成为正当化事由的主体,进而人工智能的活动能否以及如何认定为正当防卫、紧急避险和被害人损害承诺等问题也相继显现。于其中,人工智能能否以及如何适用期待可能性理论?如果人工智能能够成为犯罪主体,则其危害行为能否以及如何适用“信赖原则”,亦即人工智能能否以及如何信赖自然人或其他人工智能实施适法行为?如果人工智能能够成为犯罪主体,那么其危害行为如何适用刑事政策?如果人工智能能够成为犯罪主体,那么是否存在人工智能利用自然人的间接正犯问题?如果人工智能能够成为犯罪主体,且可实施共同犯罪,则在主体都是人工智能的共同犯罪中,如何区分主犯和从犯?而在主体部分是人工智能、部分是自然人的共同犯罪中,又如何区分主犯和从犯?更为甚者,当犯罪集团概念中的“三人以上”可以包括强人工智能产品,则面对着“人工智能犯罪集团”,又如何划分主犯和从犯?另外,在主体全部或部分是人工智能的共同犯罪中,是否存在胁从犯以及如何认定?最终,作出主犯和从犯认定的是自然人法官还是“人工智能法官”?如果人工智能能够成为犯罪主体,则原本可适用于自然人主体的自首、坦白、立功、累犯等量刑制度和减刑、假设等行刑制度,能否以及如何适用于所谓犯罪人工智能?进一步地,当人工智能的民事主体化隐含着人工智能也能成为刑事审判主体时,我们能否接受一个(群)人工智能对另一个(群)人工智能进行刑事审判?因此,在刑事领域,人工智能只能是量刑的一种应用工具,正如法官的职责就是“审判别人的良心”,人工智能能够做到“审判别人的良心”吗?
实际上,人工智能犯罪主体化的刑事司法实践障碍,还包含着刑事诉讼法上的障碍。具言之,如果人工智能能够成为犯罪主体,则拘留、逮捕、监视居住、取保候审等原本适用于自然人主体的强制措施是否以及如何适用于具有犯罪嫌疑的人工智能即犯罪嫌疑人工智能?如果人工智能能够成为犯罪主体,则人工智能如何能够自行辩护或委托自然人(律师)为其辩护人以行使辩护权利,甚至一个犯罪嫌疑人工智能能否以及如何委托一个无犯罪嫌疑的人工智能为其辩护?如果人工智能能够成为犯罪主体,则其如何提起上诉和申诉?等等。
显然,前述刑事司法实践障碍是无法清除或跨越的。因为跨越或“清除”这些障碍意味着我们将不再拥有现代意义的,以人为中心的刑事法律制度和刑事法律体系,亦即我们将不再拥有现代刑事法治文明。
人工智能犯罪主体化的刑事司法实践障碍,是其前置法主体资格障碍即民事主体资格障碍的延伸。因为人工智能犯罪主体化的刑事司法实践障碍最终源自人工智能本身的认知理性能力与法律责任能力,而人工智能的认知理性能力与责任能力在民法那里就是“半生不熟”或有“天生缺陷”的。
二
人工智能犯罪主体化的责任能力障碍
责任能力障碍是对人工智能犯罪主体化障碍的事实层面的进一步交代。人工智能犯罪主体化的责任能力障碍包括犯罪能力障碍与受刑能力障碍两个层面。
(一)人工智能犯罪主体化的犯罪能力障碍
在刑法教义学上,犯罪能力是指行为人辨认和控制自己犯罪行为的能力。有学者有点夸张地指出,强人工智能具有比自然人“更强”的控制能力与可培养的辨认能力,而辨认能力和控制能力又与认识因素和意志因素具有密切的联系。但是,对于强人工智能故意或过失的主观罪过判断,应与对自然人的主观罪过判断有所区别。认定自然人的主观罪过通常以一般人的认识能力作为基本标准并结合行为人自身的特殊情况,因为自然人形成对事物的认识是靠学习和生活经验积累;而强人工智能形成对事物的认识是靠程序、算法和深度学习,故其认识水平被局限于特定领域而缺乏对社会生活的整体认识,从而对其是非善恶的判断标准也就异于常人。这里,对应着自然人主体的“一般人的认识能力”和“行为人自身的特殊情况”,是否存在并能够解决“一般人工智能的认识能力”和“人工智能自身的特殊情况”问题?“不是靠生活经验的积累”和“缺乏对社会生活的整体认识”表明学者自相矛盾,而“似乎”又流露出学者在人工智能的刑事责任能力即其犯罪主体化问题上底气不足。既然机器人永远无法替代“历史学家”,则人工智能的认知能力就永远是存在欠缺的,而所谓“人工智能自身的特殊情况”也永远是人工智能作为一种机器的“物理性差异”。至于随着AI技术的提高,以大数据学习为基础的AI存在较大的发展空间,故其接近于人类法律人的水平指日可待。这里,“接近”不等于“达到”;而若“达到”了,则人工智能便不再是人工智能而是“人”。因此,诸如人工智能将具有“人类”那样的认知能力,从而具有责任能力包括刑事责任能力,显然是个伪命题。史铁生指出:“比如说人与机器人的区别,依我想,就在于欲望的有无。科学已经证明,除去创造力,人所有的一切功能机器人都可以仿效,只要给它输入相应的程序即可,但要让机器人具有创造力,则从理论上也找不到一条途径。要使机器人具有创造力,得给它输入什么呢?我想,必得是:欲望。欲望产生幻想,然后才有创造。欲望这玩意儿实在神秘,它与任何照本宣科的程序都不同,他可以无中生有变化万千,这才使一个人间免于寂寞了。输入欲望,实在是上帝为了使一个原本无比寂寞的世界得以欢腾而作出的最关键的决策”。其实,人类的欲望并非“上帝”输入的,而是人类自己给自己输入的。于是,机器人在人类面前只能是实现欲望的“工具”。可见,对于我们审视人工智能的刑事责任能力包括犯罪能力,进而是其犯罪主体地位问题来说,文学界的前述论断颇具启发性:对于人类的一些功能或能力,人工智能只能按照“给定程序”去“仿效”。但由于不可能像人类那样具有“欲望”,故人工智能不可能像人类那样具有“创造力”,或者说不可能具有“人类那样的创造力”。而当不可能像人类那样具有“创造力”或不可能具有“人类那样的创造力”,则人工智能便不可能像人类那样具有“责任能力”或不可能具有“人类那样的责任能力”,从而不可能像人类那样具有“主体地位”或不可能具有“人类那样的主体地位”。
有学者指出,事实认定属于法律规则中的“行为模式”要素,而实现从“证据”到“证据性事实”的推论,再到实体法行为模式中的“要素性事实”的推论,这对AI而言难度极高,因为大数据的深度学习也达不到人类对于外在世界的认识能力,且其不能解决法律实施过程中的道德性、利益均衡性或者目的性问题。法律人工智能在司法中的认知缺陷充分说明着人工智能在刑事责任主体上的认知能力缺陷。人工智能的犯罪主体化意味着存在与人类刑法相并列的“机器人刑法”或“人工智能刑法”,而“机器人刑法”或“人工智能刑法”有背离“责任刑法”的重大嫌疑,因为人工智能毕竟不具有人类的认知能力,即人工智能毕竟不是“人”。所谓“法不强人所难”,刑法更不应“强机器人所难”。
人工智能的犯罪主体化问题,实质就是人工智能的刑事责任能力问题,而人工智能的刑事责任能力问题在根本上关乎意志自由和“道德能力”问题。有学者指出,意志自由是责任刑法的本质性要素,故似乎无法肯定机器人的责任。拟制是基于合目的性而被提出的,故将机器人的自由意志作为一种拟制予以引入,也只有在满足实际生活的必要性时才具有可能,而目前这种必要性还无法获得认同。但意志自由在实务上几乎无需顾虑,且人类的自由对于国家来说也只是必要的拟制而已,故对于机器人可以认定行为和责任。在本文看来,即便人类自由可以拟制,但拟制只可以转嫁到包含着“人”的成分的组织体如法人甚或国家,而不能转嫁到人工智能。因为作为人类的产品,人工智能不包含“人”的成分,亦即人类与人工智能是主体与工具的关系,而非整体与部分或系统与元素的关系。易言之,自由这种拟制是否可以转嫁,取决于被转嫁的事物中是否存在作为自由载体即“人”这一因素。有学者指出,责任甚至可以说是一种“社会虚构”,但若无此“社会虚构”,则社会将无法存续,而结果、责任和刑罚,若无意志意思这一假设,也将成为无法存续的制度。刑法上的责任和意志自由即便是一种拟制,也在社会生活中具有现实基础。但是,即便自然人的自由意志是基于规范的要求而作出的法律虚拟,也不能直接肯定人工智能的意志自由也是法律虚拟,因为人工智能意志自由的虚拟也必须有一定的社会基础,但在目前,我们人类和人工智能之间主观交流和探讨的基础尚不存在,故将自由意志拟制论导入机器人领域,尚不可行。之所以主观交流和探讨的基础尚不存在,从而意志自由拟制论的转借尚不可行,根本原因还在于,人工智能毕竟是人工智能而不具有作为人工智能创造者的人类那样的认知能力,正如“只有人才能理解人”。缺失认知能力,便意味着缺失“道德能力”而难以成为“道德主体”和责任主体,正如斯密在《道德情操论》中解释的那样,谨慎是下述两个方面的结合:一方面是“理智和理解力”这两种品质,另一方面是“克己自制”的品质。这里,“理智和理解力”蕴含着认知能力,而“克己自制”又蕴含着“道德能力”。在本文看来,至少在法学领域,只有针对“人”或含有“人”的成分的组织体包括法人、国家,才有认知能力、“道德能力”和“责任能力”可言,故人工智能不能成为“道德主体”和“责任主体”,从而不能成为刑事责任主体,即不能将之犯罪主体化。
有学者指出,人工智能的道德责任与法律责任,即其法律主体问题与道德主体问题同源同构。这又牵扯出道德主体的要素理解。有人认为,道德主体的要素包括自我意识、理解道德原则的能力等。其中,“自我意识”是最基本的要素;有人认为,道德主体的要素包括判断对错的能力、思考道德规则的能力、依据思考作出决策的能力等。但在总体上,道德主体应有意志自由,有理解力、思辨力、判断力等理性能力以及行动力等。由此,婴儿、植物人、智力低下者就不是道德主体,而是道德关怀对象或道德受动者。在本文看来,只要缺失意志自由以及相应的理解力、思辨力、判断力等认知能力,亦即缺失适格或真正意义的辨认能力和控制能力,人工智能就不能成为“道德主体”和责任主体,从而至少不能成为刑事责任主体。有学者指出,能够在设计和编制的程序范围外实施行为的智能机器人在意识和意志上与自然人“几乎”相同,即其拥有属于“自己的独立的”辨认能力和控制能力,亦即拥有了刑事责任能力,故其完全可以成为独立的刑事责任主体。这里,“几乎”相同不等于“完全”相同,从而所谓人工智能的辨认能力和控制能力即其刑事责任能力的“自己性”和“独立性”仍然是“不充足”或“不饱满”,即有“亏损”的。人工智能的意志自由、“道德能力”与责任能力乃至犯罪能力即刑事责任能力是来不得夸大乃至想象的,因为所谓人工智能的认知能力、“道德能力”和责任能力,实质上仍然是作为人工智能创造者的人类自身的认知能力、“道德能力”和责任能力。正如亚里士多德曾指出的:“人类所不同于其他动物的特性,就在于他对善恶和是否合乎正义以及其他类似观念的辨认。”人工智能能够辨认善恶和作出是否合乎正义的判断吗?英国刑法学家特纳曾指出:“犯罪意图是道德上的邪恶思想与法律上的犯罪思想的紧密结合”,而“没有犯罪意图的行为,不能构成犯罪”。这里,没有犯罪意图即没有犯罪意志,而没有犯罪意图即犯罪意志的人,便不构成犯罪人即犯罪主体。于是,犯罪的本质是“意志之罪”,如果欠缺认知能力、“道德能力”和责任能力即欠缺“意志能力”,则人工智能便不存在犯罪意志,从而难以成为犯罪主体。有学者早就强调,法律人格在其历史发展过程中起源于伦理性,又最终超越于(而非脱离)伦理性;伦理性在一定层面上仍是其深层基础,故完全彻底抛弃伦理性这一本源很可能会让法律人格迷失方向和丧失进一步发展的动力。人工智能的法律人格化即其法律主体地位化,是一个带有伦理性的话题,而泛化或扩张伦理性无疑为人工智能打开其犯罪主体化的一个入口,但“人类中心化”是确定的和最高的伦理。在刑法领域,人工智能的非犯罪主体化,才是符合事物逻辑的,因为犯罪主体化向人工智能“强加”了一种“道德能力”和责任能力,正如机器人“加载”道德的目的并不是为了使机器人成为独立的物种,真正平等地参与社会生活,而是为了控制人工智能技术发展所致的系统性风险。于是,对于具备“独立意志”“人工道德”的机器人,应对自身行为及其所造成的后果负责。在本文看来,不让也不能让机器人“平等地参与社会生活”只是出于“控制风险”的目的,恰好说明了对机器人“道德能力”和“道德主体”的“强加”,正如“独立意志”和“人工道德”之所以用引号引起来,并非出于强调,而是认为机器人并不具有原本以“人”为指涉对象的“意志”和“道德”。主张人工智能犯罪主体化的学者指出,智能机器人未来可能享有财产权利并受到刑法保护。从刑法角度,侵害智能机器人财产权利的行为,如盗窃、诈骗、抢夺智能机器人财产的,可构成相应财产犯罪,但由于智能机器人没有肉体也没有生命权、人身自由权等人身权利,故抢劫智能机器人财产的行为不应构成抢劫罪,而仍属于抢夺罪或者盗窃罪的范畴。按照前述看法,诈骗智能机器人财产的行为,也不能定诈骗罪,而只能定盗窃罪。智能机器人不能“被抢劫”和“被诈骗”等,反过来正好说明,智能机器人在“认知能力”上就不具备成为“刑事被害人”的资格,而不具备刑事被害人的资格又说明智能机器人同时不具备“刑事加害人”即犯罪主体的资格。总之,人工智能的犯罪主体化遭遇着犯罪能力障碍,而此障碍又将具体体现为“道德障碍”和“伦理障碍”。
在人工智能能否犯罪主体化的问题上,与笔者一样,陈忠林教授也是持否定态度的,但陈忠林教授与笔者持有不同的理由。陈忠林教授认为,从人工智能的发展态势看问题,人工智能将来会具有像人那样甚或超过人的犯罪能力,故一旦承认人工智能的犯罪主体地位,则将出现人工智能统治人甚至消灭人的局面或悲剧,故人工智能的犯罪主体化不是“能与不能”的问题,而是“应不应该”的问题;而笔者则认为,人工智能的犯罪主体化不是“应不应该”的问题,而是“能与不能”的问题,因为一旦人工智能将来具有相应的犯罪能力,则其犯罪主体化也是不可阻挡的,同时也是“合情合理合法”的,正如“能者多劳”所说明的那样。但是,“人下棋败给了机器人”或“机器人诊断病情的精确性高于医生”所带给我们的是“机器人(人工智能)比人类还能”的假象,因为机器人(人工智能)永远摆脱不了程序设定性和数据给定性,而程序设定性和数据给定性则决定于人类。其实,在“人下棋败给了机器人”或“机器人诊断病情的精确性高于医生”的说法中,“人”或“医生”并不等于“人类”。易言之,我们还不能断言“所有人下棋都会败给机器人”或“机器人诊断病情的精确性高于所有人”,而主张人工智能能够犯罪主体化的学者无形之中犯了“以偏概全”或“偷换概念”的错误。如果机器人(人工智能)存在技术缺陷,则其手术一定比作为自然人的医生精确吗?上海老军医吴孟超的医术给出的答案是“未必”!
(二)人工智能犯罪主体化的受刑能力障碍
人工智能能否犯罪主体化的问题,还应联系人工智能的刑罚问题予以解答,而这里所说的刑罚问题首先是其受刑能力问题。学者的构想是,适用于人工智能的刑罚可以有三种,分别为删除数据、修改程序、永久销毁。删除数据、修改程序、永久销毁构成了专门适用于人工智能的刑罚阶梯,体现了处罚的层次性,且可与人工智能行为的社会危害性及其“人身危险性”产生对应关系。显然,学者所构想的人工智能的刑罚都是对人工智能予以“物理性改变”而非“心理性塑造”,这恰好为学者在使用“人身危险性”这一概念时对之加双引号所印证。实际上,由于人工智能毕竟是人工智能而非人,故对其做任何包括采用“刑罚”之名的手脚,都只能引起“物理性改变”而不能产生心理效果,正如“人是唯一知道廉耻和有必要知道廉耻的动物”。这里,“物理性改变”意味着否定了人工智能的犯罪主体化,因为刑罚只有对主体的心理产生影响,即产生心理效果,才具有实质意义或刑罚实效。如果刑罚不能让主体产生心理效果,则主体便因不具有受刑能力而不能成为犯罪主体。易言之,至少在立法层面,如果不能成为受刑对象即刑罚受体,便不能成为犯罪主体。这是由没有刑也就没有罪的罪刑关系所最终决定的。
有学者发问,如果认为机器人具有主体资格,那么其承担责任的财产又来自何处?将前述疑问转移到刑事领域,如果人工智能能够成为犯罪主体,那么对其能否适用财产刑?进一步讲,如果人工智能能够成为犯罪主体,那么对其能否适用资格刑?如果前述问题难以回答或答案是否定的,便意味着人工智能的犯罪主体化将面临着刑罚适用问题,而刑罚适用问题又回过头来说明刑罚配置即法定刑本身的问题。财产刑和资格刑的不可适用性说明了对人工智能所设想的删除数据、修改程序和永久销毁这三种法定刑的不切实际。而对于人工智能来说,法定刑的不切实际正好说明了人工智能犯罪主体化的不切实际。
虽然必须把机器人当人看,但在刑事领域,“必须把机器人当人看”最好是把机器人作为财产犯罪等立法的保护对象而非惩治对象,亦即最好把人工智能作为犯罪对象对待,而非作为犯罪主体对待。如果对问题的讨论不再局限于“自主意识”,则可赋予智能机器人以人性化和人格化。这里,若无“自主意识性”,则无“人性”可言,从而法律责任主体包括或特别是刑事责任主体便缺失作为主体的先决条件,进而对主体的刑罚便成了“无源之水、无本之木”。正如和对人类的处罚相类比,对机器人进行“处罚”,更像是科幻的主题,因为要想变更机器人的举止,最简单的方法是更改程序。即使在程序更改无法奏效时,仍不需要刑罚。不需要刑罚,意味着刑罚对人工智能不具有可适用性,意即人工智能不宜或不必要作为刑罚的受体,从而人工智能也就不宜或不必要作为犯罪主体,亦即最终不宜或不必要作为刑事责任主体。可见,能否及如何承受刑罚,构成了对人工智能犯罪主体化的倒逼性拷问,而十分明显的结论是:如果人工智能犯罪主体化,则刑事责任将被消解或虚置。适用于智能机器人的刑罚即删除数据、修改编程、永久销毁所形成的刑罚体系具有一定的可实施性,也使我们在人工智能时代对犯罪的智能机器人适用刑罚具有可能性。但问题在于,删除数据、修改编程、永久销毁这三种“刑罚”对所谓“犯罪人工智能”或“犯罪机器人”实在难以想象其“社会意义性”与“实在效用性”。之所以如此,根本原因在于人工智能在实质上就不具有受刑能力,因为是否具有受刑能力取决于行为主体的“主观条件”,包括精神感受性和情感体验性。由此,在人工智能造成损害的场合,根本就不存在刑事意义上针对人工智能本身的“处罚空隙”问题。实际上,当所谓人工智能“自行”实施严重危害社会的行为时,我们应把这一事态视为人类的设计、生产、管理或使用行为的一种延续性后果。而当此时,我们可以根据实际情况分别作出处置:或是对设计、生产、管理或使用者追究故意或过失犯罪的刑责,或是对之通过“可允许的危险”和“期待可能性”“社会相对性”等理论予以无罪处理。可见,人工智能的“(刑事)处罚空隙”本来就是个伪命题。刑法应对完全自控型机器法益侵害的可能路径有两种:一是因为无法对完全自控型机器人进行抓捕与处罚,故让制造者、贩卖者以及使用者来承担责任;二是在医疗、护理、道路交通等和人的生命息息相关,即便是再小的失误也不能够被允许的领域中,如果将自控型机器作为刑法禁止对象,则会使得尖端技术可能给人类社会带来的利益被消解掉。因此,活用道路交通安全法等公法或者民法中的赔偿性规定更为妥当。可见,“(刑事)处罚空隙”构不成人工智能犯罪主体化的充足理由。
对人工智能的“(刑事)处罚空隙”,还应予以进一步的证伪,即人工智能的责任能力和主体地位具有“虚幻性”和“虚置性”,从而对其进行刑事处罚是不必要,也是不可能的。有人指出,伴随而来的可预测性、可解释性、因果关系等问题将使得证明产品缺陷责任等既有侵权责任变得越来越困难,使得被侵权人的损害难以得到弥补,故严格责任、差别化责任、强制保险和赔偿基金、智能机器人法律人格等都是潜在的法律方案,但选择何种方案取决于利益平衡。在本文看来,机器人损害的可预测性、可解释性、因果关系等问题,最终不是可预测性、可解释性、因果关系等能否解决的问题,而是如何解决的问题,即解释学的问题,故被侵权人的损害不是能否弥补的问题,而是如何弥补的问题。而所谓“利益平衡”最终是“人类”的“利益平衡”。于是,当人工智能损害的可预测性、可解释性、因果关系等问题,实质是对人工智能的人类行为包括人工智能设计、生产、管理和使用行为造成的损害的可预测性、可解释性、因果关系等问题,从而人工智能损害的责任实质就是人类行为的损害责任时,则人工智能的民事责任能力和民事责任主体地位就是虚幻和虚置的。由民事领域延伸至刑事领域,则人工智能的刑事责任能力和刑事责任主体地位即其犯罪主体地位同样是且更加是虚幻和虚置的。显然,之所以如此,乃因为人类自身能够切实担负起人工智能的损害责任,包括民事责任、行政责任和刑事责任。在某种意义上,我们可将人工智能与人类之间的关系视为代理与被代理的关系,而按照代理的法理,代理者的责任应转归被代理者。而即便是人工智能基于“深度学习”而在人类“预设范围”之外造成了损害,那也可适用“监督过失”理论而让人类承担相应的监督过失责任。正如无人机的运作始终是受人类“制导”,故在当下的武装冲突中,被无人机攻击的一方不可能要求无人机承担责任,而是要向使用无人机的一方讨个说法。人类自身能够切实担负起人工智能的损害责任,包括民事责任、行政责任和刑事责任,最终意味着人工智能的刑罚甚至刑罚体系是“虚幻”和“虚置”的。之所以如此,归根结底还是因为其不具有实质意义的受刑能力,正可谓“无能力者无主体,无主体者无责任,无责任者无刑罚”,最终“无能力者无刑罚”。实际上,人类自身承担起人工智能损害所引发的法律责任(包括刑事责任),正是对人工智能不具有受刑能力的一种“救济”。将人工智能设置为犯罪主体并对之设置刑罚乃至刑罚体系,是明显不符合“刑罚比例原则”的。而“刑罚比例原则”拒斥人工智能的犯罪主体化,其根由在于人工智能不具有受刑能力。进一步地,人工智能的犯罪主体化将受到刑法谦抑性的排斥,而刑法谦抑性的排斥包含着刑罚谦抑性的排斥:人工智能既然不具有受刑能力,则应当然排斥刑罚,从而人工智能不应犯罪主体化。于是,是否具有受刑能力决定人工智能是否可犯罪主体化,便有着“以刑制罪”的特殊意味,亦即“以刑制罪”在这里能够得到一番特别的诠释或补证,正如只有当立法机关认为有必要运用刑罚加以制裁,危害行为才能成为刑法上的犯罪,即刑罚反过来又成了犯罪的必要条件,亦即刑罚反过来决定了犯罪,同时也决定了犯罪主体。
有学者指出,刑罚的目的是预防犯罪,包括特殊预防与一般预防。这两种预防功能在机器人身上皆得以奏效。机器人具有感知刑罚痛苦的能力,并且能够在犯罪的快感与刑罚的痛感之间进行理性权衡,以调整以后的行为。而一般预防的功能则体现得更为充分,因为机器人具有意识和意志,会学习,能思考,故此机器人完全可以从彼机器人犯罪受刑的经历中受到威慑与教育,从而不断在自己的“大脑”中塑造或加深符合人类社会规范的价值观。正如我们所知,机器人的活动终究靠的是程序预设和数据输入,其永远带有机械物理性,而所谓“深度学习性”也永远摆脱不了机械物理性。其所谓犯罪的“快感”与刑罚的“痛感”到底从何而来?由于犯罪快感与刑罚痛感分别对应着“犯罪收益”与“犯罪成本”,故所谓犯罪快感与刑罚痛感的理性权衡,正是人类才具有的犯罪经济学行为。而按照学者的前述说法,机器人也完全可以从自然人犯罪和法人犯罪受刑的经历中受到所谓“威慑与教育”。学者关于人工智能受刑能力的交代仍然具有十分浓厚的“自我诠释与陶醉”色彩。人工智能犯罪主体化的受刑能力障碍是其犯罪能力障碍的延伸,因为犯罪主体能力实质即刑事责任能力,而刑事责任能力是以犯罪能力为“基底”且以受刑能力即刑罚适应能力为补充的。
主张人工智能犯罪主体化的学者指出,机器人绝不可能获得完全的、不受限制的、与自然人平等的主体地位。众多科幻电影、未来学家早已警告人们:人工智能若不受控制地发展下去,将会灭绝人类。而即便不会使人类灭绝,人类也绝难接受与机器人共同治理社会、分享资源的局面。正是基于保护人类、维护人类利益的理由,机器人的伦理地位只能是也至多是限制性主体地位,这一原则应始终予以贯彻,并在法律制度中予以体现,即在智能机器人的法律人格、法律权利与责任等问题上应秉持承认与限制的基本立场。学者所没有回避的人工智能的限制性主体地位问题,最终应放到人工智能犯罪的“天然能力”层面上予以讨论,而灭绝人类仍是一种带有“科幻性”的说辞,不能作为法律问题的现实根据。正如我们所知,在刑法上,自然人犯罪主体分为完全责任能力主体和限制责任能力主体。其中,限制责任能力主体中以法定年龄来限定的限制责任能力主体,也是以心理和生理状况作为犯罪能力和受刑能力即刑事责任能力的“事实根据”的。然而,人工智能的刑事责任能力包括犯罪能力和受刑能力,是不具备心理和生理状况这一“事实根据”的,从而也就不具备刑事责任能力包括犯罪能力和受刑能力。当人工智能事实上并无刑事责任能力,则其限制性刑事主体地位即限制性犯罪主体地位,也就成了“无源之水、无本之木”。当学者指出人工智能因受自身特点的限制即“基于自身的特点”而只能实施自然人主体所能实施的部分犯罪时,则学者是自相矛盾的:既然人工智能将越发“无所不能”甚至将超越乃至能够“毁灭”人类,则人工智能的刑事责任能力包括犯罪能力至少应不低于人类。若此,则人工智能为何不能实施自然人主体所能实施的全部犯罪呢?当我们将人工智能夸张得“无所不能”乃至“超越人类”,则对自然人能够实施的犯罪而言,人工智能只存在着能否全部实施而非能否部分实施的问题。如果肯定人工智能只能部分实施自然人所能实施的犯罪,则等于否定人工智能能够实施自然人所能实施的全部犯罪。这将陷入一种自相矛盾。如果人工智能也是一类特别的限制性刑事责任能力主体,则其限制性应出于刑事责任能力本身的“事实状态”,还是出于对其破坏性乃至“毁灭性”的人为想象乃至“恐惧妄想”?如果是出于对破坏性乃至“毁灭性”的倚重,则是否可把自然人完全刑事责任能力主体和自然人限制刑事责任能力主体颠倒过来,即自然人完全刑事责任能力主体应被作为自然人限制刑事责任能力主体,而自然人限制刑事责任能力主体应被作为自然人完全刑事责任能力主体?这显然是不可接受的。可见,人工智能的限制性刑事主体地位即犯罪主体地位,并非通过对刑事责任能力事实状态的“合法拟制”而来,而是来自于秩序恐惧的“制度错乱”或“规制缺失”。
三
人工智能犯罪主体化的刑事法治障碍
刑事法治障碍是对人工智能犯罪主体化障碍的价值层面的初步交代。前述民事主体资格障碍与刑事司法实践障碍,已经隐含着人工智能犯罪主体化的刑事法治障碍。对人工智能犯罪主体化刑事法治障碍的说明,可从“人工智能司法”那里去开辟路径。
(一)人工智能犯罪主体化刑事法治障碍的证据制度折射
所谓证据制度折射,意即从证据制度上可以迂回看到人工智能犯罪主体化将有害于刑事法治。在司法领域,“人工智能司法”是“人工智能万能”甚或“人工智能超能”的观念体现,这首先将在证据采信上直接危害法治,若联系刑事司法,便是直接危害刑事法治。
“法定证据制度”是近代学者对罗马教会刑事证据制度的一种称谓。“法定证据制度”要求每一种证据的证明价值都由法律明文确定,而不是根据证据的实际情况来确定,即法官不能根据内心确信和良知意识来认定证据的证明价值。易言之,刑事案件只要存在符合法定证明力要求的证据,法官即应作出有罪判决。可见,“法定证据制度”是一种形而上学的证据制度,限制了法官的理性而使之不能按自己的思维逻辑和信念来认定案件事实,故其达到法律所要求的“形式真实”而从理论上说不可能真正查明案件事实,故其又被称为“形式证据制度”。由于任何法律专家系统软件都意味着作出一种纯粹的法律实证主义预设,故自然法、权利保障、天理人情、有教少诛之类的思辨性要素都会被排除在人工智能的判断标准之外。这就如同“法定证据制度”将法官的“自由心证”排除在证据判断规则之外。人工智能在证据采信上只注意统一规范化,而忽视了证据判断所需要的经验法则、逻辑规则和理性良心等思辨性要素,故其必然走入“法定证据制度”的误区而无法实现实质的司法公正。在刑事司法领域,对“人工智能万能”或“人工智能超能”的迷信同样因忽视天理人情、经验法则等个性化、情理化的思辨性要素而直接损害实质的刑事司法公正,即直接损害刑事法治。在当下中国司法领域,既然法律专家系统软件即司法人工智能被当作证据采信即证据事实,从而是案件事实的认定主体,也就有可能将其当作证人包括刑事诉讼证人,但正如成为证人的条件之一是“应当具备辨别是非、正确表达能力”,而就目前的情况来看,机器人应被排除在证人范围之外。司法人工智能之所以不能成为证人包括刑事诉讼的证人,原因在于其不具备辨别是非、正确表达的能力,而前述能力正是单纯的数据逻辑运行之外的个性化、情理化的思辨能力与陈述能力。个性化、情理化的思辨能力和表达能力是证据制度的实质正义的基因所在,而法律人工智能恰恰不具有前述能力,故将不具有前述能力的司法人工智能作为证人包括刑事诉讼的证人,其对法治的危害性包括对刑事法治的危害性可想而知。
从将法律人工智能作为证据采信即证据事实和案件事实的认定主体和将之作为诉讼包括刑事诉讼证人的法治危害中,我们能够看到将之作为法律责任主体包括刑事责任主体即犯罪主体的法治危害包括刑事法治危害,因为在程序法领域和实体法领域,法律人工智能都存在“能力不足”的问题。于是,在刑事领域,程序法方面的“能力不足”会使得法律人工智能容易“害人”,在实体法方面的“能力不足”会使得法律人工智能通过冒充“犯罪人”而遮蔽了真正的犯罪人,从而放纵犯罪,而“害人”和放纵真正的犯罪人都是有害刑事法治的。
(二)人工智能犯罪主体化刑事法治障碍的司法制度架构折射
所谓司法制度架构折射,意即从司法制度架构上,我们可迂回看到人工智能犯罪主体化将有害于刑事法治。假若司法人工智能可以实现判决自动生成,司法工作者虽对人工智能的预判结果负有审核的义务,但在案件数量激增或办案期限等压力下,难以保证自身在长期的工作中不会对人工智能产生依赖,从而司法工作者本身的办案能力将逐渐退化,最终成为人工智能“奴役”的对象。而一旦这种现象普遍出现,则司法工作的核心将被严重颠覆,因为人工智能的算法将成为司法工作的主导,司法数据库也会成为案件审理的主要“场所”,从而对人工智能的过度依赖将导致现代法治的制度设计分崩离析。而之所以如此,乃因为司法工作者是连接国家公权力和公民私权利的纽带,是代表司法机关维护司法公正和权威的直接行动者,而任何判决都必须经历对抗性辩论和证明的洗礼,且经历充分的法律推理和审议,最终得出公正的判决。然而,对人工智能的过度依赖将会打破这种合理的架构,因为司法工作者的核心作用将被人工智能所取代,严密的工作制度会在“算法绑架”下失去作用,现代法治制度也会因为过度依赖人工智能而全面解构,正如司法工作者的“自由心证”在整个审判过程中无足轻重,法庭审理流于形式,法庭辩论、上诉审、专家酌情判断的意义都会弱化,最终导致法官的物象化、司法权威的削弱、审判系统的解构,甚至彻底的法律虚无主义。“人工智能万能”或“人工智能超能”的迷信,将在刑事领域导致“刑法虚无主义”。而在人工智能被人“暗箱操作”的场景中,破除“人工智能万能”或“人工智能超能”迷信的法治意义无疑更大,包括或特别是在刑事司法领域。
J·C.Smith指出,电脑可以或应该更换法官的见解是基于笛卡尔的“灵体二元论”和“莱布尼茨的谬误”,即智力可以独立于人体而存在和所有的人类思想都可以通过一种通用的语言来表达的错误。因此,虽然法官正在使用这些法律人工智能量刑系统帮助他们作出量刑决定,但其仍应保有自由裁量权。易言之,人工智能只是辅助和服务法官办案,而非替代司法裁决、淘汰办案法官,因为司法裁判的过程不仅仅是给出结论的过程,更是以一系列合乎逻辑的声明或通过引用相关的法渊得出结论的过程,只有结果无法“服众”。就此而言,深度学习算法的“黑箱性”天然地与法律决策的“透明性”要求相冲突。同时,法律决策本质上属于一种人类专家决策,这与“数据决策”迥然不同:法律经验经由开放的辩论与经年的累积而达至,并以当事人与社会可接受的方式表述,但人工智能是一种由机器分析数据,基于数据关联性而构建的“另类”的决策模式。因此,可能连操控主体也难以理解机器归纳的裁判模式。可见,面对法律信息这一掺杂着主体性、主观性、特殊性的意识形态混合体,人工智能要发现规律、提炼标准、形成模式,进而预测未来判决,无疑极具挑战性与困难性。于是,工具理性对司法意义的消解、智慧管理对司法自主的削弱、智慧应用对司法平等的分化以及服务外包对司法公信的威胁,构成了“智慧法院”的法理困境。“智慧法院”的法理困境,是以公平正义为价值谋求的司法制度架构的困境,而此困境即法律人工智能的法治困境。当联系刑法司法领域时,法律人工智能的法理困境即刑事司法制度架构的困境,从而也是法律人工智能的刑事法治困境。因为在刑事司法领域,人工智能同样难以具有法律决策的“透明性能力”,而对掺杂着意识形态的法律信息,人工智能同样难以具有“发现能力”“提炼能力”“形成能力”和“预测能力”。正是由于在前述能力方面力所不逮,人工智能才在刑事法治方面力有不逮。
从人工智能之于司法制度架构宗旨的背离性或反叛性中,我们能够看到人工智能犯罪主体化之于刑事法治的背离性或反叛性,因为人工智能容易在“黑箱”中被“滥竽充数”,从而遮蔽真正的刑事责任者。易言之,人工智能在司法制度架构中司法主体方面的“能量不匹”对应着人工智能在刑法领域犯罪主体方面的“资格不配”。
(三)人工智能犯罪主体化刑事法治障碍的“数据集权”折射
所谓“数据集权”折射,意即从“数据集权”上,我们可迂回看到人工智能犯罪主体化将有害于刑事法治。有学者指出,由于人工智能的核心在于“算法”,而“算法”的设计决定着人工智能的“行为”。但对于普通人和大多数立法者、执法者和司法人员来说,“算法”是一个“暗箱”,人们只能看到结果而无法看到运作过程,故制定相关规则来约束“算法”设计者的行为,在发生可疑后果时要求程序员用自然语言来解释“算法”的设计原理,并且追究相关责任是一种治本之法。既然无法看到“运作过程”,而程序员的“算法”原理也可以解释为是一种“暗箱”,故人工智能司法无法摆脱“程序正义”(包括刑事程序正义)和“实体正义”(包括刑事实体正义)的问题。即便未来的人工智能极其发达、高超,甚至比人类还聪明,人工智能在刑事司法领域必须有明确的禁区,除非人类法治文明对刑事法治的要求或相应标准发生了颠覆性的改变。智能性标准化在刑事司法领域具有总体可行性,但涉及刑事实体法的适用时,须有所限制或特别慎重。这就意味着我们必须谨防互联网时代体现在人工智能上的“数据集权”。在本文看来,人工智能的“数据集权”已经走向了“数据专制”,而人工智能的犯罪主体化则是互联网时代“数据集权”乃至“数据专制”的一种隐性结果,甚至是“数据集权”乃至“数据专制”的一种极端体现。于是,人工智能的犯罪主体化是原本的“人文主义”在刑法领域的离析与消弭,从而背反刑事法治。有学者指出,面对科技变化,法律必须做出回应:一方面,法律做出回应的前提在于很好地了解互联网与科技革命所带来的变化,避免盲目回应;另一方面,法律人也应意识到在科技的设计、生产、销售和使用等方面力有不逮环节都存在着法律与伦理的正当性问题。实际上,所谓“避免盲目回应”与注意“法律与伦理的正当性”不是两个方面的问题,而是一个问题的两个方面或不同表述。至少在缺乏“伦理正当性”的时候,人工智能的犯罪主体化是对所谓“人工智能犯罪”的一种“盲目回应”。而当人工智能的犯罪主体化膨胀出“人将不人”,则“伦理正当性”将荡然无存。
人工智能在司法领域的“数据集权”乃至“数据专制”,是对其法定证据制度的畸形承载和司法制度架构拆离的形象说明或真相揭示。于是,从人工智能的“数据集权”乃至“数据专制”中,我们能够集中看到人工智能犯罪主体化的刑事法治危害。具言之,在人工智能犯罪主体化的场合,“数据集权”乃至“数据专制”即犯罪主体的傀儡化,而犯罪主体的傀儡化即刑事法治的傀儡化。有学者指出,安全是人工智能时代的核心法价值,而和谐则是人工智能时代的终极价值追求。可以说,在刑事领域,人工智能的犯罪主体化对于安全与和谐价值充其量只是个“彩泡”而已。而在证据制度、司法制度和“数据集权”乃至“数据专制”的折射中,此“彩泡”一照即破。
四
人工智能犯罪主体化的“人类中心化”障碍
“人类中心化”障碍是对人工智能犯罪主体化障碍在价值层面的进一步交代。对此我们将从人类认知理性和社会学两个层面予以展开。
(一)人工智能犯罪主体化的人类认知理性障碍
这里所说的人类认知理性障碍,是指作为人类产品的人工智能不可能达到人类自身所具有的认知理性,难以犯罪主体化。有学者指出,智能机器人法律人格问题的争论是“人类中心主义”和“去人类中心主义”的伦理之争,是“人类沙文主义”的质疑从环境法领域向人工智能法领域的转移。在强人工智能阶段,甚至在弱人工智能的中后期,“去人类中心主义”将可能成为新的伦理理念,而“人类中心主义”和“人类沙文主义”这一类标签也会再现于人与智能机器人的关系的论争之中。对环境法律关系的主体是否仅限于“人”这一问题迄今未能达成一致意见,即“人类中心主义”与“非人类中心主义”在环境法领域未能达成一致意见,而未达成一致意见意味着“人类中心主义”在环境法领域不会轻易被消解,或轻易被“非人类中心主义”所取代,只要人类始终是环境法领域的社会实践主体。
“人类中心化”在人工智能领域同样不会被消解,更不会被取代,因为人工智能领域同样存在着谁是实践主体和谁是实践手段、谁是被服务者和谁是服务者的问题,而问题的答案是清楚的,正如即便AI取代人类或超越人类,其所提供的解决方案也不大可能让人类满意。而当AI能够基本解决事实认定和正当性问题时,其才能“与人类相差无几”,从而“去人类中心主义”才有可能。这里,“不大可能让人类满意”意味着不可能让人类得到十足的满意,因为人类永远是有欲念的,从而人类永远是“被服务者”;所谓“与人类相差无几”,实乃人工智能与人类还是有差距的,即人工智能不可能等于人,人工智能将永远作为人类的实践手段而存在。因此,“去人类中心主义”的可能便是“抽象可能”而非“现实可能”。而造成前述局面的根由在于,人工智能不可能“达到”人类自身的认知理性。由此,“去人类中心主义”只可“接近”而无法“达到”,亦即人工智能在认知理性上只可能接近人而无法等同人或变成人。于是,在刑法领域,人工智能若要通过犯罪主体化来消解“人类中心主义”,则必须具备一个前提,即人工智能具备了人类的认知理性。而反推过去便是,若人工智能消解不了刑法领域的“人类中心化”,则其便不可能实现犯罪主体化。
纵观人类刑法史,刑法曾经历并非完全以人类为中心的时期,即以动物或者物体作为责任主体的时期,但此种非完全以人类为中心的刑法已经在启蒙时期到来之后消失了,因为动物或者其他物体不具有自由和理性能力,且其并非国家中的市民组成。因此,刑法进入人类为中心的时代,标志着刑法文明的巨大进步。所谓“非市民”即非具有自由和理性能力,亦即非具有认知理性能力。动物或者其他物体的犯罪主体化之所以在刑法史上昙花一现,终其原因还在于,动物或者其他物体不具有人类的认知理性,“人是有器官的智慧”,“人是万物之尺度”。莎士比亚曾言,“人是宇宙的精华,万物的灵长”。而“那些最具特色、最有生命力的成功之作往往只产生在难得而又短暂的灵感勃发的时刻”。但迄今为止的人工智能只能按照人类预先设定的算法、规则和模板进行计算并生成内容。事实上,无论过程多么复杂,“机械在作品创作过程中发挥的作用——尤其是对独创性部分所作的贡献——日益超过人类,甚至完全取代人类的精神劳动”,恐怕仍然是对未来的幻想,而不是现实,正如人工智能所生成的内容都是应用算法、规则和模板的结果,不能体现创作者独特的个性。前述论断对于我们认识人工智能的理性能力,应有所启发。生命科学领域的科学家表示,人类的心智具有多种智能——演绎推理的能力、情绪能力、空间感知能力等等。人类还拥有天马行空的想象力与创造力,这些都是人类独有的财富,是人工智能不具备的。而在科学的迷茫之处,在命运的混沌之点,人唯有乞灵于“自己的精神”。人工智能存在可供我们乞灵的“自己的精神”吗?显然,认知理性能力的欠缺使得人工智能不可能取得与人类并列甚至高于人类的地位,即其不可能取代“人类中心化”。在刑事领域,人工智能的“非人类中心化”地位意味着人工智能不可能“被犯罪主体化”,或曰“人类中心化”将阻止人工智能“被犯罪主体化”。而之所以如此,根本原因仍在于,人工智能不具有被犯罪主体化的认知理性能力,而正是欠缺此能力,决定其不具有犯罪能力和受刑能力,即刑事责任能力。因此,人工智能若被犯罪主体化,则明显是“力不配位”和“德不配位”。拉伦茨指出,没有理性的东西只具有一种相对的价值,只能作为手段,因此叫作“物”;而有理性的生灵才叫作“人”,因为人依其“本质”即为“目的”本身,而不能仅仅作为手段来使用。拉德布鲁赫又指出,人之所以为人,并不是因为他是一种有肉体和精神的生物,而是因为人展现了一种自我目的。这样,为了证明人类群体可以具备法学人格,我们不需要证明人类在生物学上是相同的客观实体、组织,而是需要证明“自我目的”在人类群体当中和在人类个体上的体现是一致的。人工智能的“目的”不在“人工智能”自身,而最终是在“人”,亦即人工智能并无“自我目的”。而缺失“自我目的”便难以成为作为理性存在的人,或曰至少难以成为“理性人”,因而难以具有法律人格和法学人格。可见,人工智能的犯罪主体化是无法避开“人类理性”这一障碍的。如果再以动物或物体曾经是犯罪主体作为人工智能犯罪主体化的铺垫,则有开刑事法治文明倒车之嫌。
(二)人工智能犯罪主体化的社会学障碍
人工智能犯罪主体化问题追问着刑法领域的“人类中心化”,而“人类中心化”本是个社会学话题,故我们可将社会系统论和社会文化论作为恰当解答问题的必要路径。
有学者指出,在社会系统中,人类与“电子人”皆属社会活动的参与者,生成人机关系、人际关系和“电子人际”关系。而在人机关系影响下,人际关系呈现别样的特点,即不确定性和受动性。于是,在宏观的社会结构、社会关系,中观的家庭结构、家庭关系,微观的人机关系中,人工智能表现出强烈的非完全受支配的特性。因此,应承认并确立“电子人”的主体地位,以有效回应社会主体多元、结构多层、关系多样、系统有序的需求。这里,我们必须认清一点,人工智能只是改变社会生活关系的手段,故人工智能并不因此而成为社会生活关系的主体,而某些学者正是将主体与主体的手段关系混淆为主体与主体的关系。有学者指出,如果赋予智能机器人以法律人格,传统法律的调整对象将演变为三种社会关系:人与人之间的社会关系、人与智能机器人的社会关系、智能机器人之间的社会关系。这里,“社会关系”隐含着人工智能是社会主体,但只要承认人工智能是人类的产品且最终受人类的控制,则人与人工智能之间的所谓社会关系和人工智能相互之间的所谓社会关系,终究是人与人之间的社会关系。
有学者指出,在人工智能时代,“电子人”的文化价值与意义凸显,即具有主观能力的“电子人”能够观察认知环境,作出价值判断,开展社会活动,塑造“电子人”群体精神,形成自有文化,即“电子人文化”。而在文化意义上,人工智能重塑人们的生活方式、生活进程,参与人们的精神生活,形构着新型社会文化。从远期看,人工智能形成文化自觉,构建自主的“电子人”文化,与人类文化共生交融,推动社会文化层面多元发展。无论是在器物层面,抑或是在精神活动,人工智能的影响力、冲击力逐步显现,其文化价值和意义凸显,文化形态开始发生重大转变。在文化系统中,人工智能逐步占据重要地位,为承认和确立“电子人”主体奠定了文化心理、文化观念和文化制度基础。这里,我们又必须认清一点,人工智能只是重塑社会文化的手段,人工智能并不因此而成为社会文化的主体。社会关系和社会文化的主体地位蕴含着法律主体地位,而法律主体地位又蕴含着犯罪主体地位。但至少在刑法领域,无论其对于社会关系和社会文化的影响多么巨大,也不足以得出人工智能犯罪主体化这一结论,因为人工智能本身并非主体,而是主体的手段。人工智能犯罪主体化意味着刑法失却了“中心”,因为刑法不可能存在人工智能与人类这两个“中心”,亦即人工智能犯罪主体化将导致刑法无中心化,而无中心的事物(包括社会关系和社会文化)是不成其为系统或体系的。可见,人工智能能否犯罪主体化问题,是能够在制度系统论和文化系统论这里找到答案的。由此,人工智能的犯罪主体化意味着在刑事领域人类走向自己的反面,而非在主客体的关系之中,同时在主体与主体的工具的关系之中,来把握人工智能问题。
人工智能犯罪主体化的社会学障碍,还应通过破解人工智能威胁论予以进一步引申,因为所谓人工智能的威胁实即人工智能对人类社会的威胁。人工智能犯罪主体化是人工智能威胁论在刑事领域的无声流露。人工智能威胁论形成于以下代表性论断:人工智能一旦脱离束缚,将以不断加速的状态重新设计自身。而人类由于受到漫长的生物进化的限制,无法与之竞争,将被取代;人工智能是人类文明存亡的最大威胁,是人类有史以来最好也是“最糟糕的发明”。由于人工智能一旦脱离人类的控制,就有可能主导世界的控制权并消灭人类,故必须限制人工智能在社会领域的全面运用,才能延长人类文明。否则,人类在不久的将来注定会生活在“技术知识的囚室”。有人认为这是一个伪命题,因为人工智能再怎么样还是人工的问题,既然人能把它造出来,就能够把它控制住。人工智能机器人有再了不起的技术,将来做的跟人一模一样,可以做很多人做的事情,但仍然不是人而是机器或产品。假如机器人将人致残、致死,将之判刑后送到监狱后还得通电,它还是物。况且,无论技术多么先进,机器人都是为人类服务的。“仍然不是人”即“仍然是机器”和“为人类服务”,隐喻着人工智能消解“人类中心化”所面临的社会学障碍,即“人类中心化”障碍,而“人类中心化”障碍将在刑事领域拒斥人工智能的犯罪主体化。有学者指出,法人格概念的意义在于揭示民事主体的内在统一性和其实质,以界定主体与客体的关系。“人类中心化”本来就寄寓着主客关系,故至少在刑事领域,人工智能只能成为犯罪的客体,而不能成为犯罪的主体,否则人将成为人工智能的客体。这里,或曰在法学领域,我们无需质疑“人类中心化”,因为法学终究乃价值学,而价值又是事物满足人类需要的属性所在。于是,要进一步强调的是,“去人类中心化”最终就是“无中心化”,而“无中心化”意味着人类的消解。
人工智能的犯罪主体化意味着对“以人为本”的颠覆。难道我们要重构一个“以人和人工智能为本”理念?但作为事物之“本”的东西只能是一元的,而非二元以上的。学者假借奇点理论试图为人工智能的犯罪主体化作出特殊视角的论证,且奇点理论也牵涉“以人为本”。美国未来学家库兹韦尔的奇点理论认为,技术的加速发展会导致一个“失控效应”,人工智能将超越人类智能的潜力和控制,迅速改变人类文明。奇点带来的失控可能是人类与机器人共生,亦可能是人类完全被奴役甚至灭绝。因此,为了避免人类的灭绝,也为了人类的共同利益,限制必然是得到共识的基本立场。在此,如果说灭绝人类的最终不是人工智能或机器人而是“人类”自身,则为了保护人类而将人工智能或机器人犯罪主体化,便是“舍本取末”或乱了手脚,而这在哲学上便属于丢弃了“矛盾的主要方面”。人类认知理性障碍和社会学障碍共同说明:“人类中心化”在刑法领域排斥人工智能犯罪主体化。在刑法领域,“人类中心化”是刑法文明进步的象征,而人工智能的非犯罪主体化是其必然结论。人工智能犯罪主体化的社会学障碍是其人类认知理性障碍的延伸,因为主体的社会性本来就是其认知理性的一种升华。
韩大元教授指出,我们看到经济发展,特别是科学技术发展、信息化和各个国家之间的科技竞争越来越激烈,但人的价值在某种意义上不是越来越提升,而是越来越边缘化。人类所创造的文明在自己创造的科技、信息化面前反而使得主体的价值越来越低,越来越减损。因此,我们需要认真思考科技与法治、技术与人的尊严等基础性问题,包括法治的现代功能问题,法学的使命不是赞赏科技发展带来辉煌的成就,最终,科技发展要基于人的尊严和宪法共识。在当代这样一个价值多元化,科技发展具有不确定性的世界面前,我们要更加珍惜人类文明的价值,更加强化宪法的价值共识——人类共同体的价值和人的尊严的价值。只有这样,才能够让人类继续生活在自由、幸福而有尊严的生活中,确保人类永远主宰未来,不会由技术来主宰人类。这里,人类文明价值和人的尊严价值,可以作为否定人工智能犯罪主体化的终极理由,而此理由最终仍可归属于“人类中心化”范畴。
五
结语
有学者指出,从法外立场考量“电子人”法律主体地位,既立足当下弱人工智能现状,又基于“电子人”进阶至强人工智能的未来图景,若置于人类社会发展的洪流之中,以更加宏大的视角看待人工智能,则更易接纳其“电子人”主体地位。接纳人工智能的主体地位,意味着迟早接纳人工智能的刑事责任主体地位,亦即迟早接纳人工智能犯罪主体化。在人工智能能否犯罪主体化的问题上,我们也可说“万事皆有可能”。但是,人工智能是否最终犯罪主体化以及何时犯罪主体化,需要的则是一种“现实可能”而非“抽象可能”甚或“想象可能”。而这里的“现实可能”的前提是,人工智能已经具备了以认知理性为基础的刑事责任能力,且这里的刑事责任能力包含受刑能力。但是,当人工智能被夸大或想象为“无所不能”甚至“比人还能”,则现有的刑法体系将由规制“(法)人”的体系被颠覆为规制人工智能的诡异体系。而在这样的刑法体系面前,“人将不人”,即人将失去主体性地位,而最终将失去人的“尊严”。有人指出,互联网、大数据、人工智能不仅仅是作为时代背景的新事物,也是一种方式、方法,与法学研究融为一体互相塑造,最终推动法学研究的转型与发展。可以肯定的是,互联网、大数据、人工智能不仅可以构成法学包括刑法学研究的方式、方法,而且可以构成法学包括刑法学的研究对象。我们要充分认识到人工智能的发展正在和仍将影响着法治实践和法治理论,正如我们要充分认识和拥抱科学技术对社会生产和生活带来的结构性、革命性的影响,但是人工智能能否给刑法立法和刑法理论带来结构性、革命性的影响,则取决于人工智能能否取得等同于人的主体地位,从而能否给社会关系带来具有颠覆性的结构影响。
人工智能科研机构的纷纷成立和人工智能学术研讨会的竞相召开,使得人工智能的法律问题成为中国法学界的一道绚丽风景,而人工智能法学成了当下中国法学的最大玄学。在人工智能法学的“虚像”之中,对人工智能犯罪主体化否定说的讨论,其意义不在于中国刑法学理论的未来繁荣,而在于中国刑法学理论的当下稳步发展,因为这一问题的讨论将抑制中国刑法学理论脱离实际或夸大实际的焦躁与冒进,同时增强些许沉静与扎实,从而获得稳步发展。进一步地,在中国刑法学领域,以“未来法学”美其名曰的学术创新不小心就会蜕变为对当下理论的“耽误”或不作为,甚至是带有“历史虚无主义”的抛弃或破坏。因此,人工智能的犯罪主体化问题,真正关乎“中国刑法学向何处去”。而究竟“中国刑法学向何处去”,应立足于刑法自身的制度逻辑和人类社会生活本身的发展逻辑。我们正身处“人类命运共同体”,而在将来,“或许”会形成“人类与人工智能命运共同体”,“甚至”会形成“人工智能命运共同体”。而到那时,人工智能再犯罪主体化也“为时不晚”。但在刑事领域,“人类中心化”仍然是刑事责任主体的根本事实。因此,我们应谨防中国刑法学理论的跃进。易言之,抑制人工智能的犯罪主体化,能够“倒逼”中国刑法学“苦练内功”以求得一种“自然生长”。于是,在前述“倒逼”之下,作为中国刑法学当下主流范式的教义刑法学有望别开生面并结出丰硕成果。顺便指出的是,谨防中国刑法学理论的非常态跃进,同时就是谨防中国刑法立法的非常态跃进。虽然刑法立法和刑法理论可以甚或应该具有一定的前瞻性和“想象力”,但不能脱离社会生活的现实基础。前述认识的意义,或许要比人工智能能否犯罪主体化的讨论要大或大得多。有学者将所谓“有备无患”作为其主张人工智能犯罪主体化的又一论据。具言之,只有当我们做好人工智能犯罪主体化的立法准备,即通过立法将之确认为犯罪主体,才可对未来发生的人工智能犯罪依法处置。然而,“立法虚置”也是我们反驳人工智能犯罪主体化的理由。须知,频繁的刑法修正已经使得积极预防的刑法立法观饱受“过度预防”的诟病,但积极预防的刑法立法观毕竟是将人作为规制对象的。然而,人工智能的犯罪主体化,似乎是突破了积极预防的刑法立法观的底线而成为畸形的积极预防刑法立法观了。而之所以如此,是因为人工智能的犯罪主体化违背了一个显而易见的常识,即人工智能毕竟不是“人”。在此,我们不必忌惮人工智能将或有可能“颠覆”现有的刑法立法体系和刑法理论体系,但我们应考究这种“颠覆”是否符合“事理”“法理”和人工智能毕竟不是“人”的“公理”。中国刑法学需要想象力,但脱离“事理”“法理”和“公理”的逻辑演绎,体现出来的恐怕不是想象力,而是一种“幻想力”或“科幻力”。正如学者指出的,当以异于常人的想象力从事法学研究时,研究者的判断力也会一并“异于常人”:概念附会、伪问题替代真问题、政策论替代教义论等一系列现象表明,一贯理性的法律人也会丢掉人类智力本该坚守的常识,人工智能法学研究中的如此反智化现象,令人深思并需要警醒。法学研究应该避免盲目跟风,走出对人工智能体的崇拜,回归学术研究的理性轨道。面对人工智能犯罪主体化这一“大胆”而“创新”的声音,笔者所听到的余音则是:从民事到刑事“法理路线”的强行勾画,从“技术道德”到“人类道德”的硬性搭桥。于是,人工智能犯罪种类局限便体现出人工智能犯罪主体化的“底气不足”,而为人工智能所设置的近似“儿戏”的刑种更是使得工智能犯罪主体化显得“虎头蛇尾”。易言之,人工智能犯罪主体化的逻辑前提是错置的,其刑事责任能力是夸张的,而为人工智能特设的刑罚是虚空的。
最后要强调的是,失却责任主体资格的“民法供给”,人工智能断然不能被刑事责任主体化,即被犯罪主体化。纵观民法学领域对人工智能问题的研究,到目前为止,人工智能的权利能力只是得到了初步承认,但人工智能仍然存在着更为重要的行为能力问题,且对此问题尚未形成初步结论。在刑法学领域,人工智能的行为能力问题最终就是其刑事责任能力问题。而即便有了责任主体资格的“民法供给”,人工智能仍未必能被刑事责任主体化,即被犯罪主体化。这可从“违法性二元论”那里寻获说明。“违法性二元论”与“违法性一元论”相对立:前者强调违法性在民法、刑法等不同的法领域有着各自的内涵与边界,而后者则强调违法性应在整个法秩序中予以统一把握。于是,按照“违法性二元论”,人工智能即便能够成为民事违法主体,也不能成为刑事违法主体即犯罪主体。前述见解的理由已经表述在人工智能犯罪主体化障碍的本文论述之中。
“深度学习性”也是人工智能刑事责任主体化的一个立论依据,但此立论依据会得出一个让我们无法接受的结论,即不满12周岁的自然人也可以或应该被予以刑事责任主体化,因为不满12周岁的自然人不仅具有,而且相较于人工智能更加具有“深度学习性”。人类的命运只能由人类自己来主宰,刑事责任主体也只能由人或法人来“主宰”。或许在人工智能能否犯罪主体化的问题上,笔者所持的是一种“保守派”立场,但“保守派”立场通常就是刑法的“谦抑性”立场。
海德格尔曾指出:“作为形而上学的哲学之事情乃是存在者之存在,乃是以实体性和主体性为形态的存在者之在场状态”。由此,当今人类社会所面临的最大问题仍然是作为主体的“人”的自身的“解放”问题。于是,人工智能能否犯罪主体化问题的背后所潜藏的也是作为主体的“人”的自身的“解放”问题。
-向上滑动,查看完整目录-
《山东警察学院学报》2021年第1期目录
【法学研究】
1.人工智能犯罪主体化否定论
马荣春、桑恬(5)
2.朱子教化思想与行为无价值刑法的回归
赵星、李璐璐(24)
3.刑法机能构造及其运行
童德华、任静(33)
4.类型化人工智能体刑事责任问题探析
许桂敏、张凯鹏(42)
5.健康中国战略视角下基本药物制度的法治优化
伍瑾(49)
【侦查学研究】
6.侵犯知识产权犯罪的侦查策略体系构建
任惠华、李晨阳(57)
7.审查逮捕听证的侦查应对
吴影飞(68)
8.新型传销犯罪案件的侦查难点与侦防对策
路长明、丁梦婷(75)
9.我国区际经济犯罪侦查合作制度研究
唐彦涛(82)
【犯罪学研究】
10.暴力袭警犯罪实证调查与规范治理
——以2015-2020年974份裁判文书为主要分析样本
蔡艺生、程明东(89)
11.犯罪生成论视角下“民转刑”命案发生机制的实证分析
张芷(101)
12.“杀猪盘”式网络诈骗行为的脚本分析
王枫梧(109)
13.论我国反海外腐败制度的完善进路
——以国际反海外腐败立法经验为视角
张馨文、刘恒东(117)
【治安学研究】
14.重大活动安保法治化模式分析
——以布里斯班《G20安保法案》为样本
陈晓济(125)
15.网络卖淫嫖娼违法犯罪的现状分析与治理对策
孙明锋(133)
【公安管理研究】
16.警力“内卷化”及其改善
董士昙、朱俊杰(139)
17.基于情指行一体化平台的警用无人机信息化应用策略研究
武连全(145)
18.认同与开放:民法精神对提升警察网络素养的启示
陈永峰(154)
《山东警察学院学报》是一份由山东警察学院主办的政治法律类学术期刊。1988年创刊,1998年获得得全国统一刊号和国际标准刊号,2015年入选政治类全国中文核心期刊(北大2014年版)。自创刊以来,按照“弘扬法治精神,促进学术交流,繁荣理论研究”的办刊理念,全面贯彻党的“双百方针”,积极倡导理论联系实际、实事求是的优良学风,学术质量和地位不断提高,影响不断扩大,连续多次荣获“全国优秀社科学报”“全国优秀社科期刊”称号,多次被评为“山东省优秀期刊”“华东地区优秀期刊”。很多论文被《新华文摘》《高等学校文科学术文摘》《人大复印报刊资料》等转载和摘登,2001年即被中国人民大学法学院认定为侦查学硕士、博士研究生发表论文的核心刊物,2012年被中国人民大学人文社会科学学术成果评价研究中心评定为“‘复印报刊资料’重要转载来源期刊(2012年版)”,2015年被北京大学图书馆遴选为政治类“全国中文核心期刊”。
责任编辑|吴晓婧
审核人员|董倩张文硕
本文声明|本文章仅限学习交流使用,如遇侵权,我们会及时删除。本文章不代表北大法律信息网(北大法宝)和北京北大英华科技有限公司的法律意见或对相关法规/案件/事件等的解读。
骁克:论人工智能法律主体的法哲学基础|政治与法律202104
林少伟|人工智能法律主体资格实现路径:以商事主体为视角|中国政法大学学报202103
陈柏峰:乡村基层执法的空间制约与机制再造
徐雨衡|法律原则适用的涵摄模式:基础、方法与难题
林来梵:何以谋国?——从三岛由纪夫之死说起
张明楷:合同诈骗罪行为类型的边缘问题
王利明:论高楼抛物致人损害责任的完善
宋华琳:电子政务背景下行政许可程序的革新
北大法宝
北大法律信息网
法宝学堂
法宝智能
点击「在看」,就是鼓励
特别声明:以上内容(如有图片或视频亦包括在内)为自媒体平台“网易号”用户上传并发布,本平台仅提供信息存储服务。
Notice:Thecontentabove(includingthepicturesandvideosifany)isuploadedandpostedbyauserofNetEaseHao,whichisasocialmediaplatformandonlyprovidesinformationstorageservices.
/阅读下一篇/返回网易首页下载网易新闻客户端人工智能究竟能否获得主体地位
从存在论视角看人工智能的主体地位
我们针对以上三种观点讨论。其一,人类智能应用领域的广泛性。
科学家们通常承认,很多动物擅长某种事情,如蜜蜂擅长建造蜂房,老鼠擅长打洞。但动物在它们各自擅长的领域之外,往往就会“黔驴技穷”,比如蜜蜂不会打洞,老鼠也不会构造房子。也就是说,动物和自己的生命活动是直接同一的,它所擅长的领域通常是固定的,来自于本能;而且这样的领域是有限的,不会超出它们生存所需要的范围。但人类与一般动物不同,人类虽然天生不会造房子,但可以通过后天的学习,学会如何建造房子;人类虽然天生不会打洞,但可以通过设计出相应的机械打造出合适的洞穴。所以马克思指出,人的活动与动物的本能活动之间存在着本质区别:“动物只是按照它所属的那个种的尺度和需要来构造,而人却懂得按照任何一个种的尺度来进行生产,并且懂得处处都把固有的尺度运用于对象;因此,人也按照美的规律来构造。”
人类之所以是“万物之灵”“世界的主宰”,关键在于人“会思维”,具有智能。博斯特罗姆(NickBostrom)和尤德考斯基(EliezerYudkowsky)认为,虽然关于“人类智能是否是普遍的”这一问题存在争议,但毫无疑问,人类智能肯定比非人科智能具有更广泛的应用。这也就是说,人类智能的应用领域并不会像一般动物那样固定在某个特定的领域。人类智能可以在不同的领域中起作用,并且,其应用领域可以不断地发生变化。上述第一种观点认为,正是因为人类智能的这种特征,使得人类可以获得独立的主体地位。
我们现在需要追问的是:人工智能能否发展出类似于人类智能那样的特征,可以独立地应用于各种不同的领域。在回答这个问题之前,我们有必要首先扼要了解一下什么是人工智能,以及人工智能的一般运作模式。
人工智能正在快速发展之中,关于“人工智能是什么”这一问题,目前学术界尚没有一个公认的定义。大致说来,人工智能是一门通过利用计算机、数学、逻辑、机械甚至生物原则和装置来理解、模拟、甚至超越人类智能的技术科学。它可以是理论性的,但更多的时候是实践性的,主要属于认知科学。其中,大数据是人工智能的基础,而程序或算法则是其核心。当然,基于对人工智能的这种理解,要想直接回答“通过这样一门技术科学所获得的成果能否像人类一样获得主体地位”这个问题还难度甚大,但这不妨碍我们间接地思考这一问题的答案。
学者们往往将人工智能划分为强人工智能与弱人工智能。这一划分最早是由塞尔(JohnRSearle)提出来的。他首先提出了这样一个问题:我们应该赋予最近计算机模拟人类认知能力的努力什么样的心理和哲学意义?然后基于对这一问题的回答区分弱人工智能与强人工智能。弱人工智能认为,人工智能模拟人类心灵的价值原则是为我们提供一个强有力的工具。而强人工智能则认为,计算机并不仅仅是一种工具,在它能够给出合适的程序的意义上,它可以被理解为拥有其他种类的认知状态,应该被视为一个心灵。塞尔的区分得到很多人的支持。如阿库达斯(KonstantineArkoudas)和布林斯约德(SelmerBringsjord)认为,弱人工智能旨在构建行动聪明的机器,而在该机器实际上是否聪明的问题上不采取立场;至于强人工智能,他们借鉴了海于格兰(J.Haugeland)的观点,认为人工智能不仅仅是模仿智能或产生某些聪明的假象,而是希望获得真正的主体,即成为拥有心灵的机器。
如果我们接受弱人工智能的观点,认为人工智能只是一种工具,那么很显然,人工智能无法拥有主体地位。首先,工具总是被动的,为人类所利用,无法自主地行动。其次,工具往往具有特定的功能,只适用于特定的任务,无法像人类智能那样适用于比较广泛的领域。当前人工智能产品所展现的恰恰是这种工具性。如AlphaGo目前在围棋领域独步天下,但对其他领域一无所知;“薇你写诗”小程序比较擅长古诗创作,却无法处理其他事务。因此,如果认为人类智能是由于能够广泛地适用于各种不同的领域而获得主体地位,那么弱人工智能无论如何都无法获得主体地位。
如果我们支持强人工智能的观点,认为人工智能不仅仅是一种工具,更应该被理解为心灵,那么情况将会复杂得多。因为心灵一般被视为可以适用于多种不同的领域。如果这种观点成立,似乎意味着强人工智能视角下的人工智能应该具有主体地位。
在做出肯定的回答之前,我们有必要追问强人工智能视角下的心灵界定。根据塞尔的观点,强人工智能认为,应该被视为心灵的机器是被“合适程序”控制的机器。这表明,强人工智能所理解的心灵实际上等价于程序。即是说,强人工智能认为,心灵即是程序。很明显,这种对心灵的解释与人们通常对心灵的理解是不同的。基于对程序的理解,博斯特罗姆和尤德考斯基认为,人工智能要求具有鲁棒性(berobust,即系统在一定参数波动下能够维持其基本性能的特性),而不是可篡改性(manipulation)。即是说,人工智能要求它的产品能够排除外在因素的影响,在不同场景中实现同一个目的。因此,它所预设的程序总是为了某个特定的目的而被内置于其中的,而这与人类智能的要求恰恰相反。人类智能并不需要为心灵预先设定某个特定的目的,它的目的总是随环境的变化而发生变化,甚至在同一种环境中也可能有所不同。当然,我们可以设想程序叠加的情况。也就是说,我们可以设想在某个时候,科学家将不同的程序通过某种方式融合在一起,使其不但能够处理不同场景中的事情,甚至可以在同一场景中处理不同的事情。在我们看来,这种情况即便成立,人工智能可能仍然无法获得主体地位。因为严格地说,人类智能所能应用的领域是无限的。因为人类有无限的可能性。但对于人工智能而言,无论如何添加算法,它的程序数量总是有限的。因此,如果坚持人类智能是由于能够广泛适用于各种不同的领域而获得主体地位,那么强人工智能视角下的人工智能也无法获得主体地位。
从认识论视角看人工智能的主体地位
我们现在考察第二类观点,即认为人类之所以拥有主体地位,是因为人类拥有某些不同于非人类的高级智能。至于这些高级智能到底是什么,观点各异。如亚里士多德认为,“理性实为人类所独有”〖ZW(〗亚里士多德:《政治学》,吴寿彭译,北京:商务印书馆,1983年,第385页。〖ZW)〗;卡西尔则认为,“应当把人定义为符号的动物”,也就是说,会使用符号即语言是人类独有的能力;而马克思则同意富兰克林的理解,认为人是能制造工具的动物。在人类所具有的这些独特能力中,究竟哪种或哪些能力是人类具有主体地位的真正原因呢?回答这个问题十分困难,甚至通过判断人工智能能否获得此种能力、从而推论人工智能能否获得主体地位的思路也是行不通的。因为我们很难推断出哪种或哪些能力是人类具有主体地位的真正原因。
图灵测试为解决上述问题提供一个很好的方案,因为它并不需要假设人类具有何种独特的能力。图灵测试由图灵(A.M.Turing)于1950年首次提出。某一机器能否通过图灵测试,被许多学者看作判断该机器是否具有心理状态的标准。在论文《计算机器与智能》中,图灵围绕“心灵能否思考”的问题设计了一种“模仿游戏”。在这个游戏中,存在一个询问者,一个男性A和一个女性B,他们处于相互隔离的房间中,询问者的目的是通过询问A和B以确定他们各自的性别,A和B则以打字的方式回复询问者,其中,A试图扰乱询问者的判断,B则通过给出真实的答案帮助询问者。图灵认为,如果以一台机器代替A,并且游戏可以进行下去,那么就意味着该机器具有心理状态。如果图灵测试是有效的,我们就可以按照这个标准,在不需要知道什么样的能力是人类获得主体地位的原因的情况下,判断机器是否具有心理状态,并进一步判断人工智能能否获得主体地位。因此,问题的关键在于判断图灵测试是否有效。
图灵测试自诞生以来,在很长时间内都得到学术界的支持,直到塞尔提出“中文屋”思想实验,才打破了这一局面。中文屋的思想实验大致可以概括如下:假设塞尔被关在一个屋子里,这个屋子里有三批书,第一批书和第三批书是中文,第二批是英文。第二批书中的英文描写的是如何将第一批书和第三批书的内容联系起来的规则,并且指导塞尔在回复过程中使用什么样的符号。塞尔不懂中文,只懂英文,他的工作就是利用规则和中文书中的内容回复他看不懂的中文问题。从外部来看,塞尔似乎懂中文,因为他给出的回答与会说中文的人没有什么区别。但实际上,塞尔只不过是按照规则操作符号,他始终没有理解中文问题,甚至不知道他所处理的是中文。塞尔认为,他在中文屋里的工作是计算机工作的一种例示,只不过他所遵守的是英文的解释,而计算机遵守的是内置于其中的程序。如果塞尔的中文屋思想实验成立,那么就表明,即使有人工智能通过了图灵测试,也不能证明该人工智能具有心理状态。因为人工智能只不过是按照符号的句法规则进行操作,并没有达到真正的理解。
塞尔的中文屋思想实验提出以后,引起了广泛的讨论。由于篇幅有限,我们不打算在此详细讨论这些争论,而是将注意力集中在塞尔根据他的中文屋思想实验提炼出的一个核心论证之上。这个论证可以概括如下:
公理1:计算机程序是形式的(句法的);
公理2:人类心灵拥有心智内容(语义的);
公理3:句法自身既不是语义的结构性成分,也不是它的充分条件;
结论:程序自身既不是心灵的结构性成分,也不是它的充分条件。
这个论证的关键在公理3,即句法不能构成语义。一方面,如果我们将计算机的本质看作程序,而程序本身是由代码构成的,那么它只是符号的组合,只具有句法特征。另一方面,语义对于一个符号系统而言是独立的,如果有人希望发现句法的运作与语义之间的联系,那么,他必须能提供某些复杂的证据以展现这一点。就此而言,句法和语义不同,仅凭句法不能解释它的语义特征。因此,如果计算机可以被看作程序,那么最终的结论很可能是:机器,或者说人工智能的产品无论如何都不能被视为拥有心灵。
有些学者并不同意塞尔对机器的理解,比如科尔(DavidCole)、丹尼特(DanielDennett)、查尔默斯(DavidChalmers)等人认为,运行程序的计算机并不能简单地等同于句法,而应该视为一个复杂的电子因果系统。如果考虑到现在的人工智能产品(比如智能机器人),这一特点更加明显。也就是说,程序虽然可以视为句法,但运行程序的东西本身不能简单地归结为句法,它们与现实世界之间存在着紧密的联系。查尔默斯等人的观点毫无疑问是对的,但这是否意味着塞尔的批评无效呢?在我们看来,即便肯定机器人与现实世界之间的因果联系,也无法认定人工智能具有心智状态。因为因果联系本身不能为语义提供任何辩护。语义系统涉及真假,而真假与辩护相关,需提供证据或理由加以支持;但因果关系本身没有辩护能力,因果关系只能描述发生的事件。塞拉斯(WilfridSellars)曾说过:“在刻画有关知道的情景或状态时,我们不是为该情景或状态给出一个经验性的描述;我们是将其置于理由的或者关于辩护的逻辑空间之中,并且能够为一个人所说的内容辩护。”这也就是说,关于辩护的逻辑空间与经验性的描述必须明确区分开来。语义与辩护的逻辑空间相关,而因果关系则是一种经验性的描述,两者属于不同的层次。因此,即便人工智能产品与现实世界之间存在紧密的因果联系,仍然无法构成心智状态所要求的语义部分。从这个角度说,塞尔的结论仍然成立。也就是说,人工智能无法真正地具有心理状态。
由于塞尔的中文屋论证并没有假设人工智能产品具有何种能力,因此,如果我们为塞尔的论证提供的辩护是有效的,那么就表明,人工智能无论获得何种能力,都将无法获得主体地位。因为人工智能所获得的能力只能基于句法和因果关系进行运作,但无论是句法还是因果关系都无法构成主体所要求的语义成分,因而无法获得主体地位。
从价值论视角看人工智能的主体地位
从价值维度说,人之所以获得主体地位,是因为人类将自己当作目的,而不是像一般动物一样仅仅依据本能生活。当然,人类的目的很多,具体到个人身上,事业、爱情、甚至活着都可以是自己的目的。如果人工智能的发展使得自己具有目的意识,不再将自己视为人类的工具或者创造品,那么,我们可能就不得不承认人工智能具有主体地位。然而,在人工智能获得目的意识之前,我们需要考虑的是,在什么情况下,人工智能才有可能具有目的意识。
根据康德的理解,一个存在物要想具有目的意识,它必须首先是理性的,而且在实践领域必须是自由的。将这种观点应用于人工智能,我们认为,如果人工智能想要具有目的意识,必须首先具有理性能力,并且具有自由意识。当然,“什么是理性”,“什么是自由”,这些问题学术界一直存在争议,众说纷纭,莫衷一是。但处理这些争论不是我们讨论的重心,我们采用常识性的理解足矣。我们可以将人工智能具有理性能力理解为他能够进行反思推理,即人工智能知道自己在做什么,并根据已有的证据能够做出推断;至于自由意识,则可以设想成人工智能能够自由地进行价值选择,做出决断。如果我们的这种理解成立,那么,人工智能是否具有理性反思和推断能力,是否能够自由地进行价值选择、做出自由的决断呢?
首先考虑理性能力。从技术发展的视角看,令人工智能具有反思推理能力,应该不存在什么终极的困难。即使现在人工智能产品无法达到这一要求,也不意味着它们将来无法做到。实际上,围棋领域的AlphaGoZero已经具备了一定的推理能力,因为它可以根据围棋规则自我博弈,自己学习,并不断进行评估,推导下一步棋应该怎么走。而且,我们可以认为,AlphaGoZero已经具备了一定的反思能力,因为它是根据自我博弈的棋局深度学习、并进行优化选择的。因此,问题的关键在于考察人工智能产品能否在实践中具备自由决断的能力。
关于人工智能产品在实践中是否具备自由地选择、决断能力的问题,我们首先需要理解自由地选择和决断能力到底是什么样的能力。如果我们将自由地选择和决断的能力置于某一个系统内,那么很显然,人工智能产品可以自由地选择、决断。比如,在智能驾驶领域,无人驾驶汽车可以依据内嵌的交通规则和传感器获取的实时路况,实时地选择到底走哪一条路线。没有任何人会阻碍它的选择。问题在于,这种系统内的自由决断称不上真正的自由。就像一只老虎可以在羊群里自由地选择追逐任意一只羊,但几乎没有人承认老虎是自由的一样。真正意义上的自由需要突破这种特定的目的以及自身的限制,在所有的可能世界中进行选择。也就是说,人工智能要想真正地获得自由,必须能够不再局限于自身的某个特定目的,它所内嵌的程序需要能够赋予人工智能突破自身的潜力。
在我们看来,这种情况是不可能的。因为程序一旦生成,便决定了运行此程序的人工智能的“所是”,不论在什么情况下,它都不可能发生任何本质上的变化。一种可以设想的极端情况是人工智能自己编程,并利用相关的资源制造出新的人工智能产品。在这种情况下,新的人工智能产品有可能突破原有局限,进而获取新的能力;而原有的人工智能产品则有可能将制造出新的人工智能产品视为自己的目的。
接下来讨论被制造的新人工智能产品。被制造出的新人工智能产品受制于原有的人工智能产品,只要它的程序被固定下来,那么它就会受程序本身的限制,因而不可能是自由的。而且,如果我们将原有的人工智能产品与新的人工智能产品视为一个整体,那么,新的人工智能产品无论如何也无法突破这个整体的限制。即便它能够自由选择,这种自由选择仍然只是系统内的自由,而非真正意义上的自由。对于原有的人工智能产品而言,情况要更加复杂一些。因为它制造出新的人工智能产品的工作是一种创造工作,如果这种创造工作是自由的,它能够自由地创造出新的人工智能产品,那么,我们必须承认这种人工智能产品具有主体地位。问题在于,这种能够自由创造的人工智能产品是否可能?在我们看来,除非多明戈斯(PedroDomingos)所说的能够解决所有事情的“终极算法”存在,否则,这样一种能够自由创造的人工智能产品是不可能的。因为任何人工智能产品最终都会受算法的限制,都不可能进行自由的创造。但多明戈斯主张终极算法存在的论证很难令人信服。因为他所期望的终极算法依赖于现存的机器学习领域中的五大主流学派力推的五大主算法,如符号学派力推的规则和决策树、联结学派力推的神经网络、进化学派主张的遗传算法、贝叶斯学派主张的概率推理和类推学派推崇的类比推理。但五大主流学派主推的这些算法未必能处理所有事情。更重要的是,任何一种算法都是基于已有的数据进行自主学习,都很难处理小概率的黑天鹅事件。因此,我们认为,由于人工智能受制于程序(算法)本身,注定了它不可能获得真正的自由,也不可能获得价值论意义上的主体地位。
小结
通过以上论证,可以从存在论、认识论以及价值论的视角都得出了同样的结论,即人工智能难以获得真正的主体地位。从存在论的角度看,人工智能产品处理的领域是有限的;从认识论的角度看,人工智能产品无法获得真正的理解;从价值论的角度看,人工智能产品无法获得真正的自由。
不过,由于人工智能毕竟是一种颠覆性、革命性的高新科学技术,人工智能发展快速,特殊应用领域广泛(例如人形智能机器人的研发),我们也不能故步自封,固执己见。咀嚼现实,我们不难得出这样的结论,即不能将所有的人工智能产品简单地等同于工具。因为对于工具而言,它的价值仅仅只在于服务人类;但对于人工智能而言,我们不难想象在未来的某个时候,人工智能的发展使得一些人对某些人工智能产品(如人形的智能小秘书、智能保姆、智能机器人伴侣等)产生了一定的情感,并出于某些因素善待这些产品。尤其是智能技术与生物技术相结合,当仿生科技越来越先进之后,这种可能性将会越来越高。在诸如此类的新情况下,将所有人工智能产品简单地视为工具并不合适,甚至会受到一些人的质疑和抗议。因此,在未来智能社会,如何对待人工智能产品是值得我们思考的一个重大问题。
由于人工智能一般而论不可能具有主体地位,同时,有些人工智能产品又不能简单地等同于工具,因此,我们不妨将人工智能产品分类,其中一部分人工智能产品只能被当为工具,比如智能语音识别系统,而另一些人工智能产品则由于其特殊性,可以赋予其介于人类与工具之间的地位。我们可以将后者称为准主体地位。后者并不是真正的、完全意义上的主体,而是人类“赋予”它的主体地位。这有些类似今天登堂入室、地位不断攀升的宠物。人们之所以认为需要善待狗、猫之类宠物,甚至坚持它们是家庭的一份子,是因为“主人”长期与宠物相处,已经对这些宠物产生了复杂的情感,将它们当作一个主体来看待。不过需要指出的是,宠物之所以能够获得这种地位,并不是凭借宠物本身的能力获得的,而是人类赋予它们的,这源自人类本身的一种自我需要。如果人类在感情上不需要这些宠物,那么,它们就将失去这种地位。某些人工智能产品可能获得的准主体地位也与此类似。即是说,即便某些人工智能产品最终被某些人视为主体,这种主体地位仍然是人类赋予它们的,它最终依然可能失去这种主体地位。
以上图片来自百度图片
责编|阿尔法马返回搜狐,查看更多
人工智能的创新发展与社会影响
党的十八大以来,习近平总书记把创新摆在国家发展全局的核心位置,高度重视人工智能发展,多次谈及人工智能的重要性,为人工智能如何赋能新时代指明了方向。2018世界人工智能大会9月17日在上海开幕,习总书记致信祝贺并强调指出人工智能发展应用将有力提高经济社会发展智能化水平,有效增强公共服务和城市管理能力。深入学习领会习总书记关于人工智能的一系列重要论述,务实推进我国《新一代人工智能发展规划》,有效规避人工智能“鸿沟”,着力收获人工智能“红利”,对建设世界科技强国、实现“两个一百年”的奋斗目标具有重大战略意义。
一、引言
1956年人工智能(ArtificialIntelligence,简称AI)的概念被正式提出,标志着人工智能学科的诞生,其发展目标是赋予机器类人的感知、学习、思考、决策和行动等能力。经过60多年的发展,人工智能已取得突破性进展,在经济社会各领域开始得到广泛应用并形成引领新一轮产业变革之势,推动人类社会进入智能化时代。美国、日本、德国、英国、法国、俄罗斯等国家都制定了发展人工智能的国家战略,我国也于2017年发布了《新一代人工智能发展规划》,发改委、工信部、科技部、教育部等国家部委和北京、上海、广东、江苏等地政府也相继出台推动人工智能发展的相关政策文件,社会各界对人工智能的重大战略意义已形成广泛共识。
跟其他高科技一样,人工智能也是一把双刃剑。如何认识人工智能的社会影响,也有“天使派”和“魔鬼派”之分。“天使派”认为,人工智能领域的科技创新和成果应用取得重大突破,有望引领第四次工业革命,对社会、经济、军事等领域将产生变革性影响,在制造、交通、教育、医疗、服务等方面可以造福人类;“魔鬼派”认为,人工智能是人类的重大威胁,比核武器还危险,有可能引发第三次世界大战。2018年2月,牛津大学、剑桥大学和OpenAI公司等14家机构共同发布题为《人工智能的恶意使用:预测、预防和缓解》的报告,指出人工智能可能给人类社会带来数字安全、物理安全和政治安全等潜在威胁,并给出了一些建议来减少风险。
总体上看,已过花甲之年的人工智能当前的发展具有“四新”特征:以深度学习为代表的人工智能核心技术取得新突破、“智能+”模式的普适应用为经济社会发展注入新动能、人工智能成为世界各国竞相战略布局的新高地、人工智能的广泛应用给人类社会带来法律法规、道德伦理、社会治理等方面一系列的新挑战。因此人工智能这个机遇与挑战并存的新课题引起了全球范围内的广泛关注和高度重视。虽然人工智能未来的创新发展还存在不确定性,但是大家普遍认可人工智能的蓬勃兴起将带来新的社会文明,将推动产业变革,将深刻改变人们的生产生活方式,将是一场影响深远的科技革命。
为了客观认识人工智能的本质内涵和创新发展,本报告在简要介绍人工智能基本概念与发展历程的基础上,着重分析探讨人工智能的发展现状和未来趋势,试图揭示人工智能的真实面貌。很显然,在当下人工智能蓬勃发展的历史浪潮中如何选择中国路径特别值得我们深入思考和探讨。因此,本报告最后就我国人工智能发展态势、存在问题和对策建议也进行了阐述。
二、人工智能的发展历程与启示
1956年夏,麦卡锡(JohnMcCarthy)、明斯基(MarvinMinsky)、罗切斯特(NathanielRochester)和香农(ClaudeShannon)等科学家在美国达特茅斯学院开会研讨“如何用机器模拟人的智能”,首次提出“人工智能”这一概念,标志着人工智能学科的诞生。人工智能的目标是模拟、延伸和扩展人类智能,探寻智能本质,发展类人智能机器。人工智能充满未知的探索道路曲折起伏,如何描述1956年以来60余年的人工智能发展历程,学术界可谓仁者见仁、智者见智。我们将人工智能60余年的发展历程划分为以下6个阶段:
一是起步发展期:1956年-20世纪60年代初。人工智能概念在1956年首次被提出后,相继取得了一批令人瞩目的研究成果,如机器定理证明、跳棋程序、LISP表处理语言等,掀起了人工智能发展的第一个高潮。
二是反思发展期:60年代-70年代初。人工智能发展初期的突破性进展大大提升了人们对人工智能的期望,人们开始尝试更具挑战性的任务,并提出了一些不切实际的研发目标。然而,接二连三的失败和预期目标的落空(例如无法用机器证明两个连续函数之和还是连续函数、机器翻译闹出笑话等),使人工智能的发展走入了低谷。
三是应用发展期:70年代初-80年代中。20世纪70年代出现的专家系统模拟人类专家的知识和经验解决特定领域的问题,实现了人工智能从理论研究走向实际应用、从一般推理策略探讨转向运用专门知识的重大突破。专家系统在医疗、化学、地质等领域取得成功,推动人工智能走入了应用发展的新高潮。
四是低迷发展期:80年代中-90年代中。随着人工智能的应用规模不断扩大,专家系统存在的应用领域狭窄、缺乏常识性知识、知识获取困难、推理方法单一、缺乏分布式功能、难以与现有数据库兼容等问题逐渐暴露出来。
五是稳步发展期:90年代中-2010年。由于网络技术特别是互联网技术的发展,信息与数据的汇聚不断加速,互联网应用的不断普及加速了人工智能的创新研究,促使人工智能技术进一步走向实用化。1997年IBM深蓝超级计算机战胜了国际象棋世界冠军卡斯帕罗夫,2008年IBM提出“智慧地球”的概念,这些都是这一时期的标志性事件。
六是蓬勃发展期:2011年-至今。随着大数据、云计算、互联网、物联网等信息技术的发展,泛在感知数据和图形处理器(GraphicsProcessingUnit,简称GPU)等计算平台推动以深度神经网络为代表的人工智能技术飞速发展,大幅跨越科学与应用之间的“技术鸿沟”,图像分类、语音识别、知识问答、人机对弈、无人驾驶等具有广阔应用前景的人工智能技术突破了从“不能用、不好用”到“可以用”的技术瓶颈,人工智能发展进入爆发式增长的新高潮。
通过总结人工智能发展历程中的经验和教训,我们可以得到以下启示:
(一)尊重学科发展规律是推动学科健康发展的前提。科学技术的发展有其自身的规律,顺其者昌,违其者衰。人工智能学科发展需要基础理论、数据资源、计算平台、应用场景的协同驱动,当条件不具备时很难实现重大突破。
(二)基础研究是学科可持续发展的基石。加拿大多伦多大学杰弗里·辛顿(GeoffreyHinton)教授坚持研究深度神经网络30年,奠定人工智能蓬勃发展的重要理论基础。谷歌的DeepMind团队长期深入研究神经科学启发的人工智能等基础问题,取得了阿尔法狗等一系列重大成果。
(三)应用需求是科技创新的不竭之源。引领学科发展的动力主要来自于科学和需求的双轮驱动。人工智能发展的驱动力除了知识与技术体系内在矛盾外,贴近应用、解决用户需求是创新的最大源泉与动力。比如专家系统人工智能实现了从理论研究走向实际应用的突破,近些年来安防监控、身份识别、无人驾驶、互联网和物联网大数据分析等实际应用需求带动了人工智能的技术突破。
(四)学科交叉是创新突破的“捷径”。人工智能研究涉及信息科学、脑科学、心理科学等,上世纪50年代人工智能的出现本身就是学科交叉的结果。特别是脑认知科学与人工智能的成功结合,带来了人工智能神经网络几十年的持久发展。智能本源、意识本质等一些基本科学问题正在孕育重大突破,对人工智能学科发展具有重要促进作用。
(五)宽容失败应是支持创新的题中应有之义。任何学科的发展都不可能一帆风顺,任何创新目标的实现都不会一蹴而就。人工智能60余载的发展生动地诠释了一门学科创新发展起伏曲折的历程。可以说没有过去发展历程中的“寒冬”就没有今天人工智能发展新的春天。
(六)实事求是设定发展目标是制定学科发展规划的基本原则。达到全方位类人水平的机器智能是人工智能学科宏伟的终极目标,但是需要根据科技和经济社会发展水平来设定合理的阶段性研究目标,否则会有挫败感从而影响学科发展,人工智能发展过程中的几次低谷皆因不切实际的发展目标所致。
三、人工智能的发展现状与影响
人工智能经过60多年的发展,理论、技术和应用都取得了重要突破,已成为推动新一轮科技和产业革命的驱动力,深刻影响世界经济、政治、军事和社会发展,日益得到各国政府、产业界和学术界的高度关注。从技术维度来看,人工智能技术突破集中在专用智能,但是通用智能发展水平仍处于起步阶段;从产业维度来看,人工智能创新创业如火如荼,技术和商业生态已见雏形;从社会维度来看,世界主要国家纷纷将人工智能上升为国家战略,人工智能社会影响日益凸显。
(一)专用人工智能取得重要突破。从可应用性看,人工智能大体可分为专用人工智能和通用人工智能。面向特定领域的人工智能技术(即专用人工智能)由于任务单一、需求明确、应用边界清晰、领域知识丰富、建模相对简单,因此形成了人工智能领域的单点突破,在局部智能水平的单项测试中可以超越人类智能。人工智能的近期进展主要集中在专用智能领域,统计学习是专用人工智能走向实用的理论基础。深度学习、强化学习、对抗学习等统计机器学习理论在计算机视觉、语音识别、自然语言理解、人机博弈等方面取得成功应用。例如,阿尔法狗在围棋比赛中战胜人类冠军,人工智能程序在大规模图像识别和人脸识别中达到了超越人类的水平,语音识别系统5.1%的错误率比肩专业速记员,人工智能系统诊断皮肤癌达到专业医生水平,等等。
(二)通用人工智能尚处于起步阶段。人的大脑是一个通用的智能系统,能举一反三、融会贯通,可处理视觉、听觉、判断、推理、学习、思考、规划、设计等各类问题,可谓“一脑万用”。真正意义上完备的人工智能系统应该是一个通用的智能系统。虽然包括图像识别、语音识别、自动驾驶等在内的专用人工智能领域已取得突破性进展,但是通用智能系统的研究与应用仍然是任重而道远,人工智能总体发展水平仍处于起步阶段。美国国防高级研究计划局(DefenseAdvancedResearchProjectsAgency,简称DARPA)把人工智能发展分为三个阶段:规则智能、统计智能和自主智能,认为当前国际主流人工智能水平仍然处于第二阶段,核心技术依赖于深度学习、强化学习、对抗学习等统计机器学习,AI系统在信息感知(Perceiving)、机器学习(Learning)等智能水平维度进步显著,但是在概念抽象(Abstracting)和推理决策(Reasoning)等方面能力还很薄弱。总体上看,目前的人工智能系统可谓有智能没智慧、有智商没情商、会计算不会“算计”、有专才无通才。因此,人工智能依旧存在明显的局限性,依然还有很多“不能”,与人类智慧还相差甚远。
(三)人工智能创新创业如火如荼。全球产业界充分认识到人工智能技术引领新一轮产业变革的重大意义,纷纷调整发展战略。比如,在其2017年的年度开发者大会上,谷歌明确提出发展战略从“MobileFirst”(移动优先)转向“AIFirst”(AI优先);微软2017财年年报首次将人工智能作为公司发展愿景。人工智能领域处于创新创业的前沿,麦肯锡报告2016年全球人工智能研发投入超300亿美元并处于高速增长,全球知名风投调研机构CBInsights报告显示2017年全球新成立人工智能创业公司1100家,人工智能领域共获得投资152亿美元,同比增长141%。
(四)创新生态布局成为人工智能产业发展的战略高地。信息技术(IT)和产业的发展史就是新老IT巨头抢滩布局IT创新生态的更替史。例如,传统信息产业IT(InformationTechnology)代表企业有微软、英特尔、IBM、甲骨文等,互联网和移动互联网IT(InternetTechnology)代表企业有谷歌、苹果、脸书、亚马逊、阿里巴巴、腾讯、百度等,目前智能科技IT(IntelligentTechnology)的产业格局还没有形成垄断,因此全球科技产业巨头都在积极推动AI技术生态的研发布局,全力抢占人工智能相关产业的制高点。人工智能创新生态包括纵向的数据平台、开源算法、计算芯片、基础软件、图形处理GPU服务器等技术生态系统和横向的智能制造、智能医疗、智能安防、智能零售、智能家居等商业和应用生态系统。在技术生态方面,人工智能算法、数据、图形处理器(GraphicsProcessingUnit,简称GPU)/张量处理器(TensorProcessingUnit,简称TPU)/神经网络处理器(NeuralnetworkProcessingUnit,NPU)计算、运行/编译/管理等基础软件已有大量开源资源,例如谷歌的TensorFlow第二代人工智能学习系统、脸书的PyTorch深度学习框架、微软的DMTK分布式学习工具包、IBM的SystemML开源机器学习系统等;此外谷歌、IBM、英伟达、英特尔、苹果、华为、中国科学院等积极布局人工智能领域的计算芯片。在人工智能商业和应用生态布局方面,“智能+X”成为创新范式,例如“智能+制造”、“智能+医疗”、“智能+安防”等,人工智能技术向创新性的消费场景和不同行业快速渗透融合并重塑整个社会发展,这是人工智能作为第四次技术革命关键驱动力的最主要表现方式。人工智能商业生态竞争进入白热化,例如智能驾驶汽车领域的参与者既有通用、福特、奔驰、丰田等传统龙头车企,又有互联网造车者如谷歌、特斯拉、优步、苹果、百度等新贵。
(五)人工智能上升为世界主要国家的重大发展战略。人工智能正在成为新一轮产业变革的引擎,必将深刻影响国际产业竞争格局和一个国家的国际竞争力。世界主要发达国家纷纷把发展人工智能作为提升国际竞争力、维护国家安全的重大战略,加紧积极谋划政策,围绕核心技术、顶尖人才、标准规范等强化部署,力图在新一轮国际科技竞争中掌握主导权。无论是德国的“工业4.0”、美国的“工业互联网”、日本的“超智能社会”、还是我国的“中国制造2025”等重大国家战略,人工智能都是其中的核心关键技术。2017年7月,国务院发布了《新一代人工智能发展规划》,开启了我国人工智能快速创新发展的新征程。
(六)人工智能的社会影响日益凸显。人工智能的社会影响是多元的,既有拉动经济、服务民生、造福社会的正面效应,又可能出现安全失控、法律失准、道德失范、伦理失常、隐私失密等社会问题,以及利用人工智能热点进行投机炒作从而存在泡沫风险。首先,人工智能作为新一轮科技革命和产业变革的核心力量,促进社会生产力的整体跃升,推动传统产业升级换代,驱动“无人经济”快速发展,在智能交通、智能家居、智能医疗等民生领域发展积极正面影响。与此同时,我们也要看到人工智能引发的法律、伦理等问题日益凸显,对当下的社会秩序及公共管理体制带来了前所未有的新挑战。例如,2016年欧盟委员会法律事务委员会提交一项将最先进的自动化机器人身份定位为“电子人(electronicpersons)”的动议,2017年沙特阿拉伯授予机器人“索菲亚”公民身份,这些显然冲击了传统的民事主体制度。那么,是否应该赋予人工智能系统法律主体资格?另外在人工智能新时代,个人信息和隐私保护、人工智能创作内容的知识产权、人工智能歧视和偏见、无人驾驶系统的交通法规、脑机接口和人机共生的科技伦理等问题都需要我们从法律法规、道德伦理、社会管理等多个角度提供解决方案。
由于人工智能与人类智能密切关联且应用前景广阔、专业性很强,容易造成人们的误解,也带来了不少炒作。例如,有些人错误地认为人工智能就是机器学习(深度学习),人工智能与人类智能是零和博弈,人工智能已经达到5岁小孩的水平,人工智能系统的智能水平即将全面超越人类水平,30年内机器人将统治世界,人类将成为人工智能的奴隶,等等。这些错误认识会给人工智能的发展带来不利影响。还有不少人对人工智能预期过高,以为通用智能很快就能实现,只要给机器人发指令就可以干任何事。另外,有意炒作并通过包装人工智能概念来谋取不当利益的现象时有发生。因此,我们有义务向社会大众普及人工智能知识,引导政府、企业和广大民众科学客观地认识和了解人工智能。
四、人工智能的发展趋势与展望
人工智能经过六十多年的发展突破了算法、算力和算料(数据)等“三算”方面的制约因素,拓展了互联网、物联网等广阔应用场景,开始进入蓬勃发展的黄金时期。从技术维度看,当前人工智能处于从“不能用”到“可以用”的技术拐点,但是距离“很好用”还有数据、能耗、泛化、可解释性、可靠性、安全性等诸多瓶颈,创新发展空间巨大,从专用到通用智能,从机器智能到人机智能融合,从“人工+智能”到自主智能,后深度学习的新理论体系正在酝酿;从产业和社会发展维度看,人工智能通过对经济和社会各领域渗透融合实现生产力和生产关系的变革,带动人类社会迈向新的文明,人类命运共同体将形成保障人工智能技术安全、可控、可靠发展的理性机制。总体而言,人工智能的春天刚刚开始,创新空间巨大,应用前景广阔。
(一)从专用智能到通用智能。如何实现从狭义或专用人工智能(也称弱人工智能,具备单一领域智能)向通用人工智能(也称强人工智能,具备多领域智能)的跨越式发展,既是下一代人工智能发展的必然趋势,也是国际研究与应用领域的挑战问题。2016年10月美国国家科学技术委员会发布了《国家人工智能研究与发展战略计划》,提出在美国的人工智能中长期发展策略中要着重研究通用人工智能。DeepMind创始人戴密斯·哈萨比斯(DemisHassabis)提出朝着“创造解决世界上一切问题的通用人工智能”这一目标前进。微软在2017年7月成立了通用人工智能实验室,100多位感知、学习、推理、自然语言理解等方面的科学家参与其中。
(二)从人工智能到人机混合智能。人工智能的一个重要研究方向就是借鉴脑科学和认知科学的研究成果,研究从智能产生机理和本质出发的新型智能计算模型与方法,实现具有脑神经信息处理机制和类人智能行为与智能水平的智能系统。在美国、欧盟、日本等国家和地区纷纷启动的脑计划中,类脑智能已成为核心目标之一。英国工程与自然科学研究理事会EPSRC发布并启动了类脑智能研究计划。人机混合智能旨在将人的作用或认知模型引入到人工智能系统中,提升人工智能系统的性能,使人工智能成为人类智能的自然延伸和拓展,通过人机协同更加高效地解决复杂问题。人机混合智能得到了我国新一代人工智能规划、美国脑计划、脸书(脑机语音文本界面)、特斯拉汽车创始人埃隆·马斯克(人脑芯片嵌入和脑机接口)等的高度关注。
(三)从“人工+智能”到自主智能系统。当前人工智能的研究集中在深度学习,但是深度学习的局限是需要大量人工干预:人工设计深度神经网络模型、人工设定应用场景、人工采集和标注大量训练数据(非常费时费力)、用户需要人工适配智能系统等。因此已有科研人员开始关注减少人工干预的自主智能方法,提高机器智能对环境的自主学习能力。例如阿法元从零开始,通过自我对弈强化学习实现围棋、国际象棋、日本将棋的“通用棋类AI”。在人工智能系统的自动化设计方面,2017年谷歌提出的自动化学习系统(AutoML)试图通过自动创建机器学习系统降低AI人员成本。
(四)人工智能将加速与其他学科领域交叉渗透。人工智能本身是一门综合性的前沿学科和高度交叉的复合型学科,研究范畴广泛而又异常复杂,其发展需要与计算机科学、数学、认知科学、神经科学和社会科学等学科深度融合。随着超分辨率光学成像、光遗传学调控、透明脑、体细胞克隆等技术的突破,脑与认知科学的发展开启了新时代,能够大规模、更精细解析智力的神经环路基础和机制,人工智能将进入生物启发的智能阶段,依赖于生物学、脑科学、生命科学和心理学等学科的发现,将机理变为可计算的模型,同时人工智能也会促进脑科学、认知科学、生命科学甚至化学、物理、材料等传统科学的发展。例如,2018年美国麻省理工学院启动的“智能探究计划”(MITIntelligenceQuest)就联合了五大学院进行协同攻关。
(五)人工智能产业将蓬勃发展。随着人工智能技术的进一步成熟以及政府和产业界投入的日益增长,人工智能应用的云端化将不断加速,全球人工智能产业规模在未来十年将进入高速增长期。例如,2016年9月,咨询公司埃森哲发布报告指出,人工智能技术的应用将为经济发展注入新动力,在现有基础上能够提高劳动生产率40%;美、日、英、德、法等12个发达国家(现占全球经济总量的一半)到2035年,年经济增长率平均可以翻一番。2018年麦肯锡的研究报告表明到2030年人工智能新增经济规模将达到13万亿美元。
(六)人工智能将推动人类进入普惠型智能社会。“人工智能+X”的创新模式将随着技术和产业的发展日趋成熟,对生产力和产业结构产生革命性影响,并推动人类进入普惠型智能社会。2017年国际数据公司IDC在《信息流引领人工智能新时代》白皮书中指出未来五年人工智能提升各行业运转效率,其中教育业提升82%,零售业71%,制造业64%,金融业58%。我国经济社会转型升级对人工智能有重大需求,在消费场景和行业应用的需求牵引下,需要打破人工智能的感知瓶颈、交互瓶颈和决策瓶颈,促进人工智能技术与社会各行各业的融合提升,建设若干标杆性的应用场景创新,实现低成本、高效益、广范围的普惠型智能社会。
(七)人工智能领域的国际竞争将日趋激烈。“未来谁率先掌握人工智能,谁就能称霸世界”。2018年4月,欧盟委员会计划2018-2020年在人工智能领域投资240亿美元;法国总统在2018年5月宣布《法国人工智能战略》,目的是迎接人工智能发展的新时代,使法国成为人工智能强国;2018年6月,日本《未来投资战略》重点推动物联网建设和人工智能的应用。世界军事强国已逐步形成以加速发展智能化武器装备为核心的竞争态势,例如美国特朗普政府发布的首份《国防战略》报告即提出谋求通过人工智能等技术创新保持军事优势,确保美国打赢未来战争;俄罗斯2017年提出军工拥抱“智能化”,让导弹和无人机这样的“传统”兵器威力倍增。
(八)人工智能的社会学将提上议程。水能载舟,亦能覆舟。任何高科技也都是一把双刃剑。随着人工智能的深入发展和应用的不断普及,其社会影响日益明显。人工智能应用得当、把握有度、管理规范,就能有效控制负面风险。为了确保人工智能的健康可持续发展并确保人工智能的发展成果造福于民,需要从社会学的角度系统全面地研究人工智能对人类社会的影响,深入分析人工智能对未来经济社会发展的可能影响,制定完善的人工智能法律法规,规避可能风险,确保人工智能的正面效应。2017年9月,联合国犯罪和司法研究所(UNICRI)决定在海牙成立第一个联合国人工智能和机器人中心,规范人工智能的发展。2018年4月,欧洲25个国家签署了《人工智能合作宣言》,从国家战略合作层面来推动人工智能发展,确保欧洲人工智能研发的竞争力,共同面对人工智能在社会、经济、伦理及法律等方面的机遇和挑战。
五、我国人工智能的发展态势与思考
我国当前人工智能发展的总体态势良好。中国信通院联合高德纳咨询公司(Gartner)于2018年9月发布的《2018世界人工智能产业发展蓝皮书》报告统计,我国(不含港澳台地区)人工智能企业总数位列全球第二(1040家),仅次于美国(2039家)。在人工智能总体水平和应用方面,我国也处于国际前列,发展潜力巨大,有望率先突破成为全球领跑者。但是我们也要清醒地看到,我国人工智能发展存在过热和泡沫化风险,特别在基础研究、技术体系、应用生态、创新人才、法律规范等方面仍然存在不少问题。总体而言,我国人工智能发展现状可以用“高度重视,态势喜人,差距不小,前景看好”来概括。
一是高度重视。党和国家高度重视并大力发展人工智能。党的十八大以来,习近平总书记把创新摆在国家发展全局的核心位置,高度重视人工智能发展,多次谈及人工智能的重要性,为人工智能如何赋能新时代指明方向。2016年7月习总书记明确指出,人工智能技术的发展将深刻改变人类社会生活,改变世界,应抓住机遇,在这一高技术领域抢占先机。在党的十九大报告中,习总书记强调“要推动互联网、大数据、人工智能和实体经济深度融合”。在2018年两院院士大会上,习总书记再次强调要“推进互联网、大数据、人工智能同实体经济深度融合,做大做强数字经济”。在2017年和2018年的《政府工作报告》中,李克强总理都提到了要加强新一代人工智能发展。2017年7月,国务院发布了《新一代人工智能发展规划》,将新一代人工智能放在国家战略层面进行部署,描绘了面向2030年的我国人工智能发展路线图,旨在构筑人工智能先发优势,把握新一轮科技革命战略主动,人工智能将成为今后一段时期的国家重大战略。发改委、工信部、科技部、教育部、中央网信办等国家部委和北京、上海、广东、江苏、浙江等地方政府都推出了发展人工智能的鼓励政策。
二是态势喜人。根据2017年爱思唯尔(Elsevier)文献数据库SCOPUS统计结果,我国在人工智能领域发表的论文数量已居世界第一。从2012年开始,我国在人工智能领域新增专利数量已经开始超越美国。据清华大学发布的《中国人工智能发展报告2018》统计,我国已成全球人工智能投融资规模最大国家,我国人工智能企业在人脸识别、语音识别、安防监控、智能音箱、智能家居等人工智能应用领域处于国际前列。近两年,清华大学、北京大学、中国科学院大学、浙江大学、上海交通大学、南京大学等高校纷纷成立人工智能学院。2015年开始的中国人工智能大会(CCAI)已连续成功召开四届、规模不断扩大,人工智能领域的教育、科研与学术活动层出不穷。
三是差距不小。我国人工智能在基础研究、原创成果、顶尖人才、技术生态、基础平台、标准规范等方面距离世界领先水平还存在较大差距。英国牛津大学2018年的一项研究报告指出中国的人工智能发展能力大致为美国的一半水平。目前我国在人工智能前沿理论创新方面总体上尚处于“跟跑”地位,大部分创新偏重于技术应用,存在“头重脚轻”的不均衡现象。在Top700全球AI人才中,中国虽然名列第二,但入选人数远远低于占一半数量的美国。据领英《全球AI领域人才报告》统计,截至2017年一季度全球人工智能领域专业技术人才数量超过190万,其中美国超过85万,我国仅超过5万人,排名全球第7位。2018年市场研究顾问公司CompassIntelligence对全球100多家AI计算芯片企业进行了排名,我国没有一家企业进入前十。另外,我国人工智能开源社区和技术生态布局相对滞后,技术平台建设力度有待加强,国际影响力有待提高。我国参与制定人工智能国际标准的积极性和力度不够,国内标准制定和实施也较为滞后。我国制定完善人工智能相关法律法规的进程需要加快,对可能产生的社会影响还缺少深度分析。
四是前景看好。我国发展人工智能具有市场规模、应用场景、数据资源、人力资源、智能手机普及、资金投入、国家政策支持等多方面的综合优势,人工智能发展前景看好。全球顶尖管理咨询公司埃森哲于2017年发布的《人工智能:助力中国经济增长》报告显示,到2035年人工智能有望推动中国劳动生产率提高27%。我国发布的《新一代人工智能发展规划》提出到2030年,人工智能核心产业规模超过1万亿元,带动相关产业规模超过10万亿元。在我国未来的发展征程中,“智能红利”将有望弥补人口红利的不足。
人类社会已开始迈入智能化时代,人工智能引领社会发展是大势所趋,不可逆转。经历六十余年积累后,人工智能开始进入爆发式增长的红利期。伴随着人工智能自身的创新发展和向经济社会的全面渗透,这个红利期将持续相当长的时期。现在是我国加强人工智能布局、收获人工智能红利、引领智能时代的重大历史机遇期,如何在人工智能蓬勃发展的浪潮中选择好中国路径、抢抓中国机遇、展现中国智慧需要深入思考。
(一)树立理性务实的发展理念。围棋人机大战中阿尔法狗战胜李世石后,社会大众误以为人工智能已经无所不能,一些地方政府、社会企业、风险资金因此不切实际一窝蜂发展人工智能产业,一些别有用心的机构则有意炒作并通过包装人工智能概念来谋取不当利益。这种“一拥而上、一哄而散”的跟风行为不利于人工智能的健康可持续发展。任何事物的发展不可能一直处于高位,有高潮必有低谷,这是客观规律。根据高德纳咨询公司发布的技术发展曲线,当前智能机器人、认知专家顾问、机器学习、自动驾驶等人工智能热门技术与领域正处于期望膨胀期,但是通用人工智能及人工智能的整体发展仍处于初步阶段,人工智能还有很多“不能”,实现机器在任意现实环境的自主智能和通用智能仍然需要中长期理论和技术积累,并且人工智能对工业、交通、医疗等传统领域的渗透和融合是个长期过程,很难一蹴而就。因此发展人工智能不能以短期牟利为目的,要充分考虑到人工智能技术的局限性,充分认识到人工智能重塑传统产业的长期性和艰巨性,理性分析人工智能发展需求,理性设定人工智能发展目标,理性选择人工智能发展路径,并务实推进人工智能发展举措,只有这样才能确保人工智能健康可持续发展。
(二)加强基础扎实的原创研究。人工智能前沿基础理论是人工智能技术突破、行业革新、产业化推进的基石。在此发展的临界点,要想取得最终的话语权,必须在人工智能基础理论和前沿技术方面取得重大突破。根据2017年爱思唯尔文献数据库SCOPUS统计结果,尽管我国在人工智能领域发表的论文数量已经排名世界第一,但加权引文影响力则只排名34位。为了客观评价我国在人工智能基础研究方面的整体实力,我们搜索了SCI期刊、神经信息处理系统大会(ConferenceonNeuralInformationProcessingSystems,简称NIPS)等主流人工智能学术会议关于通用智能、深度学习、类脑智能、脑智融合、人机博弈等关键词的论文统计情况,可以清楚看到在人工智能前沿方向中国与美国相比基础实力存在巨大差距:在高质量论文数量方面(按中科院划定的SCI一区论文标准统计),美国是中国的5.34倍(1325:248);在人才储备方面(SCI论文通讯作者),美国是中国的2.12倍(4804:2267)。
我国应对标国际最高水平,建设面向未来的人工智能基础科学研究中心,重点发展原创性、基础性、前瞻性、突破性的人工智能科学。应该鼓励科研人员瞄准人工智能学科前沿方向开展引领性原创科学研究,通过人工智能与脑认知、神经科学、心理学等学科的交叉融合,重点聚焦人工智能领域的重大基础性科学问题,形成具有国际影响力的人工智能原创理论体系,为构建我国自主可控的人工智能技术创新生态提供领先跨越的理论支撑。
(三)构建自主可控的创新生态。美国谷歌、IBM、微软、脸书等企业在AI芯片、服务器、操作系统、开源算法、云服务、无人驾驶等方面积极构建创新生态、抢占创新高地,已经在国际人工智能产业格局中占据先机。我国人工智能开源社区和技术创新生态布局相对滞后,技术平台建设力度有待加强,国际影响力有待提高。美国对中兴通讯发禁令一事充分说明自主可控“核高基”技术的重要性,我国应该吸取在核心电子器件、高端通用芯片及基础软件方面依赖进口的教训,避免重蹈覆辙,着力防范人工智能时代“空心化”风险,系统布局并重点发展人工智能领域的“新核高基”:“新”指新型开放创新生态,如军民融合、产学研融合等;“核”指核心关键技术与器件,如先进机器学习技术、鲁棒模式识别技术、低功耗智能计算芯片等;“高”指高端综合应用系统与平台,如机器学习软硬件平台、大型数据平台等;“基”指具有重大原创意义和技术带动性的基础理论与方法,如脑机接口、类脑智能等。
另外,我们需要重视人工智能技术标准的建设、产品性能与系统安全的测试。特别是我国在人工智能技术应用方面走在世界前列,在人工智能国际标准制定方面应当掌握话语权,并通过标准实施加速人工智能驱动经济社会转型升级的进程。
(四)建立协同高效的创新体系。我国经济社会转型升级对人工智能有重大需求,但是单一的创新主体很难实现政策、市场、技术、应用等方面的全面突破。目前我国学术界、产业界、行业部门在人工智能发展方面各自为政的倾向比较明显,数据资源开放共享不够,缺少对行业资源的有效整合。相比而言,美国已经形成了全社会、全场景、全生态协同互动的人工智能协同创新体系,军民融合和产学研结合都做得很好。我国应在体制机制方面进一步改革创新,建立“军、政、产、学、研、用”一体的人工智能协同创新体系。例如,国家进行顶层设计和战略规划,举全国优势力量设立军事智能的研发和应用平台,提供“人工智能+X”行业融合、打破行业壁垒和行政障碍的激励政策;科技龙头企业引领技术创新生态建设,突破人工智能的重大技术瓶颈;高校科研机构进行人才培养和原始创新,着力构建公共数据资源与技术平台,共同建设若干标杆性的应用创新场景,推动成熟人工智能技术在城市、医疗、金融、文化、农业、交通、能源、物流、制造、安全、服务、教育等领域的深度应用,建设低成本高效益广范围的普惠型智能社会。
(五)加快创新人才的教育培养。发展人工智能关键在人才,中高端人才短缺已经成为我国人工智能做大做强的主要瓶颈。另外,我国社会大众的人工智能科技素养也需要进一步提升,每一个人都需要去适应人工智能时代的科技浪潮。在加强人工智能领军人才培养引进的同时,要面向技术创新和产业发展多层次培养人工智能创新创业人才。《新一代人工智能发展规划》提出逐步开展全民智能教育项目,在中小学阶段设置人工智能课程。目前人工智能科普活动受到各地学校的欢迎,但是缺少通俗易懂的高质量人工智能科普教材、寓教于乐的实验设备和器材、开放共享的教学互动资源平台。国家相关部门应高度重视人工智能教育领域的基础性工作,增加投入,组织优势力量,加强高水平人工智能教育内容和资源平台建设,加快人工智能专业的教学师资培训,从教材、教具、教师等多个环节全面保障我国人工智能教育工作的开展。
(六)推动共担共享的全球治理。人工智能将重塑全球政治和经济格局,发达国家通过人工智能技术创新掌控了产业链上游资源,难以逾越的技术鸿沟和产业壁垒有可能将进一步拉大发达国家和发展中国家的生产力发展水平差距。美国、日本、德国等通过人工智能和机器人的技术突破和广泛应用弥补他们的人力成本劣势,希望制造业从新兴国家回流发达国家。目前看,我国是发展中国家阵容中唯一有望成为全球人工智能竞争中的领跑者,应采取不同于一些国家的“经济垄断主义、技术保护主义、贸易霸凌主义”路线,尽快布局构建开放共享、质优价廉、普惠全球的人工智能技术和应用平台,配合国家“一带一路”战略,向亚洲、非洲、南美等经济欠发达地区输出高水平、低成本的“中国智造”成果、提供人工智能时代的中国方案,为让人工智能时代的“智能红利”普惠人类命运共同体做出中国贡献!
(七)制定科学合理的法律法规。要想实实在在收获人工智能带来的红利,首先应保证其安全、可控、可靠发展。美国和欧洲等发达国家和地区十分重视人工智能领域的法律法规问题。美国白宫多次组织这方面的研讨会、咨询会;特斯拉等产业巨头牵头成立OpenAI等机构,旨在以有利于整个人类的方式促进和发展友好的人工智能;科研人员自发签署23条“阿西洛马人工智能原则”,意图在规范人工智能科研及应用等方面抢占先机。我国在人工智能领域的法律法规制定及风险管控方面相对滞后,这种滞后局面与我国现阶段人工智能发展的整体形势不相适应,并可能成为我国人工智能下一步创新发展的一大掣肘。因此,有必要大力加强人工智能领域的立法研究,制定相应的法律法规,建立健全公开透明的人工智能监管体系,构建人工智能创新发展的良好法规环境。
(八)加强和鼓励人工智能社会学研究。人工智能的社会影响将是深远的、全方位的。我们当未雨绸缪,从国家安全、社会治理、就业结构、伦理道德、隐私保护等多个维度系统深入研究人工智能可能的影响,制定合理可行的应对措施,确保人工智能的正面效应。应大力加强人工智能领域的科普工作,打造科技与伦理的高效对话机制和沟通平台,消除社会大众对人工智能的误解与恐慌,为人工智能的发展营造理性务实、积极健康的社会氛围。
六、结束语
人工智能经过60多年的发展,进入了创新突破的战略机遇期和产业应用的红利收获期,必将对生产力和产业结构以及国际格局产生革命性影响,并推动人类进入普惠型智能社会。但是,我们需要清醒看到通用人工智能及人工智能的整体发展仍处于初级阶段,人工智能不是万能,人工智能还有很多“不能”。我们应当采取理性务实的发展路径,扎实推进基础研究、技术生态、人才培养、法律规范等方面的工作,在开放中创新,在创新中发展,全速跑赢智能时代,着力建设人工智能科技强国!
(主讲人系中国科学院院士)
人工智能发展中的法律问题研究
●应当赋予人工智能“有限的”民事主体地位,人工智能并不享有伦理性的人格权或身份权,而是享有经济性的财产权利以及承担相应的义务。同时,应否定人工智能的刑事主体资格,最终的刑事责任应由人来承担。
●目前由人工智能生成的内容不适合获得版权保护。具有创作功能的人工智能软件本身就是商品,而开发者许可他人利用人工智能生成相应内容的本质是服务,让开发者销售商品和服务行为回归市场本身,通过价格机制调节,才是人工智能产业发展的一般途径。
●人工智能市场领域作为新兴发展领域,应从反不正当竞争以及反垄断这两个公法上的规制入手,为人工智能寻求一个健康的市场环境。在反不正当竞争的公法规制方面,应迎接三个方面的挑战,即《反不正当竞争法》一般性条款的泛化运用、商业秘密及数据反不正当竞争保护的不足。在反垄断的公法规制上,应对通过算法共谋的垄断协议行为、通过数据垄断滥用市场支配地位行为以及未达到申报标准的经营者集中行为加强规制。
人工智能发展中的法律问题研究[①]
课题组长:童 潇
课题主要成员:董笃笃 王 哲 李 爽 夏海斌
课题参与成员:贾雯婷 尹丽湘 尤文韵 吴俊燕 殷明君王雪原 毕 明 张 冰 褚宏俐 陈 杨
引 言
自1956年人工智能(ArtificialIntelligence,AI)的概念首次提出至今,人工智能在制造业、金融业、医疗行业、服务业、交通运输、安全防御等领域的应用成果有目共睹,深刻地改变了人类的生活、生产和工作方式。随着第三次人工智能浪潮的开启,人工智能的发展正进入新阶段,呈现出深度学习、跨界融合、人机协同、群智开放和智能操作等新的模式特征。然而,与之相伴而生的是,人工智能时代也不可避免将对社会秩序的维持产生不容忽视的冲击,作为维护社会秩序屏障的传统法律体系,已不足以调和新的冲突与矛盾,在民事主体法、著作权法、侵权责任法、人格权法、交通法、劳动法等现有法律体系均同人工智能所带来的生产生活变化形成相应冲突的同时,相关人工智能的法律问题也引发了法学界的重点讨论和研究。
在人工智能的法律问题研究广泛展开之后,课题组通过对现有文献的梳理,发现目前的研究方向总体更趋向于以法律作为一个外部框架来探讨法律如何应对人工智能发展形成的各种新型法律问题及如何对于人工智能的发展进行规制。在这一方面的研究中,既包括针对目前的弱人工智能(ANI)的实际应用进行法律规制的相关研究,也包括对于未来的强人工智能(AGI)可能在人类社会所引发的问题进行预测性的研究,甚至还包含了对于未来的超人工智能(ASI)会造成什么样的颠覆性后果、是否对其进行严格法律约束的相关思考。对比三个层次的研究,由于弱人工智能事实上已出现在生产生活的方方面面,相关法律问题已逐步出现并急需得到解决。同时,对弱人工智能在具体应用实践中所作出的法律体系回应也比较容易整合入现有的法律体系框架当中。因此,本课题所立足的人工智能语境,并非比较超前且理想化的强人工智能范畴,而是基于当下现实的弱人工智能范畴,不将强人工智能乃至超人工智能纳入讨论范围,而仅限于探讨分析弱人工智能时代对现有法律体系可能造成的影响与挑战。
在此背景下,本课题重点选取人工智能法律主体资格、人工智能著作权保护及人工智能的市场准入和规制这三个较为突出的重点法律问题进行逐一分析,并提出一定的应对构想与思路,以进一步促进我国人工智能产业健康发展和相关法律体系的进一步完善。
一、人工智能的概念和发展现状研究
(一)人工智能的概念和特征
要在法律的框架中讨论人工智能,首先要明确的是其法律地位问题,人工智能享有何种法律地位,直接影响着如何对人工智能进行保护和规范,进而影响着人工智能和人类的未来。在讨论人工智能法律地位问题之前,应先对人工智能的相关概念加以界定,以为后文相关问题的展开和研究打下基础。
1.人工智能的概念
(1)人工智能的定义
2017年7月,我国发布《新一代人工智能发展规划》,从顶层设计上为人工智能的发展铺路。人工智能经过半个多世纪的发展,目前仍缺乏通用定义。人工智能的一个比较流行的定义,也是该领域较早的定义,是由约翰·麦卡锡在1956年的达特矛斯会议上提出的:人工智能就是要让机器的行为看起来就像是人所表现出的智能行为一样。但是这个定义似乎忽略了强人工智能的可能性。自20世纪90年代以来,国内外学者从不同角度,对人工智能的定义做了大量研究。课题组通过对相关人工智能定义进行总结,将人工智能定义分为三类:“功能相仿说”、“智能模拟说”和“生物构建说”。
1)功能相仿说
功能相仿说侧重对人工智能产出效果的重视,即以人工智能最终实现的智能产出能够满足人类生产生活需求为核心目标,至于其智能衍生的过程是否根据人类智能活动来进行模仿,不是该学说关注的重点。其代表人物如美国计算机科学家PeterNorvig,其将人工智能定义为:对计算机系统如何能够履行那些只有依靠人类智慧才能完成的任务的理论研究。[②]美国斯坦福大学尼尔逊教授将其定义为:怎样表示知识以及怎样获得知识并使用知识的科学;美国麻省理工学院的温斯顿教授将其定义为:研究如何使计算机去做过去只有人才能做的智能工作。[③]我国钟义信教授认为:人工智能就是探索人类智能(自然智能的最佳代表)的工作机理,并在此基础上研制各种具有人类智能水平的人工智能机器,为人类各种活动提供智能服务;[④]美国高盛集团发布的《2016高盛人工智能(AI)生态报告》将其定义为:制造智能机器、可学习计算程序和需要人类智慧解决问题的科学和工程。
2)智能模拟说
智能模拟说侧重于认为人工智能中智能的实现过程需要模拟人类的思维方式来进行,即相关认识、心理和决策等思维过程是模仿人类的思考方式进行的。相关代表人物中,闫志明教授等认为,人工智能是一个模拟人类能力和智慧行为,涉及计算机科学、控制论、信息论、神经生理学、语言学、心理学等的跨领域学科。[⑤]蔡曙山等认为,人工智能,就是让机器或人所创造的其他人工方法或系统来模拟人类智能;[⑥]阿里云研究中心2016年发布的《人工智能:未来制胜之道》将其定义为:研究、开发用于模拟、延伸和扩展人类智能的理论、方法、技术及应用系统的一门新的技术科学;北京36氪研究院2017年发布的《人工智能行业研究报告》将其定义为:使用机器代替人类实现认知、识别、分析、决策等功能,其本质是对人的意识与思维的信息过程的模拟,是一门综合了计算机科学、生理学、哲学的交叉学科。
3)生物构建说
生物构建说侧重于认为人工智能不仅思维模式需要模拟人类,连其相关产品的结构也应模仿人类的构造来生成。其代表观点中,卡内基梅隆大学认为,人工智能,即当人造物展现智能行为时,它的表现基于人类所使用的相同方法。[⑦]例如,考虑一个具有听觉的系统,弱人工智能仅仅关注系统的表现,而强人工智能支持者的目标在于,通过模拟人类听觉系统,使用等效的耳蜗、听力管、耳膜和耳朵其他部分的部件(每个部件都可以在系统中执行其所需执行的任务)来成功地获得听觉。弱人工智能的支持者单单基于系统的表现来衡量系统是否成功,而强人工智能的支持者关注他们所构建系统的结构。
课题组偏向支持功能模仿说,即人工智能主要是为了解决目前实际困难和需求而存在的,人工智能只是在大多数时候会用上人的智能的模拟,但并不全是模拟人脑的思维的。课题组认为可将人工智能定义为:人工智能是为了进一步提升生产效率及丰富人类生活,研究、开发接近或超过人类智能水平的计算机系统和技术,并广泛应用于人类生产、生活的科学和工程。
(2)强弱人工辨析
目前,多数观点认为强人工智能有可能制造出真正能推理和解决问题的智能机器,并且,这样的机器能被认为是有知觉的,有自我意识的。强人工智能可以进一步分为两类:一是类人的人工智能,即机器的思考和推理就像人的思维一样;二是非类人的人工智能,即机器产生了和人完全不一样的知觉和意识,使用和人完全不一样的推理方式。多数观点认为弱人工智能技术不可能制造出能真正推理和解决问题的智能应用,这些应用只不过看起来像是智能的,但是并不真正拥有智能,也不会有自主意识。主流科研集中在弱人工智能上,且一般认为这一研究领域已经取得可观的成就。强人工智能的研究则处于停滞不前的状态下。
课题组认为,强人工智能和弱人工智能最本质的区别在于意识的自主性和创造力,在于其处理逻辑的模式,前者是主动获取的,后者则是被动接受的。
强人工智能是以自身为主体,通过观察、总结、尝试、验证等一系列学习活动,从环境中抽取出合适的逻辑,来解决相似的输入、输出问题,同时对处理结果进行评估,修正原有的处理逻辑,其处理逻辑是可以在线动态完善的,其不仅可以向他人学习,还可以直接向大自然学习。因此,强人工智能一定程度上可以不接受人类制约,拥有独立发展的能力。就像许多科幻电影和小说中所描述的那样,强人工智能充分体现了人类在人工智能相关研究上的探索和追求。强人工智能不仅在哲学上存在巨大争论(涉及到思维与意识等根本问题的讨论),在技术上的研究也具有极大的挑战性。强人工智能当前鲜有进展,美国私营部门的专家及国家科技委员会比较支持的观点是,至少在未来几十年内强人工智能难以实现突破。
弱人工智能是以自身为客体,软件工程师为主体,根据市场应用需求,设计出相应的处理逻辑,并写成程序,直接灌注到系统之中,形成系统的处理逻辑。当环境发生改变,即输入、输出不再契合时,弱人工智能处理逻辑的改变只能依靠软件工程师来更新、修复。弱人工智能的智能和行为一般为人类所控制,其根本没有意向状态,只是受电路和程序支配简单地来回运动而已。[⑧]迄今为止的人工智能系统都还是实现特定功能的专用智能,如拟合股票市场的某个规律并做出预测、拟合用户偏好并做出推荐,或者像Alfago拟合围棋的取胜规律。目前的主流研究仍然集中于弱人工智能,并取得了显著进步,在语音识别、图像处理和物体分割、机器翻译等方面取得了重大突破,甚至可以接近或超越人类水平。
法律的制定可能超前于现实但不能偏离现实,基于以下几点现状考量,本文探讨人工智能发展中的法律问题主要集中于弱人工智能时代发展将带来的法律问题,并提出解决方案。究其缘由,其一,从逻辑上来说,课题组认为强人工智能弊大于利,将会给社会带来不可估量的道德伦理风险。如以强人工智能机器人犯罪为例,如果一台先进的机器人犯了罪,那么它应该如何接受法律制裁?律师如何去证明非人类的机器人有“犯罪心理”?这一点可以通过借鉴或调整现有的法律原则来实现吗?其二,从技术上来说,主流人工智能研究的方向从来就不是朝向强人工智能方向发展,现有技术的发展也不会自动地使强人工智能成为可能。目前我们所处的阶段,人工智能依然依赖于专家设置的系统结构体系,人工智能的学习性也依赖于人所拟制的算法来运作,如智能法律机器人、特斯拉的辅助驾驶等应用,这与强人工智能(有意识的、能知觉)还存在着巨大的断层。其三,从市场方面来说,在现实层面,人工智能技术取得的成绩都是弱人工智能领域的,如苹果的Siri在语音识别、实时翻译等方面取得的成功,IBM的“深蓝”在运算方面取得的成绩等。即使谷歌制造的AlphaGo在深度学习层次取得了进步,也是某种特定类型的智能行为。正如专家所说,“人机大战对于人工智能的发展意义很有限。解决了围棋问题,并不代表类似技术可以解决其他问题,自然语言理解、图像理解、推理、决策等问题依然存在,人工智能的进步被夸大了。”强人工智能的提出者约翰·罗杰斯·希尔勒本人亦不相信计算机能像人一样思考。
2.人工智能发展的特征
最近几年,随着人工智能技术的突破,以及互联网、大数据、并行计算等相关技术群的成批成熟,人工智能技术在快速的更替换代中不断发展。我国专家认为,人工智能技术发展和产业应用正在双双进入临界点,人工智能正在进入2.0新阶段。当前,人工智能发展呈现突飞猛进的势头,具有以下三个方面的显著特征。
(1)智能高效性
人工智能同其他机器及相关产品的最主要区别在于人工智能具有了一定的人类的智能,相关算法、数据和基础硬件使人工智能的智能性得以实现,是人工智能技术的灵魂。目前在人工智能的多个研究领域都在向认知智能挑战,如图像内容理解、语义理解、知识表达与推理、情感分析等,这些认知智能问题的突破,将再次引发人工智能技术的飞跃式发展。Facebook提出在未来5至10年,让人工智能完成某些需要“理性思维”的任务;“微软小冰”通过理解对话的语境与语义,建立用于情感计算的框架方法;IBM的认知计算平台Watson在智力竞猜电视节目中击败了优秀的人类选手,并进一步应用于医疗诊断、法律助理等领域。
(2)成长自主性
人工智能发展另一显著特征在于其成长自主性,不同于其他产品和设备需要完全通过人类的指令和系统的更新来完成产品的升级,人工智能通过深度学习和自主学习等算法便可以在提供基础数据养料的情况下不断适应和成长。人工智能技术虽然目前无法像人类一样思考问题,但其具有学习能力,其智能的实现依托于大量的学习,可能一开始也经常出现错误,但它能吸取教训,这样就保证了人工智能能应对更多的复杂情况。2016年初,谷歌AlphaGo战胜韩国围棋世界冠军李世石的围棋人机大战,成为人工智能领域的重大里程碑性事件,人工智能自主学习应用系统的智能水平再次实现跃升,初步具备了直觉、大局观、棋感等认知能力。
(3)产品颠覆性
人工智能发展的第三显著特征在于其相关应用产品对目前生产生活具有颠覆性冲击。目前,人工智能应用系统已经在多个领域启动并取得重要进展,包括:计算机科学、金融贸易、医药、诊断、重工业、运输、远程通讯、线和电话服务、法律、科学发现、玩具和游戏、音乐等诸多方面。应用系统是最直接的生产力工具,能利用人工智能技术优化工作流程,大大提高生产效率;同时,在人类社会生活中,人工智能的应用也会改变甚至颠覆人们的生活方式。例如,无人驾驶技术难点不断突破,自动驾驶汽车已经得到美、英政府上路许可;各类语音控制类家电产品和脸部识别应用在生活中已随处可见;德勤会计师事务所发布财务机器人,开始代替人类阅读合同和文件;IBM的沃森智能认知系统也已经在医疗诊断领域表现出了惊人的潜力,诸多人工智能产品都显示出对传统生产、生活的巨大冲击力和影响力。
(二)人工智能对传统法治体系带来的冲击与挑战
人工智能是一种新兴技术,在我国将其作为提升综合国力、占领未来科技主导权的重要发展战略的同时,我们不可忽略人工智能技术发展对传统法律体系的冲击。本课题将从人工智能法律主体资格、人工智能创作物的著作权归属及人工智能的市场准入和规制等三个方面论述人工智能对我国法治建设可能带来的相应冲击,以及我国法治建设应如何做出相应的回应。
1.人工智能对法律主体资格的冲击与挑战
机器人是机器还是人,在法理上涉及主客体二分法的基本问题。在民法体系中,主体(人)与客体(物)是民法总则的两大基本范畴。主体与客体、人与物之间有着严格的区别。凡是人以外的不具有精神、意思的生物归属于物,是为权利的客体。若将机器人视为“人”,赋予其相应的主体资格,难以在现有的民法理论中得到合理的解释。民法意义上的人,须具有独立之人格(权利能力),该主体既包括具有自然属性的人(自然人),也包括法律拟制的人(法人)。然而,在人工智能背景下,上述观点正遭受不断冲击,实际上,呼吁赋予高度自主的人工智能产品以拟制人格的主张已屡见不鲜。
当人工智能自主作出决策,并影响人类的自由意志和生活方式这种情况出现时,如何控制人工智能系统,使它们在积极的社会活动中不会干扰人类的权利;在人工智能造成损害时,即便是出于善意的驱使,如何确保这些损害得到弥补或赔偿等问题,都值得人类思考。随着人工智能尤其是强人工智能的拟人化或者说智能化程度的不断提高,它不仅仅是外在表现形式和语言行为越来越像人,有时它也会不受人的控制自主行动,一个不可避免的问题摆在人类面前,我们该如何对待智能机器人;当人工智能产生法律纠纷时,人工智能是否可以独立承担部分主体责任。机器人不是具有生命的自然人,也区别于具有自己独立意志并作为自然人集合体的法人,是否可以将其作为拟制之人以享有法律主体资格值得人类思考。
2.人工智能对著作权归属带来的冲击与变革
传统理念中,知识产权法为人类的精神劳动产生的智力成果提供保护,通过赋予垄断性权利来激励创新活动与知识分享,从而促进整体社会效益的提升。劳动价值论、功利主义说等知识产权的基础理论,主要围绕着人类自身展开。而人工智能产生的创造性成果由于缺少人类智慧性因素的充分融入,能否成为著作权法保护的客体引发了学界和理论界的广泛讨论。[⑨]
人工智能作品的出现,颠覆了人们对于作者与版权、发明家与专利等带有人身性质的知识产权权利义务关系的传统认识。例如美国媒体盘点了2016年世界范围内计算机创意项目,发现人工智能已经可以谱写流行歌曲,撰写小说、电影剧本,甚至绘画,乃至生成诗篇和散文。人工智能用于文艺创作,无论在表现手段、创作格局,还是拓展想象空间方面,都值得重视。人工智能创作物的诞生,无疑打破了以往仅能由人类创作作品的规律。
虽然使用人工智能进行创作设计研发阶段的成本高,但投入使用后创作周期短、创作数量大,其在艺术创作领域的活跃发展引发了关于人工智能创作物著作权保护的争议。不管是保护还是不保护人工智能的创作物都有一定的弊端,如果给予人工智能创作物版权保护,可能会导致版权作品数量急剧增长,并在某些领域对人类作品造成冲击,且人工智能作为创作主体的资格亦备受质疑;如果不保护人工智能的创作物,则会出现人工智能创作物大量涌入市场,有可能助长抄袭、搭便车等不正之风。[⑩]
3.人工智能对市场带来的冲击与变革
拥有海量数据资源和强大算法支持的人工智能系统正在影响甚至替代个体进行决策,然而在算法偏差和机器歧视的影响下,社会问题的出现屡见不鲜。例如,由科技巨头微软公司研发的人工智能机器人Tay,能够模仿人类用户的评论,并根据互动情况去发表自己的评论,在首日投入使用中就吸引了众多用户的关注,但Tay在某些用户的“指引”下,不仅辱骂用户,还发表种族歧视和性别歧视的言论。同时,谷歌的算法歧视问题早已引起人们注意,相关调查发现,在谷歌搜索中,搜索黑人的名字会比搜索拜仁的名字更容易出现暗示具有犯罪历史的广告;在谷歌的广告服务中,男性会比女性看到更多高薪招聘广告。
人工智能在各个领域的运用,当前还只能说是刚刚起步。但从效率这一出发点来看,无论是国家还是市场都有较强的推动力来进一步推广人工智能的运用,在这个过程中,技术的进步也将以更高的速度表现出来。当人工智能被应用于本来就充满流动性、风险与不确定性的市场时,便可能带来既无创新价值,又危害巨大的灾难性后果。例如2010年5月6日,美国股市发生了“闪电崩盘”,一万亿的资产价值瞬间蒸发,美国证券交易委员会(SEC)花了半年的时间才搞清楚原来是不同炒家的计算机程序在相互竞争的过程中导致了失控。在这个被称为高频交易的神秘世界里,这些系统可以“迅雷不及掩耳”地收割小型获利机会,还可以相互探测和利用彼此的交易策略。像这样的人工智能对决不仅存在于股票市场,还存在于任何投机性的多方博弈市场。事后追责型的法律对策,无法阻止人们在巨大利益的引诱下,利用人工智能进行这种损害范围无法控制的赌博式行为。[11]因此,未来有关人工智能的市场准入及市场规制问题,也值得广泛的关注和思考。
二、人工智能主体资格问题研究
在目前法律界对人工智能探讨的问题中,人工智能的法律主体资格问题一直是研究的焦点之一。课题组将分别从民事主体资格和刑事主体资格两个角度,对学术界的代表性观点进行梳理和总结,并就其中的法律问题进行探讨和分析。
(一)民事主体资格
在民法体系中,主体(人)与客体(物)是民法总则的两大基本范畴。随着人类社会进入到智能时代,传统民法的主、客体框架已受到人工智能带来的相应冲击。一方面,人工智能与传统机器的区别在于其具有“人”的自主性;另一方面,人工智能与人的区别又在于其不能完全脱离人的控制而呈现出来的“物”性,因此,如何对人工智能的民事主体资格进行确认显得尤为重要。
1.学界观点
对人工智能相关产品的民法地位,即其是否具有人格属性的讨论比较多,代表性观点如下:
(1)电子人说
欧盟委员会法律事务委员会已于2016年5月31日向欧盟委员会提交动议,要求将最先进的自动化机器“工人”的身份定义为“电子人”(electronicperson),并通过法律赋予其劳动权等特定的权利和义务,同时建议为“电子人”开立资金帐户以使其享受劳动者的相关权利、履行相关义务。人工智能对民事主体制度的挑战,已经从劳动者的定义及劳动权利主体制度中拉开帷幕。2017年10月,欧盟议会法律事务委员会发布的《欧盟机器人民事法律规则》(EuropeanCivilLawRulesinRobotics)中,就涉及重构责任规则和考虑赋予复杂自主机器人以“电子人”的法律地位。
(2)代理说
“电子代理人”一词最早见于美国法学会和美国统一州法全国委员会拟订的《统一计算机信息交易法》。代理说认为,人工智能的行为均来自于其管理人的意思表示,行为后果归责于被代理人,相当于管理人的代理人。这种学说无疑承认了人工智能的法律地位,但是它只能实施法律行为,在造成侵权时无法履行赔偿义务,其机器属性亦决定了它不能完全享有代理人相应的法律权利。
(3)有限人格说
有限人格观点认为,首先,人工智能已经是一种“真实”“独立”且“自主”的存在。人工智能已经应用于自驾领域、教育医疗健康领域、金融领域、安防领域以及电商零售领域等,它可以借助人类提供的基础硬件设备对人类的生活造成各种各样的影响,特别是人工智能具备的自主学习能力将加速这种独立性和自主性。所以,赋予人工智能独立法律人格是其发展的内在要求。
其次,人工智能具有独立自主的行为能力和责任能力。虽然人工智能的诞生依赖于人类的预先设定,但是当人类预先设定之后,它可以在给定的框架内进行自我思考和自主学习,甚至有可能发展为类人主体。单纯以人工智能的存在是以人类智力活动为前提这一理由,并不能否定人工智能的自我意志。
再次,赋予人工智能法律人格是有效管控人工智能风险的必要手段。[12]人工智能的出现极大地改变了人类生活,它在很多领域会将人类从繁琐劳动中解放出来,使得人类实现自由的程度得以上升。但同时,在它的应用过程中,必然会引发对传统道德和价值观的冲击。所以,必须赋予人工智能法律人格,将人工智能纳入到统一的技术和伦理规范体系之中进行规制,并建立相应的法律制度机制来消解人工智能可能带来的风险和危害。
(4)否定说
否定说认为,机器人不是具有生命的自然人,也区别于具有自己独立意志并作为自然人集合体的法人,将其作为拟制之人以享有法律主体资格,在法理上尚有斟榷之处。[13]弱人工智能时代下模拟和扩展“人类智能”的机器人虽具有相当智性,但不具备人之心性和灵性,与具有“人类智慧”的自然人和自然人集合体是不能简单等同的。本质上属于“工具”的人工智能体并不能拥有民事权利能力。其次,尚无自由意志的人工智能所做的行为没有动机,无法产生一个以发生私法上效果为目的的意思表示,即人工智能和特定权利人之间也不可能存在代理关系,更不能适用限制行为能力人或无权代理人所做出的意思表示需要被追认的法律规则,即人工智能并不具有民事行为能力。
2.课题组观点
课题认为,强人工智能时代的到来将遥遥无期或许也并不可能实现。而即使强人工智能存在理论上的可能性,人类也很难同意世界上存在威胁人类生存的另一个高智慧群体的存在。因此仍限定于在弱人工智能的范围讨论是否赋予其民事主体的地位。本课题观点认为应赋予人工智能“有限”民事主体地位。
首先,需要明确的是,人工智能不同于以往的计算机。其不仅能够实现自己的任务,并且“当存在不确定的结果时,它能够实现最好的结果,而这个结果正是所希望实现的”。人工智能的行为与以往利用计算机所为的行为的本质区别就在于:人所起到的作用不同。以往计算机完全听命于人的操作指令,可以理解为是设计者辨认能力和控制能力的延伸。而人工智能基于机器学习和深度学习,已经能够自行判断、收集和学习新的数据。某种程度上已经不再局限于设计者最初预定的程式,能够自行衍生出新的决定并实施。人所制定的算法规则或数据输入不再是人工智能行为的唯一来源。即人工智能机器人的行为存在着一定程度的自主性。这也正是我们讨论人工智能法律主体地位的必要原因之一。
其次,在一定程度上赋予人工智能民事主体地位符合现实社会需求。课题组认为,学界有观点直接从伦理和哲学层面否认人工智能民事主体地位而忽略了现实因素。民事主体资格的承认尽管要考虑到伦理性,但法律人格区别于伦理人格,法律发展到今天,伦理因素已经被弱化。法律人格的确立标准中,伦理性并不成为唯一因素,财产和责任基础的独立性以及社会功能的重要性已然成为重要考量因素。例如公司、合伙企业人格的确立,实质上是一种功利主义视角下特定自然人利益的延伸。民事主体赋予的衡量标准在于法律接纳该类主体应满足社会效益最大化和当事人利益最大化的要求,或者至少不会对特定人群的利益产生不利影响。[14]而对于人工智能的发展前景来看,可以预见到的是,在未来人工智能将更广泛地参与到民事活动中,改变甚至颠覆人类现存生产工作和交往方式,由此出现一个以新的技术结构支撑新的社会结构的人类新时代。但是正如本文开头所强调的,智能机器人归根结底依旧是由人类创造并服务于人类社会发展的智慧型工具,这从根本上决定了智能机器人的发展必须遵循“以人为本”的价值原则,必须以保护、不侵犯人类权利为基本底线。
综上所述,课题组赞同赋予人工智能“有限的”民事主体地位。这种有限性主要体现在:其一,行为能力的有限性,其行为应当受到使用者或占有者的最终控制。其二,权利义务的有限性,人工智能并不享有伦理性的人格权或身份权,而是享有经济性的财产权利以及承担义务。例如,机器人能够签订合同等等。其三,责任能力的有限性,很显然,基于人工智能被发明的目的和从目前可以预见的未来来看,人工智能不可能像自然人和法人一样拥有属于自己的财产。因人工智能无独立的财产,其承担法律后果的能力是不充分的,另一方面如何证明智能机器人的侵权行为事实上已经脱离人的控制,是来自其自我学习、自我感知,进行相应的独立判断下的行为也存在着相当大的举证困难,也有可能引发转嫁责任的道德风险。因此部分责任后果最终还是要由人来承担。课题组认为可以以产品责任为原则,适用《侵权责任法》《产品质量法》等的相关规定追究销售者和制造者的责任。
3.人工智能参与民事活动配套机制构建
法律规范应当与人工智能技术发展相适应。在肯定人工智能具有有限的民事法律人格的条件下,也应在民事活动领域及时建立完善的配套机制。
(1)设立专门的人工智能监管机构
人工智能对于技术知识的要求比较高,需要有专业技术人才及监管部门配合才可有力监管。而现有的监管体制不足以对人工智能进行有效监管,因此需要建立新的监管部门,例如美国“机器人委员会”等对人工智能及相关产品进行专业监管。另外由于人工智能种类与功能繁多,无法保证每一类人工智能都被准确划归到某一行业进行监管,课题组建议可以将人工智能监管部门划分为多个片区进行精准化管理,比如分为家用型人工智能和公用类人工智能。
(2)建立人工智能登记制度
课题组建议建立人工智能登记制度,每一台人工智能产品都需到监管部门强制登记,获得“身份证”,同时确定其专属管理人。在登记时明确其生产应用的目的或用途,进而将其民事行为能力限制于其目的范围内。当人工智能产品从事超越其预定目的之外的行为致使他人损害构成侵权的,可借鉴公司法中“刺破公司面纱”理论的归责原则确定责任主体,即除智能机器人以其自身财产承担责任外,还可根据具体情况要求其设计者、制造者、所有者或使用者承担责任。
(3)建立人工智能强制保险或赔偿基金制度
人工智能技术一方面为人类造福,而另一方面也增加了人类无法预测的风险。鉴于此,为分散人类面临的智能机器人的侵权风险,课题组建议构建强制保险或赔偿基金制度。可要求智能机器人的所有者购买强制责任保险,用以补充智能机器人对受害人的赔偿。另外,也可以在引入强制保险的基础上,根据受益人共摊风险的原则,在包括人工智能投资者、开发者、生产者、使用者等多方受益人中构建人工智能保赔协会,当出现登记在保赔协会名下的人工智能侵权时,受害者可以要求保赔协会承担相应的责任。
此外,也有相关专家建议,在国家有关机关的主导下,构建人工智能赔偿责任基金。通过人工智能损害风险分摊机制,在满足一定条件的情况下,动用人工智能赔偿责任基金,按规定对受害人予以赔偿。这不仅有利于更好地保护受害人的权益,维护正常的社会秩序,而且为人工智能参与人类生产、生活活动提供了更好的保障。
(二)刑事主体资格
黑格尔认为,犯罪被视为理性存在者的行为,违法者通过他的行为表明其同意适用法的惩罚。现代刑法在犯罪构成认定方面亦坚持主客观相统一的认定标准,在犯罪主观方面强调认识因素与意志因素。认识因素是指行为人对自己行为及其结果的社会危害性的认识以及对犯罪的基本事实情况的认识。意识因素是指行为人根据对事物的认识,决定控制自己行为的心理因素。可以说,犯罪是犯罪人自由意志的体现,只有从犯罪人的自由意志中才能找到刑罚的正当根据。对于不具有认识因素的“无知”行为或是受到强制的“无选择”的非自愿行为不应当受到刑罚的谴责。[15]
因此,人工智能可否像法人一样作为又一新兴主体进入刑法视野成为被规制的对象,其核心在于分析客观上造成法益侵害结果的人工智能是否具备可追究刑事责任的主体意志自由。[16]
1.学界观点
人工智能在刑法领域引发的问题,引起了刑法学界对人工智能的刑事主体地位的一系列争论。目前,就人工智能能否成为刑事法律上的责任主体、能否对人工智能单独施加刑罚措施等问题有着不同的观点。
(1)肯定说
据报道,2017年10月25日一个名叫索菲亚(Sophia)的“女性”机器人被授予沙特阿拉伯国籍,该机器人成为史上首个被授予国籍的机器人。有观点认为,[17]沙特赋予机器人Sophia以国籍,很好地解决了人工智能刑事主体资格的问题,因为此时Sophia具有公民身份,无论是她对别人造成伤害还是别人对她造成伤害都需要依据刑法的规定进行处罚。人工智能的机器人不仅可以直接对他人人体造成侵害,而且在认识能力和意志能力方面,都可能接近甚至超越人类,因此完全有成为犯罪主体的余地。
对于此观点,本课题组并不认同。虽然Sophia被授予了国籍,但是在法律角度并不具有现实的可行性。因为就现在的人工智能技术发展看来,自然语言处理水平尚未发展至Sophia在电视节目中表现的程度。Sophia的言论可能全部都是由其背后的团队提前预设好的台词和剧本,根本不具有自由意志。也有学者曾对此进行过进一步的讨论,认为Sophia并无可能对其性自主意志进行实质判断,其也没有实际的感知力,如果男性自然人对其实施猥亵、强奸等行为,并无法进行相应罪名的认定。
另外,学界也有观点从另一角度肯定了人工智能的主体地位。[18]提出以智能机器人为代表的人工智能可以通过深度学习产生自主意识和意志,并在自主意识和意志的支配下实施严重危害社会的犯罪行为,此时智能机器人已经具备刑法中犯罪主体的主要条件,确实需要承担相应的刑事责任。
该观点认为,首先,若智能机器人在设计和编制程序范围内实施行为时,不应承担刑事责任。从目前人工智能发展水平来看,智能机器人的行为仍在人类设计和编制的程序范围之内,即使智能机器人已经可以通过学习根据自主判断实施相关行为,但这些行为均受到人类设计和编制程序的控制或者限制,且完全符合人类设计和编制程序的目的。就此而言,人类是智能机器人的创造者,完全可以在智能机器人产生自主的意识和意志之前通过程序给智能机器人设定行为目的和行为边界。此时,人工智能只是不法分子实施非法目的的“工具”,而不应当对其实施的行为承担刑事责任。
但该观点同时提出,随着时代的发展,人类不应忽略这种已经可能产生和人类一样甚至超过人类智商的新事物的存在。若人工智能真的开始具有独立的辨认能力与控制能力,那么就应当认为人工智能可以成为刑事责任主体并需要承担刑事责任。认为智能机器人完全可以通过不断学习规则建立“自省”与“道德感”,这已经远远超出了自然行为论、因果行为论、目的行为论、社会行为论、人格行为论所能预见并认识的范围。
(2)否定说
目前也有观点直接否认了人工智能的刑事主体地位。认为人工智能不具有刑法评价意义上的行为认识与控制要素的自主性,也就不具有人的目的理性所支配的可问责基础,欠缺作为刑事责任主体的本质要素。[19]
首先,人工智能对自身行为不具有认识能力。人工智能在预先设定的程序指令中运行,即使通过深度学习使程序摆脱了人类的控制并在客观上造成法益侵害结果,但人工智能本身缺乏对外在行为的真实理解,无法认知自身行为对客观世界产生的影响,因而无法认识自身行为的社会属性,也就不具有规范评价意义上的行为“目的性”与独立控制行为的意志自由可言。
其次,人工智能不具有理解并遵从法规范的能力。人工智能本身对刑法规范既没有理性的认识与遵从能力,也无法感知违反规范所造成社会否定性评价所带来的消极后果,其单纯依据程序设定实施的行为,或者因为出现故障导致人工智能未依据事先设定的程序运行,欠缺刑法所要求的对法规范遵从的意志自由。
再次,人工智能行为属性判断无客观标准。例如在当前人工智能应用最广泛的自动驾驶领域,自动驾驶系统只是一套机器系统,它们并不会作出真正的决策,它们只是根据对环境的感知,按照某种特定的原则和设计做出反应,而人类在驾驶时对于整套系统的感知和反馈模式拥有完全的控制权。不论自动驾驶汽车是符合人类预设的程序处于正常行驶状态还是造成了客观的事故损害,并无明确标准判断其是基于自主意志实施的行为还是基于人类本身的程序控制状况所出现的不同结果,唯一能作出的合理解释仍应回归于人类当前技术手段的缺陷使得作为辅助工具的人工智能出现目的偏差进而造成损害后果。
2.课题组观点
综合上文中列举的不同的学术观点,本课题组支持人工智能刑事主体资格的否定说。
回归本部分前述首要观点,分析人工智能是否具有刑事法律主体地位的核心应在于分析人工智能是否具备可追究刑事责任的主体意志自由。目前人工智能的发展处于弱人工智能的初级阶段,尚不具备主体意志自由。智能机器人的行为还限制在人类设计和编制的程序范围内,智能机器人实现的是人的意志而非自主的意志,因而人工智能相关“刑事犯罪”最后的责任始终应由人来承担。具体而言,可以分为两种情况进行讨论:第一,若危害行为是人工智能完全在人类控制下实施的,此时人工智能的客观危害行为应归责于使用者本身。第二,如人工智能的行为超过了人预设的界限而造成危害行为,由于人工智能本身尚不具有意识性和目的性,该行为的性质类似于“微波炉爆炸”,可以适用产品责任解决,追究生产者等责任。例如,目前国外有关人工智能立法的草案对于特殊场景下机器人实施侵害行为规定了刑事责任,但利用机器人实施侵害行为的刑事责任承担者仍是机器人的设计者或制造者,机器作为实施犯罪的工具本身并不是犯罪主体。
进一步而言,假设人工智能相关产品具备行为辨认能力,最多是指通过算法和深度学习,具有对行为结果的计算和确定能力,在此方面人工智能体可能达到甚至超越人类的水平。然而,刑法上所说的行为辨认能力不仅是指对行为后果的把握,更是指对行为意义的认知。正如一个精神病人杀死一个人的时候,即使他知道要用枪杀死这个人,甚至也知道他枪杀一个人的后果,但是他却不能像正常人一样认知杀死这个人的真正意义。正因为此,刑法上认为这样的人不具有辨认自己行为的能力,因而不能承担刑事责任,即在刑法上不具有可罚性。所以,将对行为结果的辨认能力视为对行为的辨认能力实际上是限缩了行为辨认能力的外延,是不恰当的。
正如肯定说中有学者所提出的,若时代真的发展进入了强人工智能时代,人工智能开始产生了自主的意识和意志,又该如何抉择?本课题组观点是,人工智能如果真的产生了意识,给人类带来的将是诸多无法预测的场景。从目前人类社会来看,作为“工具”的弱人工智能已经完全够用了,强人工智能时代的到来总体而言是弊大于利,应该禁止强人工智能相关技术和产品的研发应用,从源头上将它放入“潘多拉魔盒”,那么也就不存在主体的认定问题了。
同时,根据民事责任、行政处罚以及刑罚的惩治严厉程度来看,在当前人工智能机器人无法通过民事、行政手段予以追责处罚的情况下,刑法的社会防卫功能不应过于积极主动,当人工智能致使公私财产损失或者致他人人身侵权损害后果时,刑法不应越过前置性规制法律直接规定相应刑事责任,否则违背了刑法二次保障法的地位,也有违刑法的谦抑性品格。综上所述,课题组认为就目前现状看来,不应给予人工智能刑事主体资格的认定。
三、人工智能著作权问题研究
人工智能在新闻和视觉艺术领域参与创作活动的现象虽然在如今已成常态,但如何认定由此生成内容的可版权性及其权利归属,在法律上却并未形成统一意见。因此围绕人工智能生成内容的可版权性和版权归属问题成为近些年来学界讨论最多的问题之一。
当前国内研究人工智能创作物保护的主要争议有二:一是人工智能创作物能否成为作品,二是人工智能能否成为作者或者著作权主体。二者都关系到人工智能创作物能否获得著作权法保护。[20]之所以存在上述争议,原因在于人工智能创作颠覆了著作权视野中关于作者的基本理解,也颠覆了法律关于主客体不能互换的基本原理。在此本课题组将从人工智能生成内容可版权性和市场自由两个角度对人工智能生成内容的可版权性做出探讨。
(一)学界关于人工智能生成内容可版权性的主要观点
我国目前关于人工智能生成内容的可版权性问题主要存在两种观点,一种观点认为人工智能创作物不能成为作品而排除著作权保护,而另一种观点则认为人工智能创作物著作权保护具有可行性,而在主张可版权性的一方中,又衍生出例如邻接权保护、法人作品保护等不同的保护模式。
世界各国著作权法多以独创性作为作品的核心要素,只有具备相应独创性的智力创作成果才可成为著作权客体,受著作权法保护。[21]除独创性外,可复制性也是各国著作权法给予作品保护的基本条件。[22]从独创性的视角出发,学界对人工智能创作物是否具有独创性形成了各种不同的认识,并基于各自不同的认识对人工智能创作物的保护路径提出了不同的看法,归纳起来主要包括以下几种:
1.不具独创性说及其保护路径主张
人工智能因具备深度学习能力而被应用到创作领域。有学者将其生成内容的过程表述成一个不断迭代、不断抽象的计算过程,以便确定最优算法。[23]尽管人工智能创作软件基于各种深度学习技术已经具备一定“创作力”,但这种“创作力”实际为计算。[24]计算是利用算法和规则的过程,其结果可以重现。而创作是个性化的表达,需要一定灵感。因此,人工智能生成内容的过程是计算而非创作,利用相同的算法采用相同操作可以重复内容。另外,整个计算过程是自主运行的,使用人无法在创作物生成过程中添加自己的个性表达。[25]这种计算从根本上抹杀了人类使用过程的创作空间,排除了处理结果具有个性化特征的可能性。但否定人工智能创作物独创性,并非同时否定人工智能创作物的利用价值。因此,也有学者主张,著作权法保护的是人类的表达,对于机器的表达可以由不正当竞争法来保护。[26]也有学者提出,对于人工智能创作物可以选择单独立法进行特殊保护。[27]
2.具有独创性说及其保护路径主张
以深度学习为代表的新一代智能学习算法技术的运用,[28]使得人工智能创作物不仅是基于既定算法、程序作出的指令性输出,且能够在没有预先算法或者规则的设定下,通过主动学习来进行创作。[29]基于此,有人认为,人工智能程序可以利用随机数生成器,使不同次运行的创作物各具个性。[30]人工智能创作物的创作过程能够满足独立创作和独具特色的要求。在对人工智能创作物的保护路径问题上,由于区分人工智能创作物与人类作品的成本较高,通常需要完备的登记制度和监管机制,[31]因此,在不区分来源的情况下,基于创作物表现形式和其独立创作过程,人工智能创作物可以成为著作权客体而受到法律保护。[32]可将人工智能生成内容视为人工智能程序的编程者的人类创作,[33]该创作物是否构成作品可以适用与人类作品一样的独创性标准进行判断,权利归属也可以适用著作权法中的法人作品制度。[34]
3.独创性不足说及其保护路径主张
该观点认为,人工智能利用公共领域作品以及不构成作品的素材,学习先有作品的风格进行创作,创作物与在先作品不构成实质性相似,其在作品类型中最为接近于演绎作品。基于著作权法不保护思想,而在先作品风格属于思想的范畴,因此人工智能创作物并非对在先作品的演绎。[35]考虑到人工智能创作软件对创作物不可替代的作用,可以尝试比照“剧本”作品进行分析。具体而言,可把人工智能创作软件当作“剧本”,把使用人视为“表演者”,人工智能创作物系使用人对“剧本”进行“表演”后的作品。基于此,人工智能创作物应为演绎作品,权利归属可以参照现行著作权法中的演绎作品制度处理。另亦有主张独创性不足的学者认为尽管人工智能创作物与人类作品形式上相似,但其本质上属于信息产品,其法律属性不同于民事法律关系的传统客体,既不是典型的物或行为,也非人类的智力成果或人身利益,该种独创性不足的生成内容(人类在其中起到的作用有限)可以通过邻接权进行保护。[36]
4.课题组观点
课题组在总结学者关于人工智能生成内容的可版权问题中发现,人工智能创作软件是生成创作物的根本,对于具有“创作力”的人工智能本身,能否作为创作物的作者或者权利主体问题,即使是认为人工智能生成内容可受版权保护的大部分学者的答案也是否定的。
立法应当未雨绸缪,同时也要注意前瞻性的限度,不能针对过于遥远的未来作远景规划。固然,民事主体经历了从“人可非人”到“非人可人”的历史变迁,[37]但这种历史变迁的背后,是经济交往的需要,而非泛滥的博爱情感。通过著作权法保护人工智能生成内容,不能与赋权给人工智能划等号。实际上,从科学技术层面来看,目前的人工智能尚不具备产生独立意志的可能性,功能与能耗的限制消解了人工智能之主体地位的现实基础。库兹韦尔笔下的人工智能发展的“奇点”是否真的存在及何时到来,没有人能给出确切、可靠的答案。[38]人工智能不具有独立意志,不能真正认识到自己行为的法律后果,不具备承担责任的可能性和必要性,主体身份无从获得。相比之下,法人或者其他组织之所以能被视为作者,法人作品之所以能受到著作权法保护,就在于法人作品是代表法人或者其他组织意志创作,并由法人或者其他组织承担责任。[39]承认人工智能的主体地位,步子迈得过于大,远离法理、逻辑和常识。从立法的实效来看,赋权给人工智能达不到预期的激励创作的立法目的。人工智能本身没有利益需求,不存在物质方面的刺激和精神方面的满足,赋权给人工智能不会对内容生成产生任何影响。著作权制度不能对人工智能本身提供任何激励,在赋权给人工智能的模式中,人工智能都只扮演招牌幌子和敲门砖的角色。
(二)市场自由视角下人工智能生成物保护
虽然学界对于人工智能生成内容的可版权性做出了初步的探讨,但是各派观点也在不同程度上存在着完善空间。
1.现有理论的反思
站在人工智能生成内容需要保护的立场下,不具有独创性说中,对人工智能创作物进行单行立法保护,似乎是一种更为可取的保护路径。但是,一方面,人工智能创作物仅仅是人工智能应用产出的一种,由于当前商业模式创新有限,对人工智能创作物采用单行立法保护,似乎时机还不够成熟。只有当人工智能技术发展到一定的程度,对包括人工智能创作物在内的应用产出有充分的了解和认识后,专门的立法似乎才会有必要和可能。此外,即便是专门立法,以何种方式对人工智能创作物进行保护,也是必须回答的问题。
在此前提下,反不正当竞争法的保护路径似乎回避了对人工智能创作物定性、归属等基本法律问题。诚然,反不正当竞争法对著作权及其客体商业运用过程中权利人的利益保护具有不可替代的作用。但是如果对人工智能创作物的法律属性等基本问题缺乏明确的认识,一方面,对人工智能创作物的法律保护难免会失之周全,另一方面,在人工智能创作物法律属性不明确的前提下,通过反不正当竞争法对其进行保护也无法正常实现。即便是在市场运行领域,要适度保护人工智能创作物,也必须以明确谁对其享有权利,享有什么权利,该权利与其他相关权利的界限在哪。
此外,演绎作品的保护路径具有一定的合理性,但人工智能创作物与演绎作品具有明显的区别,将其作为演绎作品而给予保护,似乎在制度安排上也很难与法律对其他演绎作品的保护相协调。再次,著作权法中的演绎作品同样是人类的作品,而非机器的作品,将人工智能创作物作为演绎作品进行保护同样绕不开保护对象性质差异性这个基本的问题。
2.跳出作品观看人工智能生成内容的保护
围绕人工智能的生成内容是否构成作品的核心无疑是对于独创性的判断,即人工智能的生成内容是否体现了最低限度的智力创作。该种判断事实上所要确认的是人工智能能否获得和作品相同的或者类似的保护。在回应人工智能生成内容是否具有独创性上,一种观点认为,从目前有关人工智能的各种报道和描述来看,至少在现阶段,人工智能生成的内容只是应用某种算法、规则和模板的结果,与为形成作品所需的智力创作相去甚远。[40]另一种观点认为,独创性的判断对象是已经形成的表达本身,判断时只需要对表达作形式上的审查,独创性的判断是一个纯客观的过程,是表达形成后的事后判断。[41]当我们已无法区分所欣赏的作品为人类创作还是机器生成时,就意味着该内容应被认定为作品,所以人工智能生成内容客观上应视为满足独创性要件中对最低创造性的要求。[42]
本课题组认为在回应人工智能生成内容的保护方面,并非只有将其生成内容认定为作品这一条途径。强行突破著作权法以人为核心的保护,抑或一方面承认人工智能生成物具有独创性,而又不将该种独创性归因于生成内容的过程,强调人在创作中的作用都是不合逻辑的。独创性或者说作品应该体现某种选择,这是人之为人,人之创作的作品之所以为作品的缘由,如果某位艺术家在自己家门无意打翻一桶颜料,而颜料正好在地上绘制出了一个精美的形状,第二天邻居看到以为是艺术家的新作,于是纷纷前来拍照,参观,这时在地上由于偶然产生的精美图像,在现在著作权的基本理论下很难认定为作品。同理,人类在无意识选择下生成的内容都尚不能构成著作权法下所保护的作品,弱人工智能根据算法、模板和程序生成的内容,完全没有任何的意志表达,又何能称之为作品呢?
因而对于人工智能生成内容的保护,应该回归到保护之目的说,并设计出一套合理的保护方案,方为正途。目前,各国建立的以人为中心的著作权制度,均未将机器的表达纳入其中。各国司法实践建立起的独创性标准虽有不同,但都是建立在对人的智力成果的评价基础之上的。人工智能创作物并非人的创作,既不能称其为编程者的智力成果,也不能将其作为使用人的智力成果。[43]将人工之智能的创作物定性为作品,又将其权利划归为相应个人、法人或非法人组织是不合逻辑的。
3.人工智能保护的必要性分析
对于人工智能生成内容的保护,需要回归到保护的必要性中。课题组对于相关学者的观点进行总结,发现对于人工智能生成内容保护的必要性其实主要集中在两个方面,其一是,对于人工智能生产内容的保护有益于人工智能产业的发展,其二,若不保护,大量的流入公众领域的人工智能生成内容将导致整个版权产业的巨大不稳定。
针对以上理由,本课题组认为,首先,国家对于人工智能产业的支持和鼓励不是为人工智能生成内容提供版权保护的必然事由。对于人工智能产业的扶持和保护事实上可以通过政府和市场之关系进行调节,对于人工智能生成内容的立法保护则更需要进行严格的论证。正如习近平在《习近平谈治国理政》一书中所言,“市场决定资源配置是市场经济的一般规律,市场经济本质上就是市场决定资源配置的经济。”[44]而实际上,将人工智能产业交由市场本身进行资源的配置,发挥政府在市场经济中的调节作用,本身就是产业发展的基本路径和模式。。
其次,对于人工智能生成内容的著作权法保护并不能回应著作权法保护人的创作活动和推动文化传播的立法本意。人工智能软件的开发确实投入了一定的成本,如果软件开发者或者使用者对于人工智能生成的内容无法享有某一程度上的权利保护,会对开发者或者使用者的利益造成某程度上的损害,但是据此而赋予人工智能生成内容类似录音录像制品一样的邻接权,事实上和著作权法的保护本意是不相融洽的。以录音录像制品为例,录音录像制品的保护事实上存在这样的逻辑脉络,即若不赋予录音录像制作者相应的权利,将会导致大量盗版的录音录像制品存在,[45]如此一来便不会有人从事付出大量劳动和投资的录制工作,最后导致的后果将是作品的传播受到了极大的影响。一方面,邻接权是对于录音录像行业的保护,而更深层面上是对于著作权法立法本意的回归,即促进文化的传播[46]和对投入精神创作的作者的保护。而反观人工智能生成内容的保护,则无法回应立法保护的本意。人工智能生成内容的著作权或邻接权保护,虽然起到了对于人工智能开发者的保护,但是人工智能开发者背后并无投入精神创造的人类,或者说其背后的“投入精神创作”的主体和人工智能开发者相同。
再次,对于人工智能生成内容的著作权或邻接权保护,是否有利于文化传播是存在重大疑问的。目前人工智能生成的内容和人类创造的作品还存在一定质量上的差距,即便给予该种内容亦版权法上的保护,也并不利于优质文化的传播。而当人工智能可以生成和人类作品并无太大差别或者难以区别的内容时,我们面临的挑战不再是不保护人工智能作品将会造成版权秩序混乱、版权纠纷增加之风险[47]抑或劣币逐良币的效应将导致文艺市场失去高贵、深刻并让人感同身受的作品,[48]而是整个人类创作领域的重大变革。人工智能本身可以量产,这就意味着将会有源源不断的“作品”产生,人类的作品将不再有竞争力可言。从长远看,著作权法并没有必要对于这种未来会对人类创造本身造成巨大灾难和威胁的人工智能提供保护。
4.现状分析和应对之策
制度设计应该具有一定的前瞻性,无论是人工智能生成内容的过去和未来都不应该是著作权法保护的对象,我们亦不能因对人工智能创作的“非创作性投入”进行专用权保护可促进人工智能创作软件的的开发应用,推动相关产业链的形成[49]为由,而要求对于人工智能生成内容进行著作权法上的保护。事实上许可人工智能生成内容进入公有领域,并不会对于人工智能产业造成破坏性的打击,亦不会阻碍智能创作产业的发展。
首先,人工智能产业并不仅涉及人工智能的创作领域,人工智能在金融、公共安全、教育、手机、交通、医疗、零售、工业、智能软件等领域都发挥着越来越大的作用,将人类从繁琐的劳动中解放出来。[50]许可人工智能生成内容进入公共领域并不会对于人工智能产业本身造成太大的影响。
其次,人工智能的创造并不会因为智能生成内容被许可进入公有领域而止步不前,人工智能创作软件的开发成本完全可以在商品销售领域获得弥补。例如,美联社于2014年7月开始使用的人工智能软件Wordsmith,其由美国北卡罗来纳州的自动化洞察力公司(AutomatedInsights)开发,[51]开发者通过软件的销售完全可以实现公司盈利的目的。
最后,人工智能开发者仍然可以通过合同安排,在私有领域对于人工智能的生成内容进行专有权利的安排,进而推动人工智能企业开发面向个体的具有个性的人工智能生成内容,此亦无损人工智能开发者之利益。例如,“Jukedeck”是英国的一家人工智能音乐创作平台,该平台为用户设置了类型化创作通道,并通过服务合同的方式许可用户免费使用其人工智能创作软件进行创作,音乐版权归平台所有,用户若要下载使用该音乐,应支付相应费用。开发者可以通过和使用者的约定,明晰人工智能生成内容的归属和使用方式,而开发者并不当然享有生成内容的专有权利。
课题组认为,具有创作功能的人工智能软件本身就是商品,而开发者许可他人利用人工智能生成相应内容的本质是服务,让开发者销售商品和服务行为回归市场本身,通过价格机制调节,才是人工智能产业发展的一般途径。
四、人工智能市场准入和市场规制的法律问题
人工智能极大地便利和丰富了人们的日常生活,但人工智能带来的风险也不可小觑,如国家安全风险、个人隐私风险、伦理风险等等,[52]事实上,从人工智能进入市场的开端,到人工智能在市场中实际的商业运作,都少不了法律的规制。课题组将主要从三个方面展开,一是人工智能的市场准入,二是准入后人工智能的市场规制,三是国家在进行立法规制时应有的配套激励措施。
(一)人工智能市场准入原则
市场准入原则是贯穿于人工智能市场相关立法的整体思想准则,是对人工智能进行法律规制的宏观思路把握。在市场准入原则的把握上,我们应该对人工智能市场的一般和特殊、研发和应用,以及强弱人工智能进行区分。
1.对一般市场与特殊市场进行区别
目前,人工智能在诸如信息、金融、医疗、法律、电商等多个市场领域均有渗入与发展,而这些市场由于其行业特性,在发展人工智能时所面临的问题与风险不尽相同,因此针对人工智能的一般市场和特殊市场的准入原则也应有所不同。人工智能一般市场可以理解为人工智能的技术应用已经比较成熟或者不会涉及国家、社会或个人重大利益的市场,比如说日常的电子商务市场、教育市场或者一般家用的小型机器人市场、智能家居市场等。一般市场中人工智能的风险是较为可控的,因此为了鼓励中、小规模的主体进入市场,准入的门槛应该降低。
而对于特殊市场的准入原则则要基于市场的特殊性,对欲进入市场的主体提出特殊的条件,甚至严格制约人工智能的市场准入。第一,涉及国家安全或重大利益的特殊市场主要指有关军事、国防、国家重大经济安全等,在对国家安全造成重大威胁时甚至应该禁止人工智能的市场准入。第二,涉及社会重大公共利益的特殊市场包括无人驾驶系统和日后可能出现的医疗手术机器人等,在此类的市场领域中,如果没有比较明确的资质要求,则会使重大安全事故发生率成指数型上升,社会公众利益得不到保障。第三,涉及个人重大利益的特殊市场目前主要指与个人信息与隐私安全密切相关的市场。为了避免个人信息与隐私泄露给本人带来的潜在风险,针对某些靠收集整理个人信息数据为主要商业经济来源的市场领域来说,应该设定相应的准入要求。
2.对技术研发和市场应用进行区别
研究人员曾对人工智能的层次作出划分,将人工智能从下往上划分为基础设施层、算法层、技术层、应用层。基础设施、算法、技术方向以及具体技术都是属于技术的研发阶段,而被划分到应用层的行业解决方案则属于最终的市场应用阶段。[53]
不难理解,人工智能技术的研发不仅是应用的前一阶段,也是应用的根基。课题组认为,应给予人工智能基础层技术研发宽松的环境,原因有三:第一,从人工智能所依赖的底层算法看起,此阶段的研发还未分离出上层的不同领域,某些算法更是被大多数不同市场领域的人工智能引以为共同的本源,宽松的准入环境有利于促进技术更多方面的发展。第二,我国目前还处于人工智能技术的研发初期,部分关键的算法以及芯片技术还依赖于国外的进口,这可能会影响到我国“2025计划”的顺利实现。因此,从技术研发层面应鼓励不断创新与进化。[54]第三,由于只是技术的研发,其具有基层普遍性,但却暂未牵涉到上层应用层面的社会实际推广,因此可以采取较为宽松的准入原则。
在市场应用阶段上,课题组认为应该结合该行业的具体特性,为人工智能设置一定的准入要求,其原因依然有三:第一,相较于技术研发,应用阶段具有了更多的市场运营属性,将一项技术正式投入到具体应用中,显然对社会的影响也更大。第二,对于人工智能的市场应用层面来说,有可能面临着诸如社会伦理等更为深层次的忧虑,不排除某些人工智能会因为对社会伦理的冲击而被禁止进入市场。第三,应用也比技术研发有着更强的商业利益追求,比如可能某项技术还没有尽善尽美,但是经营者为了营利则希望尽早投入市场生产经营,这背后的道德风险不可小觑。综上所述,对于特定的技术应该设置特定的标准,除非达到了该标准,否则不能轻易投入市场使用。
3.对强弱人工智能等级进行区别
人工智能也有了“强”和“弱”的等级区分。谈到市场准入的监管原则,还必须在厘清本报告第一部分对于“强弱”人工智能的介绍,对二者进行区别。
课题组认为,强人工智能和弱人工智能最本质的区别在于创造力,在于其处理逻辑的形成,通俗来说,弱人工智能并不具有自主的创造力,其本质上还是供人们使用的一种工具,只不过由于一些特殊的编程或芯片技术而拥有了一些类人类的能力。事实上,我们目前所发展出的人工智能,都是属于弱人工智能的领域,监管也是谈论对弱人工智能的监管,因此将准入原则划定在弱人工智能领域范围内较有现实意义。但是在弱人工智能领域,也有较强和较弱的弱人工智能之分。那么显然对于更易于被普通人所使用操作的纯粹工具性质的较弱的弱人工智能的市场准入标准要偏低一些;而对于较强的弱人工智能,由于其相较难以控制或者背后暗含的伦理等问题,在设置准入标准时应该从严。
事实上,受目前科学技术水平的制约,人类还并没有真正发明出不受人类控制的强人工智能,但是可以预见,如果有一天强人工智能问世,那么将会给人类社会带来巨大的冲击。这种冲击不仅包括伦理道德、市场安全方面,更包括规则制定乃至整个社会秩序方面。因此,课题组认为强人工智能是弊大于利的,应该从立法上禁止强人工智能相关技术和产品的研发应用,禁止强人工智能的市场准入,从源头上将其放入潘多拉魔盒,在本部分中提及的对人工智能的规制也均指弱人工智能。
(二)人工智能市场规制
由于市场主体所惯有的逐利性,对于市场主体的规制显得十分重要,人工智能领域也不例外。本部分将主要从反不正当竞争以及反垄断这两个公法上的规制入手,以为人工智能产业发展寻求一个健康的市场环境。
1.人工智能反不正当竞争市场法律规制
不正当竞争虽然从市场主体的行为表现形式上来看与市场侵权行为十分类似,但是它并不等同于市场侵权行为,它们的规制对象有很大区别。德国曾将反不正当竞争纳入侵权法中,后来通过不断的案例分析与发展,逐渐明确了反不正当竞争法的特性,而将其独立立法并归入经济法范畴。人工智能的出现给我国《反不正当竞争法》带来了三个方面的挑战,其加剧了反不正当竞争法一般性条款的泛化运用,突显了以反不正当竞争法来保护人工智能相关的商业秘密的不足,更是在数据保护方面对反不正当竞争法提出了新的要求。
(1)反法一般性条款的泛化运用
我国《反不正当竞争法》第二章规定了包括混淆行为、虚假宣传、商业秘密等在内的七种类型化不正当竞争行为,却难以囊括新兴技术发展背景下频繁出现的各种不正当竞争行为。为了弥补列举式立法的缺陷,《反不正当竞争法》第2条规定:“经营者在生产经营活动中,应当遵循自愿、平等、公平、诚信的原则,遵守法律和商业道德。”该条款属于反不正当竞争法的一般性条款,也是兜底性条款,赋予了法官较大的自由裁量权。这种兜底性条款体现了较强的立法技术,能够在新的技术环境背景下处理瞬息万变的各种不正当竞争行为。但正因如此,法院在处理非类型化的不正当竞争行为时,侧重于依据该一般性条款,造成了一般性条款的泛化运用。[55]最新修改的《反不正当竞争法》为了应对互联网背景下一般性条款的泛化,增加了第12条有关互联网不正当竞争的条款,俗称“互联网专条”,以期缓解这种现状。例如在360诉搜狗恶意插入链接,强制进行目标跳转一案中,原本以“违反诚信原则和商业道德”这个一般性条款为判决依据的行为,就可以在新法实施后纳入互联网专条的管辖范围。
然而随着人工智能时代以不断创新的科技进步冲击着法律的稳定性,为了更好地规制不正当竞争行为,一般性条款的泛化运用必将加剧。以我国发生的首例大数据产品不正当竞争纠纷案为例,在该案中,原告淘宝公司开发并投入运营了一种为淘宝、天猫店铺商家提供大数据分析参考,帮助商家实时掌握相关类目商品的市场行情变化,改善经营水平的数据产品。原告诉称,被告美景公司组织、帮助他人低价获取淘宝公司涉案数据产品中的数据内容,从中牟利,构成了不正当竞争行为。本案中涉及的争议对象大数据正是人工智能的底层技术设计,但是由于缺乏相应的“人工智能专条”,法院在裁判时依然以被告“明显有悖公认的商业道德”为依据认定被告存在不正当竞争行为。一般性条款的泛化不仅不利于保障市场经营主体的合法权益,同时由于赋予法官的自由裁量权过大,行为主体的可预期性下降,也不利于健康良好的市场秩序。在人工智能时代,我们呼吁“人工智能专条”的出现。
(2)商业秘密的反不正当竞争保护
在人工智能时代,会产生海量的数据资源,这种数据资源如果被经营者收集、整理、分析而具有了一定的经济价值,并被经营者采取相应的保密措施,就会形成商业秘密。我国《反不正当竞争法》第十条规定了不得侵犯他人的商业秘密,可见如果数据经过处理并满足商业秘密的构成要件的话,可以通过商业秘密路径得到保护。但是不得不指出的是,通过《反不正当竞争法》对商业秘密形成的是一种“弱保护”,保护的是经营者的利益,而不是权利。即经营者对商业秘密的享有不是绝对排他性的权利,而仅是在受到他人侵犯时才能通过诉诸不正当竞争来间接保护。我们认为,人工智能时代仅靠反不正当竞争法对商业秘密进行保护已经远远不足了。
由于人工智能目前还处于发展初期,商业秘密给一个企业带来的市场竞争价值难以估量,这也是我们建议重视对商业秘密保护的原因之一。虽然我国《民法总则》已经将商业秘密纳入知识产权保护客体,但是在实践中缺乏配套的细则规定,目前仍主要靠反不正当竞争来保护经营者的商业秘密,这种保护实难称之为完善,与人工智能时代由数据形成的商业秘密的重要性与众多性难以匹配。因此除了《反不正当竞争法》对商业秘密的保护,可以将商业秘密作为经营者享有的绝对性权利,类比专利权、著作权等知识产权保护客体,单独进行立法保护。
(3)数据的反不正当竞争保护
目前看来,数据是目前大多数人工智能行业的基础,人工智能给我国《反不正当竞争法》带来的挑战集中体现在对数据的保护上。有些数据可能经过市场经营主体的整合分析研发形成了商业秘密,但是有些数据可能只是经过简单的收集处理,难以论证其经济价值或没有被采取保密措施,此时就难以归入商业秘密范畴,从而丧失了通过《反不正当竞争法》进行保护的可能。但是,对那些虽然不符合商业秘密和作品保护条件,同时经营者也投入了大量资金与劳动形成的、能给经营者带来竞争优势的数据信息,若被不当“盗用”或“扒取”,也会给经营者及市场竞争带来不利损害。[56]如果放任这种情况的发生,势必会挫伤数据开发者的积极性,阻碍人工智能技术的革新。
遗憾的是,我国《反不正当竞争法》并没有将此类数据信息纳入保护范围,也就是说,在反不正当竞争法第二章规定的七种类型化行为里,并没有侵犯数据权益的情形,虽然有反不正当竞争法一般性条款的兜底,但是对一般性条款的滥用必会造成人工智能市场的不稳定性。2018年5月,日本修改了其《不正当竞争防止法》,在第二条关于“不正当行为”定义的例举中新设了非法获取、使用和提供受用户账户和密码等系统管理方式保护的、仅向特定使用者提供的数据之情形。人工智能领域的数据信息可能构不成传统意义上的商业秘密,但基于数据的重要性十分有保护的必要,并且由于某些数据信息的价值性没有那么突出,也不必将保护力度提升至类似于商业秘密权的强保护。因此课题组认为,借鉴国外的做法,类比侵犯商业秘密的规定,将侵犯数据信息纳入不正当竞争保护范围,具有合理性。
2.人工智能反垄断市场法律规制
人工智能时代的到来催生了新型的垄断行为,使市场垄断更为隐秘,难以被监管机关察觉,或者难以落入《反垄断法》的适用范围。这些行为包括通过算法共谋的垄断协议行为、通过数据垄断滥用市场支配地位行为以及未达到申报标准的经营者集中行为。
(1)通过算法共谋的垄断协议行为
传统的垄断协议行为一般都是明示的,即行为主体间故意通过书面形式或口头形式达成一致的意愿协议,以固定价格、排除竞争等。这种明示的共谋行为比较容易留下证据,也比较容易能被监管机关分辨出来。但是随着人工智能的出现,垄断协议行为渐渐开始向默示化发展,即表面看来是由于计算机和算法运行而导致的垄断行为,其实是算法背后经营者的刻意操纵。
早有学者指出,算法已经成为经营者共谋达成垄断协议的工具,例如在美国,数位当事人就被指控共谋使用特殊定价算法,在亚马逊平台上在线固定海报画的销售价格。[57]据称,合谋者为实施协议,对招贴画的销售采用了特别的价格算法,目的是协调各自的价格变动,并编写了服务于价格算法软件的计算机代码,以便设定与协议一致的价格。这种利用大数据整合算法,达成统一的市场定价,在国内外已经屡见不鲜。通过迅速处理竞争对手的市场信息和其客户的专有数据,计算机可能会更有效地监测竞争对手的价格或客户,这虽然增加了市场透明度,但也增加了发生协同行为的风险。[58]同时,这种默示化的垄断协议行为没有明显的物理痕迹,不易于被发现,增加了监管的困难。针对这一现状,我们认为在未来反垄断法的司法实践中,可能不得不将“垄断协议”做扩大化解释。
(2)通过数据垄断滥用市场支配地位行为
企业拥有市场支配地位本身不会构成反垄断法的规制对象,关键点在于企业是否滥用了其市场支配地位,阻碍了其他经营者进入市场。在人工智能时代,具有行业优势性的企业对于数据的垄断已经是不争的事实。例如大型的搜索引擎企业或者网络购物平台,这些平台由于所经营的业务,对用户数据的抓取具有先天性的优势。对于控制大量数据的企业来说,具有市场支配地位不会构成垄断,但如果其利用收集到的大量市场数据,排除了下游经营者的市场进入,阻碍了其他经营者的市场竞争,就触及了垄断行为。利用数据进行垄断是人工智能时代比较显著的特征。
我国《反垄断法》第17条规定的滥用市场支配地位中并未涉及数据垄断行为,如果企业通过其市场支配地位收集到数据,但是并不向第三方开放,从而阻止了其他经营者进入市场,这是否会造成垄断行为值得思考,毕竟企业费力抓取来的数据信息在某些情况下也属于需要被保护的合法权益。欧洲法院(ECJ)曾在相关案例中针对该问题提出了“必需设施”理论,即如果市场经营主体垄断的数据属于市场的“必需设施”,则认为其构成垄断行为,反则反之。[59]我们认为当特定数据构成“必需设施”时,应该认为经营者通过数据垄断滥用了市场支配地位。
(3)未达到申报标准的经营者集中行为
经营者集中也是反垄断法加以规制的一种行为,它是指两个或者两个以上的企业相互合并,或者一个或多个个人或企业对其他企业全部或部分获得控制,经营者集中可能会造成经济力量过度集中,进而限制竞争。我国并未禁止经营者进行集中,而是采取了事前的强制申报制度。根据国务院颁布的《关于经营者集中申报标准的规定》,对于营业额达到一定标准的企业如果想进行集中就必须申报,即以营业额为申报标准。但是这一标准却在人工智能时代面临着风险,我国的人工智能企业刚刚处于起步阶段,许多企业的营业额并不高,市场价值难以在目前真实显现,如果此时拥有人工智能产业的企业进行集中,可能难以达到申报标准从而逃脱监管,但是这并不意味着未来这些企业的集中不会给竞争秩序造成损害。
这一问题也普遍存在于全球各个国家,德国等国家已经意识到这一问题,德国《反对限制竞争法》就引入了一项新的考虑交易价值的合并控制标准,即以交易额门槛补充基于营业额的法定事先申报门槛。[60]我国的申报标准也主要以营业额为依据,这可能会导致营业额较低但是未来价值较高的人工智能企业逃脱申报,因此在认定申报标准时是否可以参照合并时的交易额高低,而不是企业本身营业额的高低是值得思考的问题。
(三)人工智能市场激励政策
市场准入和市场规制本身就具有某种意义上的双向含义,既是通过限制某些人工智能的市场准入和市场竞争行为加强对人工智能风险的防范,也是对某些人工智能放宽准入标准以及维护市场良好竞争秩序以达到对于人工智能的激励效果。我国目前已经对人工智能的激励有了宏观的政策思路把握,但是通过上述对于市场准入和市场规制的分析,课题组拟再从细节方面提出以下三个方向性建议,包括促进技术研发的成果共享、完善对于商业秘密和数据的保护以及加强反垄断的执法力度。
1.技术研发的成果共享
从人工智能的结构层次来看,层级越高人工智能的领域技术分化就越明晰,而针对处于底层的算法设计和技术方向,则应该建立技术共享平台,促进技术研发的成果共享。对技术研发阶段的共享激励存在三个方面的现实意义。其一,就我国人工智能行业市场来看,企业比较倾向于从应用层入手直接进行市场运作,而对于比较核心的算法设计与芯片技术还过多地依赖着外国进口,促进技术研发成果的共享能够整体提升我国技术研发水平。其二,技术研发作为比较基础的人工智能,还没有具体地向某个行业进行分化,没有具体地被应用到行业解决方案上。不排除此阶段的人工智能被应用于各个领域的可能性,它具有更多的公益性而不是商业逐利性,促进共享比较合适。其三,核心技术研发属于创新的一部分,但创新则需要较大的成本,对于比较基础性的人工智能技术,只有建立技术共享平台,鼓励技术共享,才能提升创新发展的效率。
2.完善对商业秘密和数据的保护
如上文中市场规制部分所论述的,商业秘密和数据信息是人工智能时代需要重点关注的对象。正因为人工智能还属于发展初期,市场竞争还存在太多的不确定性,与人工智能相关的商业秘密往往倾注了市场经营主体较多的心血,甚至是一个企业的核心竞争力,商业秘密的意义被大大提升了。对于商业秘密,仅靠反不正当竞争法的保护已经不够了,而应该趁着在《民法总则》里商业秘密被纳入知识产权保护客体的契机,承认经营者对商业秘密享有的所有权,着重于从知识产权方面进行类似于著作权、专利权的保护。而数据信息是人工智能时代被赋予市场经济价值和市场竞争筹码的另一客体。有些数据信息可能因为经营者的整合研发和采取的保密措施而被纳入商业秘密保护范畴,但是对于其他的数据信息并不是没有保护的必要。目前数据的所有权问题尚且有较大争议,我们不便于直接确定数据信息的所有权问题,但是对于某些企业不正当地窃取他人数据的行为,可以很好地用《反不正当竞争法》进行规制。同时为了避免反法一般性条款泛用的加剧,我国可以在《反不正当竞争法》里增加与数据相关的类型化不正当竞争行为。
3.加强反垄断的执法力度
对于人工智能给反垄断带来的诸多挑战,我们可以通过行为类型化的分析一一解决。在市场经营主体利用默示化的算法进行垄断协议的行为上,我们可以拓宽“垄断协议”的内涵理解,例如如果某些算法可能会导致快速的反复的价格变动,最终会促成统一的价格,这就可以相当于商人之间的实际谈判协商达成共谋协议。[61]同时,可以将行为主体间没有达成共谋协议的证明责任转移给各个涉嫌的经营者。在市场经营主体利用数据滥用市场支配地位的行为上,我们要看到对于数据保护的矛盾性,何种数据需要给予经营者垄断性的保护,禁止他人的不正当竞争行为,何种数据需要禁止经营者的垄断,需要有一个较为明确的标准。为了加强对人工智能行业经营者的集中监管,课题组建议将申报标准由营业额标准修改为交易额标准,同时在交易额的认定上要符合通常的市场经济规律,避免诸如一元的名义交易额或者过低的交易额的出现。
结 语
人工智能技术的飞速发展催生了无人驾驶汽车、智能医疗、智能创作软件等新兴产业,亦暴露出一系列值得探究与思考的法律问题。本课题对人工智能法律主体资格、人工智能创作物的著作权保护及人工智能的市场准入和规制等问题进行了探析,充分认识到科学技术的新发展给法律滞后性带来的挑战。
首先,通过对人工智能的法律主体资格分析,课题组认为应当赋予人工智能“有限的”民事主体地位,人工智能并不享有伦理性的人格权或身份权,而是享有经济性的财产权利以及承担义务。课题组认为应否定人工智能的刑事主体资格,最终的刑事责任应由人来承担。其次,对于人工智能创作物能否受到知识产权保护问题,虽然传统知识产权制度以人类的创新成果为保护对象是人工智能创造物受知识产权保护面临的障碍,但是课题组论证了目前由人工智能生成的内容不适合获得版权保护,人工智能生成物应当作为公共产品进入市场流通。最后,人工智能市场领域作为新兴发展领域,应从反不正当竞争以及反垄断这两个公法上的规制入手,以为人工智能寻求一个健康的市场环境。
我国的人工智能研究已走在世界前列,但与这一新兴技术相应的法律规范及制度尚不健全,相关问题目前主要由伦理道德和社会舆论进行约束,而缺少相应的监督机制,也无权威机构进行规范。有鉴于此,应当及早建立对人工智能问题的法律认识,及时采取相应的行动,为人工智能产业营造良好的社会市场环境,以进一步促进人工智能技术的良性发展,顺利实现智能化社会的转型。同时,我们必须谨记无论未来人工智能发展至何种程度,也永远不能取代人类的智慧,科学工作者的辛勤劳动和努力创新才是人类进步的主要动力。我们要合理利用人工智能为我们带来的各种便利,但不能过度依赖人工智能,同时也要认真思考人类社会与人工智能之间的关系,从而决定未来的法律是否应当适应人工智能的发展而做出相应的调整变化,相信未来法律与人工智能之间的平衡会越来越完善。
编后语:人工智能是引领新一轮科技革命和产业变革的战略性技术,是我国产业转型升级的战略抓手。在推动人工智能健康发展的现实需要下,人工智能与各行业全方位深度融合,催生了数据驱动、人机协同、跨界融合、共创分享的智能经济形态。如何妥善应对人工智能带来的挑战,为产业健康发展营造良好环境,有必要在法律制度层面进行深入研究。本课题分析了人工智能对传统法治体系带来的冲击和挑战,并着重对人工智能法律主体资格、人工智能创作物的著作权保护及人工智能的市场准入和规制三个问题进行了深入研究。课题成果具有现实针对性、观点具有一定参考价值,为促进人工智能发展的法律法规和政策体系建设提供了有益的指导。
课题组长简介:
童潇,男,华东政法大学互联网+法律大数据平台常务副主任,副教授。
(责任编辑:邓海娟 核稿:陈书笋)
[①]2018年上海市人民政府决策咨询研究政府法制专项课题。
[②](美)StuartJ.Russell,PeterNorvig著:《人工智能:一种现代的方法》(第3版),殷建平、祝恩、刘越等译,清华大学出版社2013年版,第3-5页。
[③]王家祺、王赛:《人工智能技术的发展趋势探讨》,《通讯世界》2017年第8期。
[④]钟义信:《人工智能:概念•方法•机遇》,《科学通报》2017年第22期。
[⑤]闫志明、唐夏夏:《教育人工智能(EAI)的内涵、关键技术与应用趋势——美国《为人工智能的未来做好准备》和《国家人工智能研发战略规划》报告解析》,《远程教育杂志》,2017年第1期。
[⑥]蔡曙山、薛小迪:《人工智能与人类智能——从认知科学五个层级的理论看人机大战》,《北京大学学报(哲学社会科学版)》2016年第4期。
[⑦]【美】史蒂芬·卢奇、丹尼·科佩克著:《人工智能》(第二版),林赐译,人民邮电出版社2018年版,第11页。
[⑧]马修U.谢勒:《监管人工智能系统:风险、挑战、能力和策略》,曹建峰、李金磊译,《信息安全与通信保密》2017年第3期。
[⑨]季冬梅:《人工智能发明成果对专利制度的挑战—以遗传编程为例》,《知识产权》2017年第11期。
[⑩]雷悦:《人工智能发展中的法律问题探析》,《北京邮电大学学报》2018年第2期。
[11]郑戈:《人工智能与法律的未来》,《时事观察》2017年第10期。
[12]杨清望、张磊:《论人工智能的拟制法律人格》,《湖南科技大学学报(社会科学版)》2018年第6期。
[13]吴汉东:《人工智能时代的制度安排与法律规制》,《法律科学》2017年第5期。
[14]许中缘:《论智能机器人的工具性人格》,《法学评论》2018年第5期。
[15]邱兴隆:《刑罚的哲理与法理》,法律出版社2003年版。
[16]时方:《人工智能刑事主体地位之否定》”,《法律科学(西北政法大学学报)》2018年第6期。
[17]姚万勤:《人工智能影响现行法律制度前瞻》,《人民法院报》2017年10月25日。
[18]刘宪权、胡荷佳:《论人工智能时代智能机器人的刑事责任能力》,《法学》2018年第1期。
[19]时方:《人工智能刑事主体地位之否定》,《法律科学(西北政法大学学报)》2018年第6期。
[20]目前有关人工智能创作内容的术语有人工智能生成内容、人工智能作品、人工智能创作物、人工智能创作成果等不同的表达。
[21]美国《版权法》第102条,日本《著作权法》第2条,意大利《版权及邻接权保护法》第1条。
[22]《中华人民共和国著作权法实施条例》第2条。
[23]蔡自兴等:《人工智能及其应用》,清华大学出版社2016年版,第290-291页。
[24][加]SimonHaykin:《神经网络与机器学习》(原书第三版),申富饶等译,机械工业出版社2011年版,第398页。
[25]SeePhilipGalanter,ThoughtsonComputationalCreativity,DagstuhlResearchOnlinePublicationServer2,(July7,2009),http://drops.dagstuhl.de/opus/volltexte/2009/2193/,2018年7月5日最后访问。
[26]杨延超:《为人工智能筹划法律保护》,《经济参考报》2017年12月5日,第8版。
[27]SeeJaniMcCutcheon,CuringtheAuthorlessVoid:ProtectingComputer-GeneratedWorksFollowingIceTVandPhoneDirectories,37MelbourneUniversityLawReview46,78-79(2013).
[28]腾讯研究院、中国信通院互联网法律研究中心:《人工智能:国家人工智能战略行动抓手》,中国人民大学出版社2017年版,第49页。
[29]易继明:《人工智能创作物是作品吗?》,《法律科学》2017年第5期。
[30]SeeJamesGrimmelmann,CopyrightforLiterateRobots,101(2)IowaLawReview657,659-660(2016).
[31]曹源:《人工智能创作物获得版权保护的合理性》,《科技与法律》2016年第3期。
[32]吴汉东:《人工智能时代的制度安排与法律规制》,《法律科学》2017年第5期。
[33]SeeAnnemarieBridy,CodingCreativity:CopyrightandtheArtificiallyIntelligentAuthor,5StanfordTechnologyLawReview1,21(2012).
[34]易继明:《人工智能创作物是作品吗?》,《法律科学》2017年第5期。
[35]陶乾:《论著作权法对人工智能生成成果的保护--作为邻接权的数据处理者权之证成》,《法学》2018年第4期。
[36]许明月、谭玲:《论人工智能创作物的邻接权保护--理论证成与制度安排》,《比较法研究》2018年第6期。
[37]李拥军:《从‘人可非人’到‘非人可人’:民事主体制度与理念的历史变迁--对法律‘人’的一种解析》,《法制与社会发展》2005年第2期。
[38][英]玛格丽特·博登著:《AI:人工智能的本质与未来》,孙诗惠译,中国人民大学出版社2017年版,第85页。
[39]《著作权法》第13条第3款。
[40]王迁:《论人工智能生成的内容在著作权法中的定性》,《法律科学(西北政法大学学报)》2017年第5期。
[41]孙山:《人工智能生成内容著作权法保护的困境与出路》,《知识产权》2018年第11期。
[42]熊琦:《人工智能生成内容的著作权认定》,《知识产权》2017年第3期。
[43]此处指的是第二类计算机生成内容和具有一定学习能力的可以脱离指令输入的人工智能生成内容。
[44]习近平:《习近平谈治国理政》,北京外文出版社2014年版。
[45]乔玉君:《论著作邻接权的法律保护》,《科技与法律》1997年第1期。
[46]关于邻接权的传播功能,亦有学者指出,“传播功能”是邻接权客体所具备的核心功能,也是邻接权客体正当性的最有力证明。王国柱:《邻接权客体判断标准论》,《法律科学(西北政法大学报)》,2018年第5期。
[47]李伟民:《人工智能智力成果在著作权法的正确定性--与王迁教授商榷》,《社会科学文摘》2018年第7期。
[48]易继明:《人工智能创作物是作品吗?》”,《法律科学》2017年第5期。
[49]许明月、谭玲:《论人工智能创作物的邻接权保护--理论证成与制度安排》,《比较法研究》2018年第6期。
[50]《走向智能推荐:2018年中国人工智能行业研究报告》,http://baijiahao.baidu.com/s?id=1596679755391284602&wfr=spider&for=pc,最后访问日期2018年1月19日。
[51]徐曼:《国外机器人新闻写手的发展与思考》,《中国报业》2015年第23期。
[52]董妍:《人工智能的行政法规制》,《人民法治》2018年11期。在该文中作者总结了学者们所提到的人工智能的十大风险,包括意识形态和国家安全风险;军事风险;公共安全风险;社会不稳定风险;伦理风险;个人隐私风险;算法歧视和数据歧视;知识产权风险;信息安全风险;未成年人身心健康风险。
[53]腾讯研究院:《人工智能》,中国人民大学出版社2017年版,第24页。该书中指出,基础设施层包括硬件/计算机和大数据;算法层包括各类机器学习算法、深度学习算法等;技术层包括计算机视觉、语音处理等多个技术方向和图像识别、语音合成等多个具体技术;应用层是指行业解决方案,包括金融、安防、交通、医疗、游戏等。
[54]吴汉东:《人工智能时代的制度安排与法律规制》,《法律科学(西北政法大学学报)》2017年5期。
[55]田小军、朱萸:《新修订《反不正当竞争法》‘互联网专条’评述》,《电子知识产权》2018年第1期。
[56]管育鹰:《人工智能带来的知识产权法律新问题——国外发展动向与我国应对路径思考》,中国法学网。http://www.sohu.com/a/275639314_648952,最后访问日期:2018年12月29日。
[57]黄晋:《人工智能会不会促进垄断》,《经济参考报》2018年11月。
[58]韩伟:《数字市场竞争政策研究》,法律出版社2017年版。
[59]转引自韩伟:《数字市场竞争政策研究》,法律出版社2017年版。
[60]黄晋:《人工智能对反垄断法的挑战》,中国社会科学网:http://ex.cssn.cn/zx/bwyc/201810/t20181010_4666741.shtml,最后访问日期:2018年12月29日。
[61]李振利、李毅:《论算法共谋的反垄断规制路径》,《学术交流》2018年第7期。