李爱君:人工智能不具有法律主体性质
人工智能的法律地位的法律技术设计也同样应以人类为核心,既要控制人工智能给人类带来的风险,又要充分发挥人工智能为人类更好地服务。依据法律价值思考是否应赋予人工智能法律主体地位,应从防范风险的两个维度为出发点:第一个维度是人工智能给人类带来的风险是否赋予了人工智能法律主体地位就能消解,否则就没有必要赋予其法律主体地位。因为一旦赋予了人工智能法律主体地位,会带来对法律体系的巨大冲击;第二个维度是赋予了人工智能的法律主体地位会给人类带来什么风险,此风险是否可控,如不可控就没必要赋予其主体地位。
人工智能是人控制下的、人能力的延伸物,它本身没有内源性的行为能力,也没有内源性的权利能力。从意识、行为能力和责任能力方面都无法成为法律关系中的主体,因为其不具有人类的意识、行为能力和责任能力。
人工智能是其主体的法律行为
首先,人工智能是行为。行为是主体“受思想支配而表现在外面的活动”。
从人工智能的定义分析,人工智能是某种能力,能力是属于行为范畴,是与活动(行为)联系在一起的。能力是与人完成一定的社会实践活动和任务紧密联系在一起。如把能力与具体实践活动相分离就无法表现人的能力,更不可能发展人的能力。因此,人工智能是行为。
从人工智能是工具的角度分析,人工智能是主体行为的延伸或行为的方式和方法。人工智能属于科学技术的范畴,科学是基于实验观察并以系统地发现因果关系为目的的实践活动,技术是人类改变客观世界的手段或工具。约翰·麦卡锡(JohnMcCarthy)于1956年达特茅斯夏季讨论会上提出“从掰折的木棍、摩擦石块取火、用石块猎物到数控车床、计算机系统、航天器、人工智能系统等,每个历史阶段的工具都体现了这个阶段人类的认知水平”,人工智能是行为人为达到所需求的目标,通过计算机程序所设定的算法实施一定行为的方式和方法。
其次,人工智能行为构成了其主体(人工智能的研发者、制造者以及使用者等)的法律行为要件。人工智能是主体行为借助的工具,因此是主体的行为的一种方式,是主体行为的延伸。此行为如符合法律行为客观要件、主观要件和法律行为的确认就构成了人工智能主体的法律行为。
从前面人工智能分析得出其是行为,同时也是一种行为方式。因此人工智能是其主体“人工智能的研发者、制造者以及使用者”的行动和行为方式;人工智能具有法律意义的结果。判断法律行为结果主要有两个标准:一是行为给社会造成的影响;二是该结果具有法律意义。这里主要从人工智能造成一定的社会影响来论述,因为结果应当从法律角度进行评价,是构建人工智能法律性质之后的评价。因此,人工智能主体的法律行为符合法律行为的客观要件。
人工智能是由人类赋予它的算法和信息来决定的。人工智能本身没有行为认知,其行为认知是人工智能的设计者、制造者以及使用者对自己行为的法律意义和后果的认识。因此人工智能主体行为意思和行为认知决定了人工智能行为是法律行为。实践中人工智能主体是自然人或是法人,而且自然人或法人具有行为意思和行为认知,所以人工智能的主体行为构成法律行为的主观要件。
再次,人工智能是其设计者、制造者和使用者法律行为的法律价值的实现。认定人工智能是其设计者、制造者和使用者的法律行为有利于实现法律的价值,因为通过人工智能行为形成的法律关系是其主体的设计者、制造者和使用者相对人形成的;客体是设计者、制造者和使用者及其相对人的权利和义务共同指向的对象;人工智能行为的责任主体是设计者、制造者和使用者。
此法律关系的模式可以促使人工智能的设计者、制造者和使用者在对人工智能的研发、测试、质量评估等过程中降低道德风险,尽到最大的谨慎义务坚守伦理底线意识,以此保障人工智能研发的安全和更好地服务于人类的发展。因为,人工智能的“智”是设计者以事先输入必要的数据、设定目的的程序来实现的,人工智能的“智”是受人类的智力和伦理道德所决定的决策方法和人类智力通过数据技术和数学技术的体现,人性中的恶与人类道德和能力上的缺陷是人工智能本身所不能克服的,只能对设计者、制造者和使用者通过法律进行规范,来防范人性中的恶与人类道德和能力上的缺陷所产生的对人类秩序与生存的风险。(中新经纬APP)
中新经纬版权所有,未经书面授权,任何单位及个人不得转载、摘编或以其它方式使用。本文不代表中新经纬观点。返回搜狐,查看更多
浅析人工智能生成内容的保护路径
原标题:浅析人工智能生成内容的保护路径随着人工智能技术的成熟,越来越多的行业开始将这项技术运用于商业生产中,如利用人工智能技术进行自动的图像、符号信息处理,进而产生有欣赏价值的绘画、文学内容等。那么,这些内容是否符合我国著作权法中对作品的定义?相关主体是否可以通过著作权法来进行保护?这些问题在司法实务界和理论学界均存有一定的争议。在笔者看来,分析这些问题应把握两个原则:第一,不能因为保护某些行业而采用功利主义来论断适用某项法律,即对人工智能投资者、使用者的保护不一定要通过著作权法的路径来实现;第二,在大陆法系中需要保障法律的稳定性,不能因出现新事物而轻易改变既有法律规则,因此不宜为人工智能创设新的民事主体类型。
功利主义分析的误区
作品的构成要件包括“属于智力成果”“具有独创性”“表达相对完整”等要素。笔者认为人工智能自动生成的内容难以符合第一个要件,即智力成果是由民法上的自然人或法人创作而产生。但是,从外在表现上看,人工智能生成内容有的难以和自然人或法人创作的作品相区分,如果有人把它当成自己的作品使用、寻求著作权法保护,能否得到支持?这就引发了人工智能生成内容是否应该获得著作权法保护的问题。部分学术和司法观点认为:人工智能生成内容从外在表现上难以与人类的作品区分开来,如果有人将其冒充为人类所创作的作品,事实上很难识别出来,因此区分是没有意义的。另外,如果不给予人工智能生成内容著作权保护,人工智能生成物的投资者就缺少对该内容的垄断性,这可能会损害其利益。基于上述理由,如果人工智能生成物外在表现上类似于人类的创作,那么该内容应该被认定为作品。但笔者认为这种推论存在一定逻辑缺陷,需要加以厘清。
思考人工智能生成内容是否应该获得著作权法保护,需要从两个层面思考问题:一是从本质主义的视角,人工智能生成内容是否满足作品的实质性要求;二是从功利主义角度,给予人工智能著作权有无必要。回答第一个问题,需要厘清我国法律对于作品的实质判断要件。其中,著作权法实施条例第三条所称的“创作”和人工智能生产过程是否等价?如果人工智能生成过程属于著作权法实施条例第三条所称的“创作”,那么人工智能生成物可以被认定为作品,但谁才是这一作品的作者和著作权人?这仍然是法律要解决的问题。从功利主义出发,则需要厘清人工智能生成内容是否值得保护。如果回答是肯定的,则需要研究应采取什么路径来进行保护。如果采取著作权法保护路径,该如何确定著作权归属?此时,无论从本质主义还是功利主义层面,都要解决人工智能的法律地位问题。
具体而言,人工智能生成内容的使用涉及人工智能研发者、人工智能使用者、生产内容使用者之间的利益平衡。例如,媒体斥资购买人工智能软件,使用人工智能生成新闻稿件或股市和金融市场快报,若其他媒体未经同意擅自使用该文稿,此类行为无疑会分流前者的受众,损害前者的商业利益。此时,如果将人工智能生成的新闻稿认定为作品,则前者的利益可以获得著作权法的保护。如果新闻稿的独创性较低,无法被认定为作品,还可以通过反不正当竞争法来保护前者的利益,因此,著作权法保护并非是唯一路径。功利主义分析常见的误区是:以保护人工智能使用者的利益来证明人工智能生成内容应当受著作权法保护,这在逻辑上是有缺陷的,两者不是必然的因果关系。
人工智能的法律属性
将人工智能生成内容认定为作品,还面临一个难以逾越的理论难题:人工智能生成的内容不是人类智力创作成果,不满足作品必须是由自然人或法人所创作、具有创造性这两个条件。为此,有人提出可以扩大受著作权法保护的主体的范围,将人工智能作为“赛博人”,即拟制的人加以保护,并且这方面有法人制度可供借鉴。然而,这种思路不仅会导致知识产权法的重大变化,而且也将影响民法有关主体的规定。
根据有关法律规定,法人和自然人一样,具有独立的民事权利能力和民事行为能力,法人以其独立的财产作为民事责任的承担。如果将“赛博人”拟制为新的民事主体,其权利由谁享有?义务和责任由谁负担?如果为其创设新的民事主体规制,那么法人制度的存在还有什么意义?显然,在可以预见的时期内,“赛博人”是无法自行负担其权利和义务的。但是“赛博人”产生的后果,需要由对应的自然人或法人来享受权益承担义务和责任,如此,为什么不采用类似动物致人损害、产品责任这样的传统民法制度来解决有关问题?
具体而言,在权利方面,将人工智能视为“无体物”,其生产的内容视为由“无体物”产生的“孳息”,由人工智能的投资者享有对于“孳息”的利益。责任方面,因人工智能进行的文本和数据挖掘、算法自动生成文字等内容,由此造成的民事责任、知识产权责任由财产的所有者、使用者承担无过错责任。因此,引入“赛博人”作为新的法律主体的必要性要画个大大的问号。更核心的问题是人工智能生成内容也不具备创造性,因为就目前的“弱人工智能”而言,其可以进行运算但是不会进行思考,遵循数理逻辑但不具备自然人或法人的理性。除此之外,人工智能更没有自然人非理性的情感机制。因此,人工智能不具备著作权法上作者的“人格”特质,其生成的内容也不具备创造性,而创造性是人类特有的能力,是人区别于物的根本属性之一。
“工具论”的合理性
人工智能不具备独立的民事主体资格,人工智能自动生成的内容不满足作品的“智力成果”要件,但是,这并不能排除人工智能生成内容可能受到著作权法的保护,只是著作权主体仍为自然人或法人,而该类人工智能生成内容是作为人利用技术辅助生成的作品加以保护的。创作作品是人的主体性的实现,是人的自由意志的运用,人可以直接创作作品,也可以借助一定的工具完成、甚至通过委托他人实现创作目的。就部分“弱人工智能”生成内容而言,本质上是创作者借助人工智能这一工具进行创作,而生成物是人意志发动的结果,是人的自由意志的实现,因而是人的意志的产物。人工智能生成内容的过程是运用一定的算法进行信息加工选择的过程,因此算法体现程序设计者的主体意志和选择,而程序的使用者某种程度上承认、接受了该算法,创作方向和人工智能设计方向有着高度的契合,这种对算法的接受也是使用者自由意志的选择。所以人工智能生成内容归根结底是人的自由意志的运用和实现。人工智能使用者运用人工智能生成的表达可以作为使用者的作品加以保护。
通过以上分析可得出初步的结论:人工智能不宜被视为独立的作者或著作权人,但部分内容可以作为人工智能使用者的作品得到著作权保护,也即有人参与创作的人工智能生成物可以被认定为作品。
从功利主义出发,论证人工智能生产内容应该以著作权法保护是有逻辑缺陷的。除此之外,部分观点反驳“工具论”的理由是:既然从内容本身无法分辨一项表达究竟出于人工智能还是自然人或法人,那么在司法实践中还有必要去进行分辨吗?但笔者认为,这实际上是一个证据的问题,应该从举证角度去考虑。即便一项表达事实上出自于人工智能,但由自然人对其进行署名并登记,那么如果无相反证据,法律应推定该表达属于人类智力成果,构成作品。以证据来推定事实是法律制度对现实生活的简化,追求法律的形式正义就需要接受应然层面和实然层面的一定脱节。
因此,在无法举证证明作品不是由人创作而是由人工智能生成的情况下,只能认定该表达构成作品,受到著作权法的保护。在总体上不对人工智能自动生成内容提供著作权保护的情形下,这将导致部分人工智能生成内容实际上可以冒充人类的创作而得到著作权保护,但并不能因此说明所有人工智能生成内容都可以作为作品受到保护,只要它形式上看起来类似人类的创作,这就好比某些假冒商标的商品无法被识别出来,不能因此主张所有的假冒该商标的商品都应该被认定为真品。(华东政法大学龙文懋龙明明)
(本文仅代表作者个人观点)
(责编:林露、李昉)分享让更多人看到
智能机器人还不能成为法律上的人
原标题:智能机器人还不能成为法律上的人意志、理性均源于人类心灵的能力,正是这种能力使得为人类确立道德法则成为可能。而在现有的技术水平下(弱人工智能时代),智能机器(人)显然不具备人类心灵的能力。不能基于这种人工的“智能”,就认为智能机器(人)可以与自然人比肩而成为法律中的人。
从功利的角度出发,是否需要为智能机器(人)拟制主体地位,取决于这种拟制的目的是否正当、手段是否合适,即是否符合工具理性的要求。仅出于限制智能机器(人)的制造商或设计者的责任的目的,不构成为拟制法律人格的正当目的。
或许在将来的某一天,从功利的角度出发需要拟制智能机器(人)的法律人格,这种必要性就需要有实践的基础并得到充分的论证。
随着人工智能技术的发展,“人工智能”、“智能机器”、“智能机器人”这些概念进入了人们的视野。内华达州开了美国自动驾驶汽车立法之先河,于2011年通过AB511法案,对“人工智能”下了一个定义:人工智能是指使用计算机和相关设备以使机器能够重复或模仿人类的行为。当智能机器的概念与人们原已拥有的“机器人”的观念相结合的时候,“智能机器人”的概念又被提出来了。这样,人们不禁疑惑,智能机器(人)在法律上能不能算人?
2017年2月16日,欧洲议会投票表决通过《就机器人民事法律规则向欧盟委员会的立法建议[2015/2103(INL)]》(以下简称“机器人民事法律规则”),其中最引人注目之处,就是建议对最复杂的自主智能机器人,可以考虑赋予其法律地位,在法律上承认其为“电子人”(electronicperson)。不过,是否承认智能机器人具有法律人格,存在激烈的争论。
讨论智能机器(人)是否可以被赋予法律人格或法律主体的问题,首先需要厘清的是,什么是“法律中的人”?
有权利能力
才能成为法律认可的“人”
为了确定谁可以成为法律中的人,民法学引入了“权利能力”这一概念。权利能力成为法律中的人的“标签”。简言之,有权利能力,就是法律中的人;没有权利能力,就不是法律中的人。
作为近代以来“人的解放”的重要成果,每个自然人(man)生而为人(person),不分年龄、性别、民族、种族、职业等具体情形的不同,都具有权利能力,此为各国国内立法和国际公约所普遍承认。但是,法律中的人(person)与我们通常所理解的“人”,并非同一个概念。为了将这两者相区分,我们将“法律中的人”用“法律主体”这个概念来替换。
法律中的主体,除了自然人之外,尚有“法人”。我国《民法总则》第57条明确规定,法人具有权利能力。其实,“法人”本来就是“法律中的人”的简化表达形式,从这个意义上讲,自然人具有权利能力,也是“法人”。但是习惯上,人们将“法人”概念限缩为专门用来指称除自然人以外的法律中的人,按照《民法总则》的规定,法人是具有权利能力的组织。
若是将智能机器(人)定位为电子人(electronicperson),即一方面是说,智能机器(人)也是法律中的人(person);另一方面,这种法律中的人既不是自然人(naturalperson)也不是法人(legalperson),而是一种新的类别――电子人。若是智能机器(人)与自然人、法人一样,可以是法律中的人,也就意味着他们之间必然具有某种共性。
那么,智能机器(人)是在哪些方面与自然人或法人相类似,以至于需要赋予其法律人格或法律主体地位呢?
智能机器(人)
还不具备自然人的心灵能力
法律中的人的“权利能力”,究竟是谁的能力、又是什么样的能力呢?权利能力是法学对人的理性能力的抽象化和概念化。依现有的哲学,意志、理性均源于人类心灵的能力,正是这种能力使得为人类确立道德法则成为可能。用康德的话说,“可以把纯粹理性看成是一种制定法规的能力”。
即使是尚不具备理性能力的婴幼儿、虽然成年但却丧失了理性能力的不幸者,法律也承认其具有权利能力。对此需要加以解释,人的意志、理性是人类区别于自然界其他事物、生命的本质特征,因此,即便某些人类个体与一般情况有所偏离,仍不妨碍我们将其视为同类,并且依“等者等之”的正义观,承认其仍然为法律中的人。
智能机器(人)与自然人的类比,显然不是从其外在物理或形体特征角度出发的。智能机器(人)不是因为外形与人类相似,而使人产生它们也是“人”的联想的。从目前的讨论来看,智能机器(人)与人类的比较,着眼点在于其“智能”。
AlphaGo战胜人类最优秀的棋手、微软小冰能够“创作”诗歌,这些人工智能技术的新成果,使得不少人认为有的智能机器(人)可以比人类更聪明。而欧洲议会建议赋予电子人地位的智能机器人,也是着眼于最复杂的自主智能机器人。这种类比思维使我们回过头来反思,究竟什么才是人类的理性能力?是不是会下围棋、可以写诗,就具备了人类的理性能力?
需要指出,机器人的所谓自主性,具有的是纯技术本质。欧洲议会建议的“机器人民事法律规则”明确说明:机器人的自主性可以被界定为,在外部世界作出独立于外在控制或影响的决定并实施这些决定的能力;这一自主性具有纯技术本质,且其自主性程度取决于机器人被设计成的可与其环境进行交互的复杂程度。欧洲议会关于赋予智能机器人电子人格的建议,并非因为其自主性使其具有了人类的理性能力。
近期,中科院院士张钹接受记者采访,指出引发这一轮人工智能技术进展的深度学习算法,本质上是概率统计。深度学习是寻找那些重复出现的模式,重复多了就被认为是规律(真理)。因此,现在形成的人工智能系统非常脆弱,容易受攻击或欺骗,需要大量的数据,而且不可解释,存在严重的缺陷。张院士认为,我们现在还没有进入人工智能的核心问题。人工智能的核心是知识表示、不确定性推理等,知识表示、在开放系统中进行不确定推理的能力等,才是人类理性的根本。
总结而言,在现有的技术水平下(弱人工智能时代),智能机器(人)没有自主目的、不会反思、不会提出问题、无法进行因果性思考、没有自己的符号系统,显然不具备人类心灵的能力。虽然人工智能使用了“智能”这一语词,但是这个“智能”前面还有“人工”这一限定语。因此,不能基于这种人工的“智能”,认为智能机器(人)可以与自然人比肩而成为法律中的人。
智能机器(人)
与法人的比较
智能机器(人)与法人的比较,则存在更多的争议与不确定性。这是因为,法人是否具有自然人据以成为法律中的人的权利能力的内核即理性能力,一直存在极大的争论。
关于法人本质的几百年来的争论,随着各国立法普遍承认(或赋予)法人以权利能力、承认其作为法律主体的地位,而逐渐淡出人们的视野。而智能机器(人)的法律地位问题,使这个古老的问题又焕发出生机。一些人正是从与法人的对比中获得灵感,主张或呼吁赋予智能机器(人)以法律主体地位,这就要求对作为被比较对象的法人有进一步的认识。关于法人本质的问题,有一些共识是学界已经达成的,这些共识可以作为我们对比智能机器(人)与法人的出发点。
首先,法人的背后其实离不开自然人。
法人的目的由自然人设定,法人通过自然人的代表(或代理)从事民事交往,法人通过自然人的理性响应法律的行止要求。人类社会之所以可以由法律来调整并构建秩序,是由于人的理性决定了法律能够通过规范人们的行为来调整社会关系。那么,智能机器(人)能否理解法律的行止要求?能否根据法律的要求来规范自己的“决策”?在现有技术条件下显然无法做到。这样,智能机器(人)也不得不依赖于其背后的人来响应法律的要求。例如,德国《道路交通法第八修正案》第1a条要求高度或者全自动驾驶汽车能够在高度或者全自动驾驶期间遵守交通法规,这就要求设计或制造自动驾驶汽车的人将道路交通规则内化于自动驾驶汽车的决策逻辑之中。所以,德国的法律是对人提出了要求,而不是对自动驾驶汽车本身提出要求。
其次,法人作为其背后众多自然人所构建的法律关系的结点,有利于简化法律关系,便利民事交往。
以社团性法人为例,如某钓鱼俱乐部,可能有众多的俱乐部成员甲、乙、丙等等。如果该俱乐部需要购买钓鱼用品,或者需要租用钓鱼场所,以俱乐部的名义来缔结合同并享有权利、承担义务,比起以甲、乙、丙等等的名义来缔结合同,要简便得多。那么,将智能机器(人)类比于法人,能否实现简化法律关系、便利民事交往的目的呢?至少从目前来看,还无法想象如何通过赋予智能机器(人)法律主体地位以实现法律关系的简化。
再次,法人能够实现将特定财产用于特定目的的财产特定化需求。
财产的特定化,在遗产的限定继承和将遗产本身作为一个财团法人方面,就有所体现。近代以来,企业的产生、主权者之间的经济竞赛的需要,使得财产的特定化以法人或者信托的形式得到极大发展。从人们对智能机器(人)成为电子人的遐想来看,也要求其制造商、设计者、销售者或者其他利益相关者以智能机器(人)登记为基础,为其设立责任基金。在本质上,这一做法就是为智能机器(人)分配一定的财产并且将其特定化为智能机器(人)的责任财产。但是,通过法人实现的财产特定化,实际上是对近代以来法人作为社会生产的基本组织单位的法律认可。相较而言,目前关于智能机器(人)致损事故法律责任的讨论,包括欧洲议会建议的“机器人民事法律规则”,均将智能机器(人)的生产者或设计者的产品责任作为处理智能机器致损事故的主要法律机制。显然,智能机器(人)的生产者和设计者通常都是法人。法人本来就已经实现了财产的特定化,并且经过特定化的用于生产、经营等的法人财产同时也是其责任财产。这样,赋予智能机器(人)以法律人格,在实际效果上就是将法人的财产加以进一步分割和特定化,从而限制为其设计或制造的智能机器(人)的致损事故承担的责任。这就涉及到下面将要论及的法人与其他法律主体之间的关系问题。
最后,法人的法律主体地位导致了法人与其成员的关系以及法人与法人以外的其他法律主体之间的关系这样两类需要法律予以关注和解决的问题。
法人与其成员的关系引发了法律上关于成员资格、成员权等的相关制度构建;而法人与其他法律主体的关系,则主要涉及劳动者、消费者以及法人的一般债权人这三类法律主体。在法人与其一般债权人的关系上,问题的核心在于法人是否仅以自己的责任财产承担责任,换句话说,法人的成员是否仅承担有限责任。虽然有限责任制度在近代以来的经济发展过程中发挥了巨大的作用,并且至今仍然占据主导地位,但是只有在可以与法人的债权人的利益达成大致平衡的情况下,才是可持续的。并且,经济社会发展到今天,有些公司的股东主动或被动地承担补充出资责任,承诺在公司资不抵债的情况下对公司的债务负责,这是我们在思考有限责任的合理性时所必须注意到的。
智能机器(人)并非组织,无所谓成员问题,因此考虑赋予其法律人格,主要就涉及与其可能的债权人之间的关系。目前来看,智能机器(人)充当经营者或从事其他商事活动还只是人们的想象,其涉及的主要对外关系就是与其致损事故的受害人之间的损害赔偿责任问题。智能机器(人)若成为法律主体,就意味着其损害赔偿责任应由其自己承担,而智能机器(人)的制造商或设计者则可以类比法人的有限责任而在原则上无须担责。若果真采取这样的制度设计,固然有利于鼓励更多的公司致力于智能机器(人)的设计与制造,使得他们不用担心被人工智能技术可能存在的不可预见的风险引发的损害赔偿责任所击垮,但是对于智能机器(人)致损事故的受害人而言,却是极不公平的,因为他们将可能承担无端的、自己根本无法预防和控制的风险。
可以看出,目前学界普遍承认从功利的视角看待法人。法人之权利能力,是对近代以来社会生产方式和社会组织方式的法学构建。在某种意义上,权利能力一方面解放了自然人,另一方面又将其禁锢于法人之中。回到智能机器(人)的法律地位问题,若是其主体地位不能通过与自然人的类比而得到承认,那么与法人相类比的结果,就是要求回答下面的问题:从工具理性的角度出发,为什么要将其拟制为人?
为何承认智能机器(人)是“人”
是有待回答的问题
从功利的角度出发,是否需要为智能机器(人)拟制主体地位,取决于这种拟制的目的是否正当、手段是否合适,即是否符合工具理性的要求。
若是仅服务于限制智能机器(人)的制造商或设计者的责任的目的,不构成为拟制法律人格的正当目的。从手段的角度来讲,作为法人的制造商或设计者正处于便利的地位,可以通过产品定价等机制在全社会范围内分散新技术应用所可能带来的风险。另一方面,他们还可以通过保险机制进一步分散风险。因此,即便仅从手段的角度来讲,也不必采取拟制主体地位的方式来达到本来已经可以达到的目的。
但是,也应该看到,技术和产业的发展日新月异,我们今天想象不到的为智能机器(人)拟制法律人格的必要性,或许在将来的某一天会凸显出来。但是,既然这是从功利的角度出发考虑是否需要拟制法律人格,并非出于智能机器(人)在伦理上的应然地位,这种必要性就需要有实践的基础并得到充分的论证,并且,这种论证责任应该在主张赋予其拟制法律主体地位的一方。
在人工智能产业发展如火如荼的今天,关于智能机器的法律地位的探讨,可能被某些产业界人士诟病为不利于产业的发展。然而,产业发展与事故受害人的救济应该是并行不悖的。这也是众多的自动驾驶汽车设计者或者制造商主动声明愿意承担责任的原因所在。沃尔沃总裁宣称将“对其自动驾驶模式下汽车造成的损失承担全部责任”;谷歌和戴姆勒也都提出,如果他们的技术有缺陷,他们将承担责任。因此,产业的发展只有在能够平衡产业内外不同主体之间的利益关系尤其是在高度尊重自然人的生命、身体、健康等伦理价值的情况下,才是可持续的。
(作者单位:中国社科院法学所)
(责编:毕磊、孙红丽)分享让更多人看到
人工智能的创新发展与社会影响
党的十八大以来,习近平总书记把创新摆在国家发展全局的核心位置,高度重视人工智能发展,多次谈及人工智能的重要性,为人工智能如何赋能新时代指明了方向。2018世界人工智能大会9月17日在上海开幕,习总书记致信祝贺并强调指出人工智能发展应用将有力提高经济社会发展智能化水平,有效增强公共服务和城市管理能力。深入学习领会习总书记关于人工智能的一系列重要论述,务实推进我国《新一代人工智能发展规划》,有效规避人工智能“鸿沟”,着力收获人工智能“红利”,对建设世界科技强国、实现“两个一百年”的奋斗目标具有重大战略意义。
一、引言
1956年人工智能(ArtificialIntelligence,简称AI)的概念被正式提出,标志着人工智能学科的诞生,其发展目标是赋予机器类人的感知、学习、思考、决策和行动等能力。经过60多年的发展,人工智能已取得突破性进展,在经济社会各领域开始得到广泛应用并形成引领新一轮产业变革之势,推动人类社会进入智能化时代。美国、日本、德国、英国、法国、俄罗斯等国家都制定了发展人工智能的国家战略,我国也于2017年发布了《新一代人工智能发展规划》,发改委、工信部、科技部、教育部等国家部委和北京、上海、广东、江苏等地政府也相继出台推动人工智能发展的相关政策文件,社会各界对人工智能的重大战略意义已形成广泛共识。
跟其他高科技一样,人工智能也是一把双刃剑。如何认识人工智能的社会影响,也有“天使派”和“魔鬼派”之分。“天使派”认为,人工智能领域的科技创新和成果应用取得重大突破,有望引领第四次工业革命,对社会、经济、军事等领域将产生变革性影响,在制造、交通、教育、医疗、服务等方面可以造福人类;“魔鬼派”认为,人工智能是人类的重大威胁,比核武器还危险,有可能引发第三次世界大战。2018年2月,牛津大学、剑桥大学和OpenAI公司等14家机构共同发布题为《人工智能的恶意使用:预测、预防和缓解》的报告,指出人工智能可能给人类社会带来数字安全、物理安全和政治安全等潜在威胁,并给出了一些建议来减少风险。
总体上看,已过花甲之年的人工智能当前的发展具有“四新”特征:以深度学习为代表的人工智能核心技术取得新突破、“智能+”模式的普适应用为经济社会发展注入新动能、人工智能成为世界各国竞相战略布局的新高地、人工智能的广泛应用给人类社会带来法律法规、道德伦理、社会治理等方面一系列的新挑战。因此人工智能这个机遇与挑战并存的新课题引起了全球范围内的广泛关注和高度重视。虽然人工智能未来的创新发展还存在不确定性,但是大家普遍认可人工智能的蓬勃兴起将带来新的社会文明,将推动产业变革,将深刻改变人们的生产生活方式,将是一场影响深远的科技革命。
为了客观认识人工智能的本质内涵和创新发展,本报告在简要介绍人工智能基本概念与发展历程的基础上,着重分析探讨人工智能的发展现状和未来趋势,试图揭示人工智能的真实面貌。很显然,在当下人工智能蓬勃发展的历史浪潮中如何选择中国路径特别值得我们深入思考和探讨。因此,本报告最后就我国人工智能发展态势、存在问题和对策建议也进行了阐述。
二、人工智能的发展历程与启示
1956年夏,麦卡锡(JohnMcCarthy)、明斯基(MarvinMinsky)、罗切斯特(NathanielRochester)和香农(ClaudeShannon)等科学家在美国达特茅斯学院开会研讨“如何用机器模拟人的智能”,首次提出“人工智能”这一概念,标志着人工智能学科的诞生。人工智能的目标是模拟、延伸和扩展人类智能,探寻智能本质,发展类人智能机器。人工智能充满未知的探索道路曲折起伏,如何描述1956年以来60余年的人工智能发展历程,学术界可谓仁者见仁、智者见智。我们将人工智能60余年的发展历程划分为以下6个阶段:
一是起步发展期:1956年-20世纪60年代初。人工智能概念在1956年首次被提出后,相继取得了一批令人瞩目的研究成果,如机器定理证明、跳棋程序、LISP表处理语言等,掀起了人工智能发展的第一个高潮。
二是反思发展期:60年代-70年代初。人工智能发展初期的突破性进展大大提升了人们对人工智能的期望,人们开始尝试更具挑战性的任务,并提出了一些不切实际的研发目标。然而,接二连三的失败和预期目标的落空(例如无法用机器证明两个连续函数之和还是连续函数、机器翻译闹出笑话等),使人工智能的发展走入了低谷。
三是应用发展期:70年代初-80年代中。20世纪70年代出现的专家系统模拟人类专家的知识和经验解决特定领域的问题,实现了人工智能从理论研究走向实际应用、从一般推理策略探讨转向运用专门知识的重大突破。专家系统在医疗、化学、地质等领域取得成功,推动人工智能走入了应用发展的新高潮。
四是低迷发展期:80年代中-90年代中。随着人工智能的应用规模不断扩大,专家系统存在的应用领域狭窄、缺乏常识性知识、知识获取困难、推理方法单一、缺乏分布式功能、难以与现有数据库兼容等问题逐渐暴露出来。
五是稳步发展期:90年代中-2010年。由于网络技术特别是互联网技术的发展,信息与数据的汇聚不断加速,互联网应用的不断普及加速了人工智能的创新研究,促使人工智能技术进一步走向实用化。1997年IBM深蓝超级计算机战胜了国际象棋世界冠军卡斯帕罗夫,2008年IBM提出“智慧地球”的概念,这些都是这一时期的标志性事件。
六是蓬勃发展期:2011年-至今。随着大数据、云计算、互联网、物联网等信息技术的发展,泛在感知数据和图形处理器(GraphicsProcessingUnit,简称GPU)等计算平台推动以深度神经网络为代表的人工智能技术飞速发展,大幅跨越科学与应用之间的“技术鸿沟”,图像分类、语音识别、知识问答、人机对弈、无人驾驶等具有广阔应用前景的人工智能技术突破了从“不能用、不好用”到“可以用”的技术瓶颈,人工智能发展进入爆发式增长的新高潮。
通过总结人工智能发展历程中的经验和教训,我们可以得到以下启示:
(一)尊重学科发展规律是推动学科健康发展的前提。科学技术的发展有其自身的规律,顺其者昌,违其者衰。人工智能学科发展需要基础理论、数据资源、计算平台、应用场景的协同驱动,当条件不具备时很难实现重大突破。
(二)基础研究是学科可持续发展的基石。加拿大多伦多大学杰弗里·辛顿(GeoffreyHinton)教授坚持研究深度神经网络30年,奠定人工智能蓬勃发展的重要理论基础。谷歌的DeepMind团队长期深入研究神经科学启发的人工智能等基础问题,取得了阿尔法狗等一系列重大成果。
(三)应用需求是科技创新的不竭之源。引领学科发展的动力主要来自于科学和需求的双轮驱动。人工智能发展的驱动力除了知识与技术体系内在矛盾外,贴近应用、解决用户需求是创新的最大源泉与动力。比如专家系统人工智能实现了从理论研究走向实际应用的突破,近些年来安防监控、身份识别、无人驾驶、互联网和物联网大数据分析等实际应用需求带动了人工智能的技术突破。
(四)学科交叉是创新突破的“捷径”。人工智能研究涉及信息科学、脑科学、心理科学等,上世纪50年代人工智能的出现本身就是学科交叉的结果。特别是脑认知科学与人工智能的成功结合,带来了人工智能神经网络几十年的持久发展。智能本源、意识本质等一些基本科学问题正在孕育重大突破,对人工智能学科发展具有重要促进作用。
(五)宽容失败应是支持创新的题中应有之义。任何学科的发展都不可能一帆风顺,任何创新目标的实现都不会一蹴而就。人工智能60余载的发展生动地诠释了一门学科创新发展起伏曲折的历程。可以说没有过去发展历程中的“寒冬”就没有今天人工智能发展新的春天。
(六)实事求是设定发展目标是制定学科发展规划的基本原则。达到全方位类人水平的机器智能是人工智能学科宏伟的终极目标,但是需要根据科技和经济社会发展水平来设定合理的阶段性研究目标,否则会有挫败感从而影响学科发展,人工智能发展过程中的几次低谷皆因不切实际的发展目标所致。
三、人工智能的发展现状与影响
人工智能经过60多年的发展,理论、技术和应用都取得了重要突破,已成为推动新一轮科技和产业革命的驱动力,深刻影响世界经济、政治、军事和社会发展,日益得到各国政府、产业界和学术界的高度关注。从技术维度来看,人工智能技术突破集中在专用智能,但是通用智能发展水平仍处于起步阶段;从产业维度来看,人工智能创新创业如火如荼,技术和商业生态已见雏形;从社会维度来看,世界主要国家纷纷将人工智能上升为国家战略,人工智能社会影响日益凸显。
(一)专用人工智能取得重要突破。从可应用性看,人工智能大体可分为专用人工智能和通用人工智能。面向特定领域的人工智能技术(即专用人工智能)由于任务单一、需求明确、应用边界清晰、领域知识丰富、建模相对简单,因此形成了人工智能领域的单点突破,在局部智能水平的单项测试中可以超越人类智能。人工智能的近期进展主要集中在专用智能领域,统计学习是专用人工智能走向实用的理论基础。深度学习、强化学习、对抗学习等统计机器学习理论在计算机视觉、语音识别、自然语言理解、人机博弈等方面取得成功应用。例如,阿尔法狗在围棋比赛中战胜人类冠军,人工智能程序在大规模图像识别和人脸识别中达到了超越人类的水平,语音识别系统5.1%的错误率比肩专业速记员,人工智能系统诊断皮肤癌达到专业医生水平,等等。
(二)通用人工智能尚处于起步阶段。人的大脑是一个通用的智能系统,能举一反三、融会贯通,可处理视觉、听觉、判断、推理、学习、思考、规划、设计等各类问题,可谓“一脑万用”。真正意义上完备的人工智能系统应该是一个通用的智能系统。虽然包括图像识别、语音识别、自动驾驶等在内的专用人工智能领域已取得突破性进展,但是通用智能系统的研究与应用仍然是任重而道远,人工智能总体发展水平仍处于起步阶段。美国国防高级研究计划局(DefenseAdvancedResearchProjectsAgency,简称DARPA)把人工智能发展分为三个阶段:规则智能、统计智能和自主智能,认为当前国际主流人工智能水平仍然处于第二阶段,核心技术依赖于深度学习、强化学习、对抗学习等统计机器学习,AI系统在信息感知(Perceiving)、机器学习(Learning)等智能水平维度进步显著,但是在概念抽象(Abstracting)和推理决策(Reasoning)等方面能力还很薄弱。总体上看,目前的人工智能系统可谓有智能没智慧、有智商没情商、会计算不会“算计”、有专才无通才。因此,人工智能依旧存在明显的局限性,依然还有很多“不能”,与人类智慧还相差甚远。
(三)人工智能创新创业如火如荼。全球产业界充分认识到人工智能技术引领新一轮产业变革的重大意义,纷纷调整发展战略。比如,在其2017年的年度开发者大会上,谷歌明确提出发展战略从“MobileFirst”(移动优先)转向“AIFirst”(AI优先);微软2017财年年报首次将人工智能作为公司发展愿景。人工智能领域处于创新创业的前沿,麦肯锡报告2016年全球人工智能研发投入超300亿美元并处于高速增长,全球知名风投调研机构CBInsights报告显示2017年全球新成立人工智能创业公司1100家,人工智能领域共获得投资152亿美元,同比增长141%。
(四)创新生态布局成为人工智能产业发展的战略高地。信息技术(IT)和产业的发展史就是新老IT巨头抢滩布局IT创新生态的更替史。例如,传统信息产业IT(InformationTechnology)代表企业有微软、英特尔、IBM、甲骨文等,互联网和移动互联网IT(InternetTechnology)代表企业有谷歌、苹果、脸书、亚马逊、阿里巴巴、腾讯、百度等,目前智能科技IT(IntelligentTechnology)的产业格局还没有形成垄断,因此全球科技产业巨头都在积极推动AI技术生态的研发布局,全力抢占人工智能相关产业的制高点。人工智能创新生态包括纵向的数据平台、开源算法、计算芯片、基础软件、图形处理GPU服务器等技术生态系统和横向的智能制造、智能医疗、智能安防、智能零售、智能家居等商业和应用生态系统。在技术生态方面,人工智能算法、数据、图形处理器(GraphicsProcessingUnit,简称GPU)/张量处理器(TensorProcessingUnit,简称TPU)/神经网络处理器(NeuralnetworkProcessingUnit,NPU)计算、运行/编译/管理等基础软件已有大量开源资源,例如谷歌的TensorFlow第二代人工智能学习系统、脸书的PyTorch深度学习框架、微软的DMTK分布式学习工具包、IBM的SystemML开源机器学习系统等;此外谷歌、IBM、英伟达、英特尔、苹果、华为、中国科学院等积极布局人工智能领域的计算芯片。在人工智能商业和应用生态布局方面,“智能+X”成为创新范式,例如“智能+制造”、“智能+医疗”、“智能+安防”等,人工智能技术向创新性的消费场景和不同行业快速渗透融合并重塑整个社会发展,这是人工智能作为第四次技术革命关键驱动力的最主要表现方式。人工智能商业生态竞争进入白热化,例如智能驾驶汽车领域的参与者既有通用、福特、奔驰、丰田等传统龙头车企,又有互联网造车者如谷歌、特斯拉、优步、苹果、百度等新贵。
(五)人工智能上升为世界主要国家的重大发展战略。人工智能正在成为新一轮产业变革的引擎,必将深刻影响国际产业竞争格局和一个国家的国际竞争力。世界主要发达国家纷纷把发展人工智能作为提升国际竞争力、维护国家安全的重大战略,加紧积极谋划政策,围绕核心技术、顶尖人才、标准规范等强化部署,力图在新一轮国际科技竞争中掌握主导权。无论是德国的“工业4.0”、美国的“工业互联网”、日本的“超智能社会”、还是我国的“中国制造2025”等重大国家战略,人工智能都是其中的核心关键技术。2017年7月,国务院发布了《新一代人工智能发展规划》,开启了我国人工智能快速创新发展的新征程。
(六)人工智能的社会影响日益凸显。人工智能的社会影响是多元的,既有拉动经济、服务民生、造福社会的正面效应,又可能出现安全失控、法律失准、道德失范、伦理失常、隐私失密等社会问题,以及利用人工智能热点进行投机炒作从而存在泡沫风险。首先,人工智能作为新一轮科技革命和产业变革的核心力量,促进社会生产力的整体跃升,推动传统产业升级换代,驱动“无人经济”快速发展,在智能交通、智能家居、智能医疗等民生领域发展积极正面影响。与此同时,我们也要看到人工智能引发的法律、伦理等问题日益凸显,对当下的社会秩序及公共管理体制带来了前所未有的新挑战。例如,2016年欧盟委员会法律事务委员会提交一项将最先进的自动化机器人身份定位为“电子人(electronicpersons)”的动议,2017年沙特阿拉伯授予机器人“索菲亚”公民身份,这些显然冲击了传统的民事主体制度。那么,是否应该赋予人工智能系统法律主体资格?另外在人工智能新时代,个人信息和隐私保护、人工智能创作内容的知识产权、人工智能歧视和偏见、无人驾驶系统的交通法规、脑机接口和人机共生的科技伦理等问题都需要我们从法律法规、道德伦理、社会管理等多个角度提供解决方案。
由于人工智能与人类智能密切关联且应用前景广阔、专业性很强,容易造成人们的误解,也带来了不少炒作。例如,有些人错误地认为人工智能就是机器学习(深度学习),人工智能与人类智能是零和博弈,人工智能已经达到5岁小孩的水平,人工智能系统的智能水平即将全面超越人类水平,30年内机器人将统治世界,人类将成为人工智能的奴隶,等等。这些错误认识会给人工智能的发展带来不利影响。还有不少人对人工智能预期过高,以为通用智能很快就能实现,只要给机器人发指令就可以干任何事。另外,有意炒作并通过包装人工智能概念来谋取不当利益的现象时有发生。因此,我们有义务向社会大众普及人工智能知识,引导政府、企业和广大民众科学客观地认识和了解人工智能。
四、人工智能的发展趋势与展望
人工智能经过六十多年的发展突破了算法、算力和算料(数据)等“三算”方面的制约因素,拓展了互联网、物联网等广阔应用场景,开始进入蓬勃发展的黄金时期。从技术维度看,当前人工智能处于从“不能用”到“可以用”的技术拐点,但是距离“很好用”还有数据、能耗、泛化、可解释性、可靠性、安全性等诸多瓶颈,创新发展空间巨大,从专用到通用智能,从机器智能到人机智能融合,从“人工+智能”到自主智能,后深度学习的新理论体系正在酝酿;从产业和社会发展维度看,人工智能通过对经济和社会各领域渗透融合实现生产力和生产关系的变革,带动人类社会迈向新的文明,人类命运共同体将形成保障人工智能技术安全、可控、可靠发展的理性机制。总体而言,人工智能的春天刚刚开始,创新空间巨大,应用前景广阔。
(一)从专用智能到通用智能。如何实现从狭义或专用人工智能(也称弱人工智能,具备单一领域智能)向通用人工智能(也称强人工智能,具备多领域智能)的跨越式发展,既是下一代人工智能发展的必然趋势,也是国际研究与应用领域的挑战问题。2016年10月美国国家科学技术委员会发布了《国家人工智能研究与发展战略计划》,提出在美国的人工智能中长期发展策略中要着重研究通用人工智能。DeepMind创始人戴密斯·哈萨比斯(DemisHassabis)提出朝着“创造解决世界上一切问题的通用人工智能”这一目标前进。微软在2017年7月成立了通用人工智能实验室,100多位感知、学习、推理、自然语言理解等方面的科学家参与其中。
(二)从人工智能到人机混合智能。人工智能的一个重要研究方向就是借鉴脑科学和认知科学的研究成果,研究从智能产生机理和本质出发的新型智能计算模型与方法,实现具有脑神经信息处理机制和类人智能行为与智能水平的智能系统。在美国、欧盟、日本等国家和地区纷纷启动的脑计划中,类脑智能已成为核心目标之一。英国工程与自然科学研究理事会EPSRC发布并启动了类脑智能研究计划。人机混合智能旨在将人的作用或认知模型引入到人工智能系统中,提升人工智能系统的性能,使人工智能成为人类智能的自然延伸和拓展,通过人机协同更加高效地解决复杂问题。人机混合智能得到了我国新一代人工智能规划、美国脑计划、脸书(脑机语音文本界面)、特斯拉汽车创始人埃隆·马斯克(人脑芯片嵌入和脑机接口)等的高度关注。
(三)从“人工+智能”到自主智能系统。当前人工智能的研究集中在深度学习,但是深度学习的局限是需要大量人工干预:人工设计深度神经网络模型、人工设定应用场景、人工采集和标注大量训练数据(非常费时费力)、用户需要人工适配智能系统等。因此已有科研人员开始关注减少人工干预的自主智能方法,提高机器智能对环境的自主学习能力。例如阿法元从零开始,通过自我对弈强化学习实现围棋、国际象棋、日本将棋的“通用棋类AI”。在人工智能系统的自动化设计方面,2017年谷歌提出的自动化学习系统(AutoML)试图通过自动创建机器学习系统降低AI人员成本。
(四)人工智能将加速与其他学科领域交叉渗透。人工智能本身是一门综合性的前沿学科和高度交叉的复合型学科,研究范畴广泛而又异常复杂,其发展需要与计算机科学、数学、认知科学、神经科学和社会科学等学科深度融合。随着超分辨率光学成像、光遗传学调控、透明脑、体细胞克隆等技术的突破,脑与认知科学的发展开启了新时代,能够大规模、更精细解析智力的神经环路基础和机制,人工智能将进入生物启发的智能阶段,依赖于生物学、脑科学、生命科学和心理学等学科的发现,将机理变为可计算的模型,同时人工智能也会促进脑科学、认知科学、生命科学甚至化学、物理、材料等传统科学的发展。例如,2018年美国麻省理工学院启动的“智能探究计划”(MITIntelligenceQuest)就联合了五大学院进行协同攻关。
(五)人工智能产业将蓬勃发展。随着人工智能技术的进一步成熟以及政府和产业界投入的日益增长,人工智能应用的云端化将不断加速,全球人工智能产业规模在未来十年将进入高速增长期。例如,2016年9月,咨询公司埃森哲发布报告指出,人工智能技术的应用将为经济发展注入新动力,在现有基础上能够提高劳动生产率40%;美、日、英、德、法等12个发达国家(现占全球经济总量的一半)到2035年,年经济增长率平均可以翻一番。2018年麦肯锡的研究报告表明到2030年人工智能新增经济规模将达到13万亿美元。
(六)人工智能将推动人类进入普惠型智能社会。“人工智能+X”的创新模式将随着技术和产业的发展日趋成熟,对生产力和产业结构产生革命性影响,并推动人类进入普惠型智能社会。2017年国际数据公司IDC在《信息流引领人工智能新时代》白皮书中指出未来五年人工智能提升各行业运转效率,其中教育业提升82%,零售业71%,制造业64%,金融业58%。我国经济社会转型升级对人工智能有重大需求,在消费场景和行业应用的需求牵引下,需要打破人工智能的感知瓶颈、交互瓶颈和决策瓶颈,促进人工智能技术与社会各行各业的融合提升,建设若干标杆性的应用场景创新,实现低成本、高效益、广范围的普惠型智能社会。
(七)人工智能领域的国际竞争将日趋激烈。“未来谁率先掌握人工智能,谁就能称霸世界”。2018年4月,欧盟委员会计划2018-2020年在人工智能领域投资240亿美元;法国总统在2018年5月宣布《法国人工智能战略》,目的是迎接人工智能发展的新时代,使法国成为人工智能强国;2018年6月,日本《未来投资战略》重点推动物联网建设和人工智能的应用。世界军事强国已逐步形成以加速发展智能化武器装备为核心的竞争态势,例如美国特朗普政府发布的首份《国防战略》报告即提出谋求通过人工智能等技术创新保持军事优势,确保美国打赢未来战争;俄罗斯2017年提出军工拥抱“智能化”,让导弹和无人机这样的“传统”兵器威力倍增。
(八)人工智能的社会学将提上议程。水能载舟,亦能覆舟。任何高科技也都是一把双刃剑。随着人工智能的深入发展和应用的不断普及,其社会影响日益明显。人工智能应用得当、把握有度、管理规范,就能有效控制负面风险。为了确保人工智能的健康可持续发展并确保人工智能的发展成果造福于民,需要从社会学的角度系统全面地研究人工智能对人类社会的影响,深入分析人工智能对未来经济社会发展的可能影响,制定完善的人工智能法律法规,规避可能风险,确保人工智能的正面效应。2017年9月,联合国犯罪和司法研究所(UNICRI)决定在海牙成立第一个联合国人工智能和机器人中心,规范人工智能的发展。2018年4月,欧洲25个国家签署了《人工智能合作宣言》,从国家战略合作层面来推动人工智能发展,确保欧洲人工智能研发的竞争力,共同面对人工智能在社会、经济、伦理及法律等方面的机遇和挑战。
五、我国人工智能的发展态势与思考
我国当前人工智能发展的总体态势良好。中国信通院联合高德纳咨询公司(Gartner)于2018年9月发布的《2018世界人工智能产业发展蓝皮书》报告统计,我国(不含港澳台地区)人工智能企业总数位列全球第二(1040家),仅次于美国(2039家)。在人工智能总体水平和应用方面,我国也处于国际前列,发展潜力巨大,有望率先突破成为全球领跑者。但是我们也要清醒地看到,我国人工智能发展存在过热和泡沫化风险,特别在基础研究、技术体系、应用生态、创新人才、法律规范等方面仍然存在不少问题。总体而言,我国人工智能发展现状可以用“高度重视,态势喜人,差距不小,前景看好”来概括。
一是高度重视。党和国家高度重视并大力发展人工智能。党的十八大以来,习近平总书记把创新摆在国家发展全局的核心位置,高度重视人工智能发展,多次谈及人工智能的重要性,为人工智能如何赋能新时代指明方向。2016年7月习总书记明确指出,人工智能技术的发展将深刻改变人类社会生活,改变世界,应抓住机遇,在这一高技术领域抢占先机。在党的十九大报告中,习总书记强调“要推动互联网、大数据、人工智能和实体经济深度融合”。在2018年两院院士大会上,习总书记再次强调要“推进互联网、大数据、人工智能同实体经济深度融合,做大做强数字经济”。在2017年和2018年的《政府工作报告》中,李克强总理都提到了要加强新一代人工智能发展。2017年7月,国务院发布了《新一代人工智能发展规划》,将新一代人工智能放在国家战略层面进行部署,描绘了面向2030年的我国人工智能发展路线图,旨在构筑人工智能先发优势,把握新一轮科技革命战略主动,人工智能将成为今后一段时期的国家重大战略。发改委、工信部、科技部、教育部、中央网信办等国家部委和北京、上海、广东、江苏、浙江等地方政府都推出了发展人工智能的鼓励政策。
二是态势喜人。根据2017年爱思唯尔(Elsevier)文献数据库SCOPUS统计结果,我国在人工智能领域发表的论文数量已居世界第一。从2012年开始,我国在人工智能领域新增专利数量已经开始超越美国。据清华大学发布的《中国人工智能发展报告2018》统计,我国已成全球人工智能投融资规模最大国家,我国人工智能企业在人脸识别、语音识别、安防监控、智能音箱、智能家居等人工智能应用领域处于国际前列。近两年,清华大学、北京大学、中国科学院大学、浙江大学、上海交通大学、南京大学等高校纷纷成立人工智能学院。2015年开始的中国人工智能大会(CCAI)已连续成功召开四届、规模不断扩大,人工智能领域的教育、科研与学术活动层出不穷。
三是差距不小。我国人工智能在基础研究、原创成果、顶尖人才、技术生态、基础平台、标准规范等方面距离世界领先水平还存在较大差距。英国牛津大学2018年的一项研究报告指出中国的人工智能发展能力大致为美国的一半水平。目前我国在人工智能前沿理论创新方面总体上尚处于“跟跑”地位,大部分创新偏重于技术应用,存在“头重脚轻”的不均衡现象。在Top700全球AI人才中,中国虽然名列第二,但入选人数远远低于占一半数量的美国。据领英《全球AI领域人才报告》统计,截至2017年一季度全球人工智能领域专业技术人才数量超过190万,其中美国超过85万,我国仅超过5万人,排名全球第7位。2018年市场研究顾问公司CompassIntelligence对全球100多家AI计算芯片企业进行了排名,我国没有一家企业进入前十。另外,我国人工智能开源社区和技术生态布局相对滞后,技术平台建设力度有待加强,国际影响力有待提高。我国参与制定人工智能国际标准的积极性和力度不够,国内标准制定和实施也较为滞后。我国制定完善人工智能相关法律法规的进程需要加快,对可能产生的社会影响还缺少深度分析。
四是前景看好。我国发展人工智能具有市场规模、应用场景、数据资源、人力资源、智能手机普及、资金投入、国家政策支持等多方面的综合优势,人工智能发展前景看好。全球顶尖管理咨询公司埃森哲于2017年发布的《人工智能:助力中国经济增长》报告显示,到2035年人工智能有望推动中国劳动生产率提高27%。我国发布的《新一代人工智能发展规划》提出到2030年,人工智能核心产业规模超过1万亿元,带动相关产业规模超过10万亿元。在我国未来的发展征程中,“智能红利”将有望弥补人口红利的不足。
人类社会已开始迈入智能化时代,人工智能引领社会发展是大势所趋,不可逆转。经历六十余年积累后,人工智能开始进入爆发式增长的红利期。伴随着人工智能自身的创新发展和向经济社会的全面渗透,这个红利期将持续相当长的时期。现在是我国加强人工智能布局、收获人工智能红利、引领智能时代的重大历史机遇期,如何在人工智能蓬勃发展的浪潮中选择好中国路径、抢抓中国机遇、展现中国智慧需要深入思考。
(一)树立理性务实的发展理念。围棋人机大战中阿尔法狗战胜李世石后,社会大众误以为人工智能已经无所不能,一些地方政府、社会企业、风险资金因此不切实际一窝蜂发展人工智能产业,一些别有用心的机构则有意炒作并通过包装人工智能概念来谋取不当利益。这种“一拥而上、一哄而散”的跟风行为不利于人工智能的健康可持续发展。任何事物的发展不可能一直处于高位,有高潮必有低谷,这是客观规律。根据高德纳咨询公司发布的技术发展曲线,当前智能机器人、认知专家顾问、机器学习、自动驾驶等人工智能热门技术与领域正处于期望膨胀期,但是通用人工智能及人工智能的整体发展仍处于初步阶段,人工智能还有很多“不能”,实现机器在任意现实环境的自主智能和通用智能仍然需要中长期理论和技术积累,并且人工智能对工业、交通、医疗等传统领域的渗透和融合是个长期过程,很难一蹴而就。因此发展人工智能不能以短期牟利为目的,要充分考虑到人工智能技术的局限性,充分认识到人工智能重塑传统产业的长期性和艰巨性,理性分析人工智能发展需求,理性设定人工智能发展目标,理性选择人工智能发展路径,并务实推进人工智能发展举措,只有这样才能确保人工智能健康可持续发展。
(二)加强基础扎实的原创研究。人工智能前沿基础理论是人工智能技术突破、行业革新、产业化推进的基石。在此发展的临界点,要想取得最终的话语权,必须在人工智能基础理论和前沿技术方面取得重大突破。根据2017年爱思唯尔文献数据库SCOPUS统计结果,尽管我国在人工智能领域发表的论文数量已经排名世界第一,但加权引文影响力则只排名34位。为了客观评价我国在人工智能基础研究方面的整体实力,我们搜索了SCI期刊、神经信息处理系统大会(ConferenceonNeuralInformationProcessingSystems,简称NIPS)等主流人工智能学术会议关于通用智能、深度学习、类脑智能、脑智融合、人机博弈等关键词的论文统计情况,可以清楚看到在人工智能前沿方向中国与美国相比基础实力存在巨大差距:在高质量论文数量方面(按中科院划定的SCI一区论文标准统计),美国是中国的5.34倍(1325:248);在人才储备方面(SCI论文通讯作者),美国是中国的2.12倍(4804:2267)。
我国应对标国际最高水平,建设面向未来的人工智能基础科学研究中心,重点发展原创性、基础性、前瞻性、突破性的人工智能科学。应该鼓励科研人员瞄准人工智能学科前沿方向开展引领性原创科学研究,通过人工智能与脑认知、神经科学、心理学等学科的交叉融合,重点聚焦人工智能领域的重大基础性科学问题,形成具有国际影响力的人工智能原创理论体系,为构建我国自主可控的人工智能技术创新生态提供领先跨越的理论支撑。
(三)构建自主可控的创新生态。美国谷歌、IBM、微软、脸书等企业在AI芯片、服务器、操作系统、开源算法、云服务、无人驾驶等方面积极构建创新生态、抢占创新高地,已经在国际人工智能产业格局中占据先机。我国人工智能开源社区和技术创新生态布局相对滞后,技术平台建设力度有待加强,国际影响力有待提高。美国对中兴通讯发禁令一事充分说明自主可控“核高基”技术的重要性,我国应该吸取在核心电子器件、高端通用芯片及基础软件方面依赖进口的教训,避免重蹈覆辙,着力防范人工智能时代“空心化”风险,系统布局并重点发展人工智能领域的“新核高基”:“新”指新型开放创新生态,如军民融合、产学研融合等;“核”指核心关键技术与器件,如先进机器学习技术、鲁棒模式识别技术、低功耗智能计算芯片等;“高”指高端综合应用系统与平台,如机器学习软硬件平台、大型数据平台等;“基”指具有重大原创意义和技术带动性的基础理论与方法,如脑机接口、类脑智能等。
另外,我们需要重视人工智能技术标准的建设、产品性能与系统安全的测试。特别是我国在人工智能技术应用方面走在世界前列,在人工智能国际标准制定方面应当掌握话语权,并通过标准实施加速人工智能驱动经济社会转型升级的进程。
(四)建立协同高效的创新体系。我国经济社会转型升级对人工智能有重大需求,但是单一的创新主体很难实现政策、市场、技术、应用等方面的全面突破。目前我国学术界、产业界、行业部门在人工智能发展方面各自为政的倾向比较明显,数据资源开放共享不够,缺少对行业资源的有效整合。相比而言,美国已经形成了全社会、全场景、全生态协同互动的人工智能协同创新体系,军民融合和产学研结合都做得很好。我国应在体制机制方面进一步改革创新,建立“军、政、产、学、研、用”一体的人工智能协同创新体系。例如,国家进行顶层设计和战略规划,举全国优势力量设立军事智能的研发和应用平台,提供“人工智能+X”行业融合、打破行业壁垒和行政障碍的激励政策;科技龙头企业引领技术创新生态建设,突破人工智能的重大技术瓶颈;高校科研机构进行人才培养和原始创新,着力构建公共数据资源与技术平台,共同建设若干标杆性的应用创新场景,推动成熟人工智能技术在城市、医疗、金融、文化、农业、交通、能源、物流、制造、安全、服务、教育等领域的深度应用,建设低成本高效益广范围的普惠型智能社会。
(五)加快创新人才的教育培养。发展人工智能关键在人才,中高端人才短缺已经成为我国人工智能做大做强的主要瓶颈。另外,我国社会大众的人工智能科技素养也需要进一步提升,每一个人都需要去适应人工智能时代的科技浪潮。在加强人工智能领军人才培养引进的同时,要面向技术创新和产业发展多层次培养人工智能创新创业人才。《新一代人工智能发展规划》提出逐步开展全民智能教育项目,在中小学阶段设置人工智能课程。目前人工智能科普活动受到各地学校的欢迎,但是缺少通俗易懂的高质量人工智能科普教材、寓教于乐的实验设备和器材、开放共享的教学互动资源平台。国家相关部门应高度重视人工智能教育领域的基础性工作,增加投入,组织优势力量,加强高水平人工智能教育内容和资源平台建设,加快人工智能专业的教学师资培训,从教材、教具、教师等多个环节全面保障我国人工智能教育工作的开展。
(六)推动共担共享的全球治理。人工智能将重塑全球政治和经济格局,发达国家通过人工智能技术创新掌控了产业链上游资源,难以逾越的技术鸿沟和产业壁垒有可能将进一步拉大发达国家和发展中国家的生产力发展水平差距。美国、日本、德国等通过人工智能和机器人的技术突破和广泛应用弥补他们的人力成本劣势,希望制造业从新兴国家回流发达国家。目前看,我国是发展中国家阵容中唯一有望成为全球人工智能竞争中的领跑者,应采取不同于一些国家的“经济垄断主义、技术保护主义、贸易霸凌主义”路线,尽快布局构建开放共享、质优价廉、普惠全球的人工智能技术和应用平台,配合国家“一带一路”战略,向亚洲、非洲、南美等经济欠发达地区输出高水平、低成本的“中国智造”成果、提供人工智能时代的中国方案,为让人工智能时代的“智能红利”普惠人类命运共同体做出中国贡献!
(七)制定科学合理的法律法规。要想实实在在收获人工智能带来的红利,首先应保证其安全、可控、可靠发展。美国和欧洲等发达国家和地区十分重视人工智能领域的法律法规问题。美国白宫多次组织这方面的研讨会、咨询会;特斯拉等产业巨头牵头成立OpenAI等机构,旨在以有利于整个人类的方式促进和发展友好的人工智能;科研人员自发签署23条“阿西洛马人工智能原则”,意图在规范人工智能科研及应用等方面抢占先机。我国在人工智能领域的法律法规制定及风险管控方面相对滞后,这种滞后局面与我国现阶段人工智能发展的整体形势不相适应,并可能成为我国人工智能下一步创新发展的一大掣肘。因此,有必要大力加强人工智能领域的立法研究,制定相应的法律法规,建立健全公开透明的人工智能监管体系,构建人工智能创新发展的良好法规环境。
(八)加强和鼓励人工智能社会学研究。人工智能的社会影响将是深远的、全方位的。我们当未雨绸缪,从国家安全、社会治理、就业结构、伦理道德、隐私保护等多个维度系统深入研究人工智能可能的影响,制定合理可行的应对措施,确保人工智能的正面效应。应大力加强人工智能领域的科普工作,打造科技与伦理的高效对话机制和沟通平台,消除社会大众对人工智能的误解与恐慌,为人工智能的发展营造理性务实、积极健康的社会氛围。
六、结束语
人工智能经过60多年的发展,进入了创新突破的战略机遇期和产业应用的红利收获期,必将对生产力和产业结构以及国际格局产生革命性影响,并推动人类进入普惠型智能社会。但是,我们需要清醒看到通用人工智能及人工智能的整体发展仍处于初级阶段,人工智能不是万能,人工智能还有很多“不能”。我们应当采取理性务实的发展路径,扎实推进基础研究、技术生态、人才培养、法律规范等方面的工作,在开放中创新,在创新中发展,全速跑赢智能时代,着力建设人工智能科技强国!
(主讲人系中国科学院院士)
法律论文:论人工智能的法律主体地位
本篇法律论文范文主要从人工智能的法律主体地位展开深入的探究,我们都知道人工智能是近几年来谈的最多的话题,人工智能的诞生是不是可以代替人工去解决一些问题呢?答案是肯定的。自然人能成为法律上的主体并不是理所当然的事情,关于什么样的实体才能成为人的观念要以相关意识形态所认可的人这一问题为前提。一、人工智能法律主体地位相关概述(一)人工智能1.人工智能的定义人工智能(Artificial Intelligence)这个词于1955年麦卡锡首次提出,但经过各国70多年的研究,仍未对人工智能作出一个统一的定义。百度百科对其定位为属于计算机科学的一个分支,是研究、开发用于模拟、延伸和扩展人的智能的理论、方法、技术及应用系统的一门新的技术科学。[5]该领域的研究包括了机器人、语言识别、自然语言处理和专家系统等。尼克逊教授认为:人工智能是关于知识的学科——怎么表示知识以及怎样获取知识并使用知识的科学,这个定义超出了人工智能技术本身,而将其认定为一种学科。美国麻省理工学院的温斯顿教授认为:人工智能就是使计算机学习如何像人一样工作。拉塞尔和诺维格在《人工智能:一种现代的方法》一书中将人工智能的定义划分四种类型,分别是像人一样思考、像人一样行动、合理地思考、合理地行动。[6]根据我国国家标准规范,人工智能是指利用数字计算机或者数字计算机控制的机器模拟、延伸和扩展人的智能,感知环境、获取知识并使用知识获得最佳结果的理论、技术、系统、产品以及服务,[7]此规范倾向于人工智能技术层面的定义。综上所述,人工智能既可以被当做一门学科,也可以被视为一种科技。虽然不同专家对人工智能都作出了不同的解释,但仅仅以单一学科对人工智能下定义到具体应用是片面的。拉长历史维度,任何一项新的事物都会如蝴蝶效应般影响全球秩序。人工智能也不例外,在其发展的过程中,社会结构也在不断地发生变化,大到国家战略方针,小到居民生活。法律作为规定人们行为的最基本规则,在人工智能发展的同时,也不能打破法律框架,要基于对现实社会的整体考量,来认定人工智能在法律关系中的地位,从而应对产生的或可能产生的法律问题。..................................(二)法律主体1.哲学意义上的主体自然人能成为法律上的主体并不是理所当然的事情,关于什么样的实体才能成为人的观念要以相关意识形态所认可的人这一问题为前提。基督教教义中,所有的生物人都是天生平等的,这句话使得对人有一个新的定义。6世纪哲学家布尔其乌斯认为人是指具有理性(灵性)之本质的个别实体,奠定了生物人具有灵性与尊严的基础。康德继布尔其乌斯对人的理解后,进一步通过使人与物的对立,表明人更具有内在价值和尊严以及以自身为目的的特征。在人与物的对立中,物本身没有内在价值而仅具有工具价值,不具有尊严而仅具有市场价值,不是一种目的而只能视为一种手段。在《道德形而上学》一书中,康德从实践道德自由之条件的角度指出人是能为自己之行动负起责任者。[13]康德认为,人的本质是拥有自由意志,即有理性的主体依照其拥有的条件去决定是否做出一件事情的能力。而人性建立在自由意志之上,是一种不可规定的、不可捉摸的东西。人之所以为人在于他的不可规定性和无限可能性。[14]在《道德形而上学》的第一部分中,他指出:“道德的人格是受到道德法则约束的一个有理性的人的自由。”[15]康德以人具有理性,将人和物区分开来,是以人类中心主义为出发点否定其他物种具有理性能力,从而仅定义其为实现人类目的的手段“物”。理性作为人的前提,古往今来,西方谈论理性无外乎“逻各斯”与“努斯”两种理性主义。逻各斯一般指世界的可以理解的一切规律,是以现实为中心的本体论和以口头语言为中心的语言学结合体,它意味着相信存在的语言能够完善表达思想,达到实在世界的客观真理。[16]这个概念由古希腊哲学家赫拉克利特提出,他认为逻各斯是世间万物变化的一种微妙尺度和准则。逻各斯是一种普遍规律的理性,它存在与主客观世界,在客观世界它是规律秩序,在主观世界它是逻辑理性。因为客观的规律与主观的逻辑具有联系(同构),所以世界万物包括人都分有逻各斯(理性、逻辑、智慧),“一就是一切,一切就是一”。柏拉图在此基础上提出认识论中的理性论:人具有透过现象看本质的能力,同时人还具备控制情感的能力。“努斯”这一概念由古希腊哲学家阿那克萨戈拉提出,原指与客观世界相分离的、独立存在的自主意识,其强调自我超越、不断创造主体性原则。努斯的提出将心灵(精神)与物质第一次做出了明确的区分:努斯是单一的,物质是同质的;努斯是同质的,物质是异质的。最重要的一点是努斯推动物质的运动,他把物质的能动性归功于精神。虽然阿那克萨戈拉提出了心灵,但是他对心灵概念的解释还是具有局限性。他认为心灵并不创造物质,心灵与物质之间的联系仅仅是一种推动力。可以看出来逻各斯更像是一种事物变化的限定(法则),而努斯则是事物变化的动力。在古希腊,逻各斯和努斯都被翻译成理性,区别在于前者来源于对话与中的语言的逻辑,而后者是一种自发的自由精神,是特代表超越感性的理性,同时作为动力的来源。................................二、人工智能法律主体地位不同学说(一)人工智能法律主体地位肯定学说1.电子人格说电子人格说认为:人工智能与传统的机器装置不同,具有相当程度的自主性,不应认定其为法律关系中的客体,民法可以根据其电子特征,认定其“电子人格”,当然这一人格不能等同于自然人“人格”。[29]这一学说理论基础在于将人工智能类比为限制行为能力的儿童,在法律上智能体能够承担一定责任,应当拥有独立法律人格。机器人自主性越强,越不能被认定为工具,但这样又反过来对现有的责任规则造成了压力,亦或者需要新的规则以明晰个行为主体对机器人的行为负责。2016年5月欧洲议会法律事务所委员会在《关于机器人相关民法规则的报告(草案)》中对人工智能的特点进行分析,认为目前的法律框架已经不能涵盖新一代机器人所造成的损害,由于其行为中具有一定程度的不可预测性和学习能力,要考虑机器人的生理结构缺失、具有一定自主能力、具体运用的领域等因素,要求委员会建立一个需要注册的机器人分类标准,至少考虑自主性强的人工智能体,赋予其“电子人”资格。2.代理人说代理人说认为:人工智能与人之间属于代理与被代理关系。承认人工智能拥有一定的代理行为能力,能够为受托人利益而订立合同。根据代理制度的规定,只有民事主体才有代理权限,并且要有一定的行为能力,这在某种程度上承认人工智能法律主体地位。人工智能作为代理人要为其被代理人也即使用者负责,人工智能能够自主决策订立合同,其做出的行为符合人类认知。该学说亦有法律依据,例如美国《统一电子交易法》第14条规定,当事人的电子代理人可以相互签订合同,即使委托人不知道或未检查电子代理行为相关条款。[31]该条款表明人工智能可以在无人介入的情况下,为受托人的利益实施代理行为,同时电子代理人还可以与个人签立合同,进一步认定人工智能一定的法律主体地位。[32]尽管可以认定人工智能代理人身份,但是代理人通常只能代理财产性行为,决不能等同于自然人人格。............................(二)人工智能法律主体地位否定学说1.工具说工具说认为:人工智能的行为完全由人事先设计好的、输入的算法程序控制,不具有人之理性,即缺乏独立自主的意识和思维。工具说以人类利益为核心原则,即使人工智能拥有类人化的算法模式,仍属于为人服务的科技衍生物,不能脱离其工具属性。[35]以目前人工智能的特点,仍需要人类的干预,不能完全独立于人单独做出决策,因此还不符合成为法律主体的条件,只能依照现有的法律视其为人类操作的工具。人工智能被创作出来没有自身目的,即使有一定程度自主能力,仍不具备理性能力,不能作出类似人类富有理性色彩的道德判断。人工智能在自主学习过程中能过做出一些令人难以想象的行为,但本身仍然没有脱离设计的算法框架,因此人工智能是在运算过程中做出选择,但其并不具备人类理性。从权利、义务角度考量,人工智能并无自主意识,赋予人工智能法律主体地位主体地位,人工智能也无法主动享有权利。权利、义务是作为法律主体的必要条件,缺乏权利能力也就意味着没有与之对应的义务,赋予人工智能法律主体地位将毫无意义,权利、义务的接受主体只能是其背后的所有权人。按工具说的观点,通过原有的产品侵权来规制人工智能,不会改变目前法律框架,操作较为简便,但一味地将人工智能置于法律客体位置,忽略其自主性,在发生人工智能侵权事件时仍将责任归咎于背后相关者,会导致归责要素超过法律应有的含义,同时也不利于科技发展。2.控制说控制说认为:人工智能体仍被视作人类的工具,尚不满足成立法律主体地位的标准。吴汉东教授提出:人工智能没有自然人生理结构,也不具备人类的自由意志,不能有意识的做出选择,其是受所有权人的操控而行为。[36]虽然法人团体并无人体躯壳,但其是自然人集体意志的体现,其有独立财产,能够独立承担责任,且赋予团体法律主体资格能够促进交易以及经济发展,与社会发展处于一种正相关性。人工智能的自主能力确实在不断增强,但仍改变不了其不具备人之心灵这一事实,人工智能行为是一种特定领域的、被人输入的算法程序做出,不能等同人类行为与作为自然人集合体的法人行为。论人工智能的法律主体地位...............................三、 人工智能具有特殊的法律主体地位.......................................15(一)人工智能已超出法律客体的内涵........................................15(二)人工智能可满足法律拟制的条件....................................16(三)赋予人工智能特殊的法律主体地位................................17四、 人工智能法律主体地位下的制度安排...........................24(一)政府监管介入..............................................24(二)立法指导思想为核心.......................25(三)具体权利、义务、责任承担设置........................................26结语.............................................28 四、人工智能法律主体地位下的制度安排(一)政府监管介入埃隆·马斯克提出,在人工智能立法空白的前提下,由政府对人工智能进行监管是一个有效的手段,为了防止人工智能潜藏的风险实体化,应当从国家甚至国际层面对其进行有效监管。政府监管具有阶段性、灵活性和及时性,在没有法律明文规定的情况下,面对新技术带来的问题,能够迅速做出反应,对其做出临时性措施,等到时机成熟,依照有效的行政决议,转化为法律。同时政府具有强制性特点,作为国家行政机关,各类各级行政机关应对突发性问题做出有效的反映。在制定政策过程中,需要对社会现状、交叉学科专业意见、公众认同等因素进行综合考量,尤其是人工智能已经有脱离传统工具的趋势,在缺少法律应对的前提下,政府治理对稳定秩序极其重要。目前,我国法律仍认定人工智能为法律关系中客体存在,但这并不代表今后人工智能无法成为法律拟制的主体。人工智能自主能力越强,其类人化属性将更加显著,国外已经对人工智能赋予一定的权利范围,以我国智能领域发展的趋势,是否赋予人工智能法律主体地位仍是一个不可摆脱的问题。政策灵活性的优势正好弥补了法律滞后性的不足,针对人工智能发展所带来的社会问题,应当由政府专门机关深入调查研究,政府将涉及的所有问题总览后,适当调整政策,让人工智能始终保持在可控的范围。虽然人工智本质上属于科技领域,但其已经渗透于各个领域,仅靠人工智能专家不足以应对人工智能所造成的影响,需要其他学科的专家共同参与。这也造成了另一个问题:由于人工智能准入门槛较高,不具备相关知识的人难以理解人工智能的算法本质,各学科领域的专家在在讨论过程中可能出现不能理解其他学科的专业知识,甚至在一定程度产生误解,因此,人工智能复合其他学科的人才不可或缺。政策同样也离不开公众的参与,从随身携带的手机、智能家居,到政府智慧化服务,人工智能已经深入到公民的日常生活,广大人民对人工智能的反馈亦是社会现状的反应,政府需要充分听取公众意见,结合上述重要因素,对人工智能进行规制。论人工智能的法律主体地位............................结语
在第二次工业革命中,中国没有抓住机会错失了发展的快车道,人工智能技术作为新兴的科技行业,国家对此非常重视,以期在此实现弯道超车。党的十九届五中全会明确新技术发展导向,加速5G、人工智能、工业互联网等高效赋能实体经济,以新一轮科学技术革命,加速新技术与实体经济深度融合,助推产业链发展现代化高级化,为实现产业变革、建设数字中国提供重要驱动力。无疑对于新时代的中国来说,人工智能的发展具有战略性意义,一方面其以“智”提“质”,催生新型就业领域、造就宏大的技术生态群,在无人驾驶、智能语音等领域取得不断突破,在构建产业数字化中智能新经济形态的基础上,助推中国经济不断实现高质量发展。另一方面,人工智能以“智”提“治”,通过推进“智能+生产”、助力“电子+政务”、发力“智能+生活”,不断优化社会生产关系,提升社会治理现代化水平,进而增加民生福祉,打造共建共治共享新格局。法律虽然往往滞后于社会变化,但是法律对问题要有前瞻性。我们都无法预料到未来的科技是否真如电影那般陷入科技的危机——人工智能体与人类间的战争,但对将来可能遇到的问题应该是不容忽视的,且应当提前制定应对策略。赋予人工智能法律主体地位,不仅仅是基于意识层面的道德考量,同时也是关注法律关系的实践需要。承认人工智能的法律“人格”,在一定层面上来说等于构建了新型智能社会的法律模式,这意味着需要更加合理地界定其权责范围、设计科学的相关法律制度,从而使法律主体得到延伸,塑造一个价值多元的社会。但是,认定一个新型法律“人格”需要社会大众的认同,衡量一种法律制度能否维系社会稳定,保障以人的利益为中心原则,笔者认为可从以下几个方面进行考量:其一是技术上能否界定人工智能系统的范围,其二是经济上能否提高社会福祉,其三是法律上是否存在相应规则不健全而需要加以规范的紧迫现实性,其四是精神主观上存在推理能力与道德责任。基于当下人工智能与技术革命的快速发展现状,如若全面否认人工智能法律主体地位,显然与其特殊性质存在不符,也无法解决由人工智能发展带来的侵权责任承担、代理能力确认、知识产权归属等一系列深层问题,当然,这并不意味着要贸然承认人工智能具有完整的法律主体地位,而是在一定程度上加以人类限制,以便人工智能技术的发展更好的服务于社会发展。参考文献(略) 这是一篇优质的法律论文范文,如果想查看更多优质的法律论文范文,可以查阅本站的法律论文栏目,还可以直接收藏本站,本站每天更新优质的各类论文范文。