博舍

可能与可为:人工智能时代主流媒体的舆论引导 2030年人工智能时代书

可能与可为:人工智能时代主流媒体的舆论引导

人工智能时代,主流媒体的舆论引导面对与过去存在很大差异的传媒环境:

第一,传受主体一致导致的“众声喧哗”。随着网络社会的到来,数字化生存成为了现代人一种基本的生存方式,传统媒体时代界限清晰的传受主体分野日渐模糊。网络的数字化传播和交互功能,令人人都是传播者的想像成为现实。在大数据挖掘技术和人工智能技术成熟之前,人们尽管也可以借助网络收集信息和进行表达,但其能力还相对有限。社会治理者也可以较有效地对网络进行规制。人工智能时代,人们借由智能机器和智能技术赋能,可以更加快速有效地接收(挖掘)信息、整合信息、传递信息,“众声喧哗”开始变成一种常态的舆论环境。这种舆论环境意味着观点不一,表达各异。当然这并一定是坏事,因为对事实的判断和定性的多元化,对观点的质疑,有利于寻找真相,回归事实本身,或者较好地获得诸多不同观点的平衡点。但是,由于网络表达的复杂性和非理性,对事实真相的探寻和主观性观点的共识往往很难在这种“众声喧哗”的环境中实现。

第二,算法推荐引发技术伦理担忧。1968年,美国斯坦福大学教授高德纳出版了《计算机程序设计艺术》一书,在书中有这样的表达:算法有非常明确的计算过程,可在有限的步骤当中完成,并具有正确的结果。这是关于算法的最初概念。后来,算法开始指向一种更为复杂的社会技术系统并进入社会科学的视野,可以帮助人们从海量的信息中挖掘出最有意义和价值的信息内容。算法具有系统性和可重复性的特征,结果可以被验证。基于算法的这种强大功能,它在当今社会得到快速广泛使用。在新媒体日新月异发展的今日社会,算法几乎成了一种“标配”,并被广泛应用于新闻生产过程中。算法依据用户在网络上的使用情况,对其进行画像进而推送信息,其意义是对用户兴趣的个性化满足。因此,算法推送的新闻并非由新闻价值决定,而是由商业价值决定——通过无条件地满足用户的个性化需求,增加用户粘性,最大限度地实现商业价值。主要由商业逻辑推动的算法推荐新闻具有快速、精准、个性化等一系列优势,所以其推广普及的速度相当迅速,但是,由此带来的信息茧房效应和技术伦理问题也受到了更多的批判。当用户习惯于持续接收自身感兴趣的信息后,其视野难免局限,观点难免极端。“在算法伦理方面,由于计算机是冰冷的机器,不具备人的道德精神,导致现阶段网络环境中低俗、虚假内容泛滥,网络暴力及犯罪现象严重,加大了互联网的监管难度。”2

第三,舆论再生产能力的提升增加了舆论引导的难度。人工智能时代,数字化生存中的人们被智能技术紧紧地联结在一起,组成彼此联结、不可分割的人际网络。与此同时,物联网又把人与物紧密相联,使这个网络的联结不断紧密。“今天的数据采集主要来自人的活动领域,而物联网传感器的普及,将为社会环境监测提供全天候、多方位的新手段。”3一部智能手机在手,公民可以随时控制家中的家用电器、监控设备等,与此同时,自己的行动轨迹、交往对象也借由手机被网络周详记录。在网络中,现代公民可以比较方便地通过对相关数据的挖掘得出自己的某种结论;也可以通过对社会舆论、观点的重新整合,形成自己的意见表达。这个过程中,无论是大数据挖掘还是意见整理,基本素材主要是留存于网络中的各种数字化痕迹,至于这些痕迹是否准确反映了事实或观点,由于信息海量,当事人往往无法一一求证。与此相对应,在今天这样一个人人都是传播者的公共传播时代,每个传播者的媒介素养参差不齐,他们在网络中发布的信息或观点往往会出现差错和片面性,所以基于网络信息、舆论被再生产的时候,就具有诸多复杂的、事实难清、真假难辨的问题,这就给舆论引导造成极大的困扰。

主流媒体在相当长的时期里发挥着正确的舆论导向作用,为社会的有序运行发挥了重要作用。但面对人工智能时代传媒环境的嬗变,当年行之有效的引导方式效能开始出现明显减弱状况,因此,主流媒体要顺应时代需求,更好地发挥好舆论导向的作用,必须因时而变。

二、何以可能:人工智能时代主流媒体在舆论引导中的责任担当

(一)社会核心价值观传播离不开主流媒体

传统媒体时代,主流媒体一直发挥着包括主流价值观、伦理观在内的社会核心价值观传播引导的功能。现代中国社会是一个价值多元的社会,多元价值观的传播激荡有利于创新思维的产生,在不同观点的碰撞博弈中,激发主流价值观作用的发挥,也有利于昭示非主流价值观的缺陷,寻获不同价值观的最佳平衡点。但是,主流核心价值观的作用并非一定会通过冲撞、激荡自动产生出来,而是需要适当的舆论引导。在传统舆论格局中,主流媒体以鲜明的立场、权威的表达,有效地发挥了舆论导向的作用,使社会核心价值观得到了有效传播。

网络传播以革命性的方式革新着传统传媒业。多样新颖的传播方式、迅速即时的互动联结、繁杂新奇的海量信息等,对传统媒体构成严峻挑战。伴随新媒体快速发展的,是传统媒体受众的大量流失和新媒体用户的快速增长,并且这样的趋势随着年轻一代的成长变得愈加严重。这种局面的出现还导致在相当长的一段时间里,新媒体传播的内容鱼龙混杂,泥沙俱下,低俗、暴力、色情甚至反社会的信息一度在网络空间颇有市场。在这个过程中,主流媒体并没有放弃传播过程中话语权的把控,并且也通过多方努力,力图在核心价值观传播方面发挥引领作用。但是,由于理念的落后以及传播方式的陈旧,主流媒体虽然没有在核心价值传播过程中“失声”,但往往曲高和寡,有“自说自话”的窘迫。当然,随着党和国家领导人对新媒体传播的高度重视和媒体融合在国家层面快速推进,以人民日报“中央厨房”新闻生产模式为代表的新型主流媒体,积极抢占着舆论引导的主阵地,重构在舆论引导中的主导作用。

人工智能时代,传媒业开始进入智媒时代,以算法为代表的新闻推送方式和以机器人新闻为代表的新闻生产方式将进一步影响我国的舆论引导整体格局。在这样的背景下,通过不断的创新,发挥好在舆论引导中的主导性、关键性作用,传播核心价值观,追求社会文明,是主流媒体义不容辞的基本功能。

(二)人工智能时代主流媒体的社会担当

网络社会到来造就的一大媒体景观是各种新媒体的发展风生水起。这些新媒体与其细分出来的自媒体、社交媒体一起组成了新锐豪华的传媒新势力。在这样的新势力面前,主流媒体应该以怎样的形象示人?或者说主流媒体应该在舆论引导中怎样有效地发挥作用?这是值得认真思考的现实问题。

传统媒体和新媒体的博弈是一个长期过程,而媒体融合的持续推进力图营造新旧媒体的共赢局面,但不管博弈如何进展,主流媒体应该继续担当起传媒业中坚力量的作用,并在舆论引导中继续发挥主导引领作用。网络传播时代,需要大量资金投入的新媒体在商业资本推动下进入了一个高速成长期,并在话语表达中开始攻城略地,影响力不断扩张。

面对商业性媒体的挑战,主流媒体的当务之急是奋起应战,并继续担当媒体中坚力量的社会责任。新媒体的快速崛起造就了百花齐放的媒体发展景观,但也会导致“众声喧哗”之后的信息传播失范行为大量出现,因此,主流媒体应该以更加积极的姿态,发挥好主导引领作用。在现今的媒体格局中,差异化的媒体以不同的景观要素,彼此关联,组成了新时代令人瞩目的媒体景观。但是,媒体景观犹如自然景观一样,要由不同的要素镶嵌组合而成,并且其要素的作用并不相同,有的是担当“红花”作用的主要素,有的是成为“绿叶”的辅要素。而主流媒体无疑应担当“红花”作用,成为主景观。

在今天这样一个信息被上升到与能源同等地位的信息社会,新闻媒体在现代社会治理中具有愈来愈重要的作用。党和国家作出的重大决策,国家推动的重大活动或重大工程,主流的价值标准和伦理原则等,如何在算法推送、机器人写新闻的新形态新闻生产过程中,得到及时有效的传播和推动,可资依靠的一定是主流媒体。主流媒体的主动发声、有效发声,可以真正起到引导舆论从而推动社会进步的作用。

(三)媒体融合提供主流媒体良好的发展契机

我国的主流媒体大多有长期传统媒体实践经历,在长期的新闻实践中,形成了一整套被证明是行之有效的媒体运行模式和舆论引导经验,也在过去长期的社会进步中发挥了重要作用。进入网络社会后,新媒体的快速发展令主流媒体曾经的成熟经验效能下降。但是,由于历史的负担和现实的约束,这些主流媒体在面对新媒体传播中日新月异的有效传播形式,往往处于亦步亦趋的学习模仿中,未能真正融合,更无法超越。与此相对应,也无法真正提升舆论引导的效能。改变和进化,在严峻的挑战面前成为必然。

媒体融合,为主流媒体继续发挥舆论导向作用提供了良好的契机。2014年,中央提出推进传统媒体与新兴媒体融合发展,自这个时候开始,主流媒体积极开展全方位的探索尝试,为发挥好新时期的舆论引导作用提供了良好基础。媒体融合战略提出的背景是“传统媒体的‘信息中心’地位被动摇,一个‘去中心化’的社会传播网络形成,危及主流声音的传递和共同意识的形成”。4在这种背景下,通过媒体融合战略的实施,实现主流媒体在舆论引导中作用发挥的“再中心化”就成为必要。媒体融合是基于技术和平台这两个关键。新媒体产生的前提和传播内容、方式的革新是基于传播技术的革命性变化,所以媒体融合也必须紧紧抓住技术和平台这个关键,在这样的前提下,用互联网思维进行内容生产和组织管理。“媒体融合并不是传统媒体与互联网媒体或智能媒体简单地汇流与整合,而是一种在新传媒生态环境中传媒沿着传播技术发展轨迹的重组。所谓‘传媒重组’,强调的是基于互联网、云计算、物联网、大数据、人工智能、区块链等传播新技术的持续发展,以进化中的互联网为基础设施和操作模式,按照互联网思维、逻辑、文化,对传媒产品、传媒平台、媒体与用户的关系、传媒产业模式、管理运行规则的重新组合与全面变革。”5如果能沿着这样的思路持续推进,主流媒体就可以在媒体竞争中重新获得优势地位,其舆论引导的中心作用就可以得到有效发挥。

三、社会核心价值观传播离不开主流媒体

(一)理念:智媒化思维

人工智能时代,主流媒体要有效发挥好舆论引导作用,必须具备智媒化的思维理念。智媒化思维是建立在互联网思维基础上的新的思维模式,是互联网思维的一种进阶,也是主流媒体在媒体融合的过程中,主动顺应世界媒体进步的潮流,拥抱和实践传媒新技术的思想基础。智媒化思维应重点关注两个大的方面:大数据和机器智能。

第一,建立强烈的大数据意识。

数据的存在有着漫长的历史。所以,在相当长的时间里,人们的印象中数据就是数字。其实这种认知本身也无太大问题,因为早期的大数据实际上也就是数字——计算机工程师需要处理、但已超出一般电脑在处理数据时所能使用的内存量的数据,被称作大数据。而在今天,大数据已经消除了“僵化的层次结构和一致性”,可以被挖掘并按需要排列组合,具有极大的商业价值和社会价值。“大数据是人们获得新的认知、创造新的价值的源泉;大数据还是改变市场、组织机构,以及政府与公民关系的方法。”6有学者甚至认为人类文明的过程是伴随这样一个数据流程进行的:获取数据-分析数据-建立模型-预测未知。7基于这样的过程,数据被视作“人类建造文明的基石”。

“数据的范畴远比我们通常想象的要广得多。人类认识自然的过程,科学实践的过程,以及在经济、社会领域的行为,总是伴随着数据的使用。从某种程度上讲,获得和利用数据的水平反映出文明的水平。在电子计算机诞生、人类进入信息时代之后,数据的作用越来越明显,数据驱动方法开始被普遍采用。如果我们把资本和机械动能作为大航海时代以来全球近代化的推动力,那么数据将成为下一次技术革命和社会变革的核心动力。”8事实上,在今天这样一个数字化社会中,数据已经变成了我们生活的一部分甚至全部,所以,无论是在思考媒体融合还是舆论引导问题,必须首先思考大数据对传媒业的深刻影响,用大数据思维,去设置传媒改革的基本路径。

第二,对智能机器的主动拥抱。

人工智能不仅会带给传媒业内容生产方面的深刻变革,也会带来接收场景的巨大影响。从机器人写新闻到算法推送新闻,从智能增强现实技术(AR)到智能虚拟现实技术(VR),人工智能将覆盖整个传媒产业链。从更加广阔的时空范畴来看,人工智能将会介入到包括传媒业在内的更加全面的社会生活空间。美国著名的计算机科学家阿米尔·侯赛因是这样描述人工智能的未来状态的:“人工智能系统需要像人类一样成为通才。它需要通过海量数据进行学习,然后归纳所学到的东西,就好像我们在小时候学会将积木叠在一起、组合在一起或者垫在脚下去拿书架上的书。它需要理解含义和语境、能够合成新知识、有自己的意图并且在任何情况下具备自我意识,这样它才能理解在这个世界上拥有决定权意味着什么。”“未来,人类创造力的产物将是思想,也就是创意构思。我们的创意将比机器智能更好吗?机器智能将尝试掌握人类擅长的每个领域,包括思想。”9这样的“终极智能”阶段离我们的现实生活还比较遥远,但它很有可能会变成现实,所以,我们必须提早作好准备。

传媒管理者不仅要继续与现实的人发生联系,还要不断学会与智能机器发生联系,并且这是一个贯穿未来的漫长的过程。网络兴起之初,曾经长期在传媒业中占据主导地位的主流媒体总体而言在前瞻性上有所缺憾,对网络的发展可能性有所忽视,导致一段时间里在舆论导向方面的作用发挥不理想。

目前,人工智能正在呈现网络勃兴初期的一些特征,曾经的失当判断殷鉴不远。在未来舆论引导的大格局中,主流媒体应该主动拥抱智能机器,积极学习和引进智能技术,从而形成先发优势,发挥好舆论引导中的引领作用。

(二)思路:网络化平台

网络化是指主流媒体首先要完成传统媒体“上网”,实现与网络的互联互通。在过往的实践中,有人将网络化简单理解为数字化,即将文字图片进行数字化转换,从而完成“上网”行为,这是对网络化的浅表理解。在主流媒体实现网络化的过程中,数字化转换只是网络化中一个最初步的环节,而主流媒体整体“迁移”到网络上,网上网下多向互通互联,才是真正的网络化。

“迁移”是实现网络化的逻辑前提,在这样的前提下展开的核心工作是依托网络平台在网络中的主动发声与有效引导。随着网络的快速发展和网民队伍的迅速扩大,网络舆论的影响力在某种意义上已经超越了包括主流媒体在内的传统媒体的影响力,尤其在社会治理者对传统媒体的舆论规制行之有效、对新媒体的舆论规制手段有限的情况下更是如此,因此,借由媒体融合的契机,通过传统媒体的整体“上网”,在网上发声进行舆论引导就显得意义深远。“移动互联网日益成为信息传播的主渠道,成为热点生成、舆论发酵的策源地。

当下的互联网就像水和电一样,已经成为基础设施,各行各业都离不开。既然这样,融合必然要围绕着互联网来进行。”10同时,随着年轻一代网络原住民的成熟和年长一代对网络传播技术的不断应用,网络传播的对象也在发生本质性的变化,以中产阶级为核心的社会主流阶层日渐成为网络的活跃用户,因此,影响这样的群体对于主流媒体传播核心价值观,构建风清气正的网络空间作用巨大。

网络化平台是指主流媒体主动在网络上创建传播平台,实现有效传播。“建设自主可控的平台是主流媒体掌握网络舆论主导权的关键举措”,“平台化有利于主流媒体聚合优势资源、吸引海量用户。”11网络化平台首先是指信息的聚合。以人民日报、中央电视台等为代表的国家级主流媒体创建的融媒体平台和现在正在大力推进的县级融媒体平台,完成了网络化平台的初步建设任务,为主流媒体在舆论导向中的作用发挥提供了平台条件。

不同的信息聚合于这个平台并借助多样化的手段进行传播(如近年流行的短视频传播),可以发挥多方面的舆论优势。其次是指传受关系的交汇点。网络传播强调交互性,强调网状链接,但这种交互和网状链接决不是“对空言说”,而是有效互动平台,使传受关系在“云端交往”中感知对方的存在和意见的倾听,只有这样,各方的发声才有价值。最后是指初生舆情的中心。

网络化平台不仅联结各种人与物,也是舆情的生存中心。通过技术手段,网络化平台可以对汇聚于平台的初生舆情进行挖掘整合。这个过程一方面可以形成对舆情走向的整体掌握和基本判断,也可以进行精准研判,从而形成主流的舆论并通过平台传播。

(三)实践:智能化生产

首先是智能技术条件的完备配置,确保主流舆论的快速有效传递。传播技术的进步推动了传媒业的革命性进步,所以传媒业的未来发展首先需要有良好的技术条件作为支撑。在新媒体的快速发展中,传播平台需要有可靠的硬件设置基础和软件工具配置,这需要付出巨额的经费,业内人称之为“烧钱”,一些传统媒体之所以在新旧媒体的竞争中渐趋式微,与没有得到充足的经费保障有密切的关系,所以主流媒体要在未来的舆论引导格局中有效发声,发挥好中坚力量的作用,智能技术条件的完备是必不可少的。

智能技术条件除了硬件设备,更主要的是软件的高度智能化及持续的更新完善。当然,要做到这一点,就不可缺少一批技术精湛,有前瞻性、预见性眼光的计算机工程师队伍。在新媒体传播环境下,舆论的时间节点对于舆论引导具有非常重要的价值。首先,面对重大事件争取做到最早发声,有利于形成主导性的舆论走向。其次,在纷繁复杂的舆论声浪中,争取做到有效发声,有利于形成相对统一的舆论。最后,面对出现偏向的舆论风向,争取做到准确发声,有利发挥纠偏作用。而所有这些,都需要有效的平台和技术条件来确保主流媒体舆论声音的快速有效传播。

其次是主流媒体从业者对智能技术的熟练掌握和使用。这是一种“能力再造”的过程,可以提升他们适应媒体发展的要求,保证舆论引导的时代性,保证舆论的内容和形式符合现代受众的接收兴趣。在目前的传媒业中,全媒体记者应该成为包括主流媒体在内的传媒从业者的一种职业目标。全媒体记者的内在要求除了完成传统的新闻采访、写作外,还要求通过对智能设备和技术的掌握,熟练地通过文字、音频、视频等方式传播新闻信息,争取做到传播的新闻信息能快速覆盖多种传播渠道。

这就要求新闻记者不仅会采写新闻,还会制作(有别于传统意义上的编辑)新闻,并且在采访之时就要考虑到声音、图片、视频等要素的集中采集,这是对新闻记者的一种高要求,但也应该成为一种基本要求。新闻记者要在强调客观性、真实性的基础上,在个性化和创造力上多做文章。

最后是智能引导。在未来的舆论引导实践中,智能引导将成为一种引导的主流方式。大数据挖掘技术、智能机器深度学习、算法进展和类脑芯片的持续开发,深度再造传媒业的各个流程。例如,可以通过各种无人机、航拍器和多类型视频摄像头等收集的素材,配合大数据挖掘技术,及时捕捉公众意见、关注度、情绪升降等,并通过数据新闻,数据可视化新闻的方式快速传播,及时引导公众舆论。

智能化引导要求主流媒体及早尝试新闻智能机器人全程进入新闻传播整个流程,从机器人采访、写稿、编辑到机器人主持播报新闻,节省人力成本,加快新闻制作流程,提高舆论引导效率。同时,也要根据智媒时代受众的特点,在舆论引导的社交化、互动化、个性化上下功夫,真正发挥好主流媒体舆论引导作用。

人工智能时代,主流媒体的舆论引导面临全新的复杂局面,也会面对许多已知与未知的挑战,这也意味着将承担更加重大的社会责任。过往成功的舆论引导实践,持续不变的社会责任担当和面向未来的探索学习能力,可以促成主流媒体在新的传媒格局中大有作为,并书写舆论引导的新篇章。

注释:

1、沈浩、袁璐:《人工智能:重塑媒体融合新生态》,《现代传播》2018年第7期。

2、宋建武、冯雯璐:《全媒体时代主流媒体的数据化生存与发展》,《湖南大学学报》(社会科学版)2019年第6期。

3、彭兰:《智能时代的新内容革命》,《国际新闻界》2018年第6期。

4、邹军、荆高宏:《社会治理视域中的县级融媒体中心:意义、路径及进路》,《传媒观察》2019年第10期。

5、吕尚彬:《媒体融合的进化:从在线化到智能化》,《学术前沿》2018年第12期(下)。

6、【英】维克托·迈尔—舍恩伯格、肯尼思·库克耶:《大数据时代》,浙江人民出版社2013年版,第9页。

7、吴军:《智能时代》,中信出版集团2016年版,第12页。

8、吴军:《智能时代》,中信出版集团2016年版,第35页。

9、【美】阿米尔·侯赛因:《终极智能》,中信出版集团2018年版,第34-35、41-42页。

10、卢新宁:《融合三问:新型主流媒体的转型思考》,《新闻与写作》2019年第2期。

11、宋建武等:《平台化:主流媒体深度融合的基石》,《新闻与写作》2017年第10期。

返回搜狐,查看更多

人工智能时代:确立以人为本的欧洲战略

0分享至

来源:中国科协创新战略研究院《创新研究报告》

第7期(总第273期)2019-02-26

编者按:为了应对人工智能的挑战,欧洲需要一个全面的涵盖商业和公共管理的战略部署。2018年3月,欧洲政治战略中心发布《人工智能时代:确立以人为本的欧洲战略》(TheAgeofArtificialIntelligence:TowardsaEuropeanStrategyforHuman-CentricMachines)报告。该报告介绍了全球人工智能研发投入和发展情况,分析了欧洲人工智能的发展态势,针对人工智能发展过程中劳动者被替代和人工智能偏见等问题提出了应对策略。本文就其主要内容进行摘编,并结合我国人工智能产业发展进行简要分析。

一、人工智能的发展现状

1发展人工智能对经济和社会具有重要影响

人工智能在日常生活中扮演重要角色,包括机器学习的文本、语音识别、用户行为分析、人工智能发布新闻等。同时,该技术已经向各高精尖领域进军,包括无人驾驶汽车、健康分析和精准医疗、网络安全应用和加密货币、欺诈自动检测、自动生产线等,其应用范围将超乎想象。

人工智能给经济带来的影响是显著的,也为许多企业带来生机。据估计,利用认知系统与人工智能技术,将使全球商业收入从2016年的64亿欧元,增长到2020年的378亿欧元。预计到2030年,人工智能将为全球经济贡献12.8万亿欧元,相当于目前全球GDP增长了14%,并有望使2035年的生产率提高40%。

2012—2017年,专门研究人工智能应用的初创企业的全部风险资本融资的年复合增长率为85%。仅在2016—2017年,资金就增加了2倍多,达到110亿欧元以上,反映出私人投资者的融资重点发生了巨大变化(图1)。

2世界各国人工智能的发展现状

世界各国政府正在制订人工智能全面战略规划,包括政策计划、研究计划和对私人投资的财政支持。中国、新加坡、日本、韩国等17个亚洲国家的政府在发展人工智能上处于领先地位。其中,我国的目标是到2030年成为世界主要人工智能创新中心(表1),并计划到2020年实现一系列具体目标,包括大规模生产芯片和提升制造业能源效率10%左右等。

加拿大寻求提升人工智能水平,制定一套包含法律法规、的伦理规范和政策体系。美国更关注人工智能基础与长远研究领域,政府作为监管机构的作用微乎其微。

在欧洲,英国和芬兰政府制定了人工智能战略。法国政府委托特别工作组(TheMissionVillani)为其提出人工智能战略,内容涵盖推动人工智能发展的相关措施(如营造一个适宜的法规框架),以及确保个人权利不受侵犯的相关措施。

二、人工智能发展存在的风险

1人工智能的发展并非坦途

人工智能带来好处的同时也会对经济和社会造成不稳定影响,如新技术可能导致劳动力冗余,个体担忧对个人信息失去控制,基于算法的在线平台逐渐扮演准公共角色等。

对此,各国政府都应保持警惕。一方面,鼓励支持人工智能发展,提供有利的监管环境和必要的投入,包括计算能力、数据、技能和资金;另一方面,决策者意识到该领域的新威胁,并采取相应的解决措施,引导技术发展方向,以制定全球标准和最佳实践为目标,确保技术为社会带来价值。

2人工智能存在着固有偏差

随着人工智能技术逐渐成为人类社会基本分析、交流甚至法律的基础设施,会加剧现有的权力不对称性和偏见,我们必须谨慎对待。

人工智能技术不可避免地会反映开发者的背景和偏见——这种非多元化环境导致的偏见,难以设计出社会运行的新范式,而这种偏见问题单靠市场力量也很难有效应对。即使所有的偏见都可以在开发阶段由科技企业和程序员加以纠正,人工智能技术仍存在着深层的隐患:如果数据在构成、取样或生态系统中就存在偏见,或者更广泛地说,偏见是社会结构的副产品,而不是人们思考方式所导致的偏见,那么精确算法对消除这种偏见的作用就非常有限。

因此,对“数字社会”的基本法则的制定不应仅仅交给开发者,政策制定者应该制订必要的条件框架来应对人工智能存在的固有偏见。

三、欧洲面临的双重挑战

应对人工智能风险,欧洲面临着内部和外部的双重挑战。内部挑战包括两方面:一是企业和公共部门如何应用人工智能技术;二是如何建立适应未来技术发展的灵活监管框架,并尊重现有的社会和制度的基本原则,如捍卫民主、保护弱势群体(如儿童)及个人隐私等。

整个欧洲在数字技术方面进展缓慢,但欧洲有潜力在物联网与人工智能领域取得领先地位。通过创建机器互联系统并采用人工智能技术,欧洲企业将获得“AI倍增”效应,不仅能提高效率,而且能收获海量数据。

欧洲面临的外部挑战是人工智能在世界各地发展速度不均衡。一些地域拥有结构优势,如硅谷等地,具有独特的经济结构,其颠覆性创新拥有强大的商业应用前景。在中国,公共和私人投资不断涌向人工智能领域,而这也是不少欧洲企业海外投资和扩张的机遇所在。因此,如果中国企业能够实现更为先进的人工智能技术,并充分利用海量数据,其将成为人工智能领域一个主要竞争者。此外,中国在人工智能领域的努力在学术方面也有所体现。与美国或欧洲同行相比,中国研究人员目前发表的深度学习方面学术论文数量更多(图2)。虽然欧洲拥有更为强大的科研基础,但长期以来无法将有前途的发明转化为真正的创新,因而缺乏全球性的大型数字企业。

欧洲在专利申请和投资方面也落后于美国和中国。2002—2015年,印度的专利申请数量实现翻番,中国专利申请数量增长也高达50%,而在同一时期,欧盟28成员国平均专利申请出现了负增长。

在投资方面,2016年,欧洲企业获得的外部投资为9亿~13亿欧元,而亚洲企业却获得投资12亿~20亿欧元,很多其他地区的科技企业在欧洲国家建立了人工智能中心,以便利用欧洲强大的研究基础设施和高端专业人才(图3)。

因此,欧洲应采取措施应对面临的挑战:一是创设一个有利于吸引人工智能投资的框架;二是确立全球人工智能质量标准。

四、欧盟采取的应对策略

人工智能的快速发展得益于三个要素:强大的网络计算能力、复杂的算法、多元的海量数据。因此,应在这三个方面采取行动,为欧洲创造适宜人工智能发展的环境,投资相关配套技术,以及提供合适的保障措施。

随着人工智能技术正日益影响着人类的基本社会经济活动,这就要求执法当局提供相应的安全保证,相关法规应重点防止权力不对称和不平等的问题被放大,避免引起人们的担忧。

因此,欧洲发展人工智能应立足于四个维度(图4)。

l支持:促进人工智能技术的发展和应用。

l教育:加强欧洲的人工智能人才建设。

l执行:实现传统体制和政策工具的现代化转变。

l引导:确保以人为本的人工智能发展路径。

1支持:促进人工智能在欧洲的发展和应用

欧洲需要加快人工智能技术的发展与应用,并通过如下方式刺激供应和需求:

(1)扩大人工智能系统所需的数据源。监管方案的设计应有利于整个欧洲大陆数据的收集、使用和共享,同时确保《通用数据保护条例》所规定的个人数据保护的最高标准。

(2)投资基础设施并为人工智能设定有力的监管框架。新法规应开放投资,为人工智能开发提供关键基础设施,即电信基础设施和高性能计算设施等。

(3)促进人工智能中心的发展,推动人工智能研究的进步。2016—2020年,欧盟委员会每年投资1亿欧元,在欧盟各个业务领域创建数字创新中心,其中很大部分将用于支持人工智能创新,欧洲应借鉴其他地区的经验,推动创建一个人工智能研究机构的永久性网络。

(4)支持欧洲人工智能平台的创建。这种泛欧平台可以发挥咨询机构的作用,聚集来自信息通信技术、制造业及金融界等不同行业的领军人物,识别人工智能发展的瓶颈,并为公共政策提供建议。

2教育:加强欧洲的人工智能人才建设

(1)培养人工智能专业技术人才。人工智能应用面临的最大障碍是技术人才匮乏(图5)。近期技术领域并购活动激增,跨国公司多是通过收购活动获取人工智能的专业人才,据估计,全球真正有能力进行人工智能研究的专业人才不足1万人。

(2)以欧洲倡议为基础,打造下一代人工智能人才。欧盟委员会应对人才问题的战略以2016年“新技能议程”为核心,其中包括旨在帮助成年人克服数字文盲的技能保障措施。

(3)出台合理政策,避免个体伤害。全面的人工智能战略需要一种自下而上的方法,使公众能够熟知这种新的数字生活方式。人工智能带来的定制服务,可以使个人获得精准服务,同时也会使人产生心理依赖。政府需出台数字和媒体知识普及战略,从而避免个体受此类伤害。

3执行:实现传统体制和政策工具的现代化转变

(1)应对市场扭曲和权力不对称问题。数字时代有时会造成供应商和用户之间的不对等性,传统政策工具需要适应新的数字环境的各种要求,这也促使欧盟委员会出台了一系列举措,制定《通用数据保护条例》和《数字单一市场战略》,以及电子隐私条例、对数字商品和服务的消费者保护和禁止地域封锁等。

(2)制定鼓励竞争的相关政策是最有效的传统管理方式。适当实施并购控制、反垄断和国家援助规则,可以防止市场扭曲并避免在数字价值链中产生瓶颈。同时,鼓励竞争的政策有助于创新型服务企业获得市场利润。因此,政府应精确调整并购管控措施,以免疏漏监管。

(3)政府部门应起带头示范作用。相关部门应不断研讨其人力资源政策,以吸引和留住人工智能、机器学习和数据分析方面的人才,同时还应全面调整内部流程和管理结构。

4引导:确保以人为本的人工智能发展路径

在人工智能的大时代来临之际,欧洲应积极探索以人为本的特色发展道路,制订人工智能欧盟行动计划(图6)。

该行动计划的核心要素包括:

(1)监督并定期报告人工智能技术的发展。应在欧盟层面制订详尽的统计指标,以量化评估所有形式的人工智能技术应用,聚焦主要领域,探讨有效的公共政策。

(2)引入社会系统分析技术。多元化评估,尽量避免评估算法偏见带来的潜在后果,并将评估结果与监管措施公之于众。

(3)制定人工智能质量标准。一方面应涉及“设计合法”原则,保证开发人员在算法中嵌入法律因素,克服机器学习规避设计者的控制问题。另一方面应涉及“人机回环”原则,以确保在技术故障的情况下人类仍能够执行有关任务。

(4)执法。欧盟应制定相关机制,确保技术在应用和发布时满足质量要求,对违反质量标准者,公之于众,必要时将违反隐私保护、消费者保护或公平竞争法的行为,移交给相关执法机构。

(5)推动全球多边倡议。欧盟应推动并积极参与多边对话,推进全球性人工智能开发的基本原则的制定。例如,起草《人工智能宪章》,并包括如下原则:禁止向专制政权或可能侵犯人权的行为开发或销售人工智能技术,禁止将人工智能技术用于致命武器研究等。

五、结论

欧盟应制定全面的人工智能战略,确保以人为本的人工智能发展方向。鉴于欧洲雄厚的工业基础,机器学习显得尤其重要,在这场人工智能全球性竞赛中,如果欧洲失去了领导地位,势必会对欧洲制造业、工作岗位、经济增长和创新带来不利影响。同时,面对人们对伦理问题的重大关注,欧洲责无旁贷,作为众望所归并拥有强大法规基础的欧盟,应引导技术开发朝以人为本、赋予消费者更大权力的方向发展,使其成为人工智能和未来社会发展的普遍原则。如果欧洲能把握住下一次技术进步的浪潮,在这个数字化的世界,虽然充满风险,但会迎来更多的机遇。

六、人工智能时代下的中国

人工智能发展经历了三起两落的过程,在21世纪初的第三次浪潮中,中国人工智能进入了高速发展的阶段,整体规模处于世界上游水平,这主要体现在递进式且持续性的战略规划布局、扎实的基础条件、强有力的科学研究和技术研发实力等方面。

相较于欧盟的缓慢发展和担忧,中国已为人工智能发展营造了良好的氛围,包括积极协调各方资源,对人工智能发展进行长期持续的资金投入。同时,中国已经关注在人才储备、学术研究和产业研发力量的布局。但我们也应注意到,无论是欧盟的“以人为本战略”还是美国的《国家人工智能研究与发展战略规划》,均体现了二者在该领域发展方向的领先意识,而我国在注重经济的同时,也应尽快制定相关法律政策进行风险管控,引导我国的人工智能产业向健康、安全的方向发展。

文章来源

https://ec.europa.eu/epsc/sites/epsc/files/epsc_strategicnote_ai.pdf

编译:罗彧巩玥王达

《创新研究报告》编辑部:张丽琴王国强刘薇王达曹学伟

相关阅读

深刻解析工业大数据:创新应用的挑战不断

FDA局长最新撰文,解析美国推进医疗创新的重要举措

对标美、日、英——我国科技中介体系存在的问题与建议

回复关键字,获取相关主题精选文章

产业|工业化|数字化|人才|创新创业|颠覆性技术|科技指标|科技政策|前沿技术|知识产权|智库|

获取方法如下:

其他系列将陆续呈现,多多关注哦!

感谢您的支持与关注,欢迎赐稿交流

投稿邮箱:nais-research@cnais.org.cn

特别声明:以上内容(如有图片或视频亦包括在内)为自媒体平台“网易号”用户上传并发布,本平台仅提供信息存储服务。

Notice:Thecontentabove(includingthepicturesandvideosifany)isuploadedandpostedbyauserofNetEaseHao,whichisasocialmediaplatformandonlyprovidesinformationstorageservices.

/阅读下一篇/返回网易首页下载网易新闻客户端

2019年第9期丨人工智能时代机器人权利及其风险规制

课题组成员:

顾飞上海市虹口区人民法院商事审判庭法官

余聪上海市虹口区人民法院审判监督庭司法行政人员

王梦熊上海市虹口区人民法院民事审判庭法官助理

为网络发布方便之宜,已删除脚注

↓↓收听语音版请点击播放↓↓

语音版

智能机器人是人工智能运用的一种表现形式和有效载体。本文倾向于采纳《人工智能与法律的对话》一书中对机器人的定义,即“一种显示生理和心理组织但在生物意义上不存在的结构化系统”,且该定义排除了现实世界中不运用任何组织的、完全基于软件的人工智能。现行体系下,人工智能机器人是否具有法律人格并不明晰,造成现实的适用困境。本文认为人工智能机器人具有独立思考的能力是与其他科技最大的区别,但人工智能仍作为工具存在,应仅具有有限的法律人格,具有有限的权利义务。

(一)权利属性:拟制性、利他性、功能性

1.拟制性:因机器人不同于生物学意义上的“人”,且在机器人社会化应用尚未真正实现之前,仍附带较强的工具性价值,立法上很难借助“人生而平等”“天赋人权”等自然法理念来保证机器人权利的正当性,因此“法律拟制”将是解决机器人权利来源的技术性措施,机器人作为特殊的法律构造,允许类推适用法人登记制度而创设机器人登记簿。此外,为了避免未来社会权利拟制所可能带来的机器人权利的迅速扩张,法律仅允许机器人权利的必要拟制、有益拟制。

2.利他性:从人工智能的发展过程来看,机器人的功能在于帮助人类更好的工作、生活,其工具性价值决定了机器人的天然利他特性,且受到人为编程、算法的影响,机器人本身很难产生利己主义的指令和行为。随着更多的人参与到机器人的互动中来,机器人的利他主义行为从小范围、低频率的合作关系上升为特定的法律关系。因此,机器人的利他权利属性既是人类应自身发展需求而赋予机器人的拟制权利,同时也是机器人利他功能的法律表征。

3.功能性:虽然机器人在运算能力上能够承载多种功能,但功能分化所带来的专业化优势远比全能型机器人更具市场竞争力,机器人的研发和应用分别朝向不同的行业、领域,例如医疗机器人、自动驾驶机器人、新闻撰写机器人、机器人管家等,这不仅是应对社会化生产的需要,也是机器人研发的必然趋势。机器人的功能差异不仅分化出不同形态的机器人,也造就了机器人权利的功能化属性,法律在赋予机器人权利过程中,必须考虑到机器人的具体功能,并据此实行有差别的权利拟制与保护机制。

1.保障机器人生存的基本权利

其一,得到尊重对待的权利。得到尊重对待是一种道德权利,与法律权利相比,道德权利不是由法律规定的,更多地依赖于道德主体的道德水平。机器人应该得到尊重是消极的道德权利,也就是不被伤害或错误利用的权利,具体包括不可以奴役机器人、不可以虐待机器人、不可以滥用机器人,这也是一种最低限度的机器人权利概念。

其二,数据共享的权利与数据专有的权利。机器人的社会化应用在很大程度上依赖于大数据、决策技术和算法的交互应用,且“数据共享”是未来发展的主要趋势,故机器人的首要基本权利应当是保障机器人功能实现的数据共享权利。法律应一方面建立明确的数据保密等级与公开等级,另一方面积极推动各类数据资源的社会共享,肯定机器人的数据共享权利。此外,机器人的特有数据、专有数据因较强地保留了机器人的个体差异,因此认可个体数据的专有权利既是对机器人独特身份的保护,也是机器人分化出其他人身权和财产权的基础。

其三,获得法律救济的权利等。“无权利则无救济”,在缺乏法律救济权的情况下,任何侵犯机器人权利的行为都难以受到应有的惩罚,而稳定的惩罚机制是决定一条法律规则是否真正存在的主要依据。完整的权利保障机制包括实体权利和获得法律救济的权利,在私权领域,救济权可以转化为机器人及其所有人要求侵权人停止侵权、恢复原状、赔偿损失的权利,在公权领域,救济权则表现为机器人要求国家纠正或减轻侵权后果的权利。

2.机器人创作物的知识产权保护

本文认为,对于机器人创作物是否属于作品的认定,不应该只专注于作品本身的定义以及著作权法的相关规定上,而是应通过认证作品的本质属性和著作权法的立法精神来支持其机器人创作物的权利,也要从法哲学原理和原则为出发点,根据人工智能的特征和法律的发展方向来判断机器人创作物的归属问题。

首先,如果不赋予智能机器人创作物以可作品性,就意味着对于智能机器人的创作物,任何人都可以随意使用,这对于人工智能产业的发展以及更多新作品的产生必将产生消极作用。其次,如何认定智能机器人创作物以及对其加以知识产权保护,本文倾向于“二元系统”。该系统包含两条规则,第一条,如果人工智能的创作仰赖人类的介入,或当一个人工智能产品依赖于人类互动来创造新的内容或发明时,人类使用者就是作者或发明者,并与其在没有人工智能帮助的情况下创造了该内容或发明享受相同的知识产权保护;第二条,除了开关以外,机器人无需进一步的人类介入即开始创作,则机器人是作者或发明者,但是机器人作为创作者享有为期10年的著作权或专利权,过期后进入公域。上述两条规则,第一条旨在鼓励人类继续通过人工智能的帮助进行创作,承认在此种情况下人类依然为最终产品贡献了“独创性”,并以传统的著作权来保护人类作者;第二条旨在鼓励人类继续开发可以持久且自动地创作新内容的智能机器人,同时通过将这类创作以远远快于纯粹由人类创作作品的速度进入公域,最大程度使大众受惠。该“二元系统”将“通过人工智能创造的”与“由人工智能创造的”作品的权利予以分配,易于操作,也可以促进科学和实用技艺的进步。

(三)权利边界:“法律保留”下的限制性权利

提倡与限制机器人的权利应该是机器人权利研究的一体两翼,而且应该体现在机器人的伦理设计之中。从立法技术角度来看,“法律保留”虽不能明确机器人权利的具体内容,却能够在限定机器人权利边界上带来更好的效果,具体如下:

一是政治权利的法律保留。政治权利是“公民依法享有参与国家政治生活,管理国家以及在政治上表达个人简介和意见的权利”,关乎国家政治生活、政体以及治理形式等重大政治问题。因此,无论机器人如何影响我国的社会经济文化发展,法律都不能赋予机器人政治权利。二是自我复制权利的法律保留。机器人的自我复制,是指机器人非依据研发者和生产者的指令,自主生产人工智能产品的活动。目前,由于3D打印技术日渐成熟,机器人的自我复制会扰乱我国机器人市场秩序,降低机器人资源的社会配置效率,有悖于人类社会的发展规律,危及社会稳定与国家安全。三是紧急避险权的法律保留。紧急避险的内在逻辑是“两害相权取其轻”。对于机器人而言,当我国公民、社会组织或者国家的财产遭受损害危险时,机器人或许能够通过“两害相权”来规避其自身损害(专门的救援型机器人除外),但在公民人身正在遭遇危险的情况下,机器人的价值无法同人的生命健康价值相权衡。为此,对于涉及公民人身安全的危险活动,机器人不因功能差异而享有紧急避险权。

二、人工智能时代机器人风险特点

(一)人工智能时代风险特点之多维度解读

1.技术与制度风险的共生性

人工智能既是人类文明,亦有社会风险。它或是技术本身所带来的风险,也可能来自法律规则、科技政策等制度风险,共生性特点表现为技术性风险和制度性风险的共生。人工智能技术具有技术风险最明显的特征不确定性。“人正面临着一股自己根本无法控制的力量,与这股力量相比,人只是一粒尘埃罢了。”这即是人类面临的技术风险困境。制度风险方面,由于现行法律体系下缺乏对人工智能行业发展的法律指引,具体的制度规制亟待明晰,这些规则的缺失或者运转失灵都会引发制度性风险。

2.现实与潜在风险的共融性

人工智能发展已进入新阶段,科技的进步已经从“互联网+”向“人工智能+”转变。发展至今,已经带来一系列法律问题,例如欧洲议会之“电子人决议”,以便实现最先进的自动化机器人同人类一样的纳税缴费等民事活动,又如无人驾驶汽车,特斯拉公司无人驾驶汽车造成的全球第一宗致人死亡车祸事件,这无疑是对现有民法体系和刑事法律的挑战。发展过程中,技术的快速更新过程中会不断出现新的挑战,但是经验知识为基础的人类对这种潜在、隐蔽的危险毫不知情。因此,在人工智能道路的强劲迈步中,应以长远的眼光看待问题,兼具现实与未来忧患。

3.地域与时空风险的共通性

经济全球化、科技全球化、信息全球化不可避免地带来风险的全球性。2016年,联合国作为全球最重要的国际组织在发布的《人工智能政策报告》中,表达出国际应对方面对人工智能的关注,呼吁世界各国加强人工智能领域的技术研究和开发合作,针对人工智能技术发展带来的各种问题,共同寻求全新的思考方式与解决路径。另外从时间向度来说,人工智能风险是社会历史性的存在,风险对人类的影响无法完全用自然科学数据标准进行评定,从现存状况来看也许只影响一代人的生存,但事实上可能危害几代人。因此,面对人工智能革命,我们不能否定它、逃避它和阻止它,应在更加广泛地范围内展开讨论。

(二)人工智能机器人风险规制路径之伦理规范

1.人工智能机器人应用中引发的伦理问题

一般认为,人工智能机器人伦理是约束机器人研发者或研发机构科研活动的伦理规范,其实质是保障人类利益,促进人类社会的健康、有序发展。人工智能的发展极大提高了人工智能机器人在生活中应用的广泛程度,传统上机器人仅作为技术工具,但是陪护型机器人、宠物型机器人的出现不断冲击现有的社会理念、伦理机制,对社会环境和秩序产生影响。2004年,第一届机器人伦理国际讨论会在意大利举行,该次会议是首次集聚了多个领域专家来讨论机器人伦理问题的讨论会之一。在随后的日本国际机器人博览会,来自日本的机器人专家和业界代表签署了机器人版的“希波克拉底誓言”世界机器人宣言,以便更好地促进机器人在社会中的接受度。因此,如何在技术进步的同时提高社会整体的伦理标准,规范人工智能机器人伦理,进而完善相应的法律规范,促进整体社会道德水平的提升,维护社会的和谐稳定发展,成为我们不得不考虑的另一个问题。

2.人工智能机器人伦理规范与相关法律规范之间的关系

在发达国家,对人工智能的伦理研究早于立法研究,如欧洲机器人研究网络(EURON)发布《机器人伦理学路线图》,韩国工商能源部颁布《机器人伦理宪章》,日本组织专家团队起草《下一代机器人安全问题指引方针》,美国国家科学基金会和美国航天局设立专项基金对“机器人伦理学”进行研究。此外,一些行业组织、公司企业也在伦理规范方面强化人工智能专家的专业责任。例如日本人工智能学会内部设置了伦理委员会,谷歌设立了“人工智能研究伦理委员会”,旨在强调科研人员的社会责任,并对合理研发人工智能提供指导。概言之,伦理规范的调整功能非常独到且甚为重要,例如,对智能机器人预设道德准则,为人工智能产品本身进行伦理指引;规定人工智能技术研发及应用的道德标准,对科研人员进行伦理约束。上述伦理规范为后续法治建设提供了重要法源,即在一定时候,伦理规范亦可转化为法律规范,实现道德的法律化。反之,机器人法律规范的制定也能在一定程度上弥补机器人伦理规范的部分缺陷,两者的衔接与沟通才是我国规制人工智能机器人权利风险的最佳模式,将极大提升机器人研发、审查、应用的规范性。

1.公权力主体:推行人工智能保险与人工智能储备基金

人工智能机器人的逐渐普及,数据网络平民化时代中,任何人都可能成为人工智能风险的制造者,传统的监管方式无法全面适用于人工智能的风险规制。因此,有必要以公权力主体倡导并推行人工智能保险与人工智能储备基金采取强制保险制度。由公权力主导的保险机制以较小的经济付出,获得保险共担风险的机会。此举既能够给受害人提供弥补措施,也不会打击消费者购买人工智能或制造商生产人工智能产品的积极性。该项制度可以作为智能机器人相关法律规范的配套措施,直接促进人工智能行业的良性发展。

2.社会主体:确保从业者主体责任与社会责任的两元统合

对于人工智能行业来说,从业者的主体责任可以说是内部责任,是该行业从业人员遵守法律、法规及相关的标准,为确保生产设施设备、员工、环境等利益相关者的安全而应尽责任的总称。具体包括两个方面的责任:一是经济责任。行业主体从事该行业的主要目的就是追求经济利益,通过人工智能产业活动创造价值而获取利润,同时也是该行业存在的社会功能。二是法律责任。虽然现行法律对机器人无明确规定,但是人工智能发展过程中涉及的其他法律如《产品质量法》、《标准化法》等仍是需要遵循的制度要求。此外,人工智能行业的主体应该更加重视企业的社会责任。所谓企业社会责任,乃指企业在谋求股东利益最大化之外所负有的维护和增进社会利益的义务。企业社会责任是企业对非股东利益相关者的一种积极责任,是融合了法律义务和道德义务、正式制度安排和非正式制度安排的统一体,是对传统的追求股东利益最大化原则的补充和修正。具体内容包括对雇员、消费者、环境资源、社区经济发展、公益事业和社会福利等内容的责任。

3.私权利主体:强化使用者安全教育

现阶段,人工智能产品带来的便捷性已经远远超过人们对其安全性的关注程度,相关的社会宣传也极少提到,但是事物的发展往往都具有两面性。科技进步的同时应加强对公众的安全教育引导,这种教育引导,首先是商家层面的,消费者会受到商家宣传的影响而对其产品的安全性进行评判,商家有义务在消费者接受宣传或者进行体验的过程中对其进行产品安全性的介绍与提醒;其次是消费者本身层面的,消费者需要提高对人工智能产品安全性的警惕,做好产品安全性的差异对比并根据自身的需求情况做好评估;最后是管理层面的,政府机构或者人工智能的行业协会等管理层面应该做好评估并及时向社会公布。同时还要以暗访、抽检的方式对商家服务人员的宣传情况和实际出售人工智能产品的质量及安全性情况进行检查,尽可能规范人工智能产品商家的行为,对社会大众的负责。

(一)法律规制的坚持原则

1.坚持适度原则。要科学预见人工智能可能带来的风险,树立正确的风险观和制度观,要通过法律的有效规制保证人工智能在良好有序的秩序下发展。同时要学会积极运用法律,对人工智能的规范应当适度,不要因噎废食,要在趋利避害的同时营造更好的创新文化。

2.尽可能全面规制。对于机器人需要用从研发阶段就开始实施合理、科学的监管和规制,实现全流程监管。譬如现在对于大数据的运用,任何人工智能要进入到大数据的收集和使用平台,都应该至少要保证“出发点是纯良的”。而等到智能机器人进入制造阶段以及使用阶段,则更应该有配套的法律条文对其行为进行规制。

3.立法前提是了解人工智能的科学规律。人工智能机器人本身就是集科学、工程等一系列先进技术成果为一体的产物,而鉴于大部分普通人类对人工智能机器人的制造方法、应用原理本身还存在着许多问题,更遑论对于人工智能的立法我们还处于准备、探索阶段。因此我们需要不断对人工智能所涉领域可能或者已经发生的问题进行分析,追根溯源以明确人工智能法律主体及相关权利、义务和责任。

(二)法律规制的价值导向

1.安全是人工智能时代的核心法价值。安全价值是对整个社会秩序稳定的维护,民法通过侵权法来保护交易安全和财产安全,刑法通过刑事责任实现社会秩序安全。同样的对于人工智能风险规制的安全规范也是我们在设计相关法律制度时需考量的核心问题,因为一旦将来某一天机器人自我意识崛起,高度自主、独立判断且不受人类直接控制的人工智能机器人甚至可能威胁人类的生存。

2.创新是人工智能法律的价值灵魂。

第三,和谐是人工智能时代的终极价值追求。所谓和谐发展,是一种配合适当、协调有序的理想动态,这是一种涵盖内外延的目标系统,我们一直所追求的就是人的和谐、社会的和谐、自然的和谐,以及人与社会、自然的和平共存与进步。和谐价值在人工智能的发展过程中具有不可忽视的引导性功能。对于人工智能的研发是人类在探寻与社会、自然和平共存与进步中所进行的手段选择,要实现人类社会的和谐稳定离不开人工智能社会的良性健康和有序。

在机器人没有出现之前,法学界的研究与讨论大都围绕着“人”这一主体展开,在人工智能时代,当我们给予人工智能以有限的法律人格,将其类人化时,对于其的法律规制,则应综合考虑人与机器人之间的关系,并以此确立相应的归责要点。

1.豁免事项应作为事前情况首先确立。为确保个人交往中的公平竞争,使之免遭因他人的任意行为所带来的伤害,民法上规定了有条件的豁免,即“法律不强求不可能之事”。而刑法上传统的“法无禁止即自由”是从合法性原则和法治发展的必然结果总结而来的,其目的是为了保障个人免受任意公共行为的侵害,从而明确地根据刑法或法规中的具体规范承担责任。同样的,在对机器人的法律规制中,我们也应该首先明确建立起豁免的责任原则,至于此原则应该基于人来定义还是基于机器人来定义则需要进一步讨论。

2.严格责任应随着技术进步不断调整。严格责任一直是分配法律风险和责任的主要机制之一。就个人应该承担的严格责任已经论理成熟,不管是他们为自己的动物还是自己孩子的行为承担责任时,总可以找到与之对应的法律规范。但是在机器人领域,如何来明确严格责任似乎应该从技术理论的发展出发才更符合常理。无论其如何演变,人工智能皆是人类通过技术手段创造出来的物种,而技术的越成熟,机器人越“类人”,若在当下的技术水平下,出现了不应该出现的犯罪或者说侵权,那么其承担就应该是严格责任。

3.“个人过错”需要在个案中理性分析。大多数时候,责任并不是之前确定的,即当通过豁免和严格责任还是不能明确责任承担时,则需要在个案中理性分析。如侵权法中,当一个人有意去实施法律所禁止的错误行为时,对其应该承担的责任如何界定需要其通过不同的情况进行分析,相对应的,在涉及人工智能机器人的案件中也应该如此。

4.机器人责任也应纳入探讨范围内。前述有关豁免、严格责任以及个人过错的责任原则探讨始终脱离不开人和机器人,但是随着人工智能的发展,当有一天机器人跳出了人类给予的参数范围而拥有了自己的“思维”和“行为方式”时,再来考虑单纯的机器人责任已经为时已晚了,因此在考虑设定机器人规范时,也应该将以后可能出现的纯机器人责任纳入现在的研究范围内。

四、人工智能时代机器人

法律规定的责任是对不法行为产生的后果进行合理分配。现行法律责任的主体被设定为一个“人类行为人”,责任主体范围还不能够广泛到可以容纳机器人在内从而将法律责任分配给“机器人行为人”。因此,潜在的后果是,事故受害者没有办法通过行使求偿权获得损害赔偿或者损失填补。从这点出发,我们有必要在人工智能机器人类型化划分的基础上,探讨相应的民事责任与刑事责任承担。

一类是具备认知学习能力和决策执行能力的多领域综合智能的人工智能机器人,将其界定为“弱人工智能机器人”(即人造机器或人造机器人),如无人驾驶车、无人机、生活服务智能机器人,这类人工智能不再是单一的感知记忆存储类的智能程序,而是可能具有机器人的外观,且兼具认知学习和决策执行能力,典型代表是沙特阿拉伯首个获得公民身份的索菲亚;另一类则是具备独立自主意识并能创新创造的超越人类智能的人工智能机器人界定为“强人工智能机器人”(人造人),未来这类人工智能极有可能具有人形和人性,不排除产生人工智能植入人体的“新人类”,尽管这些现在还仅存在于《机械姬》等科幻片之中。从弱人工智能机器人到强人工智能机器人,其自主性越来越强、人类干预程度越来越弱,其法律地位亦有所变化。

1.适用过错责任制的弱智能机器人侵权行为

考虑到目前机器人发展的阶段性特点,即在相当长的一段时期内,首先应当考虑的是人类的责任,而并非机器的责任,这样也具有可适用性和可操作性。根据国务院2017年发布的《新一代人工智能发展规划》中提出“重点围绕自动驾驶、服务机器人等应用基础较好的细分领域,加快研究制定相关安全管理法规,为新技术的快速应用奠定法律基础”,由于规划中已经在提议对自动驾驶汽车立法,当观察和思考所有人工智能的规范时,这会是一个理想的切入点,故本课题首先将以自动驾驶汽车这一弱人工智能机器人为切入点,来探讨智能机器人侵权的法律规制方法。人是人工智能的总开关,而对于弱人工智能机器人来说,人类对其的影响如此之大以至于在界定弱人工智能机器人造成的人身或者财产损害赔偿时,我们首先应该要厘清人在其中扮演的角色,在此可采用“刺破人工智能的面纱”方法来判断责任归属。具体可分为以下两种情形:

一是基于研发者过错所产生的侵权责任。我国法律规定,因产品存在缺陷造成他人损害的,被侵权人可以向产品的生产者或者销售者请求赔偿,而生产者和销售者实际上构成了不真正连带责任,最后应由过错方承担责任。基于上述理论,当自动驾驶汽车等机器人造成他人人身或财产损害时,被侵权人可以向缺陷产品的制造商或者是对产品进行改造的第三方主张产品缺陷责任。如美国道路交通安全管理局于2013年发布《自动驾驶汽车的基本政策》对自动驾驶汽车测试事故的责任承担的规定,车辆在被第三方改造为自动驾驶车辆后,测试过程中导致财产损失、人员伤亡的,车辆的原始制造商不对自动驾驶车辆的缺陷负责,除非有证据证明车辆在被改造为自动驾驶车辆前已存在缺陷。此时的机器人存在的问题即产品在推出时并未实际解决的现存问题,那么被侵权人仅需证明有制造缺陷(比如说感应器存在的失灵)或者警示缺陷(比如未能合理告知消费者如何操作机器人或者错误的告知驾驶者应尽到的注意义务等),侵权人即可获得赔偿。

但是其中值得注意的是,既然智能机器人也是产品,当生产者能够证明侵权行为的发生是在将智能机器人投入流通时科学技术水平尚不能发现缺陷所导致的,可以免除严格责任。对此,将智能机器人投放市场,生产者一方面要购买保险防止意外,加强测试以保障安全,另一方面,对于产品投入流通时的科学技术水平尚不能发现缺陷存在的,须严格履行跟踪观察义务,一旦发现缺陷,必须及时将进行警示并将存在缺陷的机器人召回,没有及时警示和召回而发生损害,仍然应当承担上述侵权责任。

二是基于操作者过错所产生的侵权责任。除上述机器人可能本身存在的固有瑕疵外,对于机器人侵权还有一种可能即操作者在操作中存在的失误和问题,即当生产者生产的机器人不存在技术问题,销售者也告知了使用机器人需尽到的注意义务,但是仍然发生了侵权的后果,此时应该关注的则是机器人的实际使用人。德国《道路交通法》规定机动车持有人的道路交通事故严格责任独立于车辆的自动系统,驾驶员在车辆行驶过程中必须履行全程保持警惕、手不离开方向盘等强制义务,否则需要承担人工智能造成的损害。谷歌公司曾经使用奔驰汽车进行测试,则安全责任由谷歌公司承担,而非奔驰公司。

2.难以适用过错责任的强人工智能机器人侵权行为

随着人工智能的进一步发展,高度自主、脱离人类控制且独立运作并作出判断的机器人的出现将不再只是科幻电影的假想,如之前的阿尔法狗的胜利就是对这一类机器人出现并使用的最好证明。对于此类机器人侵权,传统的过错侵权责任原则难以适用,因为在实际运作过程中机器人是脱离人类控制的,即不存在主观“过错”一说。以上文所述的自动驾驶汽车为例,当未来自动驾驶的汽车发展到不需要人类使用者参与驾驶,也不需要使用者对行车情况和环境进行监视或紧急情况下进行操作时,此时发生的事故、造成的损害是无法诉诸过错侵权的,即使人类使用者事故时处在驾驶位上也不行,因为不存在主观“过错”。故对于未来强人工智能机器人侵权案件中,机器人的一些新特征可能导致使得事故的责任无法分配给生产者等既有的法律主体,尤其当出现不能合理推断出事故是由于设计、制造或者使用者的缺陷造成时,此时就需要法院解决人工智能系统的可解释性、可预见性以及因果关系等问题,这无疑是对司法提出的挑战。

在任何技术创新领域,法律制度面临三大挑战:第一,减少受害者人身伤害的数量和严重程度;第二,分配受害者伤害的费用;第三,激励创新。强人工智能的发展是大势所趋,探索和构建强人工智能机器人侵权责任是同时应对上述三大挑战的必由之路。为更合理有效地分配机器人造成的损害责任,本课题针对上述无法适用过错侵权责任的强人工智能机器人侵权的责任分担提出几种方案以供参考:其一,借鉴《侵权责任法》上关于危险责任的规定,让机器人的制造商或使用者承担严格责任。但此中严格责任适用的前提应该是完全自主的机器人发生事故、造成损害但是却难以将责任分配到既有的法律主体时,为了保障被侵权人的责任,法律或者法院可以强制执行此制度。此制度除可以基于公正、分配争议、风险分担原则保护被侵权人的权益外,还可以节约诉讼成本,免去证明当事人证明因果关系之累。其二,不断完善机器人的法律地位,甚至尝试赋予其完全的法律地位。历史上看,法律可以赋予公司等法人地位,甚至承认组织也可以享有一定的法律地位,现在我们也承认应该赋予机器人有限制的法律人格,那么在未来时机成熟时赋予其完全的法律地位可未尝不可。比如赋予其“电子人格”,让其享有权利承担义务。其三,设立强制保险制度和赔偿基金。现行的责任法律旨在有效地平衡对人身安全的关注与对创新效益的渴望。正如本课题前半部分所提到,设立一项完善的保险政策或储备基金来承担人工智能导致的责任,就不需要主张传统的责任诉讼,即由制造商或者所有人承担强制性的保险义务,针对机器人进行全部的强制保险,用以覆盖产品责任,另设赔偿基金也可以解决赔偿的分担问题。

1.理论分析:人工智能时代机器人主体行为的刑法规制

(1)行为人利用弱人工智能机器人实施故意犯罪

行为人利用弱人工智能机器人实施故意犯罪,该行为人既可能是智能机器人的使用者,也可能是智能机器人的研发人员。具体犯罪中,由于行为人不是“亲自”实施犯罪,因此容易出现认识错误的情形,具体分为无认识错误和产生认识错误两种情形。无认识错误情况下,无论是智能机器人研发者还是使用者,故意利用机器实施严重危害社会犯罪人行为的,应当将人工智能机器人品看作行为人实施犯罪的“智能工具”,所有刑事责任应当由智能机器人的研发者或使用者承担。此时体现的是行为人的意识,非机器人的自主意识。产生认识错误的情况下,具体分为对象错误、打击错误和因果关系错误的情形。其中,对象错误无论是从具体符合说还是法定符合说,结论都是一致的,即成立故意犯罪既遂。对象错误情形下与传统犯罪没有区别。在因果关系错误中,狭义的因果关系错误、事前故意、结果的提前实现等情形,也与一般传统犯罪并无区别。打击错误情形下,存在两种情况:第一,错误原因出现在行为人身上。例如,行为人利用“智能杀手”去杀人,但是由于程序设定失败或编程不合理等因素,“智能杀手”未能实现行为人的杀人意图,相当于行为人使用一把存在故障的手枪射杀对象,最终没有产生危害结果,此时应当以犯罪未遂进行认定。第二,错误原因出现在智能机器人身上。行为人预想的结果与现实的结果不一致,最终没有实现犯罪意图。例如,例如机器人接收指令杀害甲,但是机器人最终杀害了乙,此时程序并无差错,对于机器人发生误解而产生的后果,行为人构成故意犯罪未遂和过失犯罪的竞合。

(2)强人工智能机器人自主意识实施犯罪

当机器人通过深度学习产生自主意识后,会实施摆脱人类控制的行为,此时机器人的研发者或者使用者可能涉及到过失犯罪,具体应结合当时的机器人智能情况和社会科技的发展水平。对此,我们分别对“过于自信过失”和“疏忽大意过失”两种情况进行讨论。“过于自信过失”情况下,例如研发者已经预见到人工智能机器人的行为轨迹有可能超出人类控制范围,但是因概率非常低或者实现周期时间长等原因,轻信结果发生概率小于阈值范围,最终未采取防火墙等保护措施导致危害结果发生。“疏忽大意过失”情况下,例如研发者在人工智能机器人投放市场前,已经进行过了大规模检测,但是外界出现了新技术的更新,但是研发者并未再次结合新技术进行全面深度的检测,最终“没有预见”危害结果的发生,但是实际上如果全面检测是可以发现人工智能机器人存在缺陷的。

此外,法律不能强人所难,对于罪过形式还需要讨论意外事件和不可抗力。囿于一定地域内社会历史发展阶段与水平的限制,人类所掌握的人工智能技术可能无法彻底消除人工智能的安全风险,还需要等待技术的进一步成熟。在这种情况下,我们就不应当追究研发者和使用者的刑事责任。对于最终导致的危害结果,可以是意外事件也可能是不可抗力。如果行为人已经预见会发生危害结果,但是当时的技术水平无法阻止结果的发生,人工智能机器人自身的发展水平已经完全超出了人类技术的可控范围,就只能将此种情况认定为不可抗力。如果行为人无法预见、没有预见会发生危害结果,以致发生危害结果,应认定为意外事件。

2.可行方案:增设滥用人工智能罪和人工智能事故罪两个罪名

本文认为,现阶段追究智能机器人“背后的人”刑事责任才能从源头上控制人工智能给人类社会带来的风险,增设滥用人工智能罪可从故意犯罪的角度对研发者和使用者加以刑法规制,增设人工智能事故罪可从过失犯罪的角度对研发者和使用者加以刑法规制,两者相辅相成,最终可以实现对人工智能刑法规制的完善。

(1)滥用人工智能罪:滥用人工智能行为的客观表现形式多种多样,包括制造危害社会的人工智能产品,滥用大数据,侵犯他人隐私,等等,可以说涉及人类社会生活的许多方面,未来还将出现其他立法者囿于人工智能技术发展状况而无法全面考虑到的情况。因此,就目前人工智能产品的研发和使用情况而言,直接将“滥用”的行为作为规制的对象并规定相应的兜底条款是较为妥当的做法,未来可以通过司法解释等活动进行更加具体的规定,从而实现刑法规范稳定性与前瞻性的平衡。

(2)人工智能事故罪:由于人工智能可能造成的社会危害性大,并且研发者和使用者在多大数情况下对人工智能产品有一定的把控能力,因此可以考虑在刑法中确立人工智能产品研发者和使用者的严格责任。例如应当包含以下几个方面内容,如在研发人工智能产品的过程中必须将人类社会中的法律及道德等规范和价值嵌入相应的系统之中,如研发者和使用者需要在研发和使用人工智能产品的过程中履行数据保护义务等。基于此,如果人工智能产品的研发者和使用者没有履行上述几种义务,则人工智能产品的研发者和使用者需要承担相应的严格责任。诚然,严格责任确认的前提是前置法律法规应当将这部分义务规定在条文之中,而刑法则可以规定不履行相应法律法规中关于人工智能产品研发和使用过程中的规定,造成严重危害结果的,有关研发者和使用者需要承担刑事责任。这种严格责任与滥用人工智能故意犯罪的刑事责任相比应当是较为轻微的,可以通过增设人工智能事故罪对人工智能产品的研发者和使用者的严格责任加以确定。

结语

经过三十多年的发展,在超强运算能力、大数据和持续改进的算法的影响下,人工智能对法律以及法律行业的影响下正在加深、加快,未来十年至二十年间法律行业将可能迎来一场巨变。法律制度存在一定的滞后性,但关于法律问题的思考应该是前瞻的,相关“人工智能+法律”的研究应未雨绸缪,本课题对人工智能机器人的研究重点以及创新点包括人工智能机器人的法律地位、人工智能生成内容的权利归属、人工智能机器人损害后果的责任分担、人工智能风险的法律控制等,其实际应用价值在于在涉人工智能机器人相关案件数量增多甚至爆发之前,司法系统已具备一定的相关法律问题的研究基础和研究成果,在审判实践中亦可以做到游刃有余而不至于处于被动之地。

执行编辑/吴涛

⏩转载请标明本公号和二维码⏪

返回搜狐,查看更多

版权声明:本文内容由互联网用户自发贡献,该文观点仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌抄袭侵权/违法违规的内容,一经查实,本站将立刻删除。

上一篇

下一篇