博舍

机器意识:人工智能的终极挑战 (豆瓣) 人工智能的意识

机器意识:人工智能的终极挑战 (豆瓣)

2有用非虛構2023-05-1210:56:32北京

我們已不再堅持人與機器的差別,因為目前已經無法排除,機器也可能有意識這件事。機器甚至比工人有更高的智能;客體甚至挫敗了主體的文化。人較高的啓蒙能力通過神經科學不僅總是被解釋為機器般的能力,現在「AI」甚至還可以解讀「精神」。人的自身也通過這種「啓蒙」更加機器化了,也就是作為科學的客體越來越可計劃、可計算和可控制了。這個問題究竟意味著什麼?認知科學家給出了幾乎完全等同於後現代哲學家的回答:是人自己認...我們已不再堅持人與機器的差別,因為目前已經無法排除,機器也可能有意識這件事。機器甚至比工人有更高的智能;客體甚至挫敗了主體的文化。人較高的啓蒙能力通過神經科學不僅總是被解釋為機器般的能力,現在「AI」甚至還可以解讀「精神」。人的自身也通過這種「啓蒙」更加機器化了,也就是作為科學的客體越來越可計劃、可計算和可控制了。這個問題究竟意味著什麼?認知科學家給出了幾乎完全等同於後現代哲學家的回答:是人自己認識到現在的處境實際上是一種機器般的生物,還是將人最初的一切關於進步、有用、理想和意圖都伴隨著機器的轉動而讓它們消失?「什麼是啓蒙」?康德對這個問題的回答是:人「現在比機器更高級些」。但是康德的這個回答已經不能再影響那些想創建一種「人與機器新關係」的認知學家們了,康德的回答對他們來說太人類學化了。(展开)

人工智能

人工智能用手机看条目扫一扫,手机看条目出自MBA智库百科(https://wiki.mbalib.com/)

人工智能(ArtificialIntelligence,AI)

目录1什么是人工智能2人工智能的研究内容3人工智能的历史4人工智能的应用领域5强人工智能和弱人工智能5.1强人工智能(AGI)5.2弱人工智能(ANI)5.3超级人工智能(ASI)5.4对强人工智能的哲学争论6人工智能的发展现状及前景6.1对于人工智能的发展现状,社会上存在一些“炒作”6.2趋势与展望6.3态势与思考7人工智能的三大短板8应对人工智能威胁的3R法则[编辑]什么是人工智能

人工智能(ArtificialIntelligence),英文缩写为AI。它是研究、开发用于模拟、延伸和扩展人的智能的理论、方法、技术及应用系统的一门新的技术科学。

人工智能是计算机科学的一个分支,它企图了解智能的实质,并生产出一种新的能以人类智能相似的方式做出反应的智能机器,该领域的研究包括机器人、语言识别、图像识别、自然语言处理和专家系统等。人工智能从诞生以来,理论和技术日益成熟,应用领域也不断扩大,可以设想,未来人工智能带来的科技产品,将会是人类智慧的“容器”。人工智能可以对人的意识、思维的信息过程的模拟。人工智能不是人的智能,但能像人那样思考、也可能超过人的智能。

人工智能是一门极富挑战性的科学,从事这项工作的人必须懂得计算机知识,心理学和哲学。人工智能是包括十分广泛的科学,它由不同的领域组成,如机器学习,计算机视觉等等,总的说来,人工智能研究的一个主要目标是使机器能够胜任一些通常需要人类智能才能完成的复杂工作。但不同的时代、不同的人对这种“复杂工作”的理解是不同的。

2017年12月,人工智能入选“2017年度中国媒体十大流行语”。

[编辑]人工智能的研究内容

人工智能的研究是高度技术性和专业的,各分支领域都是深入且各不相通的,因而涉及范围极广。人工智能学科研究的主要内容包括:知识表示、自动推理和搜索方法、机器学习和知识获取、知识处理系统、自然语言理解、计算机视觉、智能机器人、自动程序设计等方面。

1)知识表示是人工智能的基本问题之一,推理和搜索都与表示方法密切相关。常用的知识表示方法有:逻辑表示法、产生式表示法、语义网络表示法和框架表示法等。

2)常识,自然为人们所关注,已提出多种方法,如非单调推理、定性推理就是从不同角度来表达常识和处理常识的。

3)问题求解中的自动推理是知识的使用过程,由于有多种知识表示方法,相应地有多种推理方法。推理过程一般可分为演绎推理和非演绎推理。谓词逻辑是演绎推理的基础。结构化表示下的继承性能推理是非演绎性的。由于知识处理的需要,近几年来提出了多种非演泽的推理方法,如连接机制推理、类比推理、基于示例的推理、反绎推理和受限推理等。

4)搜索是人工智能的一种问题求解方法,搜索策略决定着问题求解的一个推理步骤中知识被使用的优先关系。可分为无信息导引的盲目搜索和利用经验知识导引的启发式搜索。启发式知识常由启发式函数来表示,启发式知识利用得越充分,求解问题的搜索空间就越小。典型的启发式搜索方法有A*、AO*算法等。近几年搜索方法研究开始注意那些具有百万节点的超大规模的搜索问题。

5)机器学习是人工智能的另一重要课题。机器学习是指在一定的知识表示意义下获取新知识的过程,按照学习机制的不同,主要有归纳学习、分析学习、连接机制学习和遗传学习等。

6)知识处理系统主要由知识库和推理机组成。知识库存储系统所需要的知识,当知识量较大而又有多种表示方法时,知识的合理组织与管理是重要的。推理机在问题求解时,规定使用知识的基本方法和策略,推理过程中为记录结果或通信需设数据库或采用黑板机制。如果在知识库中存储的是某一领域(如医疗诊断)的专家知识,则这样的知识系统称为专家系统。为适应复杂问题的求解需要,单一的专家系统向多主体的分布式人工智能系统发展,这时知识共享、主体间的协作、矛盾的出现和处理将是研究的关键问题。

人工智能的研究可以分为几个技术问题。其分支领域主要集中在解决具体问题,其中之一是,如何使用各种不同的工具完成特定的应用程序。AI的核心问题包括推理、知识、规划、学习、交流、感知、移动和操作物体的能力等。强人工智能目前仍然是该领域的长远目标。目前比较流行的方法包括统计方法,计算智能和传统意义的AI。目前有大量的工具应用了人工智能,其中包括搜索和数学优化、逻辑推演。而基于仿生学、认知心理学,以及基于概率论和经济学的算法等等也在逐步探索当中。

[编辑]人工智能的历史

“人工智能”一词最初是在1956年达特茅斯(Dartmouth)学会上提出的。从那以后,研究者们发展了众多理论和原理,人工智能的概念也随之扩展。人工智能是一门极富挑战性的科学,从事这项工作的人必须懂得计算机知识,心理学和哲学。人工智能是包括十分广泛的科学,它由不同的领域组成,如机器学习,计算机视觉等等,总的说来,人工智能研究的一个主要目标是使机器能够胜任一些通常需要人类智能才能完成的复杂工作。但不同的时代、不同的人对这种“复杂工作”的理解是不同的。例如繁重的科学和工程计算本来是要人脑来承担的,现在计算机不但能完成这种计算,而且能够比人脑做得更快、更准确,因之当代人已不再把这种计算看作是“需要人类智能才能完成的复杂任务”,可见复杂工作的定义是随着时代的发展和技术的进步而变化的,人工智能这门科学的具体目标也自然随着时代的变化而发展。它一方面不断获得新的进展,一方面又转向更有意义、更加困难的目标。目前能够用来研究人工智能的主要物质手段以及能够实现人工智能技术的机器就是计算机,人工智能的发展历史是和计算机科学与技术的发展史联系在一起的。除了计算机科学以外,人工智能还涉及信息论、控制论、自动化、仿生学、生物学、心理学、数理逻辑、语言学、医学和哲学等多门学科。

在定义智慧时,英国科学家图灵做出了贡献,如果一台机器能够通过称之为图灵实验的实验,那它就是智慧的,图灵实验的本质就是让人在不看外型的情况下不能区别是机器的行为还是人的行为时,这个机器就是智慧的。不要以为图灵只做出这一点贡献就会名垂表史,如果你是学计算机的就会知道,对于计算机人士而言,获得图灵奖就等于物理学家获得诺贝尔奖一样,图灵在理论上奠定了计算机产生的基础,没有他的杰出贡献世界上根本不可能有这个东西,更不用说什么网络了。

科学家早在计算机出现之前就已经希望能够制造出可能模拟人类思维的机器了,在这方面我希望提到另外一个杰出的数学家、哲学家布尔,通过对人类思维进行数学化精确地刻画,他和其它杰出的科学家一起奠定了智慧机器的思维结构与方法,今天我们的计算机内使用的逻辑基础正是他所创立的。

我想任何学过计算机的人对布尔一定不会陌生,我们所学的布尔代数,就是由它开创的。当计算机出现后,人类开始真正有了一个可以模拟人类思维的工具了,在以后的岁月中,无数科学家为这个目标努力着,现在人工智能已经不再是几个科学家的专利了,全世界几乎所有大学的计算机系都有人在研究这门学科,学习计算机的大学生也必须学习这样一门课程,在大家不懈的努力下,现在计算机似乎已经变得十分聪明了,刚刚结束的国际象棋大赛中,计算机把人给胜了,这是人们都知道的,大家或许不会注意到,在一些地方计算机帮助人进行其它原来只属于人类的工作,计算机以它的高速和准确为人类发挥着它的作用。人工智能始终是计算机科学的前沿学科,计算机编程语言和其它计算机软件都因为有了人工智能的进展而得以存在。

现在人类已经把计算机的计算能力提高到了前所未有的地步,而人工智能也在下世纪领导计算机发展的潮头,现在人工智能的发展因为受到理论上的限制不是很明显,但它必将象今天的网络一样深远地影响我们的生活。

让我们顺着人工智能的发展来回顾一下计算机的发展,在1941年由美国和德国两国共同研制的第一台计算机诞生了,从此以后人类存储和处理信息的方法开始发生革命性的变化。第一台计算机的体型可不算太好,它比较胖,还比较娇气,需要工作在有空调的房间里,如果希望它处理什么事情,需要大家把线路重新接一次,这可不是一件省力气的活儿,把成千上万的线重新焊一下我想现在的程序员已经是生活在天堂中了。

终于在1949发明了可以存储程序的计算机,这样,编程程序总算可以不用焊了,好多了。因为编程变得十分简单,计算机理论的发展终于导致了人工智能理论的产生。人们总算可以找到一个存储信息和自动处理信息的方法了。

虽然现在看来这种新机器已经可以实现部分人类的智力,但是直到50年代人们才把人类智力和这种新机器联系起来。美籍俄裔数学家、控制论的创始人诺伯特·维纳(NorbertWiener)在反馈理论上的研究最终让他提出了一个论断,所有人类智力的结果都是一种反馈的结果,通过不断地将结果反馈给机体而产生的动作,进而产生了智能。我们家的抽水马桶就是一个十分好的例子,水之所以不会常流不断,正是因为有一个装置在检测水位的变化,如果水太多了,就把水管给关了,这就实现了反馈,是一种负反馈。如果连我们厕所里的装置都可以实现反馈了,那我们应该可以用一种机器实现反馈,进而实现人类智力的机器形式重现。这种想法对于人工智能早期的有着重大的影响。

在1955的时候,美国计算机科学家艾伦·纽威尔(AllenNewell)和赫伯特·西蒙(HerbertA.Simon)TheLogicTheorist程序,它是一种采用树形结构的程序,在程序运行时,它在树中搜索,寻找与可能答案最接近的树的分枝进行探索,以得到正确的答案。这个程序在人工智能的历史上可以说是有重要地位的,它在学术上和社会上带来的巨大的影响,以至于我们现在所采用的方法思想方法有许多还是来自于这个50年代的程序。

1956年,“人工智能之父”和LISP语言的发明人(ZT)约翰·麦卡锡(JohnMcCarthy)召集了一次会议来讨论人工智能未来的发展方向。从那时起,人工智能的名字才正式确立,这次会议在人工智能历史上不是巨大的成功,但是这次会议给人工智能奠基人相互交流的机会,并为未来人工智能的发展起了铺垫的作用。在此以后,工人智能的重点开始变为建立实用的能够自行解决问题的系统,并要求系统有自学习能力。在1957年,艾伦·纽威尔和赫伯特·西蒙又开发了一个程序称为GeneralProblemSolver(GPS),它对维纳的反馈理论有一个扩展,并能够解决一些比较普遍的问题。别的科学家在努力开发系统时,麦卡锡创建了表处理语言LISP,直到现在许多人工智能程序还在使用这种语言,它几乎成了人工智能的代名词,到了今天,LISP仍然在发展。

在1963年,麻省理工学院受到了美国政府和国防部的支持进行人工智能的研究,美国政府不是为了别的,而是为了在冷战中保持与苏联的均衡,虽然这个目的是带点火药味的,但是它的结果却使人工智能得到了巨大的发展。其后发展出的许多程序十分引人注目,SHRDLU是维诺格拉德(T.Winograd)于1972年在美国麻省理工学院建立了一个用自然语言指挥机器人动作的系统。在这个大发展的60年代,STUDENT系统可以解决代数问题,而SIR(SelectiveIntegratedRail)系统则开始理解简单的英文句子了,SIR的出现导致了新学科的出现:自然语言处理。在70年代出现的专家系统成了一个巨大的进步,他头一次让人知道计算机可以代替人类专家进行一些工作了,由于计算机硬件性能的提高,人工智能得以进行一系列重要的活动,如统计分析数据,参与医疗诊断等等,它作为生活的重要方面开始改变人类生活了。在理论方面,70年代也是大发展的一个时期,计算机开始有了简单的思维和视觉,而不能不提的是在70年代,另一个人工智能语言Prolog语言诞生了,它和LISP一起几乎成了人工智能工作者不可缺少的工具。不要以为人工智能离我们很远,它已经在进入我们的生活,模糊控制,决策支持等等方面都有人工智能的影子。让计算机这个机器代替人类进行简单的智力活动,把人类解放用于其它更有益的工作,这是人工智能的目的,但我想对科学真理的无尽追求才是最终的动力吧。

[编辑]人工智能的应用领域

1、问题求解

人工智能的第一大成就是下棋程序,在下棋程度中应用的某些技术,如向前看几步,把困难的问题分解成一些较容易的子问题,发展成为搜索和问题归纳这样的人工智能基本技术。今天的计算机程序已能够达到下各种方盘棋和国际象棋的锦标赛水平。但是,尚未解决包括人类棋手具有的但尚不能明确表达的能力。如国际象棋大师们洞察棋局的能力。另一个问题是涉及问题的原概念,在人工智能中叫问题表示的选择,人们常能找到某种思考问题的方法,从而使求解变易而解决该问题。到目前为止,人工智能程序已能知道如何考虑它们要解决的问题,即搜索解答空间,寻找较优解答。

2、逻辑推理与定理证明

逻辑推理是人工智能研究中最持久的领域之一,其中特别重要的是要找到一些方法,只把注意力集中在一个大型的数据库中的有关事实上,留意可信的证明,并在出现新信息时适时修正这些证明。对数学中臆测的题。定理寻找一个证明或反证,不仅需要有根据假设进行演绎的能力,而且许多非形式的工作,包括医疗诊断和信息检索都可以和定理证明问题一样加以形式化,因此,在人工智能方法的研究中定理证明是一个极其重要的论题。

3、自然语言处理

自然语言的处理是人工智能技术应用于实际领域的典型范例,经过多年艰苦努力,这一领域已获得了大量令人注目的成果。目前该领域的主要课题是:计算机系统如何以主题和对话情境为基础,注重大量的常识——世界知识和期望作用,生成和理解自然语言。这是一个极其复杂的编码和解码问题。

4、智能信息检索技术

信息获取和精化技术已成为当代计算机科学与技术研究中迫切需要研究的课题,将人工智能技术应用于这一领域的研究是人工智能走向广泛实际应用的契机与突破口。

5、专家系统

专家系统是目前人工智能中最活跃、最有成效的一个研究领域,它是一种具有特定领域内大量知识与经验的程序系统。近年来,在“专家系统”或“知识工程”的研究中已出现了成功和有效应用人工智能技术的趋势。人类专家由于具有丰富的知识,所以才能达到优异的解决问题的能力。那么计算机程序如果能体现和应用这些知识,也应该能解决人类专家所解决的问题,而且能帮助人类专家发现推理过程中出现的差错,现在这一点已被证实。如在矿物勘测、化学分析、规划和医学诊断方面,专家系统已经达到了人类专家的水平。成功的例子如:PROSPECTOR系统(用于地质学的专家系统)发现了一个钼矿沉积,价值超过1亿美元。DENDRL系统的性能已超过一般专家的水平,可供数百人在化学结构分析方面的使用。MYCIN系统可以对血液传染病的诊断治疗方案提供咨询意见。经正式鉴定结果,对患有细菌血液病、脑膜炎方面的诊断和提供治疗方案已超过了这方面的专家。

[编辑]强人工智能和弱人工智能

人工智能的一个比较流行的定义,也是该领域较早的定义,是由当时麻省理工学院的约翰·麦卡锡在1956年的达特矛斯会议上提出的:人工智能就是要让机器的行为看起来就像是人所表现出的智能行为一样。但是这个定义似乎忽略了强人工智能的可能性(见下)。另一个定义指人工智能是人造机器所表现出来的智能。总体来讲,目前对人工智能的定义大多可划分为四类,即机器“像人一样思考”、“像人一样行动”、“理性地思考”和“理性地行动”。这里“行动”应广义地理解为采取行动,或制定行动的决策,而不是肢体动作。

[编辑]强人工智能(AGI)

强人工智能观点认为有可能制造出真正能推理(Reasoning)和解决问题(解决问题)的智能机器,并且,这样的机器能将被认为是有知觉的,有自我意识的。强人工智能可以有两类:

类人的人工智能,即机器的思考和推理就像人的思维一样。非类人的人工智能,即机器产生了和人完全不一样的知觉和意识,使用和人完全不一样的推理方式。[编辑]弱人工智能(ANI)

弱人工智能又称“狭义人工智能”,认为不可能制造出能真正地推理和解决问题的智能机器,这些机器只不过看起来像是智能的,但是并不真正拥有智能,也不会有自主意识。

强人工智能的研究目前处于停滞不前的状态下。人工智能研究者不一定同意弱人工智能,也不一定在乎或者了解强人工智能和弱人工智能的内容与差别。就现下的人工智能研究领域来看,研究者已大量造出看起来像是智能的机器,获取相当丰硕的理论上和实质上的成果,如2009年康乃尔大学教授HodLipson和其博士研究生MichaelSchmidt研发出的Eureqa计算机程序,只要给予一些数据,这计算机程序自己只用几十个小时计算就推论出牛顿花费多年研究才发现的牛顿力学公式,等于只用几十个小时就自己重新发现牛顿力学公式,这计算机程序也能用来研究很多其他领域的科学问题上。

[编辑]超级人工智能(ASI)

超级人工智能(ASI)是一种超越人类智能的人工智能,可以比人类更好地执行任何任务。ASI系统不仅能理解人类的情感和经历,还能唤起他们自己的情感、信念和欲望,类似于人类。尽管ASI的存在仍是假设性的,但此类系统的决策和解决问题的能力预计将远超人类。通常,ASI系统可以独立思考、解决难题、做出判断和做出决定。

[编辑]对强人工智能的哲学争论

“强人工智能”一词最初是约翰·罗杰斯·希尔勒针对计算机和其它信息处理机器创造的,其定义为:

“强人工智能观点认为计算机不仅是用来研究人的思维的一种工具;相反,只要运行适当的程序,计算机本身就是有思维的。”(JSearleinMindsBrainsandPrograms.TheBehavioralandBrainSciences,vol.3,1980)

关于强人工智能的争论,不同于更广义的一元论和二元论的争论。其争论要点是:如果一台机器的唯一工作原理就是转换编码数据,那么这台机器是不是有思维的?希尔勒认为这是不可能的。他举了个中文房间的例子来说明,如果机器仅仅是转换数据,而数据本身是对某些事情的一种编码表现,那么在不理解这一编码和这实际事情之间的对应关系的前提下,机器不可能对其处理的数据有任何理解。基于这一论点,希尔勒认为即使有机器通过了图灵测试,也不一定说明机器就真的像人一样有思维和意识。

也有哲学家持不同的观点。丹尼尔·丹尼特在其著作《意识的解释》(ConsciousnessExplained)里认为,人也不过是一台有灵魂的机器而已,为什么我们认为:“人可以有智能,而普通机器就不能”呢?他认为像上述的数据转换机器是有可能有思维和意识的。有的哲学家认为如果弱人工智能是可实现的,那么强人工智能也是可实现的。比如西蒙·布莱克本(SimonBlackburn)在其哲学入门教材Think里说道,一个人的看起来是“智能”的行动并不能真正说明这个人就真的是智能的。我永远不可能知道另一个人是否真的像我一样是智能的,还是说她/他仅仅是看起来是智能的。基于这个论点,既然弱人工智能认为可以令机器看起来像是智能的,那就不能完全否定这机器是真的有智能的。布莱克本认为这是一个主观认定的问题。

需要指出的是,弱人工智能并非和强人工智能完全对立,也就是说,即使强人工智能是可能的,弱人工智能仍然是有意义的。至少,今日的计算机能做的事,像算术运算等,在一百多年前是被认为很需要智能的。并且,即使强人工智能被证明为可能的,也不代表强人工智能必定能被研制出来。

[编辑]人工智能的发展现状及前景[编辑]对于人工智能的发展现状,社会上存在一些“炒作”

比如说,认为人工智能系统的智能水平即将全面超越人类水平、30年内机器人将统治世界、人类将成为人工智能的奴隶,等等。这些有意无意的“炒作”和错误认识会给人工智能的发展带来不利影响。因此,制定人工智能发展的战略、方针和政策,首先要准确把握人工智能技术和产业发展的现状。

专用人工智能取得重要突破。从可应用性看,人工智能大体可分为专用人工智能和通用人工智能。面向特定任务(比如下围棋)的专用人工智能系统由于任务单一、需求明确、应用边界清晰、领域知识丰富、建模相对简单,形成了人工智能领域的单点突破,在局部智能水平的单项测试中可以超越人类智能。人工智能的近期进展主要集中在专用智能领域。例如,阿尔法狗(AlphaGo)在围棋比赛中战胜人类冠军,人工智能程序在大规模图像识别和人脸识别中达到了超越人类的水平,人工智能系统诊断皮肤癌达到专业医生水平。

通用人工智能尚处于起步阶段。人的大脑是一个通用的智能系统,能举一反三、融会贯通,可处理视觉、听觉、判断、推理、学习、思考、规划、设计等各类问题,可谓“一脑万用”。真正意义上完备的人工智能系统应该是一个通用的智能系统。目前,虽然专用人工智能领域已取得突破性进展,但是通用人工智能领域的研究与应用仍然任重而道远,人工智能总体发展水平仍处于起步阶段。当前的人工智能系统在信息感知、机器学习等“浅层智能”方面进步显著,但是在概念抽象和推理决策等“深层智能”方面的能力还很薄弱。总体上看,目前的人工智能系统可谓有智能没智慧、有智商没情商、会计算不会“算计”、有专才而无通才。因此,人工智能依旧存在明显的局限性,依然还有很多“不能”,与人类智慧还相差甚远。

人工智能创新创业如火如荼。全球产业界充分认识到人工智能技术引领新一轮产业变革的重大意义,纷纷调整发展战略。比如,谷歌在其2017年年度开发者大会上明确提出发展战略从“移动优先”转向“人工智能优先”,微软2017财年年报首次将人工智能作为公司发展愿景。人工智能领域处于创新创业的前沿。麦肯锡公司报告指出,2016年全球人工智能研发投入超300亿美元并处于高速增长阶段;全球知名风投调研机构CBInsights报告显示,2017年全球新成立人工智能创业公司1100家,人工智能领域共获得投资152亿美元,同比增长141%。

创新生态布局成为人工智能产业发展的战略高地。信息技术和产业的发展史,就是新老信息产业巨头抢滩布局信息产业创新生态的更替史。例如,传统信息产业代表企业有微软、英特尔、IBM、甲骨文等,互联网和移动互联网时代信息产业代表企业有谷歌、苹果、脸书、亚马逊、阿里巴巴、腾讯、百度等。人工智能创新生态包括纵向的数据平台、开源算法、计算芯片、基础软件、图形处理器等技术生态系统和横向的智能制造、智能医疗、智能安防、智能零售、智能家居等商业和应用生态系统。目前智能科技时代的信息产业格局还没有形成垄断,因此全球科技产业巨头都在积极推动人工智能技术生态的研发布局,全力抢占人工智能相关产业的制高点。

人工智能的社会影响日益凸显。一方面,人工智能作为新一轮科技革命和产业变革的核心力量,正在推动传统产业升级换代,驱动“无人经济”快速发展,在智能交通、智能家居、智能医疗等民生领域产生积极正面影响。另一方面,个人信息和隐私保护、人工智能创作内容的知识产权、人工智能系统可能存在的歧视和偏见、无人驾驶系统的交通法规、脑机接口和人机共生的科技伦理等问题已经显现出来,需要抓紧提供解决方案。

[编辑]趋势与展望

经过60多年的发展,人工智能在算法、算力(计算能力)和算料(数据)等“三算”方面取得了重要突破,正处于从“不能用”到“可以用”的技术拐点,但是距离“很好用”还有诸多瓶颈。那么在可以预见的未来,人工智能发展将会出现怎样的趋势与特征呢?

从专用智能向通用智能发展。如何实现从专用人工智能向通用人工智能的跨越式发展,既是下一代人工智能发展的必然趋势,也是研究与应用领域的重大挑战。2016年10月,美国国家科学技术委员会发布《国家人工智能研究与发展战略计划》,提出在美国的人工智能中长期发展策略中要着重研究通用人工智能。阿尔法狗系统开发团队创始人戴密斯·哈萨比斯提出朝着“创造解决世界上一切问题的通用人工智能”这一目标前进。微软在2017年成立了通用人工智能实验室,众多感知、学习、推理、自然语言理解等方面的科学家参与其中。

从人工智能向人机混合智能发展。借鉴脑科学和认知科学的研究成果是人工智能的一个重要研究方向。人机混合智能旨在将人的作用或认知模型引入到人工智能系统中,提升人工智能系统的性能,使人工智能成为人类智能的自然延伸和拓展,通过人机协同更加高效地解决复杂问题。在我国新一代人工智能规划和美国脑计划中,人机混合智能都是重要的研发方向。

从“人工+智能”向自主智能系统发展。当前人工智能领域的大量研究集中在深度学习,但是深度学习的局限是需要大量人工干预,比如人工设计深度神经网络模型、人工设定应用场景、人工采集和标注大量训练数据、用户需要人工适配智能系统等,非常费时费力。因此,科研人员开始关注减少人工干预的自主智能方法,提高机器智能对环境的自主学习能力。例如阿尔法狗系统的后续版本阿尔法元从零开始,通过自我对弈强化学习实现围棋、国际象棋、日本将棋的“通用棋类人工智能”。在人工智能系统的自动化设计方面,2017年谷歌提出的自动化学习系统(AutoML)试图通过自动创建机器学习系统降低人员成本。

人工智能将加速与其他学科领域交叉渗透。人工智能本身是一门综合性的前沿学科和高度交叉的复合型学科,研究范畴广泛而又异常复杂,其发展需要与计算机科学、数学、认知科学、神经科学和社会科学等学科深度融合。随着超分辨率光学成像、光遗传学调控、透明脑、体细胞克隆等技术的突破,脑与认知科学的发展开启了新时代,能够大规模、更精细解析智力的神经环路基础和机制,人工智能将进入生物启发的智能阶段,依赖于生物学、脑科学、生命科学和心理学等学科的发现,将机理变为可计算的模型,同时人工智能也会促进脑科学、认知科学、生命科学甚至化学、物理、天文学等传统科学的发展。

人工智能产业将蓬勃发展。随着人工智能技术的进一步成熟以及政府和产业界投入的日益增长,人工智能应用的云端化将不断加速,全球人工智能产业规模在未来10年将进入高速增长期。例如,2016年9月,咨询公司埃森哲发布报告指出,人工智能技术的应用将为经济发展注入新动力,可在现有基础上将劳动生产率提高40%;到2035年,美、日、英、德、法等12个发达国家的年均经济增长率可以翻一番。2018年麦肯锡公司的研究报告预测,到2030年,约70%的公司将采用至少一种形式的人工智能,人工智能新增经济规模将达到13万亿美元。

人工智能将推动人类进入普惠型智能社会。“人工智能+X”的创新模式将随着技术和产业的发展日趋成熟,对生产力和产业结构产生革命性影响,并推动人类进入普惠型智能社会。2017年国际数据公司IDC在《信息流引领人工智能新时代》白皮书中指出,未来5年人工智能将提升各行业运转效率。我国经济社会转型升级对人工智能有重大需求,在消费场景和行业应用的需求牵引下,需要打破人工智能的感知瓶颈、交互瓶颈和决策瓶颈,促进人工智能技术与社会各行各业的融合提升,建设若干标杆性的应用场景创新,实现低成本、高效益、广范围的普惠型智能社会。

人工智能领域的国际竞争将日益激烈。当前,人工智能领域的国际竞赛已经拉开帷幕,并且将日趋白热化。2018年4月,欧盟委员会计划2018—2020年在人工智能领域投资240亿美元;法国总统在2018年5月宣布《法国人工智能战略》,目的是迎接人工智能发展的新时代,使法国成为人工智能强国;2018年6月,日本《未来投资战略2018》重点推动物联网建设和人工智能的应用。世界军事强国也已逐步形成以加速发展智能化武器装备为核心的竞争态势,例如美国特朗普政府发布的首份《国防战略》报告即谋求通过人工智能等技术创新保持军事优势,确保美国打赢未来战争;俄罗斯2017年提出军工拥抱“智能化”,让导弹和无人机这样的“传统”兵器威力倍增。

人工智能的社会学将提上议程。为了确保人工智能的健康可持续发展,使其发展成果造福于民,需要从社会学的角度系统全面地研究人工智能对人类社会的影响,制定完善人工智能法律法规,规避可能的风险。2017年9月,联合国犯罪和司法研究所(UNICRI)决定在海牙成立第一个联合国人工智能和机器人中心,规范人工智能的发展。美国白宫多次组织人工智能领域法律法规问题的研讨会、咨询会。特斯拉等产业巨头牵头成立OpenAI等机构,旨在“以有利于整个人类的方式促进和发展友好的人工智能”。

[编辑]态势与思考

当前,我国人工智能发展的总体态势良好。但是我们也要清醒看到,我国人工智能发展存在过热和泡沫化风险,特别在基础研究、技术体系、应用生态、创新人才、法律规范等方面仍然存在不少值得重视的问题。总体而言,我国人工智能发展现状可以用“高度重视,态势喜人,差距不小,前景看好”来概括。

高度重视。党中央、国务院高度重视并大力支持发展人工智能。2017年7月,国务院发布《新一代人工智能发展规划》,将新一代人工智能放在国家战略层面进行部署,描绘了面向2030年的我国人工智能发展路线图,旨在构筑人工智能先发优势,把握新一轮科技革命战略主动。国家发改委、工信部、科技部、教育部等国家部委和北京、上海、广东、江苏、浙江等地方政府都推出了发展人工智能的鼓励政策。

态势喜人。据清华大学发布的《中国人工智能发展报告2018》统计,我国已成为全球人工智能投融资规模最大的国家,我国人工智能企业在人脸识别、语音识别、安防监控、智能音箱、智能家居等人工智能应用领域处于国际前列。根据2017年爱思唯尔文献数据库统计结果,我国在人工智能领域发表的论文数量已居世界第一。近两年,中国科学院大学、清华大学、北京大学等高校纷纷成立人工智能学院,2015年开始的中国人工智能大会已连续成功召开四届并且规模不断扩大。总体来说,我国人工智能领域的创新创业、教育科研活动非常活跃。

差距不小。目前我国在人工智能前沿理论创新方面总体上尚处于“跟跑”地位,大部分创新偏重于技术应用,在基础研究、原创成果、顶尖人才、技术生态、基础平台、标准规范等方面距离世界领先水平还存在明显差距。在全球人工智能人才700强中,中国虽然入选人数名列第二,但远远低于约占总量一半的美国。2018年市场研究顾问公司CompassIntelligence对全球100多家人工智能计算芯片企业进行了排名,我国没有一家企业进入前十。另外,我国人工智能开源社区和技术生态布局相对滞后,技术平台建设力度有待加强,国际影响力有待提高。我国参与制定人工智能国际标准的积极性和力度不够,国内标准制定和实施也较为滞后。我国对人工智能可能产生的社会影响还缺少深度分析,制定完善人工智能相关法律法规的进程需要加快。

前景看好。我国发展人工智能具有市场规模、应用场景、数据资源、人力资源、智能手机普及、资金投入、国家政策支持等多方面的综合优势,人工智能发展前景看好。全球顶尖管理咨询公司埃森哲于2017年发布的《人工智能:助力中国经济增长》报告显示,到2035年人工智能有望推动中国劳动生产率提高27%。我国发布的《新一代人工智能发展规划》提出,到2030年人工智能核心产业规模超过1万亿元,带动相关产业规模超过10万亿元。在我国未来的发展征程中,“智能红利”将有望弥补人口红利的不足。

[编辑]人工智能的三大短板

创新工场创始人李开复表示,AI存在明显不足的三大短板,即便到了2042年,AI可能仍然无法完全掌握这些能力,包括了:

第一、创造力。AI不具备进行创造、构思以及战略性规划的能力。它无法选择自己的目标,无法跨领域构思,无法进行创造性的思考,也难以具备那些对人类而言不言自明的常识。

第二、同理心。AI没有“同情”“关爱”之类的“感同身受”的感觉,无法在情感方面实现与人类的真正互动,无法给他人带去关怀。

第三、灵巧性。AI和机器人技术无法完成一些精确而复杂的体力工作,如灵巧的手眼协作。此外,AI还难以很好地应对未知的或非结构化的空间。

[编辑]应对人工智能威胁的3R法则

2023年2月,创新工场创始人李开复在微博发文“论战ChatGPT”,首先是列举了20项AI容易取代的工作,其次分析了AI存在明显不足的三大短板,最后针对后ChatGPT时代还给出了三大生存攻略,分别是:Relearn二次学习;Recalibrate二次定义;Renaissance二次复兴。

李开复称:“在《AI未来进行式》一书中,我通过故事和讲解给出了三大生存攻略,在英文简称三个R:Relearn二次学习,Recalibrate二次定义,Renaissance二次复兴。”

1.Relearn二次学习

现在就发出警告,唤醒踩在失业悬崖边缘的人们,鼓励主动出击,重新学习。

令人欣慰的是,有不少人类的工作是AI难以胜任的,特别是那些需要创造力、复杂工艺、社交技巧以及依赖人工操作AI工具的工作。我们倡导人们积极投入二次学习,掌握从事此类工作的(新)技能,为适应AI新经济下的新型工作场景做好准备。

职业培训机构需要尽快重设课程,增加AI时代可持续就业的培训科目:政府可以为这些培训提供奖励和补贴;企业可以参考类似于亚马逊职业选择计划的方案,设立专项经费,资助员工参加职业再造培训项目,帮助员工报考飞机维修技师、电脑辅助设计师、医疗护理师等职业资格许可证。

值得关注的是,随着财富的增长和寿命的延长,以人为中心的服务性工作将成为社会的刚性需求,其重要性与需求量都会水涨船高,例如世界卫生组织预测,要实现联合国“人人享有良好的健康和福祉”这一可持续发展目标,全球医护人员的需求缺口将高达1800万人。过去,这类关怀型职业在社会上一直不被重视,薪酬也普遍偏低,但以后,这些“以人为本”的职业将成为AI新经济运行的基石,值得更多的人考虑通过二次学习来投入其中。

为了进一步缓解人力资源供需失衡,我们甚至可以考虑把目前“志愿者服务”类型的工作调整为全职薪酬型工作,诸如献血中心服务人员、寄养服务提供者、夏令营老师、心理咨询师等,也包括一些为了照顾家中老人不得不离开职场的成年人。

另外,可以预见的是,自动化时代一旦到来,社会将需要大批志愿者为失业人员提供热线咨询,帮助他们解决在职场转型过程中遇到的疑虑和困难,排解心理压力,最大限度地避免由于失业所导致的社会问题的发生。这些志愿者也应当获得合理的报酬和社会的认可。

2.Recalibrate二次定义

除了重新学习职业技能,我们还需要结合各类AI工具,重新调整工作岗位的“人机协作”模式。因此,对于不少职业的工作方式乃至工作内容,我们需要重新进行定义。

信息化革命在短短几十年内彻底改变了人们的工作方式,使用电脑上的各种软件是当今普遍的人机协作模式。在AI时代,各行各业将朝着更加智能化的方向“进化”:AI可以测算出不同条件下的沙盘推演结果,可以通过对海量数据进行计算,量化显示工作任务的最优解可以协助不同行业优化工作流程,完成日常的重复性事务。

我认为,很难出现单一通用型的AI工具,我们必须针对各个行业提供特定的解决问题的应用程序,如此,举凡药物分子研发、营销广告策划、新闻信息核实等任务,都能通过高度定制化的AI工具来实现。

当我们对一些职业进行二次定义,充分把“以人为本”的人性特质和AI善于优化的技术优势深度结合起来之后,许多工作将被重塑,不少新兴岗位也将被创造出来。

在AI时代的人机协作中,AI和人类合理分工、各展所长,AI可以既智能又高效地承担起各种重复性任务,由此,人类从业者得以把更多的时间花在需要温情、创意、策略的人文层面的工作上,从而产生1+1>2的合作效应。

举例来说,人们生病了,最信任的仍然是人类医生,由于医生可以使用专业的AI医疗诊断工具,快速准确地为患者定下最佳治疗方案,所以能腾出充裕的时间和患者深入探讨病情抚慰他们的心灵,医生的职业角色也将因此被二次定义为“关爱型医生”。

正如移动互联网催生了滴滴司机、美团小哥等职业,AI的崛起也创造了很多全新的职业,目前已经有AI工程师、数据科学家、数据标注员、机器人维修员等。我们应该时刻关注AI新经济进程中涌现出的新兴职业,确保及时掌握就业情况,关注相关的职业技能培训。

3.Renaissance二次复兴

有了得当的培训和称心的工具,我们可以期待又一次“文艺复兴”的到来-一由AI催生的人类释放激情、创造力进发、人性升华的新高峰。

中国历史上有脍炙人口的唐诗、宋词、元曲,欧洲文艺复兴则诞生了辉煌的文学、音乐建筑、雕塑,这些作品在数百年后仍被人赞颂。那么,AI新经济将会激荡出怎样的人文复兴?

AI视觉工具将成为绘画、雕塑及摄影艺术家们的得力助手,可以按照他们的指示创作、完善作品。AI文字工具可以辅助小说家、诗人、记者,为写作注入新的灵感。AI可以帮助教师批改作业和试卷,让教师把时间和精力节约出来,去设计崭新的课程课件,以此激发学生的好奇心、创造力,培养学生的批判性思维;可以帮助教师在课堂上传递标准化知识(信息),让教师把更多的时间花在与学生进行个性化互动上,这样,他们才能成为AI时代的教育家。

来自"https://wiki.mbalib.com/wiki/%E4%BA%BA%E5%B7%A5%E6%99%BA%E8%83%BD"本条目对我有帮助708赏MBA智库APP

扫一扫,下载MBA智库APP

分享到:打开App温馨提示

复制该内容请前往MBA智库App

立即前往App  如果您认为本条目还有待完善,需要补充新内容或修改错误内容,请编辑条目或投诉举报。本条目相关文档 (人工智能)人工智能9页 (人工智能)之A人工智能11页 (人工智能)人工智能习题10页 (人工智能)人工智能复习8页 (人工智能)人工智能报告6页 (人工智能)人工智能试卷5页 (人工智能)人工智能题6页 (人工智能)初识人工智能11页 (人工智能)人工智能习题9页 (人工智能)人工智能教程答案39页更多相关文档本条目相关课程本条目由以下用户参与贡献Zfj3000,山林,Kane0135,18°@鷺島,AngleRoh,Vulture,Dan,Huluan,Cabbage,Yixi,KAER,y桑,Mis铭,Tracy,刘维燎,苏青荇,陈cc,上任鹅陈.

页面分类:信息技术

评论(共22条)提示:评论内容为网友针对条目"人工智能"展开的讨论,与本站观点立场无关。106.120.191.*在2014年2月13日17:15发表

未来已来

回复评论发表评论请文明上网,理性发言并遵守有关规定。113.142.17.*在2014年10月28日08:23发表

快些来吧

回复评论发表评论请文明上网,理性发言并遵守有关规定。1.9.106.*在2015年5月7日22:28发表

大革命

回复评论发表评论请文明上网,理性发言并遵守有关规定。111.115.70.*在2015年5月22日12:45发表

谢谢

回复评论发表评论请文明上网,理性发言并遵守有关规定。211.139.60.*在2015年6月22日14:59发表

恐怕需要大数据库才能实现

回复评论发表评论请文明上网,理性发言并遵守有关规定。113.200.204.*在2016年4月2日13:04发表211.139.60.*在2015年6月22日14:59发表

恐怕需要大数据库才能实现

恐怕智能设计才是重重之重外行人说自己的见解

回复评论发表评论请文明上网,理性发言并遵守有关规定。223.104.34.*在2017年5月2日11:40发表

14100725李文洁。人工智能将代替人的大脑进行思考,更符合人类的精神需求

回复评论发表评论请文明上网,理性发言并遵守有关规定。61.151.207.*在2017年11月26日13:23发表

其实别把人工智能想得那么复杂,无非就是让机器自动学习技能为人类工作罢了,要是机器太聪明了,人类就完蛋了!

回复评论发表评论请文明上网,理性发言并遵守有关规定。163.20.242.*在2017年12月28日11:02发表

++++9+9+5+68+65+/866

回复评论发表评论请文明上网,理性发言并遵守有关规定。192.168.1.*在2018年5月30日19:47发表

64664646

回复评论发表评论请文明上网,理性发言并遵守有关规定。皮皮(Talk|贡献)在2018年9月18日20:20发表61.151.207.*:回复评论发表评论请文明上网,理性发言并遵守有关规定。110.53.252.*在2019年2月23日09:37发表

32.15.26

回复评论发表评论请文明上网,理性发言并遵守有关规定。202.114.2.*在2019年7月4日20:44发表

人工智能到底是什么呢?机器?超人?

回复评论发表评论请文明上网,理性发言并遵守有关规定。114.222.228.*在2020年3月10日09:29发表202.114.2.*在2019年7月4日20:44发表

人工智能到底是什么呢?机器?超人?

人类创造的智慧

回复评论发表评论请文明上网,理性发言并遵守有关规定。61.174.212.*在2020年11月9日13:45发表113.200.204.*在2016年4月2日13:04发表

恐怕智能设计才是重重之重外行人说自己的见解

对呀,恐怕智能

回复评论发表评论请文明上网,理性发言并遵守有关规定。120.192.175.*在2021年9月17日14:56发表114.222.228.*在2020年3月10日09:29发表

人类创造的智慧

牛逼

回复评论发表评论请文明上网,理性发言并遵守有关规定。218.28.86.*在2021年10月14日11:48发表

未来可期

回复评论发表评论请文明上网,理性发言并遵守有关规定。61.153.247.*在2021年10月26日15:46发表

牛啊

回复评论发表评论请文明上网,理性发言并遵守有关规定。221.229.118.*在2021年11月1日18:23发表

。。。

回复评论发表评论请文明上网,理性发言并遵守有关规定。60.173.216.*在2021年11月30日14:16发表

科技越来越发达了。

回复评论发表评论请文明上网,理性发言并遵守有关规定。125.75.56.*在2022年5月11日11:15发表

人工智能是外星人

回复评论发表评论请文明上网,理性发言并遵守有关规定。223.90.41.*在2022年5月25日10:49发表

开好户

回复评论发表评论请文明上网,理性发言并遵守有关规定。发表评论请文明上网,理性发言并遵守有关规定。

杨爱华:人工智能中的意识形态风险与应对

摘要:作为引领未来世界的颠覆性技术,人工智能不仅广泛应用在自然科学领域,而且广泛渗透到政治、文化、法律等人文社会科学领域,被用来判断、干预甚至操控社会问题与社会现象,由此负载着意识形态功能。人工智能或以技术工具嵌入,或以资本逻辑操控的路径隐蔽而巧妙地发挥着意识形态的功能。人工智能的意识形态功能为社会带来了一定的政治风险、法律风险和伦理风险,但我们不能因风险而阻挡人工智能前进的步伐,而是要从制度与技术两个层面制定应对策略,推动人工智能持续健康发展。

关键词:人工智能;意识形态;风险;应对

人工智能是当今时代最有可能改变未来世界的颠覆性技术,人工智能对未来世界的颠覆性效应不仅表现为可以深刻改变人们的生产生活方式、推动经济社会发展,而且还可以改变甚至颠覆人们的思维方式、价值观念、伦理体系等上层建筑的元素。当人工智能的触角逐步渗入人们生活的每一个角落,社会领域内的各种活动几乎都离不开人工智能时,人工智能就不可避免地拥有了一种可以改变人、支配人、操控人的无形力量,人工智能不再仅仅承载技术的生产力功能,而且以隐约或张扬的方式发挥意识形态的功能。

一、科学技术承载意识形态功能的学理基础

关于什么是意识形态,一直以来缺乏一致的定义。一般来说,意识形态是与一定社会的经济、政治等相联系的意识与观念的集合,主要包括政治、法律、道德、哲学、宗教等。马克思认为意识形态的含义是多维度的,其中心内涵是作为思想或观念的上层建筑的意识形态,即“从市民社会出发阐明意识的所有各种不同的理论产物和形式,如宗教、哲学、道德等等,而且追溯它们产生的过程”。科学的形式同样是多元的,英国科学社会学家贝尔纳认为,“科学在全部人类历史中确已如此地改变了它的性质,以致无法下一个合适的定义”。通俗来说,科学技术是对客观世界及其规律的探索,主要表现为知识体系、工具产品、方式方法等。在马克思看来,科学技术是一种生产力,“资本是以生产力的一定的现有的历史发展为前提的—在这些生产力中也包括科学”。

(一)马克思主义科技异化论

马克思主义科技思想中并没有直接专门论述科学技术与意识形态关系问题,关于这一问题的理论基础可以溯源到马克思的科技异化论。马克思认为,科学技术在发挥其生产力功能、推动经济发展与社会进步的同时,对自然、社会及人类自身造成了一定的负面影响,作为人类创造物的技术,甚至在某种程度上反过来变成了奴役人统治人的异己力量。“在我们这个时代,每一种事物好像都包含有自己的反面。我们看到,机器具有减少人类劳动和使劳动更有成效的神奇力量,然而却引起了饥饿和过度的疲劳……技术的胜利,似乎是以道德的败坏为代价换来的。随着人类愈益控制自然,个人却似乎愈益成为别人的奴隶或自身的卑劣行为的奴隶,甚至科学的纯洁光辉仿佛也只能在愚昧无知的黑暗背景上闪耀”。在马克思看来,技术异化的根源不在于技术自身,而在于技术的资本主义应用。“这些矛盾和对抗不是从机器本身产生的,而是从机器的资本主义应用产生的!因为机器就其本身来说缩短劳动时间,而它的资本主义应用延长工作日;因为机器本身减轻劳动,而它的资本主义应用提高劳动强度;因为机器本身是人对自然力的胜利,而它的资本主义应用使人受自然力奴役”。在资本主义条件下,科学技术与资本权力相互帮衬、一路凯歌,破坏自然环境,干预社会政治体制,操控人类精神意识与伦理道德框架。

(二)法兰克福学派的科学技术意识形态论

关于科学技术与意识形态的关系问题,法兰克福学派倾注了很大的精力,构建了独树一帜的科学技术意识形态论。法兰克福学派早期代表人物霍克海默指出:“不仅形而上学,而且还有它所批评的科学,皆为意识形态的东西;后者之所以也复如是,是因为它保留着一种阻碍它发现社会危机真正原因的形式。”在霍克海默看来,科学技术通过其完善的工具理性手段,使公众陶醉于其带来的物质财富,蒙蔽公众双眼,阻碍公众反思社会问题与批判社会危机,从而发挥其意识形态功能。之后的代表人物马尔库塞认为,发达工业社会是一部纳入了技术架构的工艺装置,“技术中立”的科技价值观被打破,科学技术被嵌入政治统治的框架之中,带有明确的政治倾向性,从而成为一种新的社会控制手段与形式。他在代表作《单向度的人》中断言:“社会控制的现行形式在新的意义上是技术的形式。不错,在整个近代,具有生产性和破坏性的国家机器的技术结构及效率,一直是人们服从已确立的社会分工的主要手段。而且,这种结合往往伴随着更为明显的强制形式”,“科学—技术的合理性和操纵一起被熔接成一种新型的社会控制形式”。法兰克福学派第二代中坚人物哈贝马斯专门阐述了科学技术与意识形态的关系问题。哈贝马斯以科技进步为新的坐标系,不仅明确指出,在资本主义社会中,科技进步本身已经成了“第一位的生产力”,而且认为,技术与科学作为新的合法性形式,已经成为一种以科学为偶像的、不同于传统意识形态的新型意识形态。“因为现在,第一位的生产力—国家掌管着的科技进步本身—已经成了[统治的]合法性的基础。[而统治的]这种新的合法性形式,显然已经丧失了意识形态的旧形态”。哈贝马斯认为,国家加强对经济社会的干预以及科学技术日益取得合法统治地位是后期资本主义的发展趋势。“至少从生产力的连续提高取决于科技的进步—科技的进步甚至具有使统治合法化—的功能以来,不再是解放的潜力,也不能引起解放运动了”。如果说霍克海默对于科学技术承载意识形态功能的描述还是隐约的,那么马尔库塞旗帜鲜明地指出科学技术已经成为一种新型的社会控制手段,发挥着意识形态功能。哈贝马斯则以“作为‘意识形态’的技术与科学”为题系统阐述了科学技术就是一种意识形态,并对此进行哲学拷问与深层反思。

科学技术在本质上不属于意识形态的范畴,但在其应用过程中,常常与意识形态相互交织在一起,产生了千丝万缕的联系。当科学技术的工具理性张扬到极致,超越其生产力功能,被广泛应用并深入渗透到人们的日常生活及社会政治、文化等各个领域时,科学技术就具备了作为一种隐性意识形态的良好条件,有可能承载并发挥着意识形态功能。

二、人工智能发挥意识形态功能的路径

与传统意识形态相比,科学技术是一种新的隐性的意识形态,但是其渗透领域更广,统治手段更隐蔽有效,操控力更令人难以抗拒。“一方面,技术统治的意识同以往的一切意识形态相比较,‘意识形态性较少’,因为它没有那种看不见的迷惑人的力量……另一方面,当今的那种占主导地位的,并把科学变成偶像,因而变得更加脆弱的隐形意识形态,比之旧式的意识形态更加难以抗拒,范围更为广泛”。人工智能,或以技术工具嵌入、或与资本权力携手,隐蔽巧妙地发挥着其意识形态功能。

(一)作为技术工具的嵌入

随着数据的海量增长、数据处理及运算能力的提升、机器深度学习技术的快速发展,人工智能不仅被广泛应用于自然科学领域,同样涉足于政治、文化、法律等人文社会科学领域,被用来广泛采集用户信息、分析用户特征,以此为基础判断、干预甚至操控社会问题与社会现象。作为技术工具的人工智能被有效嵌入社会的政治体系、制度框架等上层建筑的各个子系统之中,或干预社会政治文化体系,或引发社会问题与社会危机,算法歧视与算法操控就是最明显的表现形式。

“算法歧视(AlgorithmicBias)指的是人工智能算法在收集、分类、生成和解释数据时产生的与人类相同的偏见与歧视,主要表现为年龄歧视、性别歧视、消费歧视、就业歧视、种族歧视、弱势群体歧视等现象”。比如,人脸识别技术凸显的算法偏见与算法歧视问题非常明显。2015年谷歌曾将黑人程序员上传的自拍照贴上“大猩猩”标签,雅虎平台也曾将黑人的照片标记成“猿猴”。美国警方的犯罪数据识别系统自动认定黑人社区的犯罪概率更高,2016年当研究人员将一套算法模拟应用于加利福尼亚州时,该系统反复派遣警方人员到少数族裔比例高的地区巡逻执勤。与求职就业相关的算法向男性推荐的工作岗位整体工资要高于向女性推荐的工作岗位。随着人工智能技术的进一步发展,算法歧视将带来越来越严重的社会问题,英国学者指出,“随着算法决策系统的普及以及机器学习系统的结构复杂化……算法在人们日常生活中的应用与影响越来越广泛,如果不加以控制的话,算法歧视冲击社会公正与公平的风险将进一步加剧”。

机器学习技术与基于自动识别数据模式的统计技术的交融,为人工智能时代的标签“算法制胜”打下了坚实基础,算法制胜被嵌入意识形态领域带来的丰厚回报就是算法操控。通过大数据技术与机器学习的嵌入助力人工智能“参政议政”已被西方政治家们“有效实践”。算法可以对我们的政治人格进行大规模的回归分析,为政治操控每一种情感。与社会歧视相比,算法歧视与算法操控具有更加隐蔽与更加多元的特点。首先,传统的种族歧视、性别歧视等是被社会反对或被法律禁止的,但算法歧视与算法操控由于披着科技的外衣更加隐蔽,人们不会提出明确反对,即便提出质疑,也会因“算法黑箱”这一冠冕堂皇的理由而谅解。其次,社会歧视往往是依据人的肤色、性别、家庭出身、学历等显性特征做出判断,但算法可以依据消费记录、网页浏览记录、行程记录等属于个人隐私的数据作为统计与分析的依据,因而更加多元,其渗透力与影响力也更大。

(二)作为资本逻辑的操控

人工智能作为资本逻辑对意识形态的操控主要表现在:最大限度地助力实现资本增值;消解人的主体性与社会性;加剧社会分工的不平等。

第一,在资本主义社会,人工智能是实现资本增值的基本工具。关于资本,马克思认为,资本的本质不是物,而是能够带来剩余价值的价值,“资本只有一种生活本能,这就是增殖自身,创造剩余价值,用自己的不变部分即生产资料吮吸尽可能多的剩余劳动”。作为统治权力表征之一的资本,只有对生产工具、产业部门直至生产方式、生产关系不断变革,才能有效实现资本的本能增值。“资产阶级除非对生产工具,从而对生产关系,从而对全部社会关系不断地进行革命,否则就不能生存下去”。机器化时代,科学技术渗透在产业链的每一环节,是助力实现资本增值的有效手段。相比传统技术,人工智能的资本应用显然能够更快实现资本增值。麦肯锡全球研究所2018年9月发布的研究报告认为,“到2030年人工智能可能为全球带来13万亿美元额外的经济产出,助推全球GDP每年增长1.2%……这种影响可以与历史上其他通用技术相媲美,比如1800年代的蒸汽机技术”。近年来,世界各主要大国纷纷加快人工智能政策部署与战略规划,2016年美国发布《为人工智能的未来做准备》和《国家人工智能研究与发展战略计划》,2018年德国发布《联邦政府人工智能战略要点》,2018年法国发布《法国人工智能发展战略》等,各国纷纷正式将发展人工智能上升到国家战略层面。一方面,我们不可否认人工智能对社会发展与人类文明带来的巨大推动作用;另一方面,“在资本主义条件下,人工智能实际上是资本谋取剩余价值进而维持整个资本主义制度体系存活的技术工具”。

第二,资本与人工智能的交融消解人的主体性与社会性。人工智能带来的自动化、智能化延伸了大脑的功能,让人进一步从体力脑力劳动中解放出来,但也在一定程度上消解了人的主体性。自从AlphaGo战胜李世石以来,关于机器人未来能否代替甚至超越人的争论就从未停止。以霍金、库兹韦尔等为代表的科学家认为人工智能今后会超越人类智慧,甚至导致人类灭绝;以松尾丰等为代表的人工智能专家认为人工智能征服人类的可能性在现阶段看来根本不存在。即便我们目前不必过多担忧强人工智能与超人工智能时代机器智慧等同或超越人类智慧引发的危机,但也不能忽视弱人工智能阶段智能机器主导劳动过程,人成为机器的辅助者,在人类自身解放的同时逐步丧失部分劳动能力,人与机器主客体关系被颠倒的异化问题。机器的独立性越强、自主性越明显,人的依赖性就越严重、被动性就越突出,人的某些能力就越容易退化。在智能机器主导的自动化经济中,人让位于智能机器或者被智能机器剥夺其劳动岗位,劳动者失去了本应该从劳动过程中获得的愉悦感、幸福感、满足感,低技能劳动者的一些基本劳动技能逐步退化,高技能劳动者的创造力逐步消失。人工智能在未来军事领域的应用完全可能实现完全自主武器系统,这种武器系统“在激活后可自主进行搜索、识别、决策和打击,无须人类干涉其进程”。在这种态势下,战场的指挥权可能完全由智能机器掌控。人的主体性、创造性在智能机器时代面临前所未有的危机。

马克思认为:“人的本质不是单个人所固有的抽象物,在其现实性上,它是一切社会关系的总和。”人是按照一定的交往方式进行生产活动的人,是发生在一定社会关系和政治关系中的个人。传统机器化生产中人与人相互配合、相互补充、统一调配的工作方式在人工智能时代完全可能由一名程序员设计的自动程序取代。无人化的工作环境与工作方式很容易使人的生活方式发生变化,人与人之间的关系不再那么社会化,越来越多的人倾向于选择离群索居、孤立生活,甚至将来与机器人女友或男友相伴一生也不是没有可能。此外,人工智能时代物联网技术也使更多的人常常沉迷于虚拟世界,与周围的现实世界之间横亘着一道无形的鸿沟,对身边的世界漠不关心、疏远冷漠,手机依赖症已是最普遍的一种现实映照,人的社会性正逐步被消解。

第三,资本对人工智能的开发与应用将加剧社会分工的不平等。与以往的机器化大生产不同的是,人工智能的高度自动化、智能化一方面虽然有利于人从体力与脑力劳动中进一步解放,甚至实现人的全面自由发展;但另一方面也将不断排斥劳动者,甚至完全替代劳动者,实现“零工经济”。由此导致的结果是:首先,社会分工体系中的主导角色将不再是人,而是机器人。劳动力在生产要素中的竞争力不断下降,最终甚至让位给机器人,失业率将大大增加。其次,社会分层、社会断裂问题更加严重。资本与人工智能的联手,将使掌握了前沿技术、高精尖技术、颠覆性技术的行业更容易走向社会的金字塔顶层,甚至带来行业垄断。“随着算法将人类挤出就业市场,财富和权力可能会集中在拥有强大算法的极少数精英手中,造成前所未有的社会及政治不平等”。低技能劳动者、廉价原材料在整个社会产业链中的比例将越来越低,低技能劳动者的失业风险将远远高于高智能劳动者,社会顶层与社会底层之间的鸿沟将进一步加剧,而且这一断裂将更加难以逾越。

三、人工智能发挥意识形态功能的风险及应对

自从德国社会学家乌尔里希·贝克于20世纪80年代提出风险社会理论,风险一词逐渐成为现代化的标签之一。贝克认为工业社会的科技发展、政治体系、法律制度等使得社会开始转化为风险社会,“风险通过与科学、科学实践和公共领域的紧密相互作用构造自身”。当今社会属于一定的风险社会,其风险很大一部分是由技术风险组成的。人工智能承载意识形态功能的风险属于高技术风险带来的升级风险范畴,高技术风险是不可避免的,只能提前筹划,制定有效应对策略。

(一)风险

人工智能发挥意识形态功能带来的风险主要包括(但不限于)以下三方面:政治风险、法律风险、伦理风险。

第一是政治风险。政治风险主要是指人工智能技术内嵌于政治系统,以“算法黑箱”为掩护,通过算法歧视、算法操控等方式影响政治体制运行、冲击社会公平正义的风险。公平正义是民主政治的基本原则,正如罗尔斯所说的,“正义是社会制度的首要价值”。算法歧视普遍渗透在社会的就业、教育、社交等各个子系统之中。2016年美国发布的《大数据报告:算法系统、机会和公民权利》,考察了大数据与获得信贷、就业、高等教育、刑事司法四个领域之间的算法歧视问题。算法歧视已成为一个普遍的政治问题,特别随着机器深度学习能力的进一步提升,算法已经成为一种新的权力形态,算法即权力。算法歧视与算法操控损害政治的正义,“算法黑箱”遮蔽政治的公平透明,必将带来政治的权威化危机与合法化危机。作为权力的算法如果不消除算法歧视,那将对人类政治文明带来极大的风险与灾难。

第二是法律风险。以数据和算法为基础,利用分析工具进行自我学习,通过互联网、云技术等跨时空、跨地域对获取的信息进行传播和扩散,人工智能在将大数据的经济价值挖掘到最大化的同时,也带来泄露敏感信息、侵犯个人隐私的法律风险。传播速度快、侵权方式简单、侵权手段隐蔽、侵权范围广等是人工智能技术侵犯隐私权的新特点,人工智能时代人们的生活变得透明化。麦肯锡全球研究所预测到2025年全球物联网(IoT)市场规模可以达到11.1万亿美元,这可能意味着届时我们的周边到处都是信息收集器,而在人工智能技术的覆盖范围内,这些信息收集器都可能具备自主思考、自主判断、自主开启传感器的功能,人工智能与物联网的融合将把隐私权被侵犯的风险提升到一个更高指数级。

第三是伦理风险。随着人工智能和自主系统嵌入政治、经济、文化等社会各个领域,人与机器的关系变得越来越复杂,责任承担及责任分配的问题受到严重挑战。在人工智能表现出越来越强的自主性的时候,是否意味着机器人就可以作为道德主体承担相关责任?一种观点认为计算机系统在智能技术的推动下,已经由一种工具变为一种代理,“计算机系统具有某种道德代理,并且这种道德代理和代理的角色不应该被忽略”。应用伦理学专家黛博拉·约翰逊明确指出,大多数情况下人们应对技术的使用负责,当人工智能成为道德代理人后,没有人会对人工智能体的行为负责。此外,有的学者认为即便机器系统不具备完全意义的道德主体属性,不能作为第一责任人,至少也应该承担“准责任(quasi-responsibility)”。与之对立的观点则认为机器终究只是一种工具,不具备自我意识,其责任理当由系统设计者、程序员、系统维护者等人类主体承担。控制论之父维纳早就警示,人类如果把责任丢给机器,最终只会自食其果。

(二)应对

人工智能意识形态功能带来的风险是源于技术的应用所带来的社会风险,马克思认为:“这些矛盾和对抗不是从机器本身产生的,而是从机器的资本主义应用产生的!”在技术哲学家芒福德看来,“它只是人类文化中的一个元素,它起的作用的好坏,取决于社会集团对其利用的好坏。机器本身不提出任何要求,也不保证做到什么。提出要求和保证做到什么,这是人类的精神任务”。技术的进步是不可阻挡的,技术带来的风险也是不可避免的,我们不能因为人工智能承载意识形态功能的风险就放弃其发展,而是“要学会把机器和机器的资本主义应用区别开来”。为此,只有加强顶层研判、提前筹划,制定应对策略,才能将其风险尽量减低,推动人工智能持续健康发展。

第一是制度层面。凡事预则立,不预则废。任何一种新事物的出现,都可能冲击现有的社会秩序与制度体系,这就需要制度体系与之更新。“我们所体验到的那种无能为力并不是个人失败的标志,而是反映出我们的制度无能为力。我们需要重构我们曾经有过的这些制度,或者建立全新的制度”,不管是弱人工智能阶段已经凸显的算法风险,还是强人工智能阶段或将凸显的机器思维统治风险,人类都需要提前预警,各国应从顶层设计开始,提前筹划,规范从业人员的职业行为与道德准则。当前,世界各国正在积极推出人工智能伦理规范准则。美国电气电子工程师协会(IEEE)2016年发布世界首个《人工智能设计伦理准则》,2017年发布更新版“EthicallyAlignedDesignVersion2”,其宗旨就是使人工智能系统能够遵从人类的道德价值和伦理准则。日本人工智能学会伦理委员会2016年起草了面向科研人员的伦理纲要草案,该草案中制定了防止人工智能被恶意利用的相关条款。英国标准行业协会2016年发布《机器人和机器系统的伦理设计和应用指南》,其目标是制定智能机器人融入社会的道德规范。2019年欧盟委员会发布《可信赖AI的伦理准则》,提出可信赖人工智能的整个生命周期系统必须具备三点:“首先应是合法的,遵守所有法律法规;其次应是道德的,要尊重人类主权、防止伤害,公平且可解释;再次应是健康可靠的,避免因技术造成无意伤害。”中国于2017年发布《新一代人工智能发展规划》,提出要建立人工智能法律法规、伦理规范和政策体系,形成人工智能安全评估和管控能力。截至2020年7月,全球已有38个国家制定国家层面的人工智能战略政策、产业规划文件。此外,与人工智能相关的法律规范也需要同步建立并完善。

第二是技术层面。技术引发的风险问题很大程度上仍然需要依靠技术手段来预防与解决。基于深度神经网络和机器学习的人工智能系统是目前最复杂的系统之一,“算法黑箱”是系统自身不可理解性的一种典型表现。尽管面临无法避免的正常事故,但系统设计者、程序员等在设计、应用的各个不同阶段,都必须同步加强堵住技术漏洞、维护信息安全的防范、补救与保护技术。在设计阶段应努力规避技术被误用或滥用的技术可能性,增强技术自身的“人类可控”性。在应用阶段,通过加密技术、匿名化技术、屏蔽技术等严防技术漏洞,设置系统内部纠错机制,以防危害扩散。在售后阶段,研发新的技术工具对已经产生的技术问题进行改进或弥补。比如,麻省理工学院科学与人工智能实验室的科学家们开发出了一种新颖的、半监督的可调算法,通过重新采样来自动消除数据偏见与算法歧视。目前,新兴的算法纠偏工具正逐渐被研发出来,有望帮助消除算法歧视,实现更加公正的人工智能。

四、结语

科学技术前进的步伐是不可阻挡的,我们必将生活在一个人机交融的时代,人类与机器的矛盾和冲突是不可避免的,人工智能负载意识形态功能也是必然的。迄今为止,没有任何一项新技术导致人类真正失去自我或者走向灭亡,我们同样无须对人工智能的意识形态功能过分担忧,当然也不可忽视。辩证审视人工智能的生产力功能与意识形态功能,有效防范化解人工智能负载意识形态功能的风险,寻求人工智能工具理性与价值理性的合理张力,作为颠覆性技术领头雁的人工智能,必将引领人类走向一个更加崭新更加美好的未来世界。

注释略。

杨爱华,国防科技大学文理学院教授、博士生导师。

来源:《求索》2021年第1期,第66-72页。

版权声明:本文内容由互联网用户自发贡献,该文观点仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌抄袭侵权/违法违规的内容,一经查实,本站将立刻删除。

上一篇

下一篇