博舍

人类为什么不会被人工智能取代? 人工智能取代人类智能,为什么不取代科技智能

人类为什么不会被人工智能取代?

综合以上,上述两方面回应的共同缺陷在于,他们的探讨并未结合人工智能的发展历程,因而脱离了对人工智能的构建机制的研究。这就让人类智能和人工智能之间的比较,像是两个“黑箱”之间的对话,人们并不能更好地理解人工智能之于人类的挑战性和人类之于人工智能的独特性。基于此,本文将从人工智能的技术本质的角度探究,“人类是否会被人工智能取代”的问题。

二、对人类的模仿:人工智能的技术起点

阿兰·图灵是第一位真正提出,如何验证机器已经产生人类思维的实验标准的科学家。在图灵的思想实验中,计算机程序或者说是广义的机器人是在与人进行一场精致的“模仿游戏”,即在人与机器的双盲对话中,机器不断模仿人类的语言习惯,以欺骗参与对话的人类,让人类相信自己是在与人而非机器对话。这一思想实验后来在计算机科学的发展中,被发展成为广义的“图灵测试”。按照这种标准,一旦机器通过图灵测试,就可以判定机器具有和人相一致的思维能力,这种观点被称为“强人工智能”的观点。

围绕着机器通过了图灵测试,是否就可以判定机器的思维机制与人类相同,人工智能哲学界引发争论,其中又尤以塞尔的“中文屋”思想实验较为著名。

“中文屋”思想实验的主要预设是,在一个大家看不见内在构造的屋子前,只要人们对其说出某些中文,屋子中就会给出相对应的中文回应,这给人一种屋子中的人或事物非常精通中文的感觉。但一种可能的情景却是,屋子中有一套完备的中英文的对照规则手册,屋子中的人或其他事物根据手册指示,先找到接收到的中文所对应的英文,再基于对照手册的指示对外给出一个中文的回应,这样即便屋子中的人或事物不懂中文,也会看似精通中文。

塞尔的“中文屋”思想实验就是在论证,即便机器人或者计算机可能在某些方面的表现不亚于人类,但是依旧不能说机器已经理解人类的思维方式。“一个弱意义上的人工智能程序只是对认知过程的模拟,程序自身并不是一个认知过程。”换言之“弱人工智能”的主要观点就是,人工智能可以在行为上模仿人类,但不代表它能像人类思维一般实现自我理解。

上述只是强弱人工智能之争的最基本内容,在人工智能哲学的后续发展中,关于“规则手册是否真的可能存在”“理解了规则手册是否相当于理解中文”等问题还引发了后续的诸多争论。相关的论述至今已经汗牛充栋,但本文的重点并不是细述强弱人工智能观点的分歧,而是试图发现它们都可接受的理论共识。

“图灵测试”最终的判断标准,是人工智能有没有骗过人类,或者更准确地说,就是人工智能是否已经掌握与人相似的表述方式。更广义地理解这一标准,也就是判定一个程序或机器人的设计好坏的标准在于,它的行为与表现究竟有多么接近人类。这样一来,即便是一个最终没能通过“图灵测试”的人工智能设计也具有积极的意义,因为它可能已经在接近人类的方向上又迈进了一步,它也完全可以保留自身的优势,在其最接近人类的方面做进一步的加强,甚至可能在这一方面超过人类。

也有人认为,塞尔的“中文屋”在很大程度上只是在给人类找回最后的颜面。因为如果只是在某些专业领域,比如数学计算或者棋类竞技上做一个长期的开发,人类很可能不是人工智能的对手。但即便如此,人类依旧可以有充分的理由认为,机器并不具有人类一般的智能,因为人工智能至多只是“规则手册”的良好执行者,并不真正理解其自身的行为。

综上可以发现,强弱人工智能观点的分歧,其实主要在于人工智能相较于人类智能的完备度的认可上。这反而彰显了它们在底层有这样一些最基本的共识:第一,人类智能是人工智能发展一直所参照和模仿的对象;第二,人工智能发展的完备程度只能以人类作为参照甚至以人类能否接受作为最终标准。因此在这种意义上来讲,人工智能完全可以被视为人类智能的“投影”,这与技术工具发明的“器官投影说”相通。“人类在长期的劳动、生活过程中,学会了利用身边的各种器物以弥补我们自身的不足,进而还学会了主动制造原来不存在的各种工具和器械来增强人体自身的功能……人类发明、制造工具其实最初都是按照自身的某个器官做摹本。”只是人工智能的发明是以人类的智能器官———按照生理学或医学的概念范式就是大脑,按照哲学的概念范式就是心灵———作为模仿对象。

力主模仿人类“大脑”或“心灵”的人工智能研究,要提升研究水平的前提就是要有“投影”人类智能的方法。接下来的问题就是,人工智能研究中,这种“投影”的策略是什么?

三、对人类智能从浅到深的“投影”:人工智能的技术策略

按照器官投影说的说法,“投影”至少有两层含义,“一方面,人体器官的形状和功能‘投影’在工具中……另一方面,人体器官的尺寸、比例被抽象和放大到工具中”。在一般技术工具的发明和制造过程中,这两种“投影”都已经被应用到淋漓尽致的地步。以日常用来盛水或食物的碗为例,其原型就是人的双手捧起水或食物时聚拢在一起的形状,碗的发明就是实现了这种盛放物品的功能。同时,碗在实际的制作中口宽底窄,依然是配合人类的手型,但是又会依据碗的用途的不同,而放大或缩小相应的尺度。

但是人工智能想要投影人类智能并非易事。如果作为器官来看,人类的思维器官是最具复杂性和神秘性的脑。尤其在人工智能发展的初期,医学或生理学能够对大脑做出的解读并不多,这就让人工智能研究对于人类智能的投影只局限在表象层面的人类的行为。随着计算机技术水平的提高,人工智能的研究就走向对人类认知器官的某些特定功能的专门模仿。到了医学可以对脑有一个更深层次的解读,并且计算机技术可以实现对于脑更深层的模仿后,人工智能又来到一个新的纪元。

(一)对人类行为的投影

在心理学的预设当中,人类的行为是一种对于人类思维状态的表征。因此当人工智能可以对于人类的行为进行模仿时,也就在一定程度上实现了对于人类智能的模仿。

较初级的人工智能产物一般都是在极力模仿人类的各种行为。一些工业领域常用的智能维修机器人更是主要只是模仿人类操作器物的行为。很明显的是,单纯依靠此类人工智能技术并不能通过图灵意义上的“模仿游戏”的测试。从本质上说,此类人工智能产物是对于人类的“感知—动作系统”的模仿,更主要的是实现对于人类肢体动作的模仿。图灵的“模仿游戏”重点检测的则是更深层次的,机器对于人类“语言—思维系统”的模仿。

但是此类人工智能技术依然具有存在的意义,它在现如今的人工智能的整体设计当中主要充当一种辅助技术,尤其在人形机器人的肢体的设计与生产环节,因此相关研究依然在提升其技术精度,并仍被广泛应用于人形机器人的设计生产之中。

(二)对人类特定智慧功能的投影

此类的研究依然可以暂时悬置人类的认知器官的真实构造这一问题,而是直接“利用计算机作为硬件平台,通过编制聪明软件来模拟人类智力功能”。此类研究策略可以让人类的认知器官继续保持一种相对的“黑箱”状态,只要保证计算机硬件平台可以在输出端给出与人类的判断尽可能相似的结果就好。

此类研究的局限性就在于它总是只能解决某一专门领域的问题,比如一个智能家居助手可以解决的问题是将室内温度调整到20℃,但是它可能并不能理解温度数据与人类关于“寒冷”“炎热”的感受,更不能体会“老人怕冷”“孩子怕热”这类的亲情关怀。

(三)针对人脑的技术投影

随着近现代生理学尤其是脑科学的发展,对于人类认知器官的认识也逐渐走向了精细化。信息技术的高度发达,让计算机系统的搭建也可以形成对于人类认知器官的深层次模仿。近年来,随着“在不同方向上观测不同认知任务下脑部神经的活动变化并获得相关类脑智能数据已成为可能……发展类脑智能现已成为人工智能学科以及计算机应用相关领域研究的热点”。例如前文中提到的阿尔法狗的构建理论基础,就是人工神经网络技术的深度学习策略,类脑人工智能是其技术实质。除了人工神经网络技术外,“参考人脑神经元结构和人脑感知认知方式来设计的”类脑芯片也在成为目前人工智能领域研究的重点,并且芯片的运算机制已经愈发地接近人脑思考问题的方式。

基于人类脑科学研究成果而发展出来的此类人工智能技术,被称作“类脑智能”。此类技术不再只是从模仿外部的人类的行为或功能来实现机器的智能涌现,而是直接着眼于人类智能的发端,对脑的结构进行更深层次的模仿。类脑智能的研究可谓是人工智能目前最前沿的进展之一。但是直到目前为止,针对人类复杂的大脑的研究尚处于起步阶段,要实现对人脑的整体解读仍需要一个很长周期的研究。

综上所述,人工智能研究的认识论基础是技术哲学意义上的“器官投影说”,脑科学的最新研究进展成为人工智能更精细化投影人类认知器官的理论工具。当然,认识论层面上的理论基础或理论预设都会带有一定的理想化的特征,尤其只是在近些年脑科学的新进展才更好地支撑了人工智能研究的发展。在此前和未来的很长一段时间里,人工智能的研究主要还是要集中在与人类相似的智能功能的实现层面上,而未必是内在结构上与人类认知器官的高度一致上。因此,这里实际上需要分析的问题是,当人工智能的结构构建必然与人类智慧器官自身存在差异的前提下,人工智能自身是否会有相应的局限,人类又可以通过扮演怎样的角色来协助人工智能突破这样的局限呢?

四、从分离到交融:人工智能与人的现实关联

一个人工智能产物能够存在于社会,必然因为它可以实现某些方面的功能,从而满足社会某些方面的需求。这些相应功能可以实现的实质就是,人与人工智能,同客观世界之间以特定的形式发生相互关联,并且在不同的情境下人与人工智能之间的关系将有所不同。

(一)作为世界的一部分的人工智能

在诸如前文中所提到的各种研究环节,人工智能实际上都被视为一种待研究的对象来看待。其实不仅在研究阶段,到了应用层面也同样需要经历一个人对人工智能的认识和熟悉的过程。这就像我们拿到一台新的个人计算机,对于操作界面和随机功能均有一个必要的熟悉过程一般,一个新的人工智能产物走入到生产生活中,人类作为操控者或者说工作上的“合作伙伴”,需要将人工智能作为一个崭新的客体来进行研究。

此时的人工智能相当于世界的一份子,对于人处于一种几乎未知的状态,人与人工智能也在一种比较充分的分离状态之下。

(二)作为人与世界的媒介的人工智能

关于人工智能最为常见的应用模式,就是让人工智能代替人类去从事一些与外在世界之间的交互。比如人类派出探险机器人去探测星体表面,此时的机器人就是以人类的代理者的身份去完成人类的指令。在此类的应用之中,人类将自己的指令翻译成人工智能可以理解的计算机指令,人工智能完成相应的行动;在反馈环节中,人工智能则是依靠自身携带的各类传感器,将其收集到的各类信息传递给人类以备后续分析。

作为中介的人工智能带有一定的被动性,多数时候只能服从于人类的操控。这种意义上来说,此类人工智能更像是人类的欲望或意向性的转移者。它们也同样可以被视为世界向人类传递信息的媒介,它将那些人类肉身难以轻易企及的处所的信息传递给了人类。

人与作为世界的媒介的人工智能之间,会因为“使用”这种行为而发生交互,“使用”一旦停止人机将再次分离。

(三)作为人的“身体”的人工智能

称人工智能可以作为人类的“身体”,并不只是意味着人工智能产物已然植入人类身体(虽然在技术层面这早已可以实现),而是重点说明人工智能在应用层面给人带来的体验。

这种体验时常让人不会轻易察觉到人工智能技术的存在,它“展现出部分透明性,它不是人类关注的中心……经过短时期的适应之后,你不会感觉到它的存在……它已经成为身体体现的一部分,具有人的身体的某部分特征,它成为人类身体的延伸”。最常见的例子就是,如今的智能手机基本都具有导航功能,并且很多的导航程序都已经具有了很明显的人工智能特征。人在行走的过程中,其实已经让导航软件加强甚至替代了自己的“方向感”或“路感”。当一个人来到陌生的城市,也很少将辨识方位视为需要提前很久去完成的准备工作。

“方向感”本身属于人类智能的一部分,智能导航程序相当于加强了这种能力,但是在日常生活中,使用者会不自觉地将智能程序加成的“方向感”深以为然地视为自己天然具备的能力,这就是人工智能作为人类“身体”出现的最普遍的表现。

作为人的“身体”的人工智能,其影响力不仅在于实际的操作层面,而且在于它已经在人类的认知层面形成一种清晰的意向,让人类与其不自觉地相同一。

(四)人作为人工智能的“部件”

前文提到的“人工智能”总好像有一些很具象化的特征,也就是所有的人工智能产物似乎都有一个比较清晰的形态。不可否认的是,为了让人机交互显得更加友好,人工智能产品在其交互界面的设计上的确非常有人类色彩,如以人类的语音作为向导、仿照人类的形态制作输入输出设备等。

但实际上,人工智能系统的实际构造可能远比使用过程中所看到的界面要复杂得多。尤其是在分布式网络日益发达、大数据应用日益成熟的今天,理论上整个的网络信息平台都可能成为人工智能的数据库或云计算组件。因此,网络上的人类用户,在一定程度上就可能成为人工智能系统的某个空间节点上的部件一般的存在。并且需要注意的是“人比机器的优势之一就是:可以从较少的数据中更早地发现事物的模式”。也就是说作为人工智能“部件”的人类,一方面可以减轻实际应用层面上人工智能的计算压力,另一方面也在技术层面上搭建了以网络联结为基础的人机混合的智能系统结构。

人类充当人工智能系统的“部件”的原因大致上有两个:其一,就是实现应用目标的便利性的诱惑,毕竟在语言翻译等领域让人工智能短期内达到人类母

语水平并不现实。在具体情境下,不一定非要人工智能通过模型计算给出合理的结果,直接转述人类在相应情境下的回应,可以更经济也更快速地实现应用需求。其二,就是目前人工智能领域研究的现实局限,前文提到的类脑人工智能的发展前景极具诱惑,其研发的基础就在于“以脑科学和信息科学的基本理论为指导……标记、获取、分析……精细脑网络结构与功能信息”。但攻克这项工程需要的可能是全人类长期的共同努力,突破人工智能的局限性不可能在一朝一夕,于是更可行的解决方案就是让人类作为宏观的人工智能系统的“部件”完成操作任务。

由此,在实际的应用层面上,随着人工智能功能的完善和大数据技术等的全面加持,人与人工智能之间不会再是泾渭分明的“分离”状态,而是随着彼此之间依赖的加深(人将人工智能默认为自身的功能,人工智能借助人类智慧的优势更快完成操作任务),人与人工智能实际上走向了一种“融合”的状态之中。

(五)从模仿到共建:人机融合的现实趋势

如前文所言,最理想的人工智能研究,其实是通过脑科学的“逆工程”制造出一个完整的人工生命,“这是对于传统的,通过具有某些特定功能的计算机子系统来分析性地构建智能系统的人工智能研究的替代方案。”

但是人工智能事业的发展,不能等待着此类研究的彻底完备,而是需要在实践中提升智能系统的问题解决能力,“这迫使我们要做出具体的工程决策,充分考虑抽象和具象的对象之间,以及观察的和理论的现象之间的关系”。在现实层面上,实际上需要被考虑的是人工智能性能的提升问题,既然“人机交互所产生的融合双重智能可以……提升人工智能系统的性能……更加高效地解决复杂问题”,那么人机融合就应该是被选择的趋势。

一个现代的人工智能系统不再应该被简单地视为与人类孤立的技术产物,而更应该被视为一个人类智慧与机器智慧所共建的广义的网络系统。这一网络系统的特征与巴黎学派的拉图尔、卡龙和劳等人所提出的“行动者网络”非常类似。“‘行动者网络’本身是一种‘异质型’网络,即人类行动者和非人行动者平等构成网络,在具体的科技活动中……平等地影响着网络,并且通过对于网络的‘协同’或‘背叛’影响网络的运作”。人与非人行动者会因为他们有共同的行为意向而联结在一起,并作为整体共同实现相应的实践目标。

并且应该与“行动者网络”理论的预设相一致的是,对于一个有某种明确的应用目的的智能系统而言,人与机器应该处于一种相对平等的状态之中。这里的“相对平等”的实现很可能是一种动态的总体的平等,即在某些具体的情境下,可能人类的主观意愿占据主导。但是在另一些情境下,机器的计算目标则更加重要。人类与机器在联结性和目的性等层面上发生的耦合,是人机共同构建智能系统的基础,它们之间彼此的协同促进,是共同提升系统功能的基本方法。

那么基于以上认识,我们又可以从何种意义上说明人类不会被人工智能取代呢?

五、结语:人有人的用处,人机共建新系统

人工智能是科学高度发展的智能化产物,其自身的本质依旧是技术人工物。任何广义的人工物,都具有主导其功能与构成的形式和质料。

从技术发展史的角度来说,人工智能的研究起步于对人类智能的模仿,因此人类的形式就是其追求的终极的形式,只是它用以实现人类智能的质料又与人类的肉身大相径庭。比如各类金属或有机材料是构建人工智能的机械身体的物质质料,各类运算机制和计算方法则是实现计算机智能的语言质料。这些现实的差异,以及人工智能后来所取得的一系列进步,让我们开始习惯于用一种对立甚至敌对的眼光去审视人类模仿自己而创造的各种人工智能产物。但不能忽视的却是,技术人工物得以持存的原因是某些目的性的实现。此时一个更加现实的问题就是,当人类不是以一种对立的姿态看待人工智能,而是以一种相互交融的态势与人工智能发生关联将会发生怎样的变化?

人类其实不单单可以作为人工智能所模仿的形式而存在,也可以作为技术系统当中真实有效的质料或部件。脱离开对人工智能的具象化的刻板预设,让人类、计算机和手机等智能单元都成为数据运算的可能参与者,这将是一种能让人工智能更快提升功能的解决方案。因此,在技术人工物的视角下审视人工智能的发展,其实质就是提供实现某类功能的可行的解决方案。在这种意义上来说,人非但不会存在被取代的可能,更可以与技术产物相互交融构建新的系统,人类智能不仅是人工智能研究中终极意义上的形式与目的,也是智慧功能实现层面上可以带来现实意义的行动者。

维纳用《人有人的用处》这一书名,来提示人们在控制论和信息论背景下应该重新思考“人”的概念。这里我们用“人有人的用处”来回应,为什么在现实的实践的视角下,人类不会被人工智能取代。当人类摒弃了人与机器的对立态度,在一个可以平等进行信息交换与计算的网络上共建一个人工智能系统,人类既能依旧作为智能系统的终极目的而发挥类本质层面上的导引作用,又可以在个体层面上履行新的社会分工责任———人将仍然有人的用处。

〔参考文献〕

[1]李开复,王咏刚.人工智能[M].北京:文化发展出版社,2017.[2]匡文波,韩廷宾.消息写作有可能被人工智能取代[J].新闻论坛,2017,(4):32-35.

[3]袁跃兴.“人工智能”技术能否取代诗人?[N].北京日报,2017-06-22(18).

[4]黄欣荣.人工智能对人类劳动的挑战及其应对[J].理论探索,2018,(5):15-21.

[5]徐英瑾.人工智能无法全面取代人类[N].第一财经日报,2018-09-18(A11).

[6]刘润坤.人工智能取代艺术家?——从本体论视角看人工智能艺术创作[J].民族艺术研究,2017,30(2):71-76.

[7]梅剑华.理解与理论:人工智能基础问题的悲观与乐观[J].自然辩证法通讯,2018,40(4):1-8.

[8]黄欣荣.卡普技术哲学的三个基本问题[J].自然辩证法研究,2012,28(8):27-31.

[9]王楠,王前.“器官投影说”的现代解说[J].自然辩证法研究,2005,21(2):1-4,17.

[10]钟义信.范式转变:AlphaGo显露的AI创新奥秘[J].计算机教育,2017,(10):9-14.

[11]宋小芹,王莉丽,张卫星.基于机会认知的类脑智能数据挖掘机制[J].计算机仿真,2016,33(11):375-378.

[12]陶建华,陈云霁.类脑计算芯片与类脑智能机器人发展现状与思考[J].中国科学院院刊,2016,31(7):803-811.

[13]吴国林.后现象学及其进展——唐·伊德技术现象学述评[J].哲学动态,2009,(4):70-76.

[14]刘伟,厍兴国,王飞.关于人机融合智能中深度态势感知问题的思考[J].山东科技大学学报(社会科学版),2017,19(6):10-17.

[15]骆清铭.脑空间信息学—连接脑科学与类脑人工智能的桥梁[J].中国科学,2017,47(10):1015-1024.

[16]Correia,L.Fromnaturaltoartificiallife[J].RevistaPortuguesadeFilosofia,2010:789-802.

[17]King,R.D.RiseoftheRoboScientists[J].ScientificAmerican,2011,304(1):72-77.

[18]李平,杨政银.人机融合智能:人工智能3.0[J].清华管理评论,2018,(Z2):73-82.

[19]毕丞.行动者网络理论在科技传播领域中应用的可行性研究[J].自然辩证法研究,2014,30(3):76-82.

本文摘自:北京科技大学学报(社会科学版)2019年4月第35卷第2期

【毕丞:北京科技大学哲学教师】返回搜狐,查看更多

人工智能会取代人类吗

会这样吗?蔡华伟绘

不久前,在中国乌镇围棋峰会上,人工智能程序“阿尔法狗”与排名世界第一的中国围棋职业九段棋手柯洁对战,以3∶0的总比分大获全胜。在此之前,它曾经以4∶1的总比分击败过同为围棋世界冠军的韩国职业九段棋手李世石,并在中国棋类网站上以“大师”为注册账号与中日韩数十位围棋高手进行快棋对决,连续60局无一败绩。两年来,“阿尔法狗”横扫中日韩围棋棋坛,并且每次表现都堪称完美。

一直以来,就有人工智能的发展会威胁到人类生存的观点,而“阿尔法狗”能在典型的反映人类智慧的围棋比赛中屡屡打败人类,更是加重了一些人的担忧。

那么,人工智能对人们工作、生活的直接影响到底有多大?它具备了人的部分能力,甚至比人类做得更好,未来会不会和人类抢“饭碗”,甚至对我们产生威胁?

具有不可

比拟的优势

未来人工智能可在金融投资、医疗诊断、企业经营、军事指挥等方面进行高水平的预测和决策

人工智能会取代人类吗?应当说,这种担忧也有一定道理。

近年来,人工智能各方面的发展都在逐渐完善,应用也越来越多,并且在很多方面的表现都超越了人类。

比如,2015年9月,腾讯财经推出了自动化新闻写作机器人。它能根据算法在第一时间自动生成稿件,瞬时输出分析和研判,一分钟内就能将重要资讯和解读送达用户。

还有,备受关注的微软小冰,作为一个虚拟伴侣型机器人,它能够模拟人的语气与人对话,聊天时让人感觉这就是一个活生生的人而并非机器。

此外,据外媒报道,摩根大通已经开发出一款金融合同解析软件,原来律师和信贷人员每年需要36万小时才能完成的工作,该软件只需几秒就能完成,且错误率大大降低。

青岛智能产业研究院智慧教育研究所副所长刘希未说:“在问题求解方面,人工智能程序已经能知道如何考虑它们要解决的问题,即搜索解答空间,寻找较优解答。在无人驾驶方面,人工智能已经可以实现长距离复杂路况下的自主驾驶。”

“未来在认知层次,人工智能还将会有广阔应用空间,例如人工智能可在金融投资、医疗诊断、企业经营、军事指挥等方面进行高水平的预测和决策。”中国科学院自动化研究所研究员孙哲南说。

而著名物理学家史蒂芬・霍金则认为人工智能给人类社会带来的冲击将更为巨大。2016年底,他在英国《卫报》发表文章预言说:“工厂的自动化已经让众多传统制造业工人失业,人工智能的兴起很有可能会让失业潮波及中产阶级,最后只给人类留下护理、创造和监管等工作。”

这样的判断还有待未来验证,不过,相比人类智慧,人工智能的确有着不可比拟的优势。

刘希未说:“和人脑相比,人工智能算法应对数值和符号计算更加精确快速,稳定可靠。特别是对于有确定规则的计算问题,人工智能可以远远超出人脑的计算速度,也更容易找到最优的解答。比如,在数值计算,图形、语音、生物特征、行为姿态等方面的识别,甚至更加复杂的预测推理任务方面,人工智能都有超越人脑的优秀表现。”

不会取代

甚至威胁人类

人工智能不具备感性思维,无法跨越到意识领域

那么,人工智能真的会因此而取代人类本身,甚至对我们产生威胁吗?记者采访的几位专家都给出了否定的答案。

首先,专家们认为,当前的计算机架构和编程模式具有本质上的劣势,使得人工智能无法实现与人脑情感、意志、心态、情绪、经验等方面的自然交互。本质上,人工智能仅仅是物质世界范畴的概念,无法跨越到意识领域。

1981年荣获诺贝尔生理学奖的罗杰・斯佩里博士曾发布著名的“左右脑分工理论”,认为人脑的左右半球有着不同分工:左半脑擅长分析、逻辑、演绎、推理等理性抽象思维;右半脑擅长直觉、情感、艺术、灵感等感性形象思维。迄今为止,人工智能的所有智能化表现仅仅在模仿人类左半脑的理性思维模式,而完全不具备右半脑的感性思维。

“也就是说,目前的人工智能技术还很难应对具有显著人类主观意识影响的社会文化和意识领域的各类问题,而人脑却可以通过长期在复杂社会环境下的学习成长轻松应对这类问题。”刘希未说。

他进一步举例说,比如人工智能至今也还没有创作出真正具有人性境界的作品。“电脑与人脑,毕竟有着机械性与生命灵性的本质区别,因此,电脑创作与人脑创作之间尚存在着难以逾越的鸿沟。个性化是人类文学艺术创作的生命,而已有电脑创作系统尚无个性可言,只不过是对已有的艺术作品的模仿、复制与重组。”

那么,随着人工智能的不断发展完善,将来是否有可能实现这种自发的情感智能呢?

“情感智能化分成两个层面,一个是让机器本身具有情感,另外一个是让机器理解人的情感,两者是不一样的”,中国科学院自动化研究所研究员易建强说,“让机器去理解人的情感,这件事是有可能做到的。目前有一部分机器人系统能够做到部分理解场景、环境及对话内容,并根据其结果做出相应的反应或者表情。但要机器人或人工智能系统完全达到人类的水平,有自发的情感和创造性,那是很难实现的,或者说不可能实现。”

中国自动化协会副理事长、秘书长王飞跃对此表示认同,“我个人认为100年内无法实现,或许永远不可能实现,除非重新定义什么是人的情感、理解、推理等等。原因很简单,人们现在都还不清楚这些情感的内涵、产生的过程及其方式。”

将成为人类

发展的加速器

人工智能的确会对人类就业造成一定冲击,但人类的工作不会消失,而是转变为新的形式

科学家们还认为,人工智能技术只是人类智慧创造的一种新型工具,它有助于人类更快做出突破,提高我们应对那些亟待解决的全球性难题的能力。

“我们需要人工智能这个强大的工具来帮助处理复杂问题,预测未知,支持我们实现以往不可能的目标。”王飞跃说。

专家们表示,很多划时代的科技成果必然引发人们生活方式的改变,短期内很可能难以被接受,但若放眼历史长河,就会发现,所有重大的科技革命无一例外地都最终成为人类发展的加速器,同时也是人类生活品质提高的根本保障。

“人工智能技术的出现也同样如此,它的确会对人类的就业造成一定冲击。比如,人工智能更适合处理简单重复、规则确定或者通过案例学习可以找到有效处理规则的问题。像安检、看病理切片和监控视频审核等交给人工智能更为高效可靠,这些工种也因此比较容易受到冲击和替代。”不过,易建强表示,不必因此就担心它会彻底取代人类。“以第一次工业革命为例,它不仅仅是让人类的既有工作被取代,同时会制造出足够多的新的就业机会。大多数情况下,工作不是消失了,而是转变为新的形式。”

易建强说,马车被汽车取代就是一个非常典型的例子。当年,汽车开始进入大城市并逐渐普及的过程中,曾经在数百年的时间里充当出行工具的马车,面临着“下岗”威胁。但后来的事实证明,新兴起的汽车行业拥有比传统马车行业多出数千倍甚至数万倍的产值和工作机会。

“现阶段,在一个真正实现人工智能的工作场景中,传统劳动者也并未被‘下岗’,只是改变了角色而已。仍然需要人类对人工智能的表现进行监控,进行情报采集与分析,以及开展预测性的实验与评估,引导性的过程管理与控制。”王飞跃说,“我相信将来人类90%以上的工作是由人工智能提供的,就像今天我们大多数的工作是由计算机和各种其它机器提供的一样。”

《人民日报》(2017年07月07日20版)

(责编:易潇、沈光倩)

分享让更多人看到

无限接近人类的人工智能模型,为何是算力才会无限智能

ChatGPT是OpenAI发布的对话式人工智能语言模型,其中GPT是GenerativePre-trainedTransformer(生成型预训练变换模型)的缩写。

它颠覆了传统的人工智能,它会根据反馈进行强化学习调整,它具有更自主的学习能力和更接近人类的回复,称得上是“人工智能”。

通过一段时间使用可以ChatGPT有着更鲜明的特点:

它可以承认自身问题,通过用户反馈,模型进行调整;

它会分析问题的正确性,对不正确的问题做出修改;

它对无法回答的问题表示不能,而不是传统的人工智能去强行回答;

它会理解提问,对多轮问答可以连续作答。

还记得ChatGPT最开始火的时候,大家都震惊于它的智能回答,网络上还流传出ChatGPT是假的,根本不是人工智能,是公司中印度籍的工程师在后台给大家回复消息。

并且ChatGPT的用户量两个月就过亿,打破最短破亿的时间纪录,前段时间以色列总统的发言稿中也有一部分是ChatGPT写的,它可以完成一般的程序代码,设计新闻稿等人类工作,这完全不同于我们之前的Siri、小爱同学。

有人给最新的ChatGPT-4做智商测试,基本在80左右,而一个普通成年人的智商90+。由此可见,ChatGPT确实无限接近人类回复的人工智能。

这些接近人类的人工智能模型才可以称得上是真正的人工智能,但是在这种无限接近人的模型下却是超大算力的支持。

这是什么原理,为何是算力才会无限接近人工智能?

 

有过深度学习的同学就会懂得,训练模型的数量越多,最终得到的结果越精准,这就是所谓的“量变引起质变”。

目前的人工智能都是“深度学习+大算力”来获取训练模型。也就是大模型,也叫做预训练模型,是在大规模无标注数据上进行训练,学习出一种特征和规则。再基于大模型进行微调训练,完成既定任务。

ChatGPT的训练模型叫做生成式预训练变化模型。简单理解可以分成三步:

首先,使用超大量的数据来进行训练。ChatGPT它的数据来自2021年以来的所有互联网信息,不论是官网信息还是网友发言都是进行训练的数据。

再针对训练结果的回复正确性进行排序训练,多次微调整得出正确的回复答案。

最后通过广大网民对它进行训练,大量的回复也可以训练这个模型,越多的对话,越可以训练正确的模型。

这种也是一种新的学习模型,不是以往只会通过内部所训练的数据进行机械式的回复。因此大模型是人工智能的发展趋势和未来。

通过ChatGPT的模型也可以看出来,决定人工智能模型更智能的方面就是三个:1.训练样本数量2.算法模型3.算力规模。

首先训练数据量,对于各大互联网来看,训练数量基本是大差不差,这个不能是人工智能模型的关键点。

更关键的问题在于算法模型和算力,这两个都是高度依赖GPU芯片,也可以理解为哪家有更多GPU芯片,更完善的算法模型就可以研发出更厉害的人工智能模型。

我们来看GPU芯片现状,高性能GPU芯片都是英伟达公司的,其中主要使用的A100系列芯片,单价高达10万,更关键的是美国禁售,即便是A800不禁售,但是经常性的断货,有价无市。

其实A100系列,对于美国本土的科技公司也是有价无市,特斯拉、元宇宙等科技巨头,它们A100总计也就7000左右枚,完全无法满足大算力的人工智能模型。

但是,ChatGPT的openAI公司,背后由微软公司斥巨资提前买入了上万片A100,组成了算力模型。这是一个什么概念,全世界其他所有公司的A100加起来也就勉强和openAI持平,这种差距的算力导致ChatGPT一家独秀。

大家也不要去羡慕openAI有了垄断级的GPU算力,根据英伟达公司的CEO老黄说,训练一次ChatGPT需要1000万美元。

而这种巨额的训练费用从侧面反映出来目前的大模型训练已经触碰到算力的天花板,导致现在训练成本高昂。

从各个方面可以看出来,发展人工智能是需要大量的财力支持,单单一个A100芯片都需要10万,没有几十亿的成本研发根本不会有好的结果,人工智能的任重道远啊。

现在也不需要紧张,ChatGPT会取代人类。目前它的很多的专业的问题回答也不是完全正确。

其实可以将它看做一个强大的人工智能引擎,它去帮助人类过滤筛选咨询的问题结果,将所有的答案总结汇总,最终还是需要我们人类进行分析。

但是不要紧,这也是人工智能发展的一大步,就像有的人说的虽然现在计算1+1=3是不正确的,但是未来总会算出来1+1=2,甚至更复杂的计算。

虽然现在ChatGPT有的很多问题,研发投入惊人,使用问题频出,但是我相信它是引领人工智能新浪潮的带头人,它的现在就好像是世界第一台电脑出世一样,最初的电脑体积巨大,耗电惊人,问题频出的现状如出一辙,但是最终它会改变世界。

我们共同见证它的发展吧!

更多信息可以关注“摸鱼IT”- chatGPT引爆算力需求

版权声明:本文内容由互联网用户自发贡献,该文观点仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌抄袭侵权/违法违规的内容,一经查实,本站将立刻删除。

上一篇

下一篇