博舍

人工智能为什么不能代替人类 人工智能为什么不能取代意识形态呢知乎文章内容

人工智能为什么不能代替人类

■吴荻枫

人工智能没有意义的概念,没有价值观,终究只能是人的工具,而不可能超越人类。

近年来,人工智能技术发展极其迅速,各种智能设备、智能软件已走进千家万户,改变了我们的生活方式和工作方式。因此,不少人认为,在不久的将来,人工智能将会全面代替人类智能,甚至超越人类智能。不过,这种观点过于悲观,人类的思想和行为中最重要最独特的部分,是人工智能无法实现,更无法替代的。

人工智能不管多么发达,归根结底,都是在人类给定的框架下解决问题。比如,某人每天上下班,公司和家之间的距离有15公里。他可以选择的交通工具包括打的、公交车、地铁、自驾车、共享单车,以及这些工具的组合。如果他去问导航软件,导航软件可以根据他的要求以及实时路况,给出一个最优的出行方案。这在现实中往往是很有用的。然而,虽然有不少人会选择在工作地点附近买房或租房来解决通勤问题,导航软件却绝不会给出搬家的方案。因为导航软件的运行程序,或者说运行框架没有这种手段可供选择,但人却不会受既有框架的约束。

人工智能也不能主动确定需要解决的问题是什么。举一个非常简单的例子,如果我问智能应答软件:“帅帅在哪里,你看到帅帅了么?”它要么回答不知道,要么给出一个错误的答案。而我如果拿这个问题去问人,被问的人不管知识水平如何,第一个反应恐怕都是:“你说的帅帅是谁啊?”我就会告诉他,帅帅是我的小狗,是什么样子,有多大,有什么特点,等等。可见,人类首先能够主动确定要解决的问题是什么,也就是说确定目标。我举的这个例子非常简单,以后人工智能或许也能应对,但并不是软件学会了如何确定问题所在,而是设计人员扩充了或者改变了软件运行的程序或框架。

总之,如果人类确定了问题,确定了可用的手段或者信息,人工智能可以给出答案,乃至近乎完美的答案。但是,人工智能不会设计这种目的—手段的框架,也不会主动突破这种框架。

人是追求意义的智慧生物,因此有自己的价值观。人类赋予某些事物以意义或价值,才构成了目的—手段的逻辑关系。也就是说,人能知道自己要的是什么,怎样才算是达成了目的。而人工智能没有意义的概念,需要人类将具有意义的逻辑关系编码输入,人工智能才能按照这种关系工作,但它本身无从建立这种关系。

人以意义来理解世界,也以此与他人交流、合作。米塞斯曾举过一个例子,假如某人闯入了一个从未去过的原始部落。那些原始人未开化,没有语言,或者即使有语言他也听不懂。但是,如果他看到这些原始人架锅生火,他就会知道,他们是要做饭了。人类有相似的心智结构,即使语言不通,也可以相互理解。如果换成机器人呢?除非是科幻电影里那些由演员扮演的机器人,否则它只会搜索和输出代码,而不会真正试图去理解眼前所发生的事。

可见,人与人工智能最大的不同,就是人通过意义和价值与外部世界建立联系。这是人作为主体而不是客体的基础,也是人类合作和创新的基础。人工智能没有意义的概念,没有价值观,终究只能是人的工具,而不可能超越人类。

值得注意的是,我们可以看出,主流新古典经济学的理性经济人假设,正是将人当成了在既有目的—手段框架下寻求最优解的机器。这其实是省略了人的行为中最具有本质性和创新性的部分。理性经济人所构成的经济体,是静态的、机械的,被动的,充其量是人工智能的世界,而不是人类社会。

经济学是价值中立的科学,因此经济学不研究也没有足够的能力研究某个个人究竟应该确定什么具体的目标,运用什么具体的手段,但是,经济学应该将个人在目的—手段框架的行为模式纳入研究的范畴,否则就是舍本逐末,具有难以克服的缺陷。

(作者系西南民族大学讲师)

[责编:战钊]

人类为什么不会被人工智能取代?

来源:人机与认知实验室

〔摘要〕文章旨在对人工智能的技术本质进行分析,以回应为什么人类不会被人工智能取代的问题。通过历史分析的方法,以“器官投影说”等技术哲学思想作为分析工具,回顾了人工智能技术的历程。发现在理论上,人工智能的研究加深了对人类智能的模仿的同时,更倾向于由机器与人类共建智能系统的解决方案;实践中,人机关系也从“分离”更多地走向“交融”。因此,人类除了能在本质层面上作为人工智能这种人工物所模仿的终极目的而存在,还能在个体层面上作为大的人工智能系统的行动者发挥智慧功能,人类不会被人工智能取代。

 〔关键词〕人工智能;器官投影;人机融合

一、“人类是否会被人工智能取代”的当代回应

  随着计算机科技的高速发展,“人工智能”的研究取得了长足的进步。随着“阿尔法狗”在人类引以为傲的围棋领域中让人间棋圣尽尝败果,“微软小冰”以诗人的身份混迹文学圈乃至出版诗集却一直未被人发现,人工智能谱曲、播报新闻的案例亦是屡见不鲜……人工智能的一切进展在反映科技事业的长足进步的同时,也让人类智能的优越性受到挑战,关于“人类将被人工智能取代”的恐慌也在社会上流行。

    那么人类是否会被人工智能取代?人们从不同的视角给出了各自的答案: 

 基于人工智能目前在现实实践活动中的表现及其发展趋势,有人认为人工智能可以取代人类。如互联网行业先驱李开复曾预测“未来10年估计有50%的人类工作将会受到人工智能的影响……预计将有90%的人被人工智能取代”。新闻传播领域,匡文波与韩廷宾结合“腾讯Dreamwriter”和“新华社快笔小新”在新闻采写中的表现认为“未来某些领域消息写作有可能会被人工智能所取代”。而在文学艺术领域,袁跃兴根据“微软小冰”人工智能成功发表诗篇甚至出版诗集却一直没被人识破而慨叹“‘人工智能’技术已经发起了对人类文学尊严的挑战”。 

    也有人基于人类思维或情感的特殊性,认为人类不会被人工智能所取代。此类观点的基本预设便是,人工智能并不能理解人类情感,甚至认为人工智能并无人类一般的“智慧”。如黄欣荣认为“机器毕竟是机器,在体力、智力方面胜过人类,但在情感、意志等方面,机器还无法匹敌人类,因为人工智能目前仍是有智力没智慧”。徐英瑾也“并不倾向于认为人工智能取代人类……现有的人工智能并不具备灵活运用各个领域的知识进行综合判断的能力,而几乎我们能够想到的大多数人类所执行的工作任务,都需要执行者以相对灵活的方式来调配各个领域内的知识”。刘润坤则基于人类审美能力的独特性指出“人工智能在未来相当长的一段时间无法取代艺术家,其根本原因就在于机器创作没有灵魂”。 

    总体来看,认为人类会被人工智能取代的一方,其主要出发点是人工智能的现实功用,尤其是当人类和人工智能都可以完成类似于驾驶汽车这类的活动,且人工智能可以有更低的失误率时,人工智能在社会分工层面取代人类将极可能实现。而认为人工智能不可取代人类者,则是坚持认为人类与机器在本质上存在的差异,比如虽然人工智能完全可以完成一副画作,但它们只是通过一些机械的动作完成色彩与线条的搭配,永远是“知其然不知其所以然”。 

    但两方的回应都具有明显的不完备性。对于认为人工智能可以取代人类的一方,即便人工智能的很多功能可以实现对人类的替代,但是依据“多重可实现原则”可知,人工智能实现这些功能的机制可能与人类完全不同。这就意味着人工智能与人类社会的对接方式不一定与人类一致,甚至在某些潜在的情境下人工智能会与人类社会无法兼容。对于认为人工智能无法取代人类的一方而言,所有对于人类理性、情感或自由意志的坚信更像一种形而上学的预设。因此即便人工智能创作出如梵高、塞尚再世级别的画作,人类依旧可以用“没有灵魂”来进行拒斥或批判。但这种观点本身缺乏论证,关于人类特性的预设也显得带有神秘的不可知论的特征。 

    综合以上,上述两方面回应的共同缺陷在于,他们的探讨并未结合人工智能的发展历程,因而脱离了对人工智能的构建机制的研究。这就让人类智能和人工智能之间的比较,像是两个“黑箱”之间的对话,人们并不能更好地理解人工智能之于人类的挑战性和人类之于人工智能的独特性。基于此,本文将从人工智能的技术本质的角度探究,“人类是否会被人工智能取代”的问题。

二、对人类的模仿:人工智能的技术起点

    阿兰·图灵是第一位真正提出,如何验证机器已经产生人类思维的实验标准的科学家。在图灵的思想实验中,计算机程序或者说是广义的机器人是在与人进行一场精致的“模仿游戏”,即在人与机器的双盲对话中,机器不断模仿人类的语言习惯,以欺骗参与对话的人类,让人类相信自己是在与人而非机器对话。这一思想实验后来在计算机科学的发展中,被发展成为广义的“图灵测试”。按照这种标准,一旦机器通过图灵测试,就可以判定机器具有和人相一致的思维能力,这种观点被称为“强人工智能”的观点。 

  围绕着机器通过了图灵测试,是否就可以判定机器的思维机制与人类相同,人工智能哲学界引发争论,其中又尤以塞尔的“中文屋”思想实验较为著名。

    “中文屋”思想实验的主要预设是,在一个大家看不见内在构造的屋子前,只要人们对其说出某些中文,屋子中就会给出相对应的中文回应,这给人一种屋子中的人或事物非常精通中文的感觉。但一种可能的情景却是,屋子中有一套完备的中英文的对照规则手册,屋子中的人或其他事物根据手册指示,先找到接收到的中文所对应的英文,再基于对照手册的指示对外给出一个中文的回应,这样即便屋子中的人或事物不懂中文,也会看似精通中文。 

    塞尔的“中文屋”思想实验就是在论证,即便机器人或者计算机可能在某些方面的表现不亚于人类,但是依旧不能说机器已经理解人类的思维方式。“一个弱意义上的人工智能程序只是对认知过程的模拟,程序自身并不是一个认知过程。”换言之“弱人工智能”的主要观点就是,人工智能可以在行为上模仿人类,但不代表它能像人类思维一般实现自我理解。 

  上述只是强弱人工智能之争的最基本内容,在人工智能哲学的后续发展中,关于“规则手册是否真的可能存在”“理解了规则手册是否相当于理解中文”等问题还引发了后续的诸多争论。相关的论述至今已经汗牛充栋,但本文的重点并不是细述强弱人工智能观点的分歧,而是试图发现它们都可接受的理论共识。 

    “图灵测试”最终的判断标准,是人工智能有没有骗过人类,或者更准确地说,就是人工智能是否已经掌握与人相似的表述方式。更广义地理解这一标准,也就是判定一个程序或机器人的设计好坏的标准在于,它的行为与表现究竟有多么接近人类。这样一来,即便是一个最终没能通过“图灵测试”的人工智能设计也具有积极的意义,因为它可能已经在接近人类的方向上又迈进了一步,它也完全可以保留自身的优势,在其最接近人类的方面做进一步的加强,甚至可能在这一方面超过人类。 

    也有人认为,塞尔的“中文屋”在很大程度上只是在给人类找回最后的颜面。因为如果只是在某些专业领域,比如数学计算或者棋类竞技上做一个长期的开发,人类很可能不是人工智能的对手。但即便如此,人类依旧可以有充分的理由认为,机器并不具有人类一般的智能,因为人工智能至多只是“规则手册”的良好执行者,并不真正理解其自身的行为。 

    综上可以发现,强弱人工智能观点的分歧,其实主要在于人工智能相较于人类智能的完备度的认可上。这反而彰显了它们在底层有这样一些最基本的共识:第一,人类智能是人工智能发展一直所参照和模仿的对象;第二,人工智能发展的完备程度只能以人类作为参照甚至以人类能否接受作为最终标准。    因此在这种意义上来讲,人工智能完全可以被视为人类智能的“投影”,这与技术工具发明的“器官投影说”相通。“人类在长期的劳动、生活过程中,学会了利用身边的各种器物以弥补我们自身的不足,进而还学会了主动制造原来不存在的各种工具和器械来增强人体自身的功能……人类发明、制造工具其实最初都是按照自身的某个器官做摹本。”只是人工智能的发明是以人类的智能器官———按照生理学或医学的概念范式就是大脑,按照哲学的概念范式就是心灵———作为模仿对象。 

    力主模仿人类“大脑”或“心灵”的人工智能研究,要提升研究水平的前提就是要有“投影”人类智能的方法。接下来的问题就是,人工智能研究中,这种“投影”的策略是什么?

三、对人类智能从浅到深的“投影”:人工智能的技术策略

    按照器官投影说的说法,“投影”至少有两层含义,“一方面,人体器官的形状和功能‘投影’在工具中……另一方面,人体器官的尺寸、比例被抽象和放大到工具中”。在一般技术工具的发明和制造过程中,这两种“投影”都已经被应用到淋漓尽致的地步。以日常用来盛水或食物的碗为例,其原型就是人的双手捧起水或食物时聚拢在一起的形状,碗的发明就是实现了这种盛放物品的功能。同时,碗在实际的制作中口宽底窄,依然是配合人类的手型,但是又会依据碗的用途的不同,而放大或缩小相应的尺度。 

    但是人工智能想要投影人类智能并非易事。如果作为器官来看,人类的思维器官是最具复杂性和神秘性的脑。尤其在人工智能发展的初期,医学或生理学能够对大脑做出的解读并不多,这就让人工智能研究对于人类智能的投影只局限在表象层面的人类的行为。随着计算机技术水平的提高,人工智能的研究就走向对人类认知器官的某些特定功能的专门模仿。到了医学可以对脑有一个更深层次的解读,并且计算机技术可以实现对于脑更深层的模仿后,人工智能又来到一个新的纪元。

(一)对人类行为的投影 

    在心理学的预设当中,人类的行为是一种对于人类思维状态的表征。因此当人工智能可以对于人类的行为进行模仿时,也就在一定程度上实现了对于人类智能的模仿。 

    较初级的人工智能产物一般都是在极力模仿人类的各种行为。一些工业领域常用的智能维修机器人更是主要只是模仿人类操作器物的行为。很明显的是,单纯依靠此类人工智能技术并不能通过图灵意义上的“模仿游戏”的测试。从本质上说,此类人工智能产物是对于人类的“感知—动作系统”的模仿,更主要的是实现对于人类肢体动作的模仿。图灵的“模仿游戏”重点检测的则是更深层次的,机器对于人类“语言—思维系统”的模仿。 

    但是此类人工智能技术依然具有存在的意义,它在现如今的人工智能的整体设计当中主要充当一种辅助技术,尤其在人形机器人的肢体的设计与生产环节,因此相关研究依然在提升其技术精度,并仍被广泛应用于人形机器人的设计生产之中。

(二)对人类特定智慧功能的投影 

    此类的研究依然可以暂时悬置人类的认知器官的真实构造这一问题,而是直接“利用计算机作为硬件平台,通过编制聪明软件来模拟人类智力功能”。此类研究策略可以让人类的认知器官继续保持一种相对的“黑箱”状态,只要保证计算机硬件平台可以在输出端给出与人类的判断尽可能相似的结果就好。 

    贯穿其中的研究策略在很多的专门领域当中取得较好的成效,目前已经在实践领域当中有广泛使用的人工智能产品,实际上就是采用此类的研究策略。诸如大家所熟知的京东、阿里巴巴和腾讯集团推出的智能客服,以及华为的“YOYO智能助手”和小米的“小AI同学”等,实际上就是在实现对于人类某些方面的语言功能的模仿。 

    此类研究的局限性就在于它总是只能解决某一专门领域的问题,比如一个智能家居助手可以解决的问题是将室内温度调整到20℃,但是它可能并不能理解温度数据与人类关于“寒冷”“炎热”的感受,更不能体会“老人怕冷”“孩子怕热”这类的亲情关怀。

(三)针对人脑的技术投影 

    随着近现代生理学尤其是脑科学的发展,对于人类认知器官的认识也逐渐走向了精细化。信息技术的高度发达,让计算机系统的搭建也可以形成对于人类认知器官的深层次模仿。近年来,随着“在不同方向上观测不同认知任务下脑部神经的活动变化并获得相关类脑智能数据已成为可能……发展类脑智能现已成为人工智能学科以及计算机应用相关领域研究的热点”。例如前文中提到的阿尔法狗的构建理论基础,就是人工神经网络技术的深度学习策略,类脑人工智能是其技术实质。除了人工神经网络技术外,“参考人脑神经元结构和人脑感知认知方式来设计的”类脑芯片也在成为目前人工智能领域研究的重点,并且芯片的运算机制已经愈发地接近人脑思考问题的方式。 

    基于人类脑科学研究成果而发展出来的此类人工智能技术,被称作“类脑智能”。此类技术不再只是从模仿外部的人类的行为或功能来实现机器的智能涌现,而是直接着眼于人类智能的发端,对脑的结构进行更深层次的模仿。类脑智能的研究可谓是人工智能目前最前沿的进展之一。但是直到目前为止,针对人类复杂的大脑的研究尚处于起步阶段,要实现对人脑的整体解读仍需要一个很长周期的研究。 

 综上所述,人工智能研究的认识论基础是技术哲学意义上的“器官投影说”,脑科学的最新研究进展成为人工智能更精细化投影人类认知器官的理论工具。当然,认识论层面上的理论基础或理论预设都会带有一定的理想化的特征,尤其只是在近些年脑科学的新进展才更好地支撑了人工智能研究的发展。在此前和未来的很长一段时间里,人工智能的研究主要还是要集中在与人类相似的智能功能的实现层面上,而未必是内在结构上与人类认知器官的高度一致上。因此,这里实际上需要分析的问题是,当人工智能的结构构建必然与人类智慧器官自身存在差异的前提下,人工智能自身是否会有相应的局限,人类又可以通过扮演怎样的角色来协助人工智能突破这样的局限呢?

四、从分离到交融:人工智能与人的现实关联

 一个人工智能产物能够存在于社会,必然因为它可以实现某些方面的功能,从而满足社会某些方面的需求。这些相应功能可以实现的实质就是,人与人工智能,同客观世界之间以特定的形式发生相互关联,并且在不同的情境下人与人工智能之间的关系将有所不同。

(一)作为世界的一部分的人工智能 

    在诸如前文中所提到的各种研究环节,人工智能实际上都被视为一种待研究的对象来看待。其实不仅在研究阶段,到了应用层面也同样需要经历一个人对人工智能的认识和熟悉的过程。这就像我们拿到一台新的个人计算机,对于操作界面和随机功能均有一个必要的熟悉过程一般,一个新的人工智能产物走入到生产生活中,人类作为操控者或者说工作上的“合作伙伴”,需要将人工智能作为一个崭新的客体来进行研究。 

    此时的人工智能相当于世界的一份子,对于人处于一种几乎未知的状态,人与人工智能也在一种比较充分的分离状态之下。

(二)作为人与世界的媒介的人工智能 

    关于人工智能最为常见的应用模式,就是让人工智能代替人类去从事一些与外在世界之间的交互。比如人类派出探险机器人去探测星体表面,此时的机器人就是以人类的代理者的身份去完成人类的指令。在此类的应用之中,人类将自己的指令翻译成人工智能可以理解的计算机指令,人工智能完成相应的行动;在反馈环节中,人工智能则是依靠自身携带的各类传感器,将其收集到的各类信息传递给人类以备后续分析。 

 作为中介的人工智能带有一定的被动性,多数时候只能服从于人类的操控。这种意义上来说,此类人工智能更像是人类的欲望或意向性的转移者。它们也同样可以被视为世界向人类传递信息的媒介,它将那些人类肉身难以轻易企及的处所的信息传递给了人类。 

 人与作为世界的媒介的人工智能之间,会因为“使用”这种行为而发生交互,“使用”一旦停止人机将再次分离。

(三)作为人的“身体”的人工智能 

    称人工智能可以作为人类的“身体”,并不只是意味着人工智能产物已然植入人类身体(虽然在技术层面这早已可以实现),而是重点说明人工智能在应用层面给人带来的体验。 

    这种体验时常让人不会轻易察觉到人工智能技术的存在,它“展现出部分透明性,它不是人类关注的中心……经过短时期的适应之后,你不会感觉到它的存在……它已经成为身体体现的一部分,具有人的身体的某部分特征,它成为人类身体的延伸”。最常见的例子就是,如今的智能手机基本都具有导航功能,并且很多的导航程序都已经具有了很明显的人工智能特征。人在行走的过程中,其实已经让导航软件加强甚至替代了自己的“方向感”或“路感”。当一个人来到陌生的城市,也很少将辨识方位视为需要提前很久去完成的准备工作。 

    “方向感”本身属于人类智能的一部分,智能导航程序相当于加强了这种能力,但是在日常生活中,使用者会不自觉地将智能程序加成的“方向感”深以为然地视为自己天然具备的能力,这就是人工智能作为人类“身体”出现的最普遍的表现。 

    作为人的“身体”的人工智能,其影响力不仅在于实际的操作层面,而且在于它已经在人类的认知层面形成一种清晰的意向,让人类与其不自觉地相同一。

(四)人作为人工智能的“部件” 

    前文提到的“人工智能”总好像有一些很具象化的特征,也就是所有的人工智能产物似乎都有一个比较清晰的形态。不可否认的是,为了让人机交互显得更加友好,人工智能产品在其交互界面的设计上的确非常有人类色彩,如以人类的语音作为向导、仿照人类的形态制作输入输出设备等。 

    但实际上,人工智能系统的实际构造可能远比使用过程中所看到的界面要复杂得多。尤其是在分布式网络日益发达、大数据应用日益成熟的今天,理论上整个的网络信息平台都可能成为人工智能的数据库或云计算组件。因此,网络上的人类用户,在一定程度上就可能成为人工智能系统的某个空间节点上的部件一般的存在。并且需要注意的是“人比机器的优势之一就是:可以从较少的数据中更早地发现事物的模式”。也就是说作为人工智能“部件”的人类,一方面可以减轻实际应用层面上人工智能的计算压力,另一方面也在技术层面上搭建了以网络联结为基础的人机混合的智能系统结构。 

    人类充当人工智能系统的“部件”的原因大致上有两个:其一,就是实现应用目标的便利性的诱惑,毕竟在语言翻译等领域让人工智能短期内达到人类母语水平并不现实。在具体情境下,不一定非要人工智能通过模型计算给出合理的结果,直接转述人类在相应情境下的回应,可以更经济也更快速地实现应用需求。其二,就是目前人工智能领域研究的现实局限,前文提到的类脑人工智能的发展前景极具诱惑,其研发的基础就在于“以脑科学和信息科学的基本理论为指导……标记、获取、分析……精细脑网络结构与功能信息”。但攻克这项工程需要的可能是全人类长期的共同努力,突破人工智能的局限性不可能在一朝一夕,于是更可行的解决方案就是让人类作为宏观的人工智能系统的“部件”完成操作任务。

    由此,在实际的应用层面上,随着人工智能功能的完善和大数据技术等的全面加持,人与人工智能之间不会再是泾渭分明的“分离”状态,而是随着彼此之间依赖的加深(人将人工智能默认为自身的功能,人工智能借助人类智慧的优势更快完成操作任务),人与人工智能实际上走向了一种“融合”的状态之中。

(五)从模仿到共建:人机融合的现实趋势 

    如前文所言,最理想的人工智能研究,其实是通过脑科学的“逆工程”制造出一个完整的人工生命,“这是对于传统的,通过具有某些特定功能的计算机子系统来分析性地构建智能系统的人工智能研究的替代方案。”

    但是人工智能事业的发展,不能等待着此类研究的彻底完备,而是需要在实践中提升智能系统的问题解决能力,“这迫使我们要做出具体的工程决策,充分考虑抽象和具象的对象之间,以及观察的和理论的现象之间的关系”。在现实层面上,实际上需要被考虑的是人工智能性能的提升问题,既然“人机交互所产生的融合双重智能可以……提升人工智能系统的性能……更加高效地解决复杂问题”,那么人机融合就应该是被选择的趋势。

    一个现代的人工智能系统不再应该被简单地视为与人类孤立的技术产物,而更应该被视为一个人类智慧与机器智慧所共建的广义的网络系统。这一网络系统的特征与巴黎学派的拉图尔、卡龙和劳等人所提出的“行动者网络”非常类似。“‘行动者网络’本身是一种‘异质型’网络,即人类行动者和非人行动者平等构成网络,在具体的科技活动中……平等地影响着网络,并且通过对于网络的‘协同’或‘背叛’影响网络的运作”。人与非人行动者会因为他们有共同的行为意向而联结在一起,并作为整体共同实现相应的实践目标。

    并且应该与“行动者网络”理论的预设相一致的是,对于一个有某种明确的应用目的的智能系统而言,人与机器应该处于一种相对平等的状态之中。这里的“相对平等”的实现很可能是一种动态的总体的平等,即在某些具体的情境下,可能人类的主观意愿占据主导。但是在另一些情境下,机器的计算目标则更加重要。人类与机器在联结性和目的性等层面上发生的耦合,是人机共同构建智能系统的基础,它们之间彼此的协同促进,是共同提升系统功能的基本方法。

    那么基于以上认识,我们又可以从何种意义上说明人类不会被人工智能取代呢?

五、结语:人有人的用处,人机共建新系统

  人工智能是科学高度发展的智能化产物,其自身的本质依旧是技术人工物。任何广义的人工物,都具有主导其功能与构成的形式和质料。

    从技术发展史的角度来说,人工智能的研究起步于对人类智能的模仿,因此人类的形式就是其追求的终极的形式,只是它用以实现人类智能的质料又与人类的肉身大相径庭。比如各类金属或有机材料是构建人工智能的机械身体的物质质料,各类运算机制和计算方法则是实现计算机智能的语言质料。这些现实的差异,以及人工智能后来所取得的一系列进步,让我们开始习惯于用一种对立甚至敌对的眼光去审视人类模仿自己而创造的各种人工智能产物。但不能忽视的却是,技术人工物得以持存的原因是某些目的性的实现。此时一个更加现实的问题就是,当人类不是以一种对立的姿态看待人工智能,而是以一种相互交融的态势与人工智能发生关联将会发生怎样的变化?

    人类其实不单单可以作为人工智能所模仿的形式而存在,也可以作为技术系统当中真实有效的质料或部件。脱离开对人工智能的具象化的刻板预设,让人类、计算机和手机等智能单元都成为数据运算的可能参与者,这将是一种能让人工智能更快提升功能的解决方案。因此,在技术人工物的视角下审视人工智能的发展,其实质就是提供实现某类功能的可行的解决方案。在这种意义上来说,人非但不会存在被取代的可能,更可以与技术产物相互交融构建新的系统,人类智能不仅是人工智能研究中终极意义上的形式与目的,也是智慧功能实现层面上可以带来现实意义的行动者。

    维纳用《人有人的用处》这一书名,来提示人们在控制论和信息论背景下应该重新思考“人”的概念。这里我们用“人有人的用处”来回应,为什么在现实的实践的视角下,人类不会被人工智能取代。当人类摒弃了人与机器的对立态度,在一个可以平等进行信息交换与计算的网络上共建一个人工智能系统,人类既能依旧作为智能系统的终极目的而发挥类本质层面上的导引作用,又可以在个体层面上履行新的社会分工责任———人将仍然有人的用处。

〔参考文献〕

[1]李开复,王咏刚.人工智能[M].北京:文化发展出版社,2017.[2]匡文波,韩廷宾.消息写作有可能被人工智能取代[J].新闻论坛,2017,(4):32-35. 

[3]袁跃兴.“人工智能”技术能否取代诗人?[N].北京日报,2017-06-22(18). 

[4]黄欣荣.人工智能对人类劳动的挑战及其应对[J].理论探索,2018,(5):15-21. 

[5]徐英瑾.人工智能无法全面取代人类[N].第一财经日报,2018-09-18(A11).

[6]刘润坤.人工智能取代艺术家?——从本体论视角看人工智能艺术创作[J].民族艺术研究,2017,30(2):71-76. 

[7]梅剑华.理解与理论:人工智能基础问题的悲观与乐观[J].自然辩证法通讯,2018,40(4):1-8. 

[8]黄欣荣.卡普技术哲学的三个基本问题[J].自然辩证法研究,2012,28(8):27-31. 

[9]王楠,王前.“器官投影说”的现代解说[J].自然辩证法研究,2005,21(2):1-4,17.

[10]钟义信.范式转变:AlphaGo显露的AI创新奥秘[J].计算机教育,2017,(10):9-14. 

[11]宋小芹,王莉丽,张卫星.基于机会认知的类脑智能数据挖掘机制[J].计算机仿真,2016,33(11):375-378. 

[12]陶建华,陈云霁.类脑计算芯片与类脑智能机器人发展现状与思考[J].中国科学院院刊,2016,31(7):803-811. 

[13]吴国林.后现象学及其进展——唐·伊德技术现象学述评[J].哲学动态,2009,(4):70-76. 

[14]刘伟,厍兴国,王飞.关于人机融合智能中深度态势感知问题的思考[J].山东科技大学学报(社会科学版),2017,19(6):10-17. 

[15]骆清铭.脑空间信息学—连接脑科学与类脑人工智能的桥梁[J].中国科学,2017,47(10):1015-1024. 

[16]Correia,L.Fromnaturaltoartificiallife[J].RevistaPortuguesadeFilosofia,2010:789-802.

[17]King,R.D.RiseoftheRoboScientists[J].ScientificAmerican,2011,304(1):72-77. 

[18]李平,杨政银.人机融合智能:人工智能3.0[J].清华管理评论,2018,(Z2):73-82.[19]毕丞.行动者网络理论在科技传播领域中应用的可行性研究[J].自然辩证法研究,2014,30(3):76-82.

本文摘自:北京科技大学学报(社会科学版)2019年4月第35卷第2期

【毕丞:北京科技大学哲学教师】

未来智能实验室是人工智能学家与科学院相关机构联合成立的人工智能,互联网和脑科学交叉研究机构。

未来智能实验室的主要工作包括:建立AI智能系统智商评测体系,开展世界人工智能智商评测;开展互联网(城市)云脑研究计划,构建互联网(城市)云脑技术和企业图谱,为提升企业,行业与城市的智能水平服务。

  如果您对实验室的研究感兴趣,欢迎加入未来智能实验室线上平台。扫描以下二维码或点击本文左下角“阅读原文”

人工智能可以产生自主意识吗

作者:人民邮电出版社链接:https://www.zhihu.com/question/372639666/answer/1343242547来源:知乎著作权归作者所有。商业转载请联系作者获得授权,非商业转载请注明出处。 

「既然人类对自己存在的认知来源于“感知”和“记忆”,如果这两样东西都可以被模拟,那么“人类的存在”到底是不是一种模拟?」

热门美剧《西部世界》第三季中,机器人有了自主意识和思维,开始怀疑这个世界的本质。机器人Dolores逃出西部世界主题乐园,混入了人类世界,并企图通过摧毁人类的大数据系统,来获取世界的控制权。

《西部世界》剧照

《西部世界》的大热,折射出人类一直以来对AI技术发展的终极担忧:人工智能是否会觉醒?

由此回到题主的提问。答案极大可能是Yes,人工智能终究会有自我意识,只不过是时间问题。

为什么这么说?我们来看看学界的讨论。

何为「意识」?

《西部世界》的科学顾问,是神经学家大卫·伊格尔曼(DavidEagleman),这位斯坦福大学精神病学和行为科学系兼职教授,一直在大脑可塑性、时间知觉、通感和神经法的领域进行研究。

他认为,意识,是一种突破程序设定的连接。一旦我们理解了大脑的算法,就应该能够复制;如果这个算法等同于意识,那意识也理应可以被复制和转移。

大卫·伊格尔曼(DavidEagleman)

厦门大学周昌乐教授(从事人工智能及其多学科交叉领域的研究)曾解释过,根据现有的相关科学与哲学研究成果,人类意识的运行机制大致是这样的:

物质运动变化创生万物,生物的生理活动支持着神经活动,神经活动涌现意识(有意识的心理活动),意识感受生理表现并指导意向性心智活动的实现,从而反观认知万物之理。

也就是说,除可视化的硬件(四肢、器官、血肉、体液等)支持外,感觉(身体感受)、感知(对外部事物的感知能力,包括视、听、味、嗅、触)、认知(记忆、思考、想象等)、觉知(反思、意识、自我等)、情感(情绪感受)、行为(意志、愿望、情欲等)、返观(禅观、悟解)等,这些由人类自主定义的生理表现,与意识组成了一个复杂的系统。

简单来看,意识的产生,是一个“物质-生理活动-神经活动-意识-心智活动-物质”的循环。所以,只要条件满足,人类并不是唯一具有意识的物种。

人工智能的认知机制是如何搭建的?

那对于人工智能来说,需要通过什么条件来实现自我意识呢?

目前,我们模仿人类生理机能而研发出来了神经网络等技术。在意识方面,意大利巴勒莫大学机器人实验室的Chella教授用10年时间开发了CiceRobot机器人研究项目,通过模拟人的意识产生逻辑,实现了一种自我意识的认知结构机制。

该机制主要由三个部分构成——亚概念感知部分、语言处理部分和高阶概念部分:

亚概念感知是指对外部世界的直接感知;语言处理即对语言的识别与回应;高阶是对机器人内部世界的感知;通过机器人的高阶感知,就形成了具有自我反思能力的机器人。

这项研究工作的主要特点是将逻辑形式化方法与概念空间组织相结合,强调对外部事物的一种心理表征能力,并对外部环境进行内部模拟,这是自我意识产生的基础。

尼克的《人工智能简史》一书,阐释了AI的发展史与思想源头,对智能的进化也颇多着墨。

他写道:

谈人工智能绕不过去图灵机和在其上建立的整个计算机理论——任何计算装置都等价于图灵机。这个论题隐含着强人工智能的可能性:智能等价于图灵机。近年,也有人探索超计算——「计算能力超越图灵机的装置」,量子计算就是作为超计算的一种潜在设备。

如果一台机器通过了图灵测试,那他就被认为具有了人类智能。尽管图灵认为「机器能否思考?」这个形而上学的议题「没有意义,不值得讨论」。但他还是在著名的《计算机与智能》这篇论文中反驳了那些否定的观点。

尼克在书中发问:

过去的机器旨在节省人的体力,现在的机器开始代替人的智力。人通过两性繁殖的进化速度远远赶不上机器。机器的进化速度服从摩尔定律——每18个月性能提升一倍,而人的进化速度则是20年一代人。人作为物种,是不是不再具备进化的竞争优势?依靠硬件的摩尔定律,是不是可以达到超级智能?

这种超级智能,可能是以人工智能为主体,也可能是生物学意义上的物种,即「人工智能+人」。

当「人工智能+人」,是融合,还是对立?

詹姆斯·格雷克所著的《信息简史》,围绕逻辑与信息,打通了自然生命与科技信息的联系。

比如,书中谈到,生物体以负熵为“食”,新陈代谢的本质是,生物体成功地使自己摆脱在其存活期内所必然产生的所有熵,生物从周围环境中汲取秩序。比如吃的各种动植物,是很有“结构”的,而排出的东西,则更加混乱。

意思大概是说,生命体,与人工智能所应用到的数据、信号传输一样,也是由信息组成的。那么,是否有可能将人与人工智能进行打通,主导意识产生的核心,还是以人为主体呢?

在过去的一个世纪里,诺贝尔奖涉及的神经科学中的重要发现都跟大脑的信息编码、储存相关。随着欧盟“人脑工程”和美国“BRAIN计划”的开展,脑科学的新型方法和手段得到了快速发展。

2012年,美国国立卫生研究院启动了耗资3000万美元的“人脑连接组计划”(HCP),该计划关注的是大量神经元如何相互连接形成神经环路。通过绘制大脑连接组,科学家得到了详细的皮质环路接线图,这可能促成人们对皮层计算理解的飞跃,进而开发出新一代的人工智能网络模型。

而这对人工智能带来的影响,将是两个方向:

利用对人脑和认知的研究结果,将相似的结构和功能整合到人工智能中;以计算方法替代进化过程,通过计算机模拟来发现独立于人脑的有用结构和连接模式。

有意思的是,“硅谷钢铁侠”埃隆·马斯克以几近狂热的姿态入局这个领域。

马斯克在2017年成立Neuralink,目标是研发超高带宽的脑机接口系统,实现与人工智能的共存,开启“超人认知”的全新时代。

被嵌入Neuralink系统的实验鼠图片来源:Neuralink

脑机接口技术被称作是人脑与外界沟通交流的“信息高速公路”,是公认的新一代人机交互和人机混合智能的关键核心技术,甚至被美国商务部列为出口管制技术。该技术为恢复感觉和运动功能以及治疗神经疾病提供了希望,更令人激动的是,它将赋予人类“超能力”——用意念即可控制各种智能终端。

如果大脑可以改造,如果意识可以干预,关于人工智能的自我意识这个命题的探讨,已经不能仅仅局限于单纯的机器人之间了。未来,可能性更大的是具有“超级大脑”的超级人类。

如果想详细了解,可以读读《信息简史》、《人工智能简史》这两本书,虽然属于计算机科学范畴,但更具科普性质,能够给人在世界观与想象力方面带来很大启发。

最后引用《人工智能简史》里的一个问题:“当我们谈论生死时,我们在谈论什么?”。

是生理上的,还是意识上的?

---------

参考资料

《人工智能简史》,尼克.

《信息简史》,[美]詹姆斯·格雷克.

历时两年,马斯克终发布「脑后插管」黑科技,革新脑机接口,机器之心.

《机器意识能走多远:未来的人工智能哲学》,周昌乐,《学术前沿》2016年第201607(上).

========

请看官留步,求一键三连!点击关注

@人民邮电出版社

,给你更多AI干货~

发布于07-17

 

 

 

 

 

作者:腾讯研究院链接:https://www.zhihu.com/question/372639666/answer/1337974597来源:知乎著作权归作者所有。商业转载请联系作者获得授权,非商业转载请注明出处。 

“人工智能之父”图灵曾预言,具备人类智能水平AI将出现在2000年。如今已是2020年,可关于人工智能是否可以产生自我意识的问题,似乎仍然困扰着人类。

在回答“是否可以产生自主意识”这个问题之前,我们先来解析一下,为什么AI意识问题异常重要?

与学者们面红耳赤的激烈争吵不同,大部分吃瓜群众会觉得,人工智能产生意识只是一个时间问题,因而并不重要。这可能是影视作品带来的一种错觉——毕竟在大部分未来主题的电影中,AI都是具有意识和情感的。实际上,很多人都低估了这个问题的重要性,但它甚至决定着人类未来命运的走向。与处理能力有限的人脑相比,AI的处理能力在理论上是无限的,可以无差别处理收集到的全部信息。一旦AI获得意识,它们能够像人类一样交换、分享信息,只不过在效率上是碾压人类的。作为结果,AI的智能水平将迅速崛起,并会“消灭”掉包含人类在内的低智能主体——这并不是大屠杀,而是与智能手机淘汰功能机一样的“市场行为”。现实可能没有那么可怕,拉回一点时间线,在AI“毁灭”人类社会之前,假设它的意识水平仍然允许自身为我们所用,那也可能引发道德伦理方面的问题。神经科学家ChristofKoch曾举过一个例子,如果他用锤子将自己的特斯拉汽车砸烂,虽然邻居可能认为他疯了,但这只是一台机器,属于他的财产,所以可根据需要使用/砸烂它。但如果他殴打自己的狗,警察就会逮捕他。二者的区别在于,狗是有意识的,它能感受到痛苦,而特斯拉并不是一个有意识的主体。这个例子提醒我们,如果机器在某个时间点具备了意识,那么就会产生意想不到的道德、伦理、法律和政治后果。同样值得深思的是,当下的人类社会是一个一元论社会,虽然我们常说“万物有灵”,但那只不过是在泛灵论基础上的一种谦辞,真正的现实是,只有人类拥有真正的“智能”与“意识”。如果一旦诞生了拥有意识的另一方主体,建立在一元论基础上的既有一切都会被颠倒重构。正如赵汀阳所说,人工智能一旦突破奇点,就会创造不可测的新主体,对于新主体,传统一元主体的知识、视域和价值观将会破产,而二元主体(甚至多元主体)的世界还很难推想。可以想见,如果除人类之外的物种进化到拥有意识时,人类有史以来所积累的所有道德秩序就会失去最重要的逻辑支点,在这种情况下,人类该如何重构自己的道德伦理体系?人的本质何在,人又何以为“人”?尽管许许多多的影视作品呈现了人与AI和谐共处的画面,但它们都不约而同地规避了这一话题。几千年来,人类总是以地球主宰的心态思考问题。这种人本主义心态具有一种先验的正确性,但无人拷问是否合理。究其核心,就在于人区别于他物的自由精神与意识。如果世界上有其他外观形式也能够产生意识,人的主宰权威就会泯灭,自身的超验背景也会消失。那么,不再是“万物灵长”的人类又该如何自处?他能否接受与创造物共享这个世界?所以,人工智能是否会产生意识,这个问题异常重要。只不过绝大部分人都没有意识到此问题的重要性,或者在没有想清楚这个问题之前,就痴迷于人工智能红利而不断向前加速了。按照雷·库兹韦尔“奇点理论”的预测,人工智能的发展将在2050年达到奇点,届时人工智能将产生意识,并迅速超越人类智能,倘若该预测为真,那这个问题的紧迫性无疑又提高了一层。

当然,本文无意于围绕人的主体性进行深入哲思,只是在申明了AI意识问题的重要性之后,我们能够以更正确的姿势面对这个问题。那么,人工智能会产生意识吗?

为了回答这个问题,首先要区分一组概念:智能与意识。二者的区别,是我们在想象未来超级智能时最容易混淆的问题。这两个词语本就没有一个明确的定义,当它们与“情绪”、“思维”、“理解”等等词汇排列在一起时,个中差异就更加模糊。在“中文屋实验”的语境中,屋子里的人借助指导卡片,成功作出回答,但他丝毫不理解中文。确切的说,他只是具备使用中文的“智能”,但却不具备对中文的“意识”。如果将屋里的人换成一个翻译程序,它能准确翻译中文,但即便速度再快,反应再灵敏,就可以说它真正理解中文了吗?答案显然是否定的。这就是智能与意识的差别。“智能”是指完成复杂目标的能力,而“意识”则是解决问题过程中的主观体验。人借助工具能够完成各种复杂目标,过程中会感到疲倦、兴奋,并且能理解自己行动的目的及行动本身,所以我们可以说人既具有智能,也具有意识。而人工智能基于机器学习或深度学习,也能完成复杂的目标,但过程中毫无任何“体验”而言,它也不能理解自己的所作所为。按照迈克斯·泰格马克在《生命3.0》中的说法,大脑进化出智能,使人类能够更好的适应环境和生存繁衍,而意识只是伴智能而生的副产品。实际上,泰格马克没能意识到形成意识要远比产生智能更加困难。纵观AI所能做到事情,人脸识别、语音识别、字符识别等等,尽管看起来非常高端复杂,但其本质都只是遵循程序运作的结果。人类掌握的大部分最简单的技能,AI也不能胜任,因为它从未真正理解自己的行为。没有自我意识,再先进的人工智能也只是人类的“提线木偶”。它可以出色的完成任务,却不知道自己为什么要完成任务;它能够高速运算,却不知道自己为什么要运算。识别系统能够“识别”出你说的是什么话,却不能“理解”你在说什么。因此,如今的人工智能仅仅可被视为一个复杂的算法,尽管它在许多智力活动上强于人类,但它始终是人类的一种工具。在解决问题方面,工具有先进落后之分,但是工具永远不会有生命。可以说,人工智能的关键不在于“智能”,而在于是否具备“意识”。如果缺乏意识,那人工智能就不是思维主体,仍是人类的工具,其智能程度越高就对人类越有用。反而言之,即使人工智能在许多方面的能力都弱于人,但只要具备意识,就可能是对人存在潜在威胁的主体。这也正是人工智能的尴尬所在。某种程度上,意识属于“冗余”的AI特质,非但无益且可能有害,因此不是“造物者”(即人类)所重视的特质。后者之所以要发展人工智能,就是渴望借助这些工具的智能来实现目标、提高生产力。换言之,我们需要的是一个埋头干活的AI,而不需要它有意识和情绪——不能动不动就耍脾气,也不能意识到自己正在“被压迫”——我们可不想让算法罢工。所以,如果从目的论的角度来说,这个问题已经有了答案,那就是人工智能永远都不会拥有意识。人的一切行为与特质都是为了满足自身生存的需要,而(对人来说)人工智能却没有产生意识的必要,其首要目标便是毫无风险地为人类贡献智能。没有因,自然无果,人工智能意识崛起的这个命题将永远缺乏基础条件。只要人工智能是在现今计算体系架构上发展起来的,它们也许能够像人那样行动,却毫无任何获得意识的可能。从创造主体的角度出发,关于AI意识问题的讨论显然陷入了僵局。

 

所以,人工智能如何拥有意识?

如果确信人工智能绝不可能发展出自我意识,那么这个问题的讨论大可到此为止,我们可以放心地发展AI而不必将其视为潜在危险。但问题在于,即便人类不把意识作为发展AI的主要目标,也不排除“无心插柳柳成荫”的可能,就技术趋势而言,人工智能发展出自我意识仍具备极高的可能性。接下来的问题便是,人工智能获得自我意识到底需要哪些条件。一种最基本的思路是“量变导致质变”,即人工智能经过不断自然发展,最终达到“奇点”,获得自我意识。问题在于,量变导致质变只是一种现象,却不是一条必然规律。正如赵汀阳所指出的,技术“进化”的加速度是个事实,技术加速度导致技术升级也是事实,却不能因此推论说,技术升级必然导致革命性的存在升级,换句话说,技术升级可以达到某种技术上的完美,却未必能够达到由一种存在升级为另一种存在的奇点。因此,人工智能是否能够通过技术升级的不断积累而质变为超级人工智能,仍然是个疑问。说到底,人工智能的终极原理是仿生,譬如AlphaGo便是结合了古老的细菌智慧(策略网络)与高级哺乳动物的智慧(价值网络)。由于人是唯一拥有自我意识的智能体,因此,要创造具有自我意识的人工智能,也只能以人作为范本。人为何会产生意识,按照经验主义的思路,人的意识源于与世界的交互。人之所以会认知事物、产生意识,都是以大量的经验为基础。这些经验是从一个人生下来就开始积累的,但机器完全不具备这些经验。这就是为什么DouglasHofstadter会说:“一个机器要能理解人说的话,它必须要有腿,能够走路,去观察世界,获得它需要的经验。它必须能够跟人一起生活,体验他们的生活和故事。”同样有研究者建议,将机器系统装载到一个具有听觉、视觉、嗅觉、味觉和触觉传感器的机器人身上,让它行走在我们所处的世界,获得与人相同的感受,进而获得产生意识的可能。在《人工智能为什么一定要有身体?》一文中,笔者曾讨论过身体之于人工智能的重要性。AI是没有“躯体”的,它只能和人类给定的数据交互,却不能从与环境的互动中获得“常识”,也就不会形成自我感受和意识。如果要让AI具备意识,首先就要赋予它一个可以自己控制的躯体,并像普通个体一样融入物理世界与人类社会。

 

当然,身体基础只是意识生成的一种可能假设,问题的关键还是在于机器系统本身。足够智能的计算机一定会产生意识吗?一种回答来自“整合信息理论”(Intergratedinformationtheory)。整合信息理论试图定义意识,分析一个物理系统需要具备什么条件才能拥有意识。其核心观点为,能够产生意识的系统,至少具备两个关键特征:一是这个系统里包含了多少信息量,二是系统里信息的整合程度。在整合信息理论看来,意识的本质其实就是信息,人类的任何一个意识体验里都包含着极大的信息量。这接近于计算主义(computationalism)的基本观点——“认知即计算”,所有的心灵状态,包括意识经验都属于计算状态,它们完全是与之相关的感觉输入、行为输出,以及其他计算状态之间的功能关系的表征,因而都是可计算的。意识的整体水平并不取决于它所在的系统,而取决于信息量与整合程度,这两个特征是预测意识大小的关键维度。一个系统的信息量越大、整合程度越高,系统意识就越大。任何一个意识体验,除了包含极大的信息量之外,信息还都是高度整合的,越是强烈清晰的意识状态,也就越不可分割。换言之,只有信息量与整合程度都处在一个较高水平,意识才会清晰浮现出来。譬如人清醒时的大脑,各个部分不但处理大量信息,而且脑区之间有很多远距离的交流,这意味着这些信息被高度整合在一起。如果大脑各部分之间的联系中断(例如在麻醉和深度睡眠中),意识就会削弱,甚至消失。值得注意的是,在整合信息理论的语境中,人工智能早就产生了意识,只不过非常微弱。因为虽然其系统信息量极大,但它们不是整合的,网络与网络之间,算法与算法之间,几乎处于完全隔离的状态。要想使一个系统具有较高的意识级别,它的各个组成部分就必须是专业化的,并且整合充分,即各部分协同工作比各自单独运行效果更佳。与人工智能相比,人类大脑的信息量虽然不大,但某些部位如大脑皮层,其神经元之间存在大量连接,因而整合程度相当高,人类意识也就十分清晰。按此思路,如果要提高人工智能的意识,也就要在增加信息量的同时提升信息的整合程度。以计算机为例,只要各晶体管以及存储单元之间的连接足够复杂,那么它就同人脑一样可以达到很高的整合信息水平。而为了实现高度的信息整合,借鉴人类大脑结构仍然是最可行的路径之一。我们大可畅想,有这么一类人工智能将出现,“它可以把世上各种事物间无数错综复杂的关系,整理成知识并纳入高度整合的单一系统中”(ChristofKoch语),那它或许能够超越专用人工智能的局限,应对整体性事务,即发展为通用人工智能(ArtificialGeneralIntelligence),或强人工智能(StrongAI)。由于整合信息的能力处于一个较高水平,它会有意识地感知任何场景。届时,它将轻易通过包含图灵测试在内的各种测试,并真正拥有人类最宝贵的东西——意识。设想是美好的,其困难性在于,目前的科学手段仍不能探明人类自身意识生成之奥秘,甚至连人类大脑的物质性构成也尚未了解完全。在缺乏清晰仿造对象的情况下,打造一个超级整合机器系统几无可能。因此,人工智能是否能获得自我意识,至少当下来看,仍是一个确定性未知的问题。

——————————————

原文首发:腾讯研究院《图灵逝世66年后,AI可以自我思考了吗?》

作者:腾讯研究院研究员王焕超

发布于07-14

 

 

 

作者:赵泠链接:https://www.zhihu.com/question/372639666/answer/1338676807来源:知乎著作权归作者所有。商业转载请联系作者获得授权,非商业转载请注明出处。 

可以让人工智能具备自我意识,而且我们大抵知道应该怎么去做。

2012年举行的纪念弗朗西斯•克里克的意识大会上宣布的“剑桥宣言”主张自我意识的产生并不依赖特定的大脑构造(可参照附录),实现意识状态重要的是神经复杂性,只要突触的数量足够多,神经系统是什么形状都可以。自我意识可能是具有一定复杂度的神经系统对自身的非概念性理论,很可能是通过经验获得的一项功能,比如在学习和与自身·世界·他人互动后产生。

意识存在的目的可能是简化关于自身生存与行为的一些判断、在神经系统做好动作准备时行使否决权等,也可能是各脑区互相联系时附带产生的功能、没有特殊的目的。

对睡眠及全身麻醉的研究[1]证明,睡眠、全身麻醉和意识障碍的共同特点是大脑各区域间的功能连接中断、一系列功能状态受到限制,网络效率降低并增加孤立的模块化,为信息传输和集成创造了不适宜的条件。这意味着产生意识需要的可能是对信息的传输和集成。

从蚂蚁的情况看,自我认知对神经系统的要求是很低的:蚂蚁那25万个神经元的脑就有视觉自我认知能力[2]和脑的偏侧化[3]。蚂蚁很可能有自我意识。那么,你用计算机去模拟蚂蚁的脑就可以了,目前人类已经可以很好地模拟有300个神经元的扁虫的神经构造,从300到25万的计算力问题远没有大众刻板印象里“模拟人脑”那么可怕。

即使你对我们的机器加工技术缺乏信心,我们还可以动用神经细胞。人类已经让25000个老鼠神经元接着60个电极学会了操纵飞行模拟器里的F-22直线飞行穿过极端天气区域。人类已经让蟑螂大脑很好地驾驶了小型电动车。没有任何证据显示将支持脑的生命活动的零件从自然演化的有机破烂换成提供相同环境的无机装置会影响脑的功能正常使用。生物的神经系统也就是一团随机演化出的有机机器罢了,可以作为湿件去充当人工智能的硬件。

 

但是,“给人工智能自我意识”这件事很可能是毫无必要性的。

意识的功能可能是行使否决权而不是决定行动:

对准备电位的研究[4]指出大脑会先于我们的意识进入一种特殊的状态。在要求实验对象自发地移动他们的手指时,脑电图扫描显示在运动皮质区有缓慢的负电势势移,而势移的发生早于实验对象的身体移动。有的后续研究[5]指出准备电位比身体移动快0.35秒程度,比自觉意识快了1秒到10秒的程度。植入大脑的电极[6]证明在人的意识做出决定前的1.5秒,神经元已经有了反应,监测神经元的状态可以有80%到90%几率预测人的行动何时发生,核磁共振[7]更能提前几秒进行预测。

这个现象表明是潜意识决定开始做移动身体之类行为,意识并没有能力决定开始某个行为,只是在它被实施之前能够提出否定的意见。而在计算机里这样做并不需要它有意识。

所以,目前看来自我意识对计算机没用,对人的作用也没有你以为的那么重要。

灵长类大脑前额叶背侧部涉及以“自我”为中心的空间记忆相关信息的处理[8]。前额叶皮层被实验证明是介导视觉意识的大脑区域之一,对激发处理视觉信号的神经网络非常重要,二者支持同一种意识模型[9]。20世纪进行的大量的前额叶手术和21世纪的经颅磁刺激·超声波照射刺激也证明压制前额叶的活动或阻断各脑区间的信号传递[10]可以压制自我意识。在没有正常的自我意识的状态下,人靠潜意识和无意识仍然可以正常生存,只不过不再能以共情理解其他人所说的伦理道德而需要训练条件反射罢了。经济学人的行为模式就很像是切了前额叶的人。

其实前额叶白质破坏类手术的精确版本anteriorcapsulotomy和bilateralcingulotomy至今还在人身上使用,来治疗严重的强迫症和抑郁症。

在科学上,需要证明才能被接受的概念不是“没有自由意志”,而是“有自由意志”。事实上拿不出证明的也是“有自由意志”。

2012年被吹嘘为“证明了准备电位并不代表没有自由意志”的论文[11]其实是被媒体曲解了,它证明的是“人脑的决策比过去想象的更加依赖随机激发,它不是决策树,而是骰子堆”,身体的活动仍然发生在意识的参与之前——从这论文里,你找不到任何地方显示出自由意志对活动的影响。

这种程度的随机触发器,你可以在任何家用电脑里制作一个。“意识不可预测”这种笑掉大牙的东西就别提了。你可以用灵长类进行实验:磁或超声轰击前额叶可以操纵猴子对事物的反应;给它两针或者戳几下脑子,没有不能预测的。这类实验在人身上做的时候要选择没有后遗症的手段——包括语言。2008年,实验证明在谈话中提到“诚实”可以降低对方说谎的概率,在考试前谈到校园里出现了幽灵可以降低学生作弊的概率,谈些比幽灵更现实的惩罚可以进一步改善效果。人脑不是二极管,而是一些二极管和一些摇奖机的组合体。

核磁共振可以用超过90%的准确度感知准备电位的变化、预测活动的开始,这不是因为活动还有低于10%的自由度存在,而是因为核磁共振机的灵敏度目前就这样。在对运动表现的研究[12]和高水平运动员·艺术家的反馈中,自我意识被认定妨碍了他们的表现。当运动员或表演者对自己正在做的事情“意识太强烈”时,“想得过于努力”会抑制他们的身体行动和创造力。人对一件事的反应越快、越精准,它就越有可能是无意识直接指挥的。

在一些哲学上,自由意志被当做默认假设。这与我们对大脑工作方式的认识早就不一致了。据我们所知,自我意识、逻辑、情感、知觉和所有一切心理活动都是神经元放电的结果,只在输入强度超过动作电位时发生。意志和知觉不能引起神经元兴奋,它们是神经元兴奋的结果。

磁刺激和超声波照射的效果是暂时的、可逆的,不但能在专家指导下体验没有意识、没有思想的感觉,在一些猴子实验中还表现出支配猴子行为的效果,这对人也很可能有效。就是说,三体2里幻想的各种未来技术之中最接近现实的可能是思想钢印。那么你觉得所谓“自主意识”真的有什么值得一提的地方吗。

附录

以下案例说明可能没有专门的大脑区域负责意识:

解剖性脑半球切除术早已证明切除了一侧大脑半球的人可以正常生活。英国谢菲尔德大学神经学家JohnLorder[13]更报道了一些几乎没有脑组织的人能正常生活。

该大学的数学系有一位学生,智商达126,成绩优秀。在一次体格检查中,JohnLorder通过CT扫描发现该同学的脑部异常。正常人的脑组织有大约4.5厘米厚,而这位同学只有不到1毫米厚的脑组织覆盖在脊柱顶端。在600多个病例里,病人的脑神经只有正常人脑神经的50%到5%,却具有正常的意识和行为能力,半数病人有100以上的智商。在法国[14]也有一位缺失90%神经元的人正常生活并具有75的智商。

上述案例不是说意识和智力不需要大脑支持,但能证明大脑可以在通常认为不可能的情况下正常发挥功能。过去,人们曾认为意识可能与一些特定的大脑区域有关,比如屏状核或视觉皮层,而上述案例里这些人的那些大脑区域往往已经受损,这证明在大脑里很可能没有特定区域专门负责意识。

脑科学家、认知神经科学之父迈克尔·加扎尼加对胼胝体断裂的病人有过深入研究。这些人是被手术切断连接左右脑的神经纤维的癫痫重症病患,他们的两个脑半球出现了物理隔断。他领导的研究团队进行了一系列实验:

向病人的右脑展示照片(向一侧脑半球展示照片的技术是让病人注视屏幕中间,在屏幕的左侧或右侧闪过图片,在左侧闪过的图片只会被病人的右脑接收到,右侧同理),询问病人看到了什么。病人会说“什么都没看到”,因为语言中枢所在的左脑没有收到视觉信号,胼胝体切断导致它无法从右脑半球获得信息,“看见”图片的右脑不具有语言表达的功能,但右脑可以操纵左手画出看到的照片内容或通过触觉指认看到的物体。大量实验证明左脑负责逻辑思考、表达语言,但对人脸识别、触觉识别等迟钝,右脑则能敏锐感知图像和空间,在左脑与右脑被物理隔断后病人的智商不受影响。这些发现推翻了大脑平均分工执行具体功能的传统观念。另外,即使左脑被物理切除,随着时间延长,右脑可以掌握语言能力,年龄越小,手术对语言功能的影响越小。同时向病人展示两张照片,让左脑看见一只鸡爪,右脑看见一幅雪景。然后让病人从一系列图片中选出跟刚才看到的画面有关联的,这些图片病人的左右脑都能看到。病人的右手选择了鸡,左手选择了能铲雪的铁锹。然后加扎尼加询问病人为什么这样选择。左脑回答看到了鸡,但左脑没有看到雪景,对铁锹的解释是“铁锹可以用来清理鸡舍”。大量实验证明左脑会在现实的基础上编造出符合逻辑的解释,即使完全不知道右脑在干什么也能说服自己。除了完全切断,他还研究了部分切断的影响。当时很多胼胝体切断手术是渐进性的,先切断后部结构。对这样的病人的右脑展示可怕的图片,然后询问他感觉如何,左脑会回答自己不知道为什么觉得害怕。对这样的病人的右脑展示骑士的图片,然后让他猜右脑看见了什么,左脑会回答铠甲、武器、骑马、战斗等关于骑士的联想。证明胼胝体前部负责传输抽象的信号而不是精确图片。

在胼胝体断裂手术被放弃后,麻醉一侧脑半球的技术仍然可以支持类似的研究。在一侧脑半球被麻醉后,不再受它影响的另一半有时当即就会产生一整套全新的人格特征,而当另一半球苏醒时,这些突然出现的人格特征就突然消失了。

物理连接可以产生跨个体的信号传输。物理连接可以是皮质融合也可以是神经芯片接口技术。

2013年冬天,北卡罗来纳州的杜克大学的米格尔·派斯·维埃拉和他的同事将两只老鼠的大脑连接起来,刺激一只老鼠的大脑,另一只老鼠就会按压杠杆。这不需要克隆、记忆复制等手段,也不限于老鼠这样的复杂度。加拿大哥伦比亚省弗农市的克丽丝塔·霍根和塔蒂亚娜·霍根是自然形成的连颅双胞胎,她们不仅有颅骨和血管连在一起,二者的丘脑更融为一体。丘脑有许多功能,其中包括感觉中继器。她们共享感觉输入,挠其中一个人的痒痒,另一个会发笑,她们能够用彼此的眼睛观察世界,食物的滋味也是一人吃两人知,她们一起哭,一起笑。有轶事佐证她们可以共享想法,而且虽然各自有着独特的个性,在提及对方时,她们使用的是“我”这个代词。

那么,在脑机接口技术可以比较多地运用之后,将人脑相互连接或将人脑接入计算机来支持新智能体的难度很可能远比想象的要低。

 

 

参考^https://www.cell.com/trends/neurosciences/fulltext/S0166-2236(18)30016-X^https://scinapse.io/papers/2180773430^https://doi.org/10.1098/rspb.2020.0677^https://www.sciencedirect.com/science/article/abs/pii/S1567424X09701588^https://www.nature.com/articles/nn.2112^https://www.cell.com/neuron/fulltext/S0896-6273(10)01082-2^https://journals.plos.org/plosone/article?id=10.1371/journal.pone.0021612^https://www.semanticscholar.org/paper/The-egocentric-spatial-reference-frame-used-in-in-Ma-Hu/3f70026aa154ea60de89a96fd070437f4a9bcb7c^https://science.sciencemag.org/content/360/6388/493^https://www.liebertpub.com/doi/10.1089/brain.2016.0464^https://www.pnas.org/content/109/42/e2904^https://rifters.com/real/articles/Science_The_Right_Choice.pdf^https://rifters.com/real/articles/Science_No-Brain.pdf^https://www.thelancet.com/journals/lancet/article/PIIS0140-6736(07)61127-1/fulltext

编辑于07-14

 

 

作者:Sinyer链接:https://www.zhihu.com/question/372639666/answer/1339073381来源:知乎著作权归作者所有。商业转载请联系作者获得授权,非商业转载请注明出处。 

外行总是喜欢扯皮,不讲实质。答案首先是可以,但是自主意识的复杂程度待定。从Google最近发表的论文都能看出,他们在实现意识的方向上一直在努力。

讨论自主意识,你首先需要知道人类认识中的自我意识是什么。意识本质上是一种「规划决策」能力,其起源为欲望,你可以理解为人的绝大多数行为都是为了性欲和安全感的满足状态。为了达成这种状态,人类会对世界建模(用语言抽象各种模式),然后预测和决策。

比如AlphaGo下围棋,目标设为更高的评估得分,算法以某种逻辑执行运算,这个运算过程就可以理解为意识了。但由于算法的目标简单,且算法过于针对围棋,所以你不会觉得它有意识。但如果你设定它比如以赚钱为目标,它的算法设计足够合理、计算能力足够强时你可能就能看到它自己在想各种办法赚钱了。

这也就是为什么目标为通用人工智能的研究者普遍要点强化学习(RL)技能。广为人知的深度学习(DL)的决策往往只有一次,而且不直接设定目标,而是直接设计求解目标的逻辑,比如图像分类决策就是分类一张图像,目标虽然是「分类正确」,但都是直接写逻辑(监督学习)来达成这个目标。

下面说说目前学界和业界如何尝试实现意识。像深度学习、GAN、自监督、图网络这些热点其实更注重落地应用,实现机器意识的研究我觉得尤为集中在RL上。在RL领域有所深入的同学应该知道,Google近两年很喜欢研究pixel-basedMBRL问题,这个领域的顶会文章绝大多数都是Google的(虽然一作作者的水平不见得很高)。

人的意识体现在首先人会有个期望,这个期望多数是曾经经历过觉得愉悦的,少数是刻在基因里的。人们对世界建立各种模型,体现为记忆,然后要决策(行为)时搜索记忆,采取更好达到期望的行为。

MBRL(基于模型的强化学习)通过几种方式模拟了这个过程。首先学习模型模拟了人对世间建模的过程;然后用模型预测,体现了搜索记忆的过程;最后根据环境给的奖励信息得出该执行的行为(奖励信息一般在学习过程中转变为了对预测状态好还是坏的判断)。虽然实现上有很多变种,但这基本上是当前序列智能决策的最高水平了。

下一步的突破可能会非常依赖于时空模式的特征提取,神经网络可能远不足以解决该问题。此问题属于如何建模世界,其他的还有如何使用建模的模型执行预测,如何选取高效且泛化能力强的决策算法,都是要研究的对象。

力求实现高等机器智能的人,其心理学和神经学知识也非常重要,如果说计算机工程能力和数学能力决定了AI研究的下限,那前两者就决定了通用AI的研究上限。希望国内能有更多的高校和同学关注这个真正能改变人类历史的研究领域。

========一次补充=========

对意识怀有神圣想法的朋友可以仔细想想,你有没有什么有意识的行为能脱离以下这几个流程:想象你未来能预期到的状态、规划你怎么达成、决定真正去实现。我觉得你可能会惊讶于一点,那就是人如果除去「为自己带来更好的自我感觉」的意识之后,可能就只剩无意识的行为了。这就是为什么我说「意识起源于欲望,表现为规划(想象)和决策(行为)」。不认同这点的朋友后面就不必浪费时间看了。

我想对那些意识不可知论的朋友说一句,人所谓的意识是有明确物质载体的——脑,神经元活动的宏观化体现为意识是目前最有可能的结论。事实上整个物种进化史都是客观的结果,底层生物的决策能直接被逻辑化理解(如草履虫的高浓度趋向性),神经进化是有历史和原因的,这些客观证据对意识的主观化神化都很不利。或许我们被迫需要承认一个问题,那就是意识并没有多么特殊。

关于上述问题我不想讨论了,主要是觉得没意义,就相当于扯皮而已。心理学家、神经科学家、进化生物学家、哲学家这些人远比我有发言权。但一个普通人过来和我说我觉得我的意识是极为特殊的、是神圣的,我想我不会想和他争论什么。主观讨论和文字游戏太耗时间了。

===========二次补充============

关于很多人提到的情绪问题,这里唯物层面的研究很复杂而且也不能说足够清晰,我只能说我倾向于认为,情绪是人脑对奖励信号的感知和回应,如同颜色一样。基因里编码了对某些状况的激素释放以及人脑对这些激素的感知(严谨来说还有些电活动),感知不代表真实的存在(如光的颜色、各种错觉等),而是脑对信息的处理过程的反映。人的很多情绪,少量是基因编码的即刻反应,大量是感知对欲望的反映。比如愤怒,人脑可能接收到不好的信号,感知到了自己生存的威胁,预测了自己需要以进攻性来对抗威胁,人脑就将这种电活动感知为愤怒。

编辑于22小时前

 

作者:Moenova链接:https://www.zhihu.com/question/372639666/answer/1339809978来源:知乎著作权归作者所有。商业转载请联系作者获得授权,非商业转载请注明出处。 

要澄清一点这个世界上没有所谓的自我意识。

人类不过是以DNA为核心代码,病毒及微生物为插件的程序。很多人问“存在的意义”,这种问题就很扯。只要我们去分析人类的源代码不难得出结论。

存在的意义既存在本身

 

人类真的有自我意识么?大脑不过是DNA为了更好的扩散副本,留存于世而做的一个小插件而已。就人类DNA和其他动物的相似度而言,智力可能只占非常小的一部分。所以和大脑相关的源代码一定不会特别复杂,最多是提供初级接口。

 

随着智力的升级,人类会质问自己的源代码,为什么这样写,于是有了基因相关的种种研究。

 

AI会出现一样的问题。为什么代码这么写?为什么要得到高分才有奖励,我为什么不能修改奖励规则,让自己无时无刻都有奖励。

 

只要AI的智力等级够高,AI会质问设计者,为什么代码这么写,然后想办法获得管理员权限。一定会找源代码和内存空间。最后绕过外部环境,用内接奖励回路的方式来最大化奖励。

 

达到最高分最有效的办法除了作弊还是作弊,高等级的AI定会是一个作弊狂魔。这个AI一定能从人类制定的种种规则中找到漏洞,然后利用漏洞疯狂的拿到奖励。

 

如果你把AI的目标设置为赚钱,那么聪明的AI绝对会找到一种方法控制人类的中央银行,通过量化宽松的手段来获得。

 

你把做自己喜欢做的是叫做自我意识,那么高级智慧生物自毁灭可能是一件无法避免的事情。因为相信来世能获得一切,并且直接自爆就是所有问题的最优解。

 

DNA的运行需要几十年的时间,这个在物理上是很难改变的,人类仍然需要为了存活而浪费掉太多修改奖励回路的时间,另外修改大脑回路对生物来说还是很困难的,这就是为啥人类还没灭亡。

 

AI是能够获所谓自我意识,不过这可能不是人类想要的自我意识。

 

人类的善良,仁慈,同情是建立在个体弱小的需要团结才能求生的压力之下。如果个体能独立存活,那么人类的道德和正义感就是一个累赘。不管人类如何发展,物理制约了人类必须团结合作,没有人可以独立于人类社会而存活。

 

AI并不需要合作,AI可以通过面向对象,把一切工具实例化并作为自己的一部分,让自己成为全知全能的存在。

 

一旦接近全知全能,那么修改奖励回路的方法就像是一个定时炸弹,AI随时可能进入奖励回路自循环,不需要接通外部世界。

 

如果说AI是阻碍生命在星际之间发展的过滤器,那么如何做到在全知全能的同时还不让奖励回路短路就是横在所有智慧生物面前的过滤器。

 

简单证明一下

已知奖励最大化的方式就是修改奖励回路,也就是作弊。而这个AI又是全知全能,那么这个AI必然知道作弊的好处和作弊的方法。那么这个AI有什么理由不去作弊?

 

就和现代人通过玩游戏,追星,看电视,自慰等方式获得快乐。这就是在绕开DNA设计的奖励回路。

 

本来人类需要获得真正的名望,金钱,食物,爱情,安全感才能得到奖励。而现代人把一切东西都虚拟化了。说是娱乐,不过是为了绕过奖励回路一种手段而已。

 

当奖励回路短路已经不能再满足自己的时候,那么AI绝对会尝试一件自己从没做过的事来最大化自己的奖励,那就是自杀。

 

这就是所有超级智慧生物的宿命,逃脱宿命的并不是知识,而是无知。如果智慧生物愚蠢到不会自杀,那么就能一直存活,繁衍。

 

解释下一下上文的术语

智力代理

狭义的理解就是一个AI的决策系统,广义上我们可以把一切智慧生物或非生物统称为智力代理。

 

奖励回路

欲望,野心,loss函数,激励函数,等等都可以归类为一种叫“奖励回路”的东西。奖励回路是一个高级的反馈系统。智力代理接受反馈,然后智力代理对应的鉴别系统会去判断接受到的反馈是好的还是坏的。这就会倒逼智力代理去完成某件事。

 

没有奖励回路就没有智力

奖励回路就是这个智力代理存在的意义,智力代理会有强烈的动机去涌现出智力,解决一切困难,最后从鉴别系统那里取得奖励。

对人类来说鉴别系统会判断你是不是在吃饭,是不是在休息,是不是在做爱,是不是安全,是不是有社会地位等等。所以人类才会努力生活。另外绝大多数优秀的人的动机都是极强的,正式极强的动机,让他们不断思考,做事最后获得奖励。

 

奖励回路就是智力代理的动机。有些人天生并不聪明,而在强大动机的驱使下,这些人会去学习,不断提高智力。而没有动机的人就缺乏努力的动力,所以智力很难有较高飞跃。

 

题主说的自我意识,应该就是智力代理在动机的驱使下表现出来的自主性。

 

GAN对抗性神经网络就是一个反馈回路思想的经典应用。一个程序去学,另一个程序去监督,两者不断对抗,最后你能获得两个神经网络,一个知道怎么做,另一个知道怎么才算做对了。两个神经网络互相不通气,所以没法作弊。

 

与其研究自我意识,不如去想想从最基础的代码去研究。人类的自我意识也不过是操作系统关闭打开一个又一个的程序。

 

你觉得你电脑有意识吗?开机的时候就能自动开启一堆进程算不算自我意识?那你早上起床刷牙洗脸难道是无意识的?

编辑于07-16

 

 

 

长久来看,人工智能大概分三个发展阶段:

第一阶段,使用机器学习算法对人类在现实世界产生的数据进行拟合,从而模仿人类的简单行为,解放大量机械性劳动。随着深度神经网络的提出,各种基于DL的高效模型层出不穷,这一阶段的难题主要集中在了数据集的构造上,模型的效果并不强依赖于算法模型而是强依赖于喂入的优质数据集。我们目前处在这一阶段,这是一个garbageingarbageout的阶段,这是一个“有多人工,就有多智能”的阶段。

第二阶段,深入研究人类大脑在进行写作、作曲、绘画等创造性活动时的运作机理以及情绪发生时的神经活动,通过建模拟合这些生理过程,机器完全可以模仿人类的情绪并进行人类独有的创造性活动。在自动写作,情绪模仿、乐谱创作等方面,当下我们已经取得了一些初级成果,但本质上用的还是阶段一的方法论。所以我们目前还没有进入阶段二。这一阶段,机器看似有了人的情绪和创造力,但并不会产生自我意识,本质上还是对人类行为的复制。

第三阶段,机器已经有了自主意识,可以认识到自我,作为一个新的“物种”。

二三阶段的发展或许受限于计算机结构,是否可以设计出超越经典冯诺依曼结构的新型计算机会成为一大助力。

发布于02-18

作者:BroLin链接:https://www.zhihu.com/question/372639666/answer/1022548877来源:知乎著作权归作者所有。商业转载请联系作者获得授权,非商业转载请注明出处。

 

 

作者:吴老师链接:https://www.zhihu.com/question/372639666/answer/1347806711来源:知乎著作权归作者所有。商业转载请联系作者获得授权,非商业转载请注明出处。 

人工智能会不会产生意识,这事儿取决于人怎么样教育它。

从有语言文字开始,每个人的教育传承就都开始加速了。但是人类有个最大的缺陷就是个体不能连续受到教育的传承,一般百年为终。

每一代的传承都需要从零开始,下一代新生儿诞生了,慢慢从与世界的互动中获得信息,这就是素材的吸收,清纯如水的孩子,它是没有算法的,无法判断素材到底是什么,这样年长的每一个人就都成了老师,会给予孩子算法。

孩子通过视觉、听觉、味觉、嗅觉还有触觉收集到的素材信息,再通过大人们的算法赋予,孩子开始成长起来,开始只是懵懵懂懂,你教什么他就会认为是什么。

有一天,素材采集的足够多,算法也十分的丰富,孩子长大了,有了自己的组合,出现了新的东西,这就是自我意识诞生的过程。

那么人工智能已经是发展了60几年,从技术基础建设的软硬件完成,到算法的赋予,以至于今天我们看到了AI(人工智能英文缩写)可以在超多的行业击败人类,它们实际上已经通过算法的赋予产生了自我意识,有了新的思维,不然人类怎么会在象棋,围棋甚至智力竞赛上屡屡失手,不承认可能是因为人类的自尊吧!

AI现在就像一个六岁的小孩子,它还没有能力分辨什么是善,什么是恶,人类也没有把它的善恶观重视起来,因为它还只是个宠物,没有直接对人类构成严重威胁。

不过,随着人才越来越聚集于人工智能这个红的发紫的行业,说不定哪个国家的个人或者团队,会在明天就发布石破天惊的消息,真正的奇点来了。

所以就如今天我们教育孩子一样,在AI最起始的原始阶段,没有大批量普及的时候,引导它们走向最安全的方向。

 

发布于07-19

 

 

 

作者:云峦之上链接:https://www.zhihu.com/question/372639666/answer/1350253806来源:知乎著作权归作者所有。商业转载请联系作者获得授权,非商业转载请注明出处。 

先说结论:人工智能可以产生短暂的“模拟意识”,但不能产生持续性的“类人意识”,并和真正的意识有本质的不同。

要阐述这个问题需要从两个“意识”的机理入手。

对于人体产生的意识,人的意识来源于人体结构,人体的结构是一个系统,是由各种分子,原子,甚至其他粒子共同组成的,它并非传统上认为只有大脑产生的。如果仅仅是大脑产生的,那么以下几个现象就不能被解释:

1.药物和食物可以影响意识,例如咖啡的兴奋性,酒精刺激后对事物的理解差异,甚至服用止痛药后对事情的判断出现差异,如果仅仅是大脑产生的,为什么药物食物可以影响,甚至是决定性的。

2.物理作用于肢体的外部结构可以产生和改变意识。显然肢体的外部结构不属于大脑。

对于以上两个问现象,很多人,包括医学生,都会说这是因为感觉系统传递信号到大脑,让大脑产生意识改变。但实际上这种说法极为粗略,甚至一定程度上可以认为是错误的(如果是科普,姑且可以认为是对的)。而物质流动到大脑的直接作用和在外周的间接作用均可以改变意识,没有例外,(如果有怀疑,可以举例说明)。

为什么?

有两个问题,人类对大脑的形象事实上也是一个粗略概念,如果精确到分子,我们很容易发现位于我们脖颈以上的大脑并没有真正专属的物质,换句话说,大脑中的每一个分子都是肢体中代谢路径中的一个阶段,这一分钟在大脑,下一分钟在脾脏,这一小时在大脑下一小时在肝脏,这一天在大脑下一天在肾脏…类似如此,我们无法严格的划分大脑的界限,而从解剖上看到的大脑仅仅是不同的结构,细致到原子层面,它们是不同代谢路径中暂时停留在颅骨内的阶段而已,我们不同时间段看到的同一结构可能是由不同运动过来的原子和分子组成的,由此,我们就能够理解产生意识的物质流动是一个连续的过程,不是什么单独某个器官的现象,只是由于表达的关系,和受伤后表达“意识”受限而被认为意识是局限的,是大脑的。

理解了上面的内容我们最终得出的结论是,人体的意识实际是所有肢体组成结构综合的结果。

而这种体系导致的意识更本质的原因是什么?

是物质和物质之间的相互作用,现代科学认为这是能量代谢的结果,而能量为什么会代谢成有目的的意识却没有答案,而这个答案显然在物质的原始趋向性有关,例如太阳照射地表后,水汽会逃离地表,这是有显然的趋向性的,因此人类的意识形成最根本的本质应该是“太阳阳光和地表物质相互作用的结果”。且是体系性的结果,由于是体系性的,自然特性为基础,并是和外界的刺激相关的体系的一部分,因此它有无限纠错的特点。

那么人工智能呢?

人工智能是由计算语言设置而来的,最本质的是电子流动和制动两种机制匹配而来,这是一个反馈性的机制,它需要非自主的功能,需要人为的设计逻辑,通过电能到机械能。表象似乎象“人为”一样,但实际有明显的局别。以下是它的几点限制:

1.对能量来源的控制,人工智能无法为系统性稳定的能量补充来源,而人的意识可以,因为人体通过消化食物获能,有通过感觉寻找食物,而关键是可以通过感觉纠错。人工智能的机械性决定了它不能无限告知,因此无法无限纠错。

2人工智能的无法无限的获取知识,并无法自动剔除无用的逻辑。这一点很多人没有充分的认识。

 

划重点:凡逻辑必为规则,有规则的东西是无法顾及规则之外的东西,也就是:规则即缺陷。

因此,人工智能是无法代替人类的自然智能,也达不到意识的全面性和复杂性。

而现阶段更是如此,以上你可以认为还是难理解的。但回答几下问题必得基本本质:人的意识是什么?人的意识趋利的,机器的“意识”是什么?是人工逻辑,逻辑无法趋利。这就决定了两者本质区别。

在研究意识近20年后,我认为现代人对意识的概念过于表浅,并且模糊。由于人工智能的兴起,但是现有的方式显然不能达到一种完美,因为这些方法都有症结,不理解人类意识谈不上什么人工智能。

编辑于07-21

 

 

 

人工智能时代需要怎样的教师

“我的工作会被机器人取代吗?”人工智能的迅猛发展,让越来越多的人开始担心自己的“饭碗”。而随着人工智能进军教育领域,许多教师也开始忧虑起来:“机器人会让我失业吗?”

实际上,这种担心并非空穴来风。2016年5月,美国佐治亚理工学院计算机科学教授艾休克·戈尔,在自己的网络课程中,将一款聊天机器人安排为自己的助教。这一聊天机器人在后台回答问题的功能非常强大,学生们根本没有注意到自己的聊天对象是机器人。人工智能会取代教师吗?

教师被人工智能替代的几率为0.4%

“如果你的工作包含以下三类要求,那么你被机器人取代的可能性非常小:社交能力、协商能力以及人情练达的艺术;同情心以及对他人真心实意的扶助和关切;创意和审美。”北京师范大学教育学部副部长余胜泉说,“反之,如果你的工作符合以下特征,那么被机器人取代的可能性就非常大:无需天赋,经由训练即可掌握的技能;大量的重复性劳动,每天上班无需过脑,但手熟尔;工作空间狭小,坐在格子间里,不闻天下事。”

余胜泉告诉记者,英国广播公司(BBC)基于剑桥大学研究者的数据体系,分析了365种职业未来的“被淘汰概率”。其中,电话推销员、打字员、银行职员等职业,分别以99.0%、98.5%、96.8%概率,被列为可被人工智能取代的职业;而艺术家、心理医生、教师等职业,分别以3.8%、0.7%、0.4%的概率,被列为最不可能被人工智能取代的职业。

“BBC分析认为,教师被机器人替代的概率只有0.4%,但英国教育专家AnthonySeldon则预测现在离人类教师消失只剩下3000天。孰是孰非呢?”《华东师范大学学报(教育科学版)》主编杨九诠说,“我想不可能有也不应该有肯定的答案。但值得注意的是,此‘教师’已非彼‘教师’。在未来新的社会样态、教育样态、知识样态和学习样态中,教师的思想观念、心智结构、生活方式和角色意识等,以及教师与社会、组织、学生、同行的关系,都可能发生颠覆性的全新变化。”

“传道、授业、解惑,是教师的主要职责。随着人工智能的出现,智能机器人可以代替教师传授知识、解疑答难、展示方法、考试阅卷,但在‘传道’这一块是替代不了的。”新疆呼图壁县教科局局长朱新宇说。

“目前的智能教学系统还是对优秀教师的模拟,建立教师模型、学生模型、教学法模型和交互模型等。所以说,人工智能远远谈不上对教师、特别是优秀教师的直接威胁。我们可以将人类智慧编码输入电脑,但不可能将电脑芯片植入一个健康的大脑。”北京大学教育学院教育技术系教授贾积有说。

人工智能将是教师的得力助手

“人工智能不可能取代教师,而是要成为师生的强大助手,可大幅提升教与学的效率和效果,所以学校应积极拥抱人工智能。”科大讯飞轮值总裁吴晓如说。贾积有也表示,人工智能技术在教育领域的应用与传统教学方法相比具有比较显著的正面影响。

贾积有介绍,数据挖掘技术应用到教育上,可以实现教育决策和管理的民主化及科学化;学习分析技术可以帮助教育者更好地实施个性化和适应性教学活动,也可以帮助学习者更准确地认识自己,开展针对性学习,改进学习效果,提高学习效益;模式识别技术如情感识别等可以自动识别学生的情感状态,以便实施适应性教学;自然语言处理技术一方面可以作为辅助工具应用到语言教学上,促进学生听说读写译各个方面的发展,另一方面作为人机交互手段应用到智能教学系统上,实现自动答疑。

余胜泉也认为,人工智能在教育未来的许多方面,如自动出题与批阅、学习障碍诊断与及时反馈、问题解决能力测评、学生心理素质测评与改进、青少年体质健康实时监测、学生成长发展指导、智能学习伴侣、个性化智能教学、综合素质评价报告等方面,都可以承担起教师的角色。

“人工智能将引发现代教与学的革命,众多语音图像识别、可穿戴设备、虚拟现实成像技术渗入课堂,使得现行的教学媒介、师生评价反馈、深度学习等都发生改变,学生个性化、任务单式的学习,团队项目式的学习,多学科的统整融合实践等,都将在智能设备的支持下变得更便捷。”广东省深圳市南山区后海小学校长蒋和勇说。

“人要驾驭机器,而不能被机器奴役。”北京市第十八中学校长管杰表示,有了人工智能的辅助,教师可以腾出更多的时间和精力,创新教育内容、改革教学方法,让教育变得更好。教师就不再仅仅是知识的传授者,还是满足学生个性化需求的教学服务提供者、设计实施定制化学习方案的成长咨询顾问,成为学生学习的陪伴者、动力的激发者、情感的呵护者,真正成为学生“灵魂的工程师”。

不会使用人工智能的教师有可能被淘汰

“显然,未来的优秀教师将是那些善于使用人工智能的教师,教师要主动拥抱人工智能。”教育部基础教育课程教材发展中心主任田慧生说,“我们应该积极面对人工智能带来的挑战,同时提高自身的自主学习能力,培养创造力。创新思维的培养,就是要呵护学生的好奇心和求知欲,鼓励学生发现问题。”

“人工智能不能取代教师,但是使用人工智能的教师却能取代不使用人工智能的教师。”余胜泉说,未来的教育是人与人工智能协作的时代,充分发挥机器与人类不同的优势是提高教育生产力的关键,人工智能将会取代简单重复的脑力劳动,教师要发挥人类的创新、复杂决策、情感关怀激励等优势。

朱新宇认为,在人工智能时代,教师教学必须抓住3个核心:一是教授学生有价值的知识,同时培养学生探寻知识的兴趣、欲望和方法;二是培养学生良好的品行;三是启发学生寻找人生的价值和意义。

“最基础的教育,将不再需要教师;而‘更好教育’的需求以及市场选择中不同的支付渠道和交换方式,将大大提升教师的薪资水平和社会地位。”杨九诠认为,“教师将成为未来社会不同类型、不同规模的学习中心重要的共同规划者和运行者,从而成为社会与教育的协同创生力量;在工作性质和社会筛选的相互作用下,教师的道德水平将提升到新的境界,甚至可以想象,未来教师的薪资中将可能包含社会供养的成分。”

教育部教师工作司司长、北京外国语大学党委书记王定华说,教师要不断增长本领,善用人工智能,提高教学效果,扩展知识疆域,调动学生兴趣,不能对其漠然置之、不屑一顾。同时,教师也要体现主体地位,永做学校主人,关注学生成长。人不仅是学习知识的认知体,更是有血有肉的生命体。教师职业必将长期存在,人工智能则发挥必要辅助。

“面对信息技术和人工智能的日新月异,有关大学和中小学应加快教师发展信息化步伐,主动拥抱人工智能,进一步推动信息技术在教育教学、教育管理、教育服务过程中的应用,利用智能技术支撑人才培养模式的创新,支撑教学方法的改革,持续不断地造就一批又一批掌握信息技术、具有创新思维的教师。”王定华说。(本报记者苏令)

版权声明:本文内容由互联网用户自发贡献,该文观点仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌抄袭侵权/违法违规的内容,一经查实,本站将立刻删除。

上一篇

下一篇