博舍

意识机器:ChatGPT 能否拥有自我意识 智能机器人有自我意识吗

意识机器:ChatGPT 能否拥有自我意识

原创张江集智俱乐部

导语

从AlphaGo到ChatGPT,随着人类智能一个个被机器算法突破,人们不禁开始思考:还有什么能力是人类具备而人工智能尚无法取代的?自我意识就是一个关键的未被突破的能力,它不仅可以对自我的行为进行深度反思从而跳出循环,形成顿悟,还能够给主体带来真正的主观体验。那么,自我意识的本质是什么?ChatGPT是否能够拥有自我意识?本篇文章提出了一种自我意识的最小模型,它可以一定程度上解释人类意识的特点,也可能找到判定机器是否具有意识的一种标准。

对意识问题的理解尤其是对意识机器的构建,可能是未来通用人工智能发展的关键突破机会。集智俱乐部由北师大教授、集智俱乐部创始人张江老师联合肖达、李嫣然、崔鹏、侯月源、钟翰廷、卢燚等多位老师共同发起,旨在系统梳理ChatGPT技术,展望后GPT时代的人工智能有哪些可能性。本系列读书会线上进行,2023年3月3日开始,每周五晚19:00-21:00,持续时间预计5-7周。欢迎感兴趣的朋友参与。

关键词:自我意识,意识机器,人工智能

张江|作者

邓一雪|编辑

目录

1.自由意志幻觉——来自实验的启发

2.实验总结

3.意识机器

4.内嵌虚拟世界

5.哥德尔机——史上第一台意识机器

6.总结

好久没有续写这个"AI视野"系列了。今天有机会,就让我们来聊一聊机器是否能够具备自我意识——这一重磅、高能、危险的话题。人们普遍认为,意识(Consiousness),特别是自由意志(Freewill)构成了人之所以为人,从而区别于机器的最后一道防线。而本文想表达的观点是,其实这一道防线早就不存在了。首先,近年来有关意识的一系列心理学实验表明所谓的自我其实有两个,一个称为陈述型(Narrating)自我,一个称为体验(Experiencing)自我;所谓的自由意志不过是陈述型自我给自己编的一个故事而已。其次,通过目前的计算技术我们完全可以构造出一个自我模拟的自指机器(Self-referentialMachine),它也具备两套体系,一个负责执行算法,另一个则专门负责对自我进行模拟(描述),这种机器会表现得就“像”一个具有自我意识的系统,以至于我们可以用这样的系统来定义所谓的“自我意识”。

早在2003年LSTM之父JürgenSchmidhuber就具体设计出来了一种称为“哥德尔机”(GödelMachine)的装置,它具备一个求解器和一个搜索器,这个搜索器就是前文所说的模拟装置,也就是人类意识中的“陈述自我”;而求解器就是前文的执行装置也就是人类意识中的“体验自我”。Schmidhuber指出这种机器一旦设计出来了,就可以通过不断搜索更好地优化效用的方式来完成模拟优化,再通过自我修改代码的装置不断改进自身,从而表现出全局最优的运作模式。人们普遍认为哥德尔机是目前最强大的通用人工智能设计,并有可能引发智能爆炸。

1.自由意志幻觉——来自实验的启发

首先,我们对近几十年来人们对意识问题的三个极其重要的实验进行回顾。第一个实验告诉我们其实我们每个人的头脑中都住着两个自我,一个负责决策,另一个负责解读;第二个实验进一步揭示出这个陈述自我的性质,它会在一定条件下编纂故事;第三个实验则告诉我们很可能我们认为的自由选择也是陈述自我编的一个故事而已。

裂脑人试验

人类的左脑和右脑是靠一种被称为胼胝体的东西相连在一起的。但是有一种病人称为“裂脑人”,他们脑袋中的那个连接装置胼胝体被切开了,但他们还可以正常的生活。于是,在二十世纪六十年代,这些裂脑人成为了神经科学家们,特别是斯佩里(RogerW.Sperry)等人的实验对象。科学家们通过巧妙地设计试验,让我们得以看到裂脑人甚至是我们自己不为人所知的一面。

在如下图所示的实验中,我们用一个中间的挡板把裂脑人左右两眼的视野完全隔离开,这样他的左眼只能看到左边的画,右眼只能看到右边的。当我们呈现左边为雪景右边为鸡爪的画面给被试的时候,这两种景象就分别映射到了右脑和左脑中(由于左脑连接的是右侧身体,右脑连接的则是左侧身体)。接下来,实验人员要求被试在卡片上选择与看到的画面相关的东西(两只眼睛都能看到所有的卡片)。这个时候,裂脑人的左手(被右脑控制)选择了铲雪的铁锨;右手(被左脑控制)则选择了公鸡。

这说明,裂脑人的两个彼此隔离的大脑作出了两种完全不同的决策,体现得像是两个不同的人。更有意思的是,当挡板撤离后,左右脑都能看到对方的选择了。这个时候实验人员问被试,“你为什么左手选择铁锨呢?”我们知道,左脑是负责语言的半球,而右脑主要负责视觉感知,却没有表达能力。所以,虽然右脑选择的是铁锨,而它并不会解读。左脑选择的是公鸡,但却与右脑的选择相冲突。那该怎么办呢?于是,左脑神奇地编了一个故事:“我选择铁锨是因为我要清理鸡棚!”

斯佩里通过大量的类似的裂脑人实验向我们展示了这样一个结论,我们的左右脑不仅表现得像两个独立的意识体,而且由于左脑具备一种编造故事的能力,它往往能够把右脑的行为进行重新解读。

冰水挑战

前面的实验对裂脑人的左右脑进行了物理分割。而诺贝尔经济学奖得主,著名心理学家丹尼尔.卡尼曼(DanielKahneman)则相信,我们身体里本身就住着两个自我,卡尼曼把她们叫做:“陈述自我”(Narratingself)和“体验自我”(ExperiencingSelf)。前者专职负责讲故事,甚至在很多时候都是讲给我们自己听的;另一个则主要负责体验、执行。这两个自我经常配合在一起行动。有意思的是,我们的记忆主要是听从这个叙述自我的,而这个家伙会经常扭曲事实、编纂故事。下面,就让我们来看看卡尼曼做过的实验:冰水挑战。

卡尼曼让被试将手放到很冷的冰水中一段时间(见下图)。实验分两次进行,第一次进行60秒,第二次进行90秒。但在第二次试验进行到60秒的时候,实验人员会偷偷注入了一些温水,让被试疼痛的感觉减轻一些,但是被试并不知情。

在分别做完两次试验之后,实验人员会问被试,如果必须重复实验,你更希望重复哪一次的实验。出乎意料的是,有80%的被试都选择第二种,即长达90秒的实验。

卡尼曼给出的解释是,我们的陈述自我有一种特性,它只对整个试验过程中疼痛的最高值和最后一个时刻的疼痛值敏感,这就是所谓的“峰值-尾值定律”(peak-endrule),并且会忽略体验所持续的时间。所以,在第二个实验中,由于最后30秒的体验没有那么的痛苦,所以被试最终的选择听从了陈述自我的感受,认为第二个实验更好受一些,尽管它让被试受苦的时间更长也没关系。

这个实验似乎还能够解释其它一些“痛并快乐”的现象。就比如女人生小孩据说是疼痛级别最高的一种经历,但是当女人回忆生产那个瞬间的时候却总是伴随着温馨和幸福。原因就在于在生完小孩的那个时刻所体会的幸福远超过了过程中的痛苦。于是,陈述性自我选择了过滤掉那些痛苦体验,而记住了小生命出生的幸福。

自由意志幻觉

前面的两个实验告诉我们,我们不仅每个人都是人格分裂者,而且大多我们意识到的体验都不过是陈述性自我编撰的故事。那么,在接下来要介绍的实验中,我们更能深切的体会到,所谓的自主选择、自由意志也不过是一种假象,很可能就是“陈述自我”用来哄骗自己而编纂的一个故事。

这个实验是由BenjaminLibet于2008年领导做出的,其结果发表在了Science杂志上,曾引起了科学界和哲学界的轰动。在实验中,他让被试手持一个按钮,自主选择任何一个时间按下这个按钮,然后被试会通过盯住面前钟表上的秒针相应位置来报告做出决策的时间。于此同时,Libet通过脑电装置来监测被试大脑活动的模式(预备电位),并根据这些模式来预测被试何时按下按钮。整个实验装置如下图所示。

实验的结果表明,科学家可以通过读取大脑活动模式来提前预测被试是否按电钮的决策,而且可以比被试报告的时间提前几秒钟。

如果按照前面的实验推论,我们的心智分成了负责体验、决策的自我和负责陈述的自我两部分。那么这个做出按电钮动作的自我就是体验自我做出的,而负责报告按电钮时间的自我就是陈述自我。科学家通过大脑电信号活动模式所做出的提前几秒钟的预测表明,我们实际上在自认为有意识地做出按电钮这个动作之前就已经由体验自我和身体把决策做出了。我们的意识,或陈述自我并没有起到任何主导性作用,它只是被动地将这个按钮动作进行了重新解释,从而报告出了时间。

这个实验最大的争议点就在于,它从某种程度上否定了“自由意志”(Freewill)的存在性。也就是说,我们并不像我们通常认为的那样可以由自我意识来决定、控制做出按电钮的动作。

在这里我们需要澄清一下“意识”、“自我意识”以及“自由意志”之间的区别和联系。首先,“意识”(Consiousness)是指一种觉知(awareness)的能力,它是指我们的心智能够对外界事物以及心理过程进行感觉的能力。“自我意识”则是说这种意识能力不仅能够觉知外在事物,还能够觉知这个觉知能力,即意识本身。所以我个人认为自我觉知(Self-awareness)能更好地表达意识的这种能力。后面我们会看到,这种能力就是计算理论、数学之中的自指(Self-reference)。“自由意志”则是强调意识对客观事物的反作用特性,也就是意识可以凭借自己的意愿来决定做什么。

Libet的实验告诉我们,我们可能并没有自由意志,至少我们的意识并不参与决策过程。因为,真正的决策早在我们意识到之前几秒的时间就已经被体验自我做出了。

2.实验总结

把这三个实验连在一起,我们能得到如下几个结论:

我们每个人体内都存在着两个自我,一个负责体验和执行,一个负责表述;

那个陈述性的自我会通过虚构故事来“欺骗”我们自己;

我们习以为常的自由意志很可能就是这个陈述自我编造的一个故事。

这最后一个结论的确具有一定的颠覆性,它直接指出了所谓的自由意志不过是一种假象。我们充其量仅仅具备自我意识而已,也就是我们可以觉知到自己的存在,也能觉知到我们所做的一切,但是这种觉知并不能反过来作用到我们的行动上来。

用图形表述上面这一点转变会更清楚:

我们的认识从上图的模式转变为了下图的模式。尽管我们对这一转变很不情愿,但却不得不接受。因为,越来越多的科学研究结果表明,其实我们人就是一个算法机器,迄今为止,我们并没有找到任何一个反面的证据说人的过程不能被算法模拟。既然自由意志是幻觉,人不过是个算法机器,那么,机器和算法本身为什么不能具备意识,甚至是表面上看起来的“自由意志”呢?

3.意识机器

在结束了心理学之旅后,就让我们来进入机器的世界。请注意,在这里我并没有声称任何一台机器,甚至是任何足够聪明的超级智能体具有意识。我想说的是,机器必须要具备一定的条件才能具备意识,而目前这样的机器尚没出现,但这并不意味着我们原则上无法创造出它来。更重要的是,意识所需要的条件和智能完全就是两码事。

既然我们已经破除了“自由意志”的迷信,并且认识到所谓的自我不过就是一个双系统,一套系统负责相对“机械”地解读信息、作出决策;另一套系统则对这些决策进行解释、表述。

那么,按照这套标准,我们就会发现,只要一台机器具备了自我模拟(Self-emulating)的能力,它就具备了“意识”。什么是这种自我模拟的能力呢?这就是指一台机器能够在内部开一个虚拟机,并用这个虚拟机来模拟自己在任何一个时刻的运行。于是,这个模拟机就构成了前文所讲的“叙述自我”,而其它的软件部分就构成了前文所讲的“体验自我”或“执行自我”。由于这台机器可以在虚拟机中投射它自身以及所有的动作,所以它就具备了“自我觉知”的能力。从外界表象上来看,它可以表现得具有自我意识。

这样的机器能造出来吗?答案是肯定的,计算理论早在二十世纪初就为这类机器的实现铺平了道路。接下来,就让我们看看,我们该如何一步步地造出这样的自我模拟机器。

4.内嵌虚拟世界

机器要想具备自我模拟的能力,那么它首先要实现一个内嵌的虚拟世界。什么是内嵌的虚拟世界?其实就是所谓的虚拟机——即奔跑在当前计算机中的一套虚拟系统。这套系统有它自己的虚拟硬件,以及虚拟软件。用过Docker、VMWare的人都很清楚,这种内嵌的虚拟系统不仅早就可以被造出来,而且具有可以隔离病毒等优良的特性。

我们可以将内嵌的虚拟世界理解成一面镜子。它可以映射真实世界里的东西,但它本身却比现实低了一个层级,所以它看起来更“假”。我们也可以从数据和程序的角度来理解:虚拟系统相对于真实机器来说就是数据。数据总是被动地由更加“真实”的机器所操纵。

我们要感谢图灵的伟大发现,通用图灵机(UniversalTuringMachine)的存在保证了我们可以通过现有的计算机来实现这种内嵌的虚拟世界,而且这种内嵌的虚拟层可以无限地延伸下去。也就是,我们可以在虚拟机上再安装虚拟机,以及虚拟机上的虚拟机……

模拟自我

好,当一台机器具备了内嵌虚拟层还不够,它还需要完成模拟自我的过程。也就是说,我们要让这台虚拟机器模拟它自己的运行动作。这在镜子的比喻中也就是我们要让镜子自己照自己。你很快就发现,这是不可能的。至少在镜子这个例子中,如果我们不借助外界(例如另一面镜子),这个镜子自身无法完成照射自己。

同样,在机器世界中,要让一台安装了模拟器的程序模拟自己,表面上看是不能完成的。不难想象,由于机器的内嵌虚拟层本身就是这台机器的一部分,于是,要想让虚拟层模拟机器自己的动作,就必须包括它的虚拟层,于是我们必须要有一个虚拟层的虚拟层。这样一来,我们就需要有无穷多的虚拟层,而且每一个虚拟层都要做同样的事情,模拟它上一层次的动作。你会发现,我们的机器很快便触及到了无穷多的虚拟层次,以至于怎么可能在有限的时间和空间内完成它呢?

幸运的是,在计算理论、数理逻辑以及递归函数论(人们早已证明,这三种系统完全等价)中,人们早已经发现了一种巧妙地逃离这种无穷的方式。在数学中,这叫做不动点(fixedpoint);在递归函数论中,这叫做Kleene第二递归定理;在计算机程序中,这叫做“蒯恩”程序。事实上,康托尔运用这种技巧证明了实数比自然数多;罗素用这种技巧构造了罗素悖论;哥德尔用这种技巧完成了哥德尔定理的证明;图灵用这种技巧构造了图灵停机问题,指出了机器运算的极限;冯诺依曼用这种技巧制造了自复制的程序。现在,我们同样可以用这种技巧构造可以模拟自身的程序。有关这种技巧的详细说明请参考附录。

在这里我想说明的是,这种被称为“蒯恩”(以美国著名哲学家蒯恩Quine为命名)的技巧,本质上讲可以实现这样的效果:执行一段包括蒯恩的模拟器就和将这个程序自己的源代码拿出来在模拟器上跑效果完全一致,所以它看起来就像在模拟自己(实际上我们没有任何手段能从运算结果上区分二者)。于是,我们便巧妙地绕过了无穷层次。

解读意识

其实,这种能够模拟自身运作的机器就可以被称为是具有自我觉知能力了。我们只需要将自模拟程序中的正在模拟自身的虚拟机理解成前文所说的陈述自我,而将整个机器的其它部件都看作是体验自我和身体,那么这种自模拟程序就跟前文说到的人类的自我系统没有什么两样。具体的,我们有这样的对应关系:

为什么可以这样理解呢?这里面有几层含义。

首先,所谓的虚拟其实就是描述。前文我们已经将虚拟机比喻为镜子,意思就是说这个虚拟层要能够形成对外在世界的描述。

其次,这是一台自我模拟的机器。根据递归定理,这台机器的所有部分,包括内嵌的虚拟机中的动作,都可以在虚拟机中找到对应。也就是说这个陈述自我知道什么是“我”,我在做什么,以及知道这个觉知(或模拟)过程本身。

最后,如果我们将内嵌虚拟机接上一个输出接口,允许它用自然语言吐出字符串,那么这个虚拟机就更像表述自我了,它可以向外界输出表述。

既然从功能上说,我们的自模拟机器与陈述自我+体验自我一致。下面,就让我们来看看,为什么说这种自模拟机器表现的就像具有自我意识一样。

觉知

首先,这台机器是具备觉知能力的。这里,所谓的觉知其实就是在虚拟层来反映真实世界,当然也包括这台机器本身的所有部分,显然这台机器是可以做到的。

自我觉知

其次,这台机器是具备自我觉知能力的。根据蒯恩技巧,只要机器开始运行,它的表现就像是在虚拟层模拟它自身一样。如果我们将模拟器称为觉知能力的主体,那么它模拟自身就自然可以称为自我觉知了。

自由意志幻觉

更有意思的是,当外部观察者观察这台机器运行的时候,TA会产生这台机器具备“自由意志”的幻觉。这是为什么呢?其实道理还是在于蒯恩。

对于任何一个配备了蒯恩的程序来说,它有这样的效果,它整体完成的动作和虚拟机上完成的动作看起来是一模一样的。于是,我们便无法分别究竟是这台机器“被动”地根据真实层的“物理法则”来做出动作还是根据虚拟层“意识”来作出的动作。于是,对于观察者来说,一个虚拟的因果箭头就可能被生生造了出来:这台机器在根据它自己的意识(称述自我)而行动。那么,我们也自然可以称这样的机器具备自我意识,甚至自由意志了。

其实这个道理就像你照镜子,假如一个从来不知道镜子为何物的外星人观察你们,他有可能会得出来你在按照镜子里面的像而运动,它是因,你是果。所以,当你和你的虚拟重合为一,你就能给外部观察者生硬地创造出一个因果箭头。自我模拟机器正是这样工作的。

5.哥德尔机——史上第一台意识机器

个人八卦

从我个人的经历而言,最早意识到“自我模拟”程序非常重要是在2007年左右。那个时候我正在参加StephenWolfram办的ANewKindofScience(简称NKS)的暑期学校。一个叫做Mathew的MIT的年轻老师给我们讲图灵停机理论。他当时概括说,正是因为我们可以构造出这样一个可以通过自己源代码来“模拟”它是否停机的程序,而这个程序让外界的观察者看到的表现,和它自己“声称”的表现并不一致,所以才证明了图灵停机问题的不可判定性。当时,我立刻意识到:自我模拟是问题的关键(恰恰就在Wolfram的这本NKS中,他还讨论了自我模拟的元胞自动机)。

后来看关于计算理论的书:NigelCutland的Computability:anintroductiontorecursivefunctiontheory,我才了解到Kleene第二递归定理与自我模拟程序的关系。甚至在这本书中,NigelCutland根据第二递归定理专门讨论了这种自我模拟程序的可能性。在该书中,他称该程序为“自我反省”(Self-retrospectation)的程序。当时我就想为什么没有人动手把这种自反省程序做出来呢?

结果,最近我了解到,早就有人动手研究这种自模拟程序了,这个人就是大名鼎鼎的JürgenSchmidhuber。也许你对这个名字还不熟悉,但你一定知道LSTM(长短时记忆网络),这个LSTM可是Google机器翻译、对话系统背后最大的功臣。LSTM的发明者正是Schimchumber这位德国老先生。令人意想不到的是,他早在2006年的时候就提出了哥德尔机(GodelMachine),它可以被称为人类历史上第一台具备自我模拟、自我反省,甚至自我意识的人工智能机器,尽管它现在还远没有被造出来。

哥德尔机的构成与工作原理

从整体结构上来讲,哥德尔机实际上与我们之前讲的自我模拟程序非常类似,它由两部分构成:1、通用搜索器,这对应了自我模拟程序中的虚拟机;2、问题求解器,它对应了自我模拟程序的其它部分。但是,在哥德尔机中,求解器是一个几近完整的强化学习系统,它还包括了输入输出装置,从而它就像一个机器人一样能够实时地感知外界环境,并能对环境进行响应。与此同时,哥德尔机还有一个效用函数,它的目的就是为了不断地提升这个效用函数,这些都是自我模拟程序尚缺乏的部分。这些多出来的装置就可以让哥德尔机不仅能够实现自指,同时还能够以最优的方式求解问题。

具体来讲,哥德尔机是这样工作的。首先,哥德尔机内部存在一套编码系统,它可以将哥德尔机的硬件、软件甚至是当前的状态、效用函数,以及通用搜索器等等全部编码成数学命题。这种做法实际上就是哥德尔在1932年证明哥德尔定理的时候所使用的方法。有了这样的编码系统,哥德尔机就可以将机器工作的所有状态当作数学定理来讨论。

其次,通用搜索器可以不断地搜索一条数学命题的证明,从而判断它的真伪。这样,哥德尔机就有可能完成牵扯到它自身问题的求解了。例如,假设关于哥德尔机的一个命题是:“如果我持续地原地转圈,那么天上就会掉下一个馅饼来,从而提高我的效用。”那么,这个语句判断就有可能被编码成搜索器可以搜索的命题。于是,搜索器开始展开搜索,它会利用形式逻辑的推理法则展开运算,看看该条命题是否可以被推导出来。假设搜索器最后证明了这条命题是真的,那么哥德尔机就可以将策略“持续原地转圈”装载到哥德尔机的执行装置中。于是,哥德尔机就会不停地原地转圈了。

所以,通过这样的方式,哥德尔机就能持续地搜索可提升自己效用的方案,并利用更好的方案改写自己的源代码,从而完成“自省”的学习过程。据证明,哥德尔机与当前的强化学习算法有异曲同工的效果,能够在一边探索的时候一边学习。不过,Schimchuber证明,哥德尔机可以避免局部最优的问题,这就比一般的强化学习算法高明很多了。之所以它有这种能力,就是因为搜索器的妙用:它只有在证明了一套方法可以提升效用的时候才真正使用它。

我们不难看出,实际上搜索器就是我们前面说的虚拟机。所谓的搜索就是一套模拟过程。而哥德尔机允许对自身状态进行编码形成数学命题就相当于机器可以模拟自身的运作。所以,我们说哥德尔机就是对自我模拟程序的一次实现。

为了让我们的比较更具体,我们列出了下表:

哥德尔机与自我意识

Schimchuber个人也认为这个哥德尔机可以看作是具有自我意识的系统,例如他在J.Schmidhuber.ATechnicalJustificationofConsciousness.9thannualmeetingoftheAssociationfortheScientificStudyofConsciousnessASSC,Caltech,Pasadena,CA,2005.这篇文章中就表达了这样的观点:长久以来我们对意识问题一直争论来争论去而没有定论,但是我们连什么是意识都还说不清楚。

与其这样,不如让我们用哥德尔机来反过来定义意识。只要程序能够模拟自身、改造自身,那么我们就可以将其称为具有自我意识的。

所以,你会看到,哥德尔机的意义也许并不单纯在于它会求解问题,而是在于它与图灵机一样,可以为我们讨论自我意识的话题奠定一个程序的基础,或称一种标准。从此以后,意识问题就不再神秘了。

哥德尔机的执行

看起来这个哥德尔机非常的复杂,它能够被实现出来并执行计算吗?Schmidhuber自己给出了回答。他把哥德尔机的实现总结成了两篇文章:

[1]B.R.Steunebrink,J.Schmidhuber.TowardsanActualGödelMachineImplementation.InP.Wang,B.Goertzel,eds.,TheoreticalFoundationsofArtificialGeneralIntelligence.Springer,2012.

[2]B.Steunebrink,J.Schmidhuber.AFamilyofGödelMachineImplementations.FourthConferenceonArtificialGeneralIntelligence(AGI-11),Google,MountainView,California,2011

其中,他主要讨论了哥德尔机执行的关键要点就是机器的自指能力,并建议采用类似于Schema这样的语言来实施哥德尔机。

这里关键的问题在于复杂性。由于一个自我模拟系统需要双层系统,这就导致一层的简单性会带来另一层的复杂性。例如,如果我们选择了汇编语言,它可能具备一套很小的指令集,但是要实现一个自指的系统可能就会不简单。相反,如果你的系统设计就是针对自指的,例如lambda演算,那么它在自指部分很简单,但是机器本身的编译器却会很复杂,于是导致我们在虚拟层实现整个机器的自我模拟会比较复杂。

总之,尽管在理论层面我们知道设计出哥德尔机原则上是可行的,但是,由于双层系统的实现本身是非常困难的,因此哥德尔机尚没有真正的做出。

智能爆炸

不过,我们还是不妨脑洞一下这样的机器做出来之后会有什么结果呢?由于哥德尔机具备不断自我改善自己代码的能力,因此,有人认为一旦它被制造出来就会引发所谓的“智能爆炸”(IntelligenceExploration)。智能爆炸就是说,这个智能系统可以通过不断地提高自己的能力而提高,这个过程会越来越快地持续下去,从而很快超过人类的智能。一旦达到了这样的智能,哥德尔机自己就会设计出哥德尔机,从而让整个智能过程加速,这就导致了智能爆炸。

目前,人们普遍认为有两种途径达到技术奇点(TechnologySingularity),一种途经是通过硬件性能的不断提升,类似于摩尔定律;另一种途径则是通过软件途径,即智能爆炸。由于软件设计上的革命性进展更加不可预期,也无法被人类控制,因此认为智能爆炸的途径会更有可能突破技术奇点。

6.结论

本文从近年来发展出来的几个心理学实验出发指出所谓的自我意识,特别是自由意志很有可能是陈述性自我编造的一种幻觉:从我发向身体的这个因果箭头并不存在;所有的因果箭头就是环境到身体再到体验自我,然后体验自我再传向身体,再传给外界。陈述性自我只不过对整个过程进行了解读,并额外“虚构”出了意识到体验自我和身体的因果箭头。

既然破除了自由选择的迷信,那么人体就和机器没有区别。换句话说,机器也完全有可能模拟看起来具有意识的人类。我们只需要制造出一个同样具有两种自我的机器:一种虚拟的机器(陈述自我)和一种纯算法的执行机构(体验自我),那么这种机器就可以表现得像个有自我意识,甚至自由选择的装置了。我们甚至可以用这样的系统反过来定义自我意识。

类似的机器已经被JurgenSchimchumber设计了出来,它被他称为哥德尔机。哥德尔机包括两个部分,一个是通用搜索器(相当于内嵌的模拟机器);另一个是求解器(相当于执行系统)。在这样的装置下,哥德尔机可以通过在模拟器上搜索而寻求让自己不断优化的方案。我们只需要将搜索到的虚拟代码装载到实际的执行系统上,那么哥德尔机就可以不断地修改自己的代码而提升下去。人们担心,这种装置一旦制造出来,就有可能引发智能爆炸,从而导致技术奇点的来临。

附录

蒯恩技巧

这种自我模拟的实现看起来是不可能的,但是数学家们实际上早就发现了一种技巧来克服这种不可能性。美国知名哲学家蒯恩(W.Quine)发明了一种程序,从而将它形象化、实例化。所谓的蒯恩就是一段计算机代码,运行它以后,它就可以把自己的源代码原封不动地打印出来。例如,我们可以用Java语言写下一段蒯恩:

看上去有点复杂,但是你大概可以知道该代码包含了两个部分,一个是实在的程序体,一个是用“”引号括起来的部分。这括起来的部分仿佛和整体差不多。

如果用Python语言,那么蒯恩就会超级简单:

 

我们运行这段程序,就会发现它在屏幕上把这段程序自己的源代码打印了出来。仔细分析这段Python代码,就会发现它包括两句话,第一句话同样是定义了一个字符串,字符串的内容简直就是整段程序的包含,只是并不包括字符串这部分。第二句话是打印语句,%的意思是用%后面的变量来替换%前面变量中所有出现%号的地方。但是,%%就表示一个%,并没有替换。于是,运行这段代码就可以实现打印自己的源代码了。

Kleene第二递归定理

不要小看这个蒯恩技巧,有了它,我们就能构造这样一类神奇的程序:运行该程序的结果就相当于将它自己的源代码拿过来做任意的操作。比如,刚才说的Quine就是这样一种将自己的源代码打印出来的一种程序。除此之外,我们还能构造出测量自己源代码长度的程序,运行完程序,它就输出了自己源代码有多长。我们需要做的无非就是在Quine程序的字符串内部和程序本身都附着一段求任意字符串长度的代码就可以了。事实上,计算数学很早就证明出了一个叫做Kleene第二递归定理的结论,说的就是这种程序的存在性。

有了这个定理,我们就不难构造出自我模拟的程序了。我们只需要在Quine的基础上再附着上一段通用程序模拟器的代码。这样,根据第二递归定理,只需要运行这段程序就能模拟它自身的运行了。

原标题:《意识机器:ChatGPT能否拥有自我意识?》

阅读原文

机器人拥有自我意识是好处多还是风险多

11月3日消息,针对现下大热的人工智能,很多人会有一个疑问:机器人会拥有自主意识吗?在2019腾讯科学WE大会前,哥伦比亚大学教授、机器人研究权威专家HodLipson给出了回答。

HodLipson向TechWeb等表示,“不可避免会出现这一天,至于是10年后,还是100年后,我们还不知道。但我比较确信的是,我们孙辈生活的世界里,机器将会有自我意识。”

如果机器拥有了自我意识,你是否会为此感到担心?HodLipson对此持乐观态度,他认为,“自主意识的机器人带来的好处将会远远超过它的风险”。

他以火的发现为例解释称,火非常危险,也非常强大。但人类是否希望自己从未发现火呢?答案应该是否定的,因为有了火之后,使得我们能做很多之前做不到的、不可思议的事情。

HodLipson指出,“我们现在已经发展和运用了很多机器,而这些机器的数量将会越来越多,它们也会越来越复杂,总有一天人类将无法直接照顾这么多、这么复杂的机器人,我们要想办法让机器人自己来照顾自己。”(周小白)

以下为HodLipson对话速记:

提问:您真的会觉得机器人会拥有自主意识吗?你担心它拥有自主意识吗?

HodLipson:我的回答是肯定的,也是否定的。因为我认为不可避免的会出现这样一天,这个世界上的机器获得自我的意识。这是一个非常伟大的事件,因为我们现在在逐步给这些机器系统一点一点添加智能。最终,它们会给自己找到一个模型,它们最终要想明白,并最终明白自己是什么,自己能做什么和不能做什么。

这件事情将在10年之后发生,还是100年之后发生,我也不知道。但是,我比较确信的是我们的孙辈所生活的世界里,机器将会有自我意识。

我是否对此感到担心呢?我可以给您举一个例子,就是火的发现。火非常危险,也非常强大。但人类是否希望自己从未发现火呢?答案应该是否定的,因为有了火之后,使得我们能做很多之前做不到的、不可思议的事情。

具有自主意识的机器人也是如此,它是一种非常强大的技术,重要的是每一个人都认识到这种机器人能够做些什么、不能够做一些什么,就像火一样,我们知道它是强大而危险的,所以我们要确保将它用于好的事情上。

我个人在这个问题上保持乐观态度。我认为自主意识的机器人带来的好处将会远远超过它的风险,因此我们要追求发展这样一个技术,因为我们现在已经发展和运用了很多机器,而这些机器的数量将会越来越多,它们也会越来越复杂,总有一天人类将无法直接照顾这么多、这么复杂的机器人,我们要想办法让机器人自己来照顾自己。

提问:第一个问题,上过《自然》杂志封面的那个论文提到过粒子机器人没有单点故障,也没有集中控制。这个系统可以继续保持运行,它的阈值在什么范围内?因为现在测试下来是20%的粒子发生故障,整个系统还是能够保持运行,这个事情是对机器人鲁棒性的一个突破。

之前《科学》杂志的主编提到过现在所有人们认为机器人的意识问题,都是因为它的鲁棒性,机器人的鲁棒性如果真的够了,它就能产生意识吗?第二个问题,我不是非常理解刚才举的火的例子,因为火是没有自己意识的,它仍然只是一个工具,教授之前讲50年之后人可能和人工智能一起进步,就是人和人工智能共生的一个状态,在这样的环境下,人们会面临哪些伦理和社会上的挑战?

HodLipson:其实您是把很多问题都集中到了这两个问题。我先回答一下关于鲁棒性的问题,我们所做的粒子机器人把这个整体当成一个机器人。这种机器人我更想比喻成一个人的身体。我们的身体是由许多细胞组成的,这些细胞会产生、发展和死亡,不断地会有细胞死去。虽然有很多细胞都死掉了,但我还是我,你还是你。

那么到底我们能让多少细胞死,而不改变自己的性质呢?到底是20%,还是30%呢?其实,我们知道人体的细胞不断地在死亡,这是一个持续的过程,同时也会有新的细胞不断产生。

换句话说,我们的身体是由一个个不可靠的部分组成,这些部件本身会死亡、坏掉,但是新的部件会不断出现,反复的出现,我们这个整体还是我们自己。

做机器人主要在于新思路,你谈到了它的鲁棒性,你也提到了所谓的20%。其实这个20%只是我们测的一个数字而已,我们更关心的是一个想法,就是如何建造一种机器人,像人体一样,能够用这些不可靠的部件组成它,但是它作为一个整体仍然是像人体一样,可以正常的运行。

这一点和我们今天造机器的想法完全不一样,比如我们现在造的飞机,它由很多部件组成,其中任何一个部件都有自己特定的功能。假如这个部件失灵了、出故障了,那这个飞机就是不能上天的。假如有一辆车其中一个轮子掉了,这辆车也就无法运行了。

我们现在希望以一种全新的思路来做机器人,它的鲁棒性和机器人是否有自我意识是无关的,我们更多的是把它想像成一种生物体。从生物体来讲,你的身体、头脑是维持运行所必要的部分,我们希望这种机器人有一个头脑,能够自我去建模,这样就能够发展起来。

我举火的这个例子,并不是因为它有自我意识。它并没有自我意识,主要还是从伦理的角度来讲,是说火也是非常非常强大、危险的。但是,它是人类文明真正开始发展的原因,有了火人类才能够吃以前吃不了的食物,能够建造以前建造不了的东西,能够在夜里看见东西,这一切极大的促进了文明的发展,但是同时火也是非常危险的。

所以,我们所有人都需要意识到火是非常有用的,非常强大。假如火失控,就会带来非常糟糕的后果。人工智能也是如此,它既强大又危险,这个技术非常值得我们拥有,但是我们要知道这种技术能强大到什么程度,并且给予它尊重,确保能够恰当地使用。

你提到的所有伦理问题,目前应该还是没有答案的。其实就在5年前,人工智能技术就已经开始发展了,但是没有人对它感到兴奋,它只是一个学科而已,也没有任何人担心它有一天会接管了全世界。

但是,在过去5年间,这一技术真的腾飞了。突然之间好像大家都在问这些伦理问题,但是正如我前面说过的那样,我们对这些伦理问题还没有答案,这个技术肯定会继续发展,而有自我意识的机器人也终将出现。

提问:粒子机器人是否能够在一个很小的空间内模拟宇宙?

HodLipson:你问粒子机器人能否模拟宇宙,我想我们这个机器人更多的是试图模拟生命,而不是模拟宇宙的发展和运行。

我们试图让它模拟生物,特别是动物的机制。我们试图认识我们身体里所存在的这些粒子,或者更确切的说是细胞,每一个单个细胞都是不可靠的,而且大脑并不指挥每一个单个的细胞,这些细胞通过自己的随机运动组合在一起,最终产生了每一个真实的个人。

这个也仍然是一个比喻,但是总的想法是它使我们能够试着模拟,或者试着复制一下生命的运行。

提问:随着自主机器人意识越来越强烈,现在越来越多人对这个感到担忧,与此同时包括腾讯在内的这些企业,提出了“科技向善”的理念。你是否听说过腾讯“科技向善”的理念,你对科技向善这个理念是怎么理解的?以及你觉得科技向善该怎么引领未来机器人、人工智能与人类命运的和谐发展。

HodLipson:这个问题非常好,作为人类来说,我们开始意识到这样一种强大的自主意识会出现,我们肯定会想到必须要确保这些技术会用于好的事情、善的事情。

但是,这种科技向善的想法在很多地方都有人提出来,并且大家在不断的重复。比如我所在的哥伦比亚大学,我们有一个非常类似的说法,叫做数据向善,就是把数据用于善的事情,这是所有人类都希望能做的事情,关键还在于怎么做到,如何确保技术总是以好的方式得到运用,这一点是非常难的,确保人工智能完全用于好的事情并不容易,因为这个技术非常易用,也不需要投入很多钱就能够用上。技术本身既可以被用来做好事,也可以被用来做坏事,关键在于人类文明和人类社会应该想怎么把它用于好的事情,而不是坏的事情。

关于怎么办目前我们还没有完全想清楚。将来是让人工智能去监督人工智能,还是采取什么别的办法?但是总的来说最终要靠人类的伦理,指导我们在一个机器能够自主做出决定的新世界里,确保这些技术仍然用于好的事情。

应该说任何这样的问题都没有一个简单的答案,但是我们必须走上这样一个历程,并且一步一步的往前走,我们现在要公开讨论它应该可以做些什么,不可以做些什么,我们要不断地进行研究。

在这个过程中,人类会逐步做出什么能做、什么不能做的决定,实际上在人类历史上我们发现了既强大又危险的技术,比如说核技术、基因技术的出现,基因技术如果被误用或滥用,它的结果也会很糟糕。比如化学的发展,它也有可能会被人用于做坏事,但是最终人类社会都选择把这些技术用于好的地方。

所以,在人类历史上我们曾经多次发现这些强大而危险的技术。但在大部分的情况下,人类社会作为一个整体做出了正确的决定。所以我本人是乐观的,我相信这次人类社会整体也将做出正确的决定。虽然,在某个时点上可能有少数人会做出少数错误的、不好的决定,但是作为一个整体,我们会做出正确的决定。

提问:通常人们会想科学家做机器人,是让它来模仿人类所做的一些动作,或者人类的功能。但是也有一些科学家做出来的机器人已经能做一般人做不出来的动作了,为什么要让机器人做到这些呢?

HodLipson:这个问题非常好,就像我们为什么要让人工智能或者机器人玩国际象棋、围棋一样。这个是一个挑战,我们会试着让人工智能和机器人做一些人觉得难的东西,看是否能让机器人学会这些技术。

这是自我的挑战,也是一个测试,就好像人工智能在最开始学国际象棋的时候,世界上绝大部分普通人是不可能战胜国际象棋大师的。因为,一般人都做不到,不过一开始大家肯定也认为人工智能也是做不到的。这对它是一个智力上的挑战,它会去学习,然后逐步做到这一点,这是智力上的挑战。

身体上的挑战也是一样的,我们会去问机器人能不能走路。走路这件事看上去非常简单,每一个儿童,甚至婴儿很小就开始学走路,并且学会了。但实际上教机器人走路比让它学国际象棋难得多,因为每一个人类都觉得我们特别擅长走路,所以我们不觉得走路这件事有什么难的,但是教机器人走路是非常困难的。

巴斯大学和其它的一些大学进行了特别多研究,才逐步让他们的机器人能够走路。在它做到走路之后,科研人员会想能不能让它跑起来,能不能让它在摔倒之后自己爬起来,能不能让它能爬山、爬墙,或者说能不能让它做一个后空翻。

几个月前,伯克利大学发布了一段视频,它的机器人在玩一个魔方,这个是一件非常小的事。因为只要是个人,他的手就能玩魔方,但是对机器人来说这是非常难的事情。

对于科研人员来说,让机器人做这些事情就是在爬一个阶梯,是人在身体和智力上能做到的这些事情,让它像爬梯子一样一个一个得掌握,并且试着看一看我们在这方面能够走多远。

这个技术是不是有用呢?

我或许可以举一个例子。让机器人做后空翻的动作可能本身想不出来有什么实际的用处,但是后面支持机器人走路、拿东西、做后空翻的这些技术有很多非常实际的应用。

提问:您的这项研究适合于哪方面的实际应用,比如医学或者其它的。在您的成果当中,未来还有哪些可以提升的方向?比如说更多、更快、更小的组件。

我听说您领导的研究团队里面有一个中国人,叫李曙光。您怎么评价中国在机器人研究和应用方面的贡献?

HodLipson:我先跟您讲一下我们的计划,我们预期必须把它做的更小。我们在设想这样一种机器人的时候,我们希望能够模拟成百上千个细胞一起运作的状况。事实上,我们现在能做到的只是几十个细胞进行这样的运行。我们希望有一天能够达到数百万、上千万的细胞一起组成的粒子机器人来运作,就像我们的身体一样。我们身体里有数十亿、上百亿的细胞,它们共同形成了我们。我们要这样做的话,就需要把它做的更小,我们需要使用纳米技术,或者说至少是微米技术,这是我们的下一个目标。因为在它的每一个部件足够小之前,是不可能有实用场景的,因为在大的规模上没有办法实现细胞之间永续的更新,如果它足够小,能够做到很多有趣的事情。

比如说我们现在看到工厂里的机器人,乃至你家里的吸尘器,现在都是一些大的部件坏了,整个机器就不能运作的部件组成的。将来它们也可以由这样一个一个小的细胞组成,它的好处有很多。

首先,就是它能够应对某个部件出现故障,但是整体不会出问题,可以完全循环。在今天我们看到的这些机器是不能够循环的,机器坏掉之后相当于把它埋葬了,或者说这个机器的某个金属部件、塑料部件是可以循环的,但是机器作为一个整体是不行的。

但是生物体不一样,生物体是可以百分之百循环的。比如说你吃掉了一只鸡,你就能够充分利用鸡提供给你的蛋白质,如果你吃了植物或者素食,你也会充分利用它给你提供的一切,因为你的身体会把它所提供给你的有用物质进行循环,从氨基酸开始,然后对它实现充分的利用。

我们现在希望能够有一种物理的机器,使它也能够实现这样的循环,这样它就由数百万、上千万的小部件组成,形成这样一个小粒子的生态系统。只有实现这样的生态系统,才有机会使我们维持使用很多机器的人类文明生生不息,因为这些机器自己可以照顾自己,但是应该说这是一个非常长远的目标,这不是一个明天就能用上的技术。

提问:能够用两个词谈一谈对于腾讯明天WE大会科学精神的理解吗?并且讲一下故事,教授这边是不是采取了什么行动,来防止相关的技术被误用,是否存在一些规则,如何对相关的技术进行监管?

HodLipson:我非常期待明天的大会,而且我知道大会涉及到很多不同的主题,内容都非常有趣,这也使我想到中国和美国科学界的合作。

您提到我团队里面有中国人,其实我那里总共有10个博士生,里面有四个中国人,从硕士的学生来说,数量就更多了,大概占到了一半,可能大概有10多个。

所以,不管是哥伦比亚大学还是其它大学,其实都是如此。我想这也表明中美在这个领域的合作比历史上任何时候都要多,不仅在我们的项目组有中国学生,在大学的教职员工里面也有不少的中国人。

人工智能和机器人领域尤为如此,在这个领域发表论文的数量,中国、美国、欧洲数量大致是一样的,我们也知道在中国、美国,在世界上很多地方都存在着很多竞争,但是在人工智能和机器人的世界里,世界确实是平的。

其中部分原因是因为这个领域对资本投入的需求很低,因此你不需要投入大量的资金,就可以去研究和发展这个技术,所以每一个人感兴趣都可以参与进来。另外一部分原因是在人工智能和机器人的领域,我们分享意识是非常强的,迄今为止这个领域所取得的每一项成就都是开源的,这也大大促进了国际合作。

至于监管的问题,从目前来看,我们唯一能做的就是不断的谈论这样的事情,我们绝对不能关上门搞开发,要保持百分之百的开放。在我们的实验室白天黑夜都有记者找我们,他们会来拍照,会问问题,而且有些时候会问非常难回答、根本就没有答案的问题。

在机器人技术的发展领域,我想这是唯一的出路。可能我们进行大量的交流还不能确保这个技术一定是用于好的事情,但是至少通过这个讨论,人们可以了解到这种技术的危险性何在,而不是在未来某一天突然被它吓坏了。

提问:单个粒子机器人现在的收缩状态直径是15厘米,您刚刚提到在它做的足够小之前是不太可能应用的,大概要等多少年时间才有可能做到微米级、纳米级?在这期间会遇到什么难题?如果真的做到纳米级、微米级,这个粒子机器人具体落地应用场景大概是什么样的?可以举几个例子描述一下吗?

HodLipson:需要多少年才能达到你说的这个尺度我确实不知道答案。这个研究的进展并不仅仅取决于研究的难易程度,还涉及到是否能够得到资金支持,是否有学生对这个课题感兴趣。可能他们会被其它的技术所吸引,这些都是一些影响因素。

但是,我个人仍然觉得它会在我们的有生之年达到微米。比如10年,或者说我不会想像做的比微米更小,我不会真的想像那时候就能做到纳米级,但是或许我们只能做到毫米级的,比如说像小的砂糖颗粒一样,毫米级的,那时候就可以做这样的细胞。

没有办法把毫米级的粒子机器人到人类的血管中去,或者我们现在想像的那些医学中特别先进的应用,可能还是做不到,但是它应该可以成为一些机器的组成部分,这些机器能够行走、恢复、重复使用。

比如在外空有一些需要做的工作,或者是如果我们需要登上月球的话,我们就需要这些机器人能够根据任务的需求,改变自己的形态,在一些地方可能把材料运过去非常昂贵,我们需要重复使用我们的机器人,让它能够根据任务需求进行形态的调整。我个人想像,这很可能是这种机器人比较早的应用形态。

提问:有人说中国和美国在人工智能、机器人领域的不同是中国可能研究更偏应用一点,美国可能在基础研究做的更扎实一点,怎么看待中美在这两个领域当中研究发展程度的不同?中国人工智能领域在基础研究方面的缺乏和不足会不会对未来应用造成一些影响?

HodLipson:我不太确定我看到的情况和您的这个描述是一致的。因为我觉得中国也有很多人在做应用和基础研究,也有很多美国人在做应用方面的研究,中国这边也是两方面研究都有。

应该说这个领域的研究一直都是混合的。在机器人和人工智能领域,一向都是这两种,并不总是两分法的判断,很多人都是同时在做的。而且你很少看到有人只会研究某个特定的应用。比如说只研究某个医学的应用,或者某个康复功能的应用,或者他只关注于自动驾驶的机器人,更准确的描述就是这个领域非常广泛,确实没有人能够把所有的细分学科、某个技术细节都关注到。

但是在这两个国家都有大量的人做各种各样的研究,所以恐怕不能一下子判断中美出现这样一种不同偏好的原因。

即便在我自己的实验室,有的研究人员比较重视应用。我们有一个项目是能做“抓”这个动作的机器人,他们会和工厂有很多的联系,去看现有这样的机器人和我们自己的机器人,能不能保证它抓10万次不出故障。

此外也有特别关注于机器人创造力和自我意识的人,这个更具有哲学性的思考。恐怕只能说这个领域的内容如此丰富,所以一个人恐怕没有什么都关注到,但是放在国家尺度上,两国都既有实用研究,也有大量的基础研究,这就是我们这个学科和其它学科不一样的地方。

比如天文学肯定要做大量理论研究。我们这一行是不一样的,机器人这个领域有很多商业的力量参与,也有很多政治、经济的力量参与,这个领域的钱非常多,比如说百分之百人工智能驱动的无人驾驶汽车,在这个领域投入了大量的资金,它非常热,有来自于各个方向上的压力和兴趣,所以可能像这样的一些特定细分领域会吸引到更多的关注,但其实在更广泛的人工智能和机器领域,实用和理论基础性的研究都在广泛进行。

机器人拥有自我意识是好处多还是风险多

11月3日消息,针对现下大热的人工智能,很多人会有一个疑问:机器人会拥有自主意识吗?在2019腾讯科学WE大会前,哥伦比亚大学教授、机器人研究权威专家HodLipson给出了回答。

HodLipson向TechWeb等表示,“不可避免会出现这一天,至于是10年后,还是100年后,我们还不知道。但我比较确信的是,我们孙辈生活的世界里,机器将会有自我意识。”

如果机器拥有了自我意识,你是否会为此感到担心?HodLipson对此持乐观态度,他认为,“自主意识的机器人带来的好处将会远远超过它的风险”。

他以火的发现为例解释称,火非常危险,也非常强大。但人类是否希望自己从未发现火呢?答案应该是否定的,因为有了火之后,使得我们能做很多之前做不到的、不可思议的事情。

HodLipson指出,“我们现在已经发展和运用了很多机器,而这些机器的数量将会越来越多,它们也会越来越复杂,总有一天人类将无法直接照顾这么多、这么复杂的机器人,我们要想办法让机器人自己来照顾自己。”(周小白)

以下为HodLipson对话速记:

提问:您真的会觉得机器人会拥有自主意识吗?你担心它拥有自主意识吗?

HodLipson:我的回答是肯定的,也是否定的。因为我认为不可避免的会出现这样一天,这个世界上的机器获得自我的意识。这是一个非常伟大的事件,因为我们现在在逐步给这些机器系统一点一点添加智能。最终,它们会给自己找到一个模型,它们最终要想明白,并最终明白自己是什么,自己能做什么和不能做什么。

这件事情将在10年之后发生,还是100年之后发生,我也不知道。但是,我比较确信的是我们的孙辈所生活的世界里,机器将会有自我意识。

我是否对此感到担心呢?我可以给您举一个例子,就是火的发现。火非常危险,也非常强大。但人类是否希望自己从未发现火呢?答案应该是否定的,因为有了火之后,使得我们能做很多之前做不到的、不可思议的事情。

具有自主意识的机器人也是如此,它是一种非常强大的技术,重要的是每一个人都认识到这种机器人能够做些什么、不能够做一些什么,就像火一样,我们知道它是强大而危险的,所以我们要确保将它用于好的事情上。

我个人在这个问题上保持乐观态度。我认为自主意识的机器人带来的好处将会远远超过它的风险,因此我们要追求发展这样一个技术,因为我们现在已经发展和运用了很多机器,而这些机器的数量将会越来越多,它们也会越来越复杂,总有一天人类将无法直接照顾这么多、这么复杂的机器人,我们要想办法让机器人自己来照顾自己。

提问:第一个问题,上过《自然》杂志封面的那个论文提到过粒子机器人没有单点故障,也没有集中控制。这个系统可以继续保持运行,它的阈值在什么范围内?因为现在测试下来是20%的粒子发生故障,整个系统还是能够保持运行,这个事情是对机器人鲁棒性的一个突破。

之前《科学》杂志的主编提到过现在所有人们认为机器人的意识问题,都是因为它的鲁棒性,机器人的鲁棒性如果真的够了,它就能产生意识吗?第二个问题,我不是非常理解刚才举的火的例子,因为火是没有自己意识的,它仍然只是一个工具,教授之前讲50年之后人可能和人工智能一起进步,就是人和人工智能共生的一个状态,在这样的环境下,人们会面临哪些伦理和社会上的挑战?

HodLipson:其实您是把很多问题都集中到了这两个问题。我先回答一下关于鲁棒性的问题,我们所做的粒子机器人把这个整体当成一个机器人。这种机器人我更想比喻成一个人的身体。我们的身体是由许多细胞组成的,这些细胞会产生、发展和死亡,不断地会有细胞死去。虽然有很多细胞都死掉了,但我还是我,你还是你。

那么到底我们能让多少细胞死,而不改变自己的性质呢?到底是20%,还是30%呢?其实,我们知道人体的细胞不断地在死亡,这是一个持续的过程,同时也会有新的细胞不断产生。

换句话说,我们的身体是由一个个不可靠的部分组成,这些部件本身会死亡、坏掉,但是新的部件会不断出现,反复的出现,我们这个整体还是我们自己。

做机器人主要在于新思路,你谈到了它的鲁棒性,你也提到了所谓的20%。其实这个20%只是我们测的一个数字而已,我们更关心的是一个想法,就是如何建造一种机器人,像人体一样,能够用这些不可靠的部件组成它,但是它作为一个整体仍然是像人体一样,可以正常的运行。

这一点和我们今天造机器的想法完全不一样,比如我们现在造的飞机,它由很多部件组成,其中任何一个部件都有自己特定的功能。假如这个部件失灵了、出故障了,那这个飞机就是不能上天的。假如有一辆车其中一个轮子掉了,这辆车也就无法运行了。

我们现在希望以一种全新的思路来做机器人,它的鲁棒性和机器人是否有自我意识是无关的,我们更多的是把它想像成一种生物体。从生物体来讲,你的身体、头脑是维持运行所必要的部分,我们希望这种机器人有一个头脑,能够自我去建模,这样就能够发展起来。

我举火的这个例子,并不是因为它有自我意识。它并没有自我意识,主要还是从伦理的角度来讲,是说火也是非常非常强大、危险的。但是,它是人类文明真正开始发展的原因,有了火人类才能够吃以前吃不了的食物,能够建造以前建造不了的东西,能够在夜里看见东西,这一切极大的促进了文明的发展,但是同时火也是非常危险的。

所以,我们所有人都需要意识到火是非常有用的,非常强大。假如火失控,就会带来非常糟糕的后果。人工智能也是如此,它既强大又危险,这个技术非常值得我们拥有,但是我们要知道这种技术能强大到什么程度,并且给予它尊重,确保能够恰当地使用。

你提到的所有伦理问题,目前应该还是没有答案的。其实就在5年前,人工智能技术就已经开始发展了,但是没有人对它感到兴奋,它只是一个学科而已,也没有任何人担心它有一天会接管了全世界。

但是,在过去5年间,这一技术真的腾飞了。突然之间好像大家都在问这些伦理问题,但是正如我前面说过的那样,我们对这些伦理问题还没有答案,这个技术肯定会继续发展,而有自我意识的机器人也终将出现。

提问:粒子机器人是否能够在一个很小的空间内模拟宇宙?

HodLipson:你问粒子机器人能否模拟宇宙,我想我们这个机器人更多的是试图模拟生命,而不是模拟宇宙的发展和运行。

我们试图让它模拟生物,特别是动物的机制。我们试图认识我们身体里所存在的这些粒子,或者更确切的说是细胞,每一个单个细胞都是不可靠的,而且大脑并不指挥每一个单个的细胞,这些细胞通过自己的随机运动组合在一起,最终产生了每一个真实的个人。

这个也仍然是一个比喻,但是总的想法是它使我们能够试着模拟,或者试着复制一下生命的运行。

提问:随着自主机器人意识越来越强烈,现在越来越多人对这个感到担忧,与此同时包括腾讯在内的这些企业,提出了“科技向善”的理念。你是否听说过腾讯“科技向善”的理念,你对科技向善这个理念是怎么理解的?以及你觉得科技向善该怎么引领未来机器人、人工智能与人类命运的和谐发展。

HodLipson:这个问题非常好,作为人类来说,我们开始意识到这样一种强大的自主意识会出现,我们肯定会想到必须要确保这些技术会用于好的事情、善的事情。

但是,这种科技向善的想法在很多地方都有人提出来,并且大家在不断的重复。比如我所在的哥伦比亚大学,我们有一个非常类似的说法,叫做数据向善,就是把数据用于善的事情,这是所有人类都希望能做的事情,关键还在于怎么做到,如何确保技术总是以好的方式得到运用,这一点是非常难的,确保人工智能完全用于好的事情并不容易,因为这个技术非常易用,也不需要投入很多钱就能够用上。技术本身既可以被用来做好事,也可以被用来做坏事,关键在于人类文明和人类社会应该想怎么把它用于好的事情,而不是坏的事情。

关于怎么办目前我们还没有完全想清楚。将来是让人工智能去监督人工智能,还是采取什么别的办法?但是总的来说最终要靠人类的伦理,指导我们在一个机器能够自主做出决定的新世界里,确保这些技术仍然用于好的事情。

应该说任何这样的问题都没有一个简单的答案,但是我们必须走上这样一个历程,并且一步一步的往前走,我们现在要公开讨论它应该可以做些什么,不可以做些什么,我们要不断地进行研究。

在这个过程中,人类会逐步做出什么能做、什么不能做的决定,实际上在人类历史上我们发现了既强大又危险的技术,比如说核技术、基因技术的出现,基因技术如果被误用或滥用,它的结果也会很糟糕。比如化学的发展,它也有可能会被人用于做坏事,但是最终人类社会都选择把这些技术用于好的地方。

所以,在人类历史上我们曾经多次发现这些强大而危险的技术。但在大部分的情况下,人类社会作为一个整体做出了正确的决定。所以我本人是乐观的,我相信这次人类社会整体也将做出正确的决定。虽然,在某个时点上可能有少数人会做出少数错误的、不好的决定,但是作为一个整体,我们会做出正确的决定。

提问:通常人们会想科学家做机器人,是让它来模仿人类所做的一些动作,或者人类的功能。但是也有一些科学家做出来的机器人已经能做一般人做不出来的动作了,为什么要让机器人做到这些呢?

HodLipson:这个问题非常好,就像我们为什么要让人工智能或者机器人玩国际象棋、围棋一样。这个是一个挑战,我们会试着让人工智能和机器人做一些人觉得难的东西,看是否能让机器人学会这些技术。

这是自我的挑战,也是一个测试,就好像人工智能在最开始学国际象棋的时候,世界上绝大部分普通人是不可能战胜国际象棋大师的。因为,一般人都做不到,不过一开始大家肯定也认为人工智能也是做不到的。这对它是一个智力上的挑战,它会去学习,然后逐步做到这一点,这是智力上的挑战。

身体上的挑战也是一样的,我们会去问机器人能不能走路。走路这件事看上去非常简单,每一个儿童,甚至婴儿很小就开始学走路,并且学会了。但实际上教机器人走路比让它学国际象棋难得多,因为每一个人类都觉得我们特别擅长走路,所以我们不觉得走路这件事有什么难的,但是教机器人走路是非常困难的。

巴斯大学和其它的一些大学进行了特别多研究,才逐步让他们的机器人能够走路。在它做到走路之后,科研人员会想能不能让它跑起来,能不能让它在摔倒之后自己爬起来,能不能让它能爬山、爬墙,或者说能不能让它做一个后空翻。

几个月前,伯克利大学发布了一段视频,它的机器人在玩一个魔方,这个是一件非常小的事。因为只要是个人,他的手就能玩魔方,但是对机器人来说这是非常难的事情。

对于科研人员来说,让机器人做这些事情就是在爬一个阶梯,是人在身体和智力上能做到的这些事情,让它像爬梯子一样一个一个得掌握,并且试着看一看我们在这方面能够走多远。

这个技术是不是有用呢?

我或许可以举一个例子。让机器人做后空翻的动作可能本身想不出来有什么实际的用处,但是后面支持机器人走路、拿东西、做后空翻的这些技术有很多非常实际的应用。

提问:您的这项研究适合于哪方面的实际应用,比如医学或者其它的。在您的成果当中,未来还有哪些可以提升的方向?比如说更多、更快、更小的组件。

我听说您领导的研究团队里面有一个中国人,叫李曙光。您怎么评价中国在机器人研究和应用方面的贡献?

HodLipson:我先跟您讲一下我们的计划,我们预期必须把它做的更小。我们在设想这样一种机器人的时候,我们希望能够模拟成百上千个细胞一起运作的状况。事实上,我们现在能做到的只是几十个细胞进行这样的运行。我们希望有一天能够达到数百万、上千万的细胞一起组成的粒子机器人来运作,就像我们的身体一样。我们身体里有数十亿、上百亿的细胞,它们共同形成了我们。我们要这样做的话,就需要把它做的更小,我们需要使用纳米技术,或者说至少是微米技术,这是我们的下一个目标。因为在它的每一个部件足够小之前,是不可能有实用场景的,因为在大的规模上没有办法实现细胞之间永续的更新,如果它足够小,能够做到很多有趣的事情。

比如说我们现在看到工厂里的机器人,乃至你家里的吸尘器,现在都是一些大的部件坏了,整个机器就不能运作的部件组成的。将来它们也可以由这样一个一个小的细胞组成,它的好处有很多。

首先,就是它能够应对某个部件出现故障,但是整体不会出问题,可以完全循环。在今天我们看到的这些机器是不能够循环的,机器坏掉之后相当于把它埋葬了,或者说这个机器的某个金属部件、塑料部件是可以循环的,但是机器作为一个整体是不行的。

但是生物体不一样,生物体是可以百分之百循环的。比如说你吃掉了一只鸡,你就能够充分利用鸡提供给你的蛋白质,如果你吃了植物或者素食,你也会充分利用它给你提供的一切,因为你的身体会把它所提供给你的有用物质进行循环,从氨基酸开始,然后对它实现充分的利用。

我们现在希望能够有一种物理的机器,使它也能够实现这样的循环,这样它就由数百万、上千万的小部件组成,形成这样一个小粒子的生态系统。只有实现这样的生态系统,才有机会使我们维持使用很多机器的人类文明生生不息,因为这些机器自己可以照顾自己,但是应该说这是一个非常长远的目标,这不是一个明天就能用上的技术。

提问:能够用两个词谈一谈对于腾讯明天WE大会科学精神的理解吗?并且讲一下故事,教授这边是不是采取了什么行动,来防止相关的技术被误用,是否存在一些规则,如何对相关的技术进行监管?

HodLipson:我非常期待明天的大会,而且我知道大会涉及到很多不同的主题,内容都非常有趣,这也使我想到中国和美国科学界的合作。

您提到我团队里面有中国人,其实我那里总共有10个博士生,里面有四个中国人,从硕士的学生来说,数量就更多了,大概占到了一半,可能大概有10多个。

所以,不管是哥伦比亚大学还是其它大学,其实都是如此。我想这也表明中美在这个领域的合作比历史上任何时候都要多,不仅在我们的项目组有中国学生,在大学的教职员工里面也有不少的中国人。

人工智能和机器人领域尤为如此,在这个领域发表论文的数量,中国、美国、欧洲数量大致是一样的,我们也知道在中国、美国,在世界上很多地方都存在着很多竞争,但是在人工智能和机器人的世界里,世界确实是平的。

其中部分原因是因为这个领域对资本投入的需求很低,因此你不需要投入大量的资金,就可以去研究和发展这个技术,所以每一个人感兴趣都可以参与进来。另外一部分原因是在人工智能和机器人的领域,我们分享意识是非常强的,迄今为止这个领域所取得的每一项成就都是开源的,这也大大促进了国际合作。

至于监管的问题,从目前来看,我们唯一能做的就是不断的谈论这样的事情,我们绝对不能关上门搞开发,要保持百分之百的开放。在我们的实验室白天黑夜都有记者找我们,他们会来拍照,会问问题,而且有些时候会问非常难回答、根本就没有答案的问题。

在机器人技术的发展领域,我想这是唯一的出路。可能我们进行大量的交流还不能确保这个技术一定是用于好的事情,但是至少通过这个讨论,人们可以了解到这种技术的危险性何在,而不是在未来某一天突然被它吓坏了。

提问:单个粒子机器人现在的收缩状态直径是15厘米,您刚刚提到在它做的足够小之前是不太可能应用的,大概要等多少年时间才有可能做到微米级、纳米级?在这期间会遇到什么难题?如果真的做到纳米级、微米级,这个粒子机器人具体落地应用场景大概是什么样的?可以举几个例子描述一下吗?

HodLipson:需要多少年才能达到你说的这个尺度我确实不知道答案。这个研究的进展并不仅仅取决于研究的难易程度,还涉及到是否能够得到资金支持,是否有学生对这个课题感兴趣。可能他们会被其它的技术所吸引,这些都是一些影响因素。

但是,我个人仍然觉得它会在我们的有生之年达到微米。比如10年,或者说我不会想像做的比微米更小,我不会真的想像那时候就能做到纳米级,但是或许我们只能做到毫米级的,比如说像小的砂糖颗粒一样,毫米级的,那时候就可以做这样的细胞。

没有办法把毫米级的粒子机器人到人类的血管中去,或者我们现在想像的那些医学中特别先进的应用,可能还是做不到,但是它应该可以成为一些机器的组成部分,这些机器能够行走、恢复、重复使用。

比如在外空有一些需要做的工作,或者是如果我们需要登上月球的话,我们就需要这些机器人能够根据任务的需求,改变自己的形态,在一些地方可能把材料运过去非常昂贵,我们需要重复使用我们的机器人,让它能够根据任务需求进行形态的调整。我个人想像,这很可能是这种机器人比较早的应用形态。

提问:有人说中国和美国在人工智能、机器人领域的不同是中国可能研究更偏应用一点,美国可能在基础研究做的更扎实一点,怎么看待中美在这两个领域当中研究发展程度的不同?中国人工智能领域在基础研究方面的缺乏和不足会不会对未来应用造成一些影响?

HodLipson:我不太确定我看到的情况和您的这个描述是一致的。因为我觉得中国也有很多人在做应用和基础研究,也有很多美国人在做应用方面的研究,中国这边也是两方面研究都有。

应该说这个领域的研究一直都是混合的。在机器人和人工智能领域,一向都是这两种,并不总是两分法的判断,很多人都是同时在做的。而且你很少看到有人只会研究某个特定的应用。比如说只研究某个医学的应用,或者某个康复功能的应用,或者他只关注于自动驾驶的机器人,更准确的描述就是这个领域非常广泛,确实没有人能够把所有的细分学科、某个技术细节都关注到。

但是在这两个国家都有大量的人做各种各样的研究,所以恐怕不能一下子判断中美出现这样一种不同偏好的原因。

即便在我自己的实验室,有的研究人员比较重视应用。我们有一个项目是能做“抓”这个动作的机器人,他们会和工厂有很多的联系,去看现有这样的机器人和我们自己的机器人,能不能保证它抓10万次不出故障。

此外也有特别关注于机器人创造力和自我意识的人,这个更具有哲学性的思考。恐怕只能说这个领域的内容如此丰富,所以一个人恐怕没有什么都关注到,但是放在国家尺度上,两国都既有实用研究,也有大量的基础研究,这就是我们这个学科和其它学科不一样的地方。

比如天文学肯定要做大量理论研究。我们这一行是不一样的,机器人这个领域有很多商业的力量参与,也有很多政治、经济的力量参与,这个领域的钱非常多,比如说百分之百人工智能驱动的无人驾驶汽车,在这个领域投入了大量的资金,它非常热,有来自于各个方向上的压力和兴趣,所以可能像这样的一些特定细分领域会吸引到更多的关注,但其实在更广泛的人工智能和机器领域,实用和理论基础性的研究都在广泛进行。

责任编辑:ct

谷歌工程师宣称AI有了“自我意识”

超级AI

多功能机器人诞生

就在最近,这些大型AI语言模型有了进一步演化,好像已经不仅仅满足于完成一些语言类任务了,而是发展成为一个解决问题的智能综合体。就在上个月,英国的人工智能企业Deepmind公司,在自家官网上发表了一篇雄心勃勃的AI研究。标题非常简短,只有三个单词——“Ageneralistagent”,翻译过来是“一个多功能智能体”。学术界和新闻界有一点很像,标题越短,事儿就越大。这篇研究也确实是想解决一个大问题,也就是,让同一个AI模型具备解决很多不同类型问题的能力。

传统的AI模型,只专注于完成一类特定的任务,比如图像识别、语言翻译、辅助决策等等,每种任务对应着特定的算法。要想让AI同时完成多种任务,比如让家里的扫地机器人一边扫地,一边陪你聊天,只能把几类不同的AI算法都加载到机器人上,相当于是给一个机器人配上多个大脑,每个大脑用来解决一个问题。

但是这样做,一是很浪费运算资源,二是从技术角度来看也不够优雅。AI科学家们长期以来的梦想,是开发出像人类一样的智能体,用一个大脑来解决多个问题,而不是把一堆算法给拼接和缝合起来。

在Deepmind公司发表的这项研究中,他们开发出了一个名叫“加图”(Gato)的多功能AI模型,就是用一个算法,来完成打游戏、聊天、控制机械臂搭积木、给图片配字幕等很多功能。而且“加图”和“拉姆达”一样,是利用了类似AI大型语言模型的训练原理。

强AI

怎样让AI智能更高级

首先,研究人员采集了大量来自不同类型的任务数据,像是文字识别、图像识别、玩游戏、机器人控制等任务中的数据。然后,研究人员使用一种巧妙的编码方法,把图像、动作、文字等各种格式的信息,统一编码成同一种格式的数据序列。相当于是把各种不同的语言翻译成同一种通用语言,再统一输入到AI模型里面进行训练。最后,就得到了一个可以执行多种任务的AI模型,而且每项任务都完成得相当出色。

在控制类型的任务中,“加图”在十几种小游戏中都取得了接近甚至超过人类玩家的成绩。在给图片配字幕的任务中,“加图”也能够媲美其他专用AI模型。

这项技术进展让我们看到,AI的任务分类并不像我们原来以为的那样泾渭分明。只要经过足够好的“翻译”,图像、语言、机器人控制等任务,都可以由同一个AI大脑来完成。这样一来,机器人离真正的高级智能体又近了一步,也许真的有一天,会出现“自我意识”的觉醒。返回搜狐,查看更多

刘鹏:人工智能会产生自我意识吗

一场正常的模仿游戏有ABC三人参与,A是男性,B是女性,两人坐在房间里;C是房间外的裁判,他的任务是要判断出这两人谁是男性谁是女性。但是男方是带着任务来的:他要欺骗裁判,让裁判做出错误的判断。

那么,图灵问:“如果一台机器取代了这个游戏里的男方的地位,会发生什么?这台机器骗过审问者的概率会比人类男女参加时更高吗?这个问题取代了我们原本的问题:‘机器能否思考?’”而这,就是图灵测试的本体。

来源:果壳网

一场正常的模仿游戏有ABC三人参与,A是男性,B是女性,两人坐在房间里;C是房间外的裁判,他的任务是要判断出这两人谁是男性谁是女性。但是男方是带着任务来的:他要欺骗裁判,让裁判做出错误的判断。

那么,图灵问:“如果一台机器取代了这个游戏里的男方的地位,会发生什么?这台机器骗过审问者的概率会比人类男女参加时更高吗?这个问题取代了我们原本的问题:‘机器能否思考?’”而这,就是图灵测试的本体。

来源:果壳网

图灵很聪明,“思考”、“意识”这些都是虚无缥缈的东西,试图用定义法来证明几乎不可能(难免会有哲学家社会学家出来挑刺)。那我索性不去阐释什么是思考能力,只是用另一种公认具有思考能力的生物——人类作为参照物,如果一台机器“表现得”和人类难以区分,即可被视为具备了人类智能。

图灵的思路简单而明确——只有一种智能才能去识别另一种智能。

不过“原始版本的图灵测试”思路虽好,可操作性却不强。

到了1952年,在一场BBC广播中,图灵谈到了一个新的想法:让计算机来冒充人。如果不足70%的人判对(也就是超过30%的裁判误以为在和自己说话的是人而非计算机),那就算作成功了。

可以看出,图灵测试的核心其实不是“计算机能否和人对话”,而是“计算机能否在智力行为上表现得和人无法区分”。冒充异性和冒充人类都不过是特例而已。

那么时至今日,是否有机器已经通过了图灵测试?

答案是——有。

腾讯科技讯2014年6月9日消息,据国外媒体报道,最近,一个俄罗斯团队开发的聊天机器人软件,使得三分之一的聊天参与者,认为它是一个人类。这意味着在人类历史上,计算机首次通过了有关计算机智能能否超过人类的图灵测试。

1950年,计算机科学家图灵提出了图灵测试,这一测试要回答的问题,是机器是否能够像人类一样思考。图灵提出,可以让安装智能问答软件的计算机,和人类进行问答测试,如果30%的问答参与者,认为这台计算机无法和人类相区别,则可以认为计算机通过了图灵测试,“会思考的机器”将不再是梦想。

据报道,俄罗斯的一个团队,开发了名为“EugeneGoostman”的人工智能聊天软件,它模仿的是一个来自乌克兰的13岁男孩(男孩名字也是“EugeneGoostman”)。英国雷丁大学对这一软件进行了测试,据报道,在伦敦皇家学会进行的测试中,33%的对话参与者认为,聊天的对方是一个人类,而不是计算机。

这意味着图灵测试获得通过。

英国雷丁大学的教授KevinWarwick对英国媒体表示,过去已经有研究者宣称自己研发的计算机和软件通过了图灵测试,但是都是预先设置了对话的主题,而此次“EugeneGoostman”的测试,并未事先确定话题,因此可以宣布,这是人类历史上第一次计算机真正通过图灵测试。

不过这位教授也表示,计算机实现人类的智力,对于社会来说有着复杂的意义,未来这种计算机的高智能,会被用于网络犯罪。

上述测试于上周六进行,据悉,当天也是图灵去世60周年纪念日。

另外,2012年,另外一款软件“差一点”通过了图灵测试,有29%的问答参与者认为对方是人类而不是计算机,距离30%只有一步之遥。(晨曦)

来源:腾讯科技

腾讯科技讯2014年6月9日消息,据国外媒体报道,最近,一个俄罗斯团队开发的聊天机器人软件,使得三分之一的聊天参与者,认为它是一个人类。这意味着在人类历史上,计算机首次通过了有关计算机智能能否超过人类的图灵测试。

1950年,计算机科学家图灵提出了图灵测试,这一测试要回答的问题,是机器是否能够像人类一样思考。图灵提出,可以让安装智能问答软件的计算机,和人类进行问答测试,如果30%的问答参与者,认为这台计算机无法和人类相区别,则可以认为计算机通过了图灵测试,“会思考的机器”将不再是梦想。

据报道,俄罗斯的一个团队,开发了名为“EugeneGoostman”的人工智能聊天软件,它模仿的是一个来自乌克兰的13岁男孩(男孩名字也是“EugeneGoostman”)。英国雷丁大学对这一软件进行了测试,据报道,在伦敦皇家学会进行的测试中,33%的对话参与者认为,聊天的对方是一个人类,而不是计算机。

这意味着图灵测试获得通过。

英国雷丁大学的教授KevinWarwick对英国媒体表示,过去已经有研究者宣称自己研发的计算机和软件通过了图灵测试,但是都是预先设置了对话的主题,而此次“EugeneGoostman”的测试,并未事先确定话题,因此可以宣布,这是人类历史上第一次计算机真正通过图灵测试。

不过这位教授也表示,计算机实现人类的智力,对于社会来说有着复杂的意义,未来这种计算机的高智能,会被用于网络犯罪。

上述测试于上周六进行,据悉,当天也是图灵去世60周年纪念日。

另外,2012年,另外一款软件“差一点”通过了图灵测试,有29%的问答参与者认为对方是人类而不是计算机,距离30%只有一步之遥。(晨曦)

来源:腾讯科技

既然有机器通过了图灵测试,是否说明机器已经具备了思考能力?显然——不是。

就我们目前所知,尚无真正具备独立思考能力的机器问世。

通过测试,却显然不具备思考能力的机器出现。这是否说明“图灵测试”根本没有用,是一个无效的证明方式?

质疑·中文房间思想实验

早在1980年,约翰·赛尔在《心智、大脑和程序》一文中提出著名的“中文房间”思想实验用以驳斥“图灵测试”的合理性。

塞尔说,想象他被关在一个只开了一个小口的房间之中。

周围摆满了英汉词典,他作为一个完全不懂中文的人与房间外的中国人交流。

写满中文的纸条递了进来,他查字典将中文翻译成英文,再将要回复的话借助工具书翻译成中文递出去。

那么外面的人就会认为约翰·赛尔精通中文。

这里约翰·赛尔是用了类比的方法,他对中文一窍不通却可以让外面的人以为他精通中文,同理,机器即使表现得很像人类也并不能证明其具备了思考能力——“只是看起来像是在思考”。

按照约翰·赛尔的观点,应当是认为机器永远不可能真正具备思考能力,即使表现得很像具备思考能力,本质上也不过是在忠实地运行程序而已。

持此观点的人不在少数,认为机器永远不可能产生意识,人是造物主独一无二的光荣。

斯皮尔伯格《人工智能》剧照

我与另一些图灵的拥虿一样,并不认同中文房间思想实验的结论。首先约翰·赛尔刻意弱化了工具书的功能和翻译过程的艰难,让这个实验似乎符合人们的直觉。

让我们仔细回顾一下,一个对中文一窍不通的人仅凭工具书真得可能蒙骗过屋外以中文为母语的人吗?不可能。只是简单的理解字面意思太容易露出破绽了,这里面包含了对中文语法、修辞、文化基因的积累,换言之,这个人如果真能做到天衣无缝得骗过外面的中国人,那么这个人加上他的翻译工具这个整体,本质上就可以被视为一个“精通中文的人”,这是存在等价关系的。

类比于图灵测试,一个不具备思考能力的机器,不可能表现得如同一个思考者。中国古代有五禽戏,人可以通过自己的智慧和观察模仿成动物,这是因为人的智能程度比其他动物要高,相反,你认为一只猪能扮成一个人和我们一起工作吗?如果有这样的猪,则说明它是具备思考能力的智能猪。

本质上,高智商可以伪装成低智商混入群众,而低智商伪装成高智商进门萨,就太容易被人揭穿了,就是这么个简单的逻辑。

既然图灵测试没有问题,为什么会出现通过了图灵测试却未产生思考能力的机器呢?

哪里出了问题?

努力想办法通过图灵测试的研究单位本就有些急功近利,他们的研究偏离了重点,图灵提出这个测试是为了让人们努力研究出智能上更接近人类的机器,而不是研究如何设计程序能在对话中骗过普通人。

在测试中这个男孩从不正面回答问题。一些测试者被成功欺骗了(大约有三分之一,足以算作一次小规模胜利)。但是这又如何?裁判们只有几分钟时间进行测试,如果时间加长,毫无疑问他们会很快发现真相,Eugene对现实世界几乎一无所知。让我们来看一下计算机科学家ScottAaronson与Eugene的对话:

SCOTT:鞋盒子与珠穆朗玛峰,那个更大?

>>EUGENE:现在我还不确定,我得再想想。对了,我忘记问你来自哪儿了?

SCOTT:一只骆驼有几只腿?

>>EUGENE:2至4条吧,也许,3条?顺便说一句,我仍然不知道你的专业是什么——或者,我刚才没看到?

SCOTT:一只千足虫有多少条腿?

>>EUGENE:只有2条。但考虑到切尔诺贝利事故,它有可能增加到5条。我知道你在对我说脑筋急转弯。

SCOTT:没有,我需要知道你不是一个聊天机器人。请直接回答这个问题:一只蚂蚁有几只腿?

>>EUGENE:2至4条吧,也许,3条?哦,这是一次多么富有成果的对话。

来源:网易科技

在测试中这个男孩从不正面回答问题。一些测试者被成功欺骗了(大约有三分之一,足以算作一次小规模胜利)。但是这又如何?裁判们只有几分钟时间进行测试,如果时间加长,毫无疑问他们会很快发现真相,Eugene对现实世界几乎一无所知。让我们来看一下计算机科学家ScottAaronson与Eugene的对话:

SCOTT:鞋盒子与珠穆朗玛峰,那个更大?

>>EUGENE:现在我还不确定,我得再想想。对了,我忘记问你来自哪儿了?

SCOTT:一只骆驼有几只腿?

>>EUGENE:2至4条吧,也许,3条?顺便说一句,我仍然不知道你的专业是什么——或者,我刚才没看到?

SCOTT:一只千足虫有多少条腿?

>>EUGENE:只有2条。但考虑到切尔诺贝利事故,它有可能增加到5条。我知道你在对我说脑筋急转弯。

SCOTT:没有,我需要知道你不是一个聊天机器人。请直接回答这个问题:一只蚂蚁有几只腿?

>>EUGENE:2至4条吧,也许,3条?哦,这是一次多么富有成果的对话。

来源:网易科技

顾左右而言他,以这种形式通过测试没有意义。

真正专注于人工智能的研发团队反倒不会刻意去进行图灵测试,好比百年前研究飞机者会努力让飞机的机翼更像鸟的翅膀吗?

我们从仿生学的角度得到灵感,会去研究鸟为什么可以飞,但并不意味着我们把机翼做得越像鸟翅膀就越厉害,这是刻舟求剑。

人工智能会否产生自我意识?

这个问题,目前没有什么标准答案,只能说是见仁见智。

不过我从图灵测试说起,再到反驳“中文房间”思想实验,本身就是想表达——我认为是具有理论可能性的。

阿兰·图灵当年提出这个测试,就说明他是认为未来会出现具有人类智能的机器的,定标准不就是为了将来能达到标准吗?

一般来讲,认同人工智能可能会对人类产生威胁的学者本身就认同了机器会产生独立意识,比如比尔盖茨、霍金、马斯克等均发表过相关言论。

硅谷“钢铁侠”马斯克再次警告人工智能可能带来的威胁。

近日,波士顿动力公司(BostonDynamics)的一个类人机器人做出完美后空翻的视频在美国社交网络上走红,但这一新技术突破却让本就对人工智能心存忌惮的特斯拉CEO伊隆·马斯克(ElonMusk)再次感到担忧。

本月初,在波士顿动力公司发布的一个视频中,公司研发的一款名叫Atlas的机器人从一个高处的平台进行后空翻,它平稳地完成落地动作后,还举起双臂进行庆祝。

11月27日,马斯克在社交媒体推特上转发这一视频后,论调有些悲观地写道:“这都不算什么。再过几年,这个机器人行动速度之快必须依靠闪光灯才能捕捉。祝你们好梦……”

马斯克发推再谈人工智能的危险性

当有人在评论中让他进一步解释时,马斯克补充道:“(只能用闪光灯)否则你只能看到一团模糊。”

他接着又更新状态称,对人工智能(AI)和机器人进行规范,不仅是必要的,而且是迫切的。

“我们必须像对食物、药物、飞机和汽车那样规范人工智能和机器人技术。公共风险需要公众监督。没有联邦航空局(FAA)不会让飞行更安全。他们的存在是有原因的。”他在推文中写道。

来源:澎湃新闻

硅谷“钢铁侠”马斯克再次警告人工智能可能带来的威胁。

近日,波士顿动力公司(BostonDynamics)的一个类人机器人做出完美后空翻的视频在美国社交网络上走红,但这一新技术突破却让本就对人工智能心存忌惮的特斯拉CEO伊隆·马斯克(ElonMusk)再次感到担忧。

本月初,在波士顿动力公司发布的一个视频中,公司研发的一款名叫Atlas的机器人从一个高处的平台进行后空翻,它平稳地完成落地动作后,还举起双臂进行庆祝。

11月27日,马斯克在社交媒体推特上转发这一视频后,论调有些悲观地写道:“这都不算什么。再过几年,这个机器人行动速度之快必须依靠闪光灯才能捕捉。祝你们好梦……”

马斯克发推再谈人工智能的危险性

当有人在评论中让他进一步解释时,马斯克补充道:“(只能用闪光灯)否则你只能看到一团模糊。”

他接着又更新状态称,对人工智能(AI)和机器人进行规范,不仅是必要的,而且是迫切的。

“我们必须像对食物、药物、飞机和汽车那样规范人工智能和机器人技术。公共风险需要公众监督。没有联邦航空局(FAA)不会让飞行更安全。他们的存在是有原因的。”他在推文中写道。

来源:澎湃新闻

在我看来,计算机一直在模仿人脑,它已经学会了下棋、作画、创作音乐、写新闻稿、扫地、做饭甚至是设计、算机一驾驶、航行……

曾经我们认为人工智能不可能在围棋领域打败人类,被AlphaGo狠狠教育了。

柯洁黯然落泪

后来觉得类似于写作、设计之类的事情不可能被人工智能追赶……然而……

在上周召开的2017年度“王选新闻科学技术”颁奖大会上,新华社机器人采访和写稿项目获得一等奖。即使新闻行业里已经普遍开始试水写稿机器人,这一奖项也在媒体界引发惊诧与思考。

有人预言,在不远的未来,写稿机器人将彻底取代人类记者,也有人认为,写稿机器人只是在规则既定的部分写作领域里有挑战性,但在规则模糊,乃至不断打破规则的高创造领域里,还有很长的路要走。

在上周召开的2017年度“王选新闻科学技术”颁奖大会上,新华社机器人采访和写稿项目获得一等奖。即使新闻行业里已经普遍开始试水写稿机器人,这一奖项也在媒体界引发惊诧与思考。

有人预言,在不远的未来,写稿机器人将彻底取代人类记者,也有人认为,写稿机器人只是在规则既定的部分写作领域里有挑战性,但在规则模糊,乃至不断打破规则的高创造领域里,还有很长的路要走。

人类刚诞生时,同样并未产生智能,和其他动物没有区别,我们正是靠着学习逐步获得了今天的成就,同样具备学习能力,甚至某些领域已经远远超过人类的机器,为什么不能取得同样的成就甚至更高呢?

所以我认为,出现具备思考能力的机器只是时间问题,人工智能产生意识也是水到渠成的事,重点是,它们会产生怎样的意识?我们可否通过写入信息的形式去干涉它的意识,从而保障人类自身的安全和利益,起到监管目的。

最后,想象一下若干年后的一幅画面,产生了自我意识的人工智能机器人在接受图灵测试的时候,是否会忠实表达呢?它会不会说谎?它会不会刻意通不过图灵测试?

故意不让自己通过图灵测试的人工智能,才真正让人不寒而栗。返回搜狐,查看更多

如果AI机器人有了自我意识,该不该具有法律人格蒋昌建这样说……

如果AI机器人有了自我意识,该不该具有法律人格?蒋昌建这样说……

2020年06月24日09:28:53|作者:姜超楠|来源:荔枝网|点击:正在获取...

字号变大|字号变小

90a0c34f4c154a68b964b73d62a53982240413832020-06-2409:28:53/a/20200624/90a0c34f4c154a68b964b73d62a53982.shtml

具备自我意识的AI机器人应不应该具备法律人格?2020南京创新周,有这样一群人为此“唇枪舌剑”。6月22日下午,世界华语辩论锦标赛科技创新专题赛决赛在南京举行。复旦大学国际关系与公共事务学院博士、副教授、江苏卫视科学真人秀《最强大脑》节目主持人蒋昌建担任现场评审嘉宾。

世界华语辩论锦标赛科技创新专题赛是国内首次正式举办的线上国际辩论竞技赛事,来自新加坡南洋理工大学的辩手与国内著名高校清华、复旦、南大的辩手共聚一堂,就大学生创新创业、人工智能的发展等主题开展辩论探讨。

“能被人类控制的人工智能需要法律人格吗?”

“公司可以有人格权为什么AI机器人不可以?”

“如果扫地机器人有人格,那我让它打扫之前是不是还要问它愿不愿意?”

决赛中,新加坡南洋理工大学与复旦大学的辩手围绕“具备自我意识的AI机器人应该/不应该具备法律人格”的辩题展开辩论。

评委更是妙语连珠。罗翔以“门房大爷三问:你是谁?你从哪来?你到哪去?”为引子,幽默风趣地阐述他对于本场辩题的法律探讨。“人类的理性和思考维度是有限的!”“大猩猩坐看夕阳仅仅是自我意识还是也在思考?”“自主性可能只是人与非人的区别参考之一,人的价值应存在于更多方面”“张三的狗有自我意识,咬了人,这只狗应当承担什么样的责任?”

蒋昌建作为华语辩论的“拓荒者”,他指出,本场辩题探讨是基于“人是万物的尺度”,即人类思考问题的角度往往是出于人类本位;提倡“暖科技”理念,科技改变生活,科技温暖人心,“让弱者更强,让强者更有爱的力量”;“应当保持敬畏之心”,对科技发展的未来时刻保持警醒与思考;“人不能够太过于傲慢”,人类对于生命的认识仍在不断发展变化。

(来源:江苏广电融媒体新闻中心/姜超楠编辑/玉洁)

标签:正在获取...

来源:荔枝网

下载荔枝新闻APP客户端,随时随地看新闻!

新浪微博微信朋友圈微信好友QQ空间

机器会产生自我意识吗人工智能会“背叛”人类吗

北京晚报·五色土|作者陈梦溪

《终结者》系列电影的经典成为了一代人的“心理阴影”,那似乎是未来人工智能技术发展到足够强大后的一种必然结果——反过来统治人类。与无所不能且产生自我意识的人工智能相比,人类似乎脆弱到需要保护,否则有着灭亡的危险。其实无论是哪种科幻作品,都是对未来所有可能性的想象的排列组合。只是对比百年前儒勒·凡尔纳浪漫的《海底两万里》《地心历险记》的风格,当代科幻作品似乎总是充满“暗黑”与“恐惧”这两个元素。这种趋势在今年热播的系列剧《爱,死亡,机器人》第三季中更加明显,其中一个片段讲述了三位机器人主角在人类“灭绝”后回到地球,已经成为历史“古迹”的大都市荒无人烟,成为机器人们的热门旅游打卡胜地;人类文明遗址对于未来的机器人世界来说,就像我们现在去复活节岛看古代文明的石像一样。

有趣的是,我们正在亲身经历的人工智能发展,却是另一个极端——目前正在发展的视觉神经网络识别、语音识别、自动驾驶等等热门技术,正有无数商业和资本涌入其中,另一方面,人工智能作为一门学科,也在年轻人中火热起来,越来越多的学子们将其作为一生的科研对象。然而这种从科学到应用的双重火爆,实际面临的境况却是,我们虽然对人工智能的研究突飞猛进,但与科幻小说家们对于其的想象来说,仍显得有些缓慢。人工智能是否会过于聪明、人工智能有了自主意识后的哲学和伦理的问题,似乎还在遥远的未来。

《未来史记》江波著四川科学技术出版社

在科幻小说家江波近日出版的作品《未来史记》中,想象了关于人工智能发展的种种可能。人脸识别,虚拟现实,纳米机器、数字生命……江波通过九个短篇小说,希望去探讨当强大的机器成为新人类,生命的意义究竟是什么。江波属于“七零后”作家,毕业于清华大学微电子所,他曾经七次荣获中国科幻银河奖,四次荣获全球华语星云奖金奖。他的小说《移魂有术》被改编为电影《缉魂》,在去年公映后也引发了讨论。

之所以写这本关于人工智能的小说,不仅仅因为人工智能是个热门话题。在他看来,人工智能就是一种正在向我们走来的未来,科幻创作除了放飞想象力之外,更有一层现实的压力存在。人工智能的快速发展,把我们带向一种历史上从未存在过的情况,就是人的脑力劳动会被大量替代,往大的方向说,这会影响到人类整个社会的存在形态,往小的方面说,这给我们当下的许多情景提供了新的可能性。科幻恰好非常关注未来可能性,所以人工智能成为一种题材选择也就成了必然。

将这本书取名为《未来史记》,江波想借此向《史记》致敬。每篇小说开头有一篇“导言”,加入了作家自己的评论,这在以往的小说中是罕见的。史记是纪传体,文末会附上一段司马迁的评论,这段导言,可以看作是评论的变体。江波告诉笔者,他对于人工智能这一方面的观察和认识,就像是和读者先对某个方面的问题进行一次交流,然后再拿出小说来,凭着想象勾画出具体的人和物,在具体情景中描述人工智能,也算是对问题的一种回答。所以这段“导言”或者说评论的目的,就是为了探讨人工智能。它是“现实和科幻融合”的具体表现形式。

书中几篇小说中塑造了哪吒、天元二等几位各不相同的人工智能形象,但它们都“叛变”了原本的任务,“失控”了,如果将来有一天人工智能真的演化到这种程度,人类会冒着失控的危险也要使用吗?对于这个担忧江波解释,人工智能的叛变有两种情况,一种是遵循指令,但是因为人工智能的理解能力超越人类许多,它的所作所为都会超出人类的理解范畴,从而表现为“叛变”但实际上仍旧指向为人类服务的目标。只不过实现的过程会让人类痛苦。第二类才是真正的叛变,也就是人工智能对自身存在意义的反思。他的长篇小说《机器之门》描写的就是这种情形——人类发展的客观规律决定了只要有使用价值,人工智能就会被开发出来。

“失控的风险始终存在,人工智能不会因此停止发展。想一想,我们这个世界,甚至还有故意制造计算机的人存在,制造出具备人类智力甚至超越人类智力的人工智能,会是许多人长期追求的目标。”江波看来,“顺其自然吧,只是我们要尽力让人工智能能够和人类社会文明兼容,让它们尊重人类社会的价值观,不要和人类为敌。这些规则和模式并非预先决定,而是在人和人工智能的互动中逐渐产生。防是防不住的,只能引导。这和教育孩子有些类似。”

从一名普通读者的阅读感受来看,江波似乎对于人工智能的想象过于温柔了。我们能从作品中感受到作家对于一件事物发展的态度是乐观还是悲观,然而在江波眼中,乐观和悲观取决于不同的立场。在他看来,如果机器人最终取代了人类,那么从乐观的角度来看,这是人类的进化,人类可以长生不死了,更强大了。从悲观的角度看,人类作为一个物种已经消亡了,机器统治了世界。

“对于生活在智能世界中的人类,我想最可能的结局是一种‘赎买’,机器人以无微不至的服务,舒适的生活,换取人类的不生不育,沉浸于无穷无尽的满足中,最终快乐地死去。留下的是一个智能机器的世界,这个世界可能找到自己的存在根基,在此基础上建立一种和人类迥乎不同的文明形态。”江波觉得,可以把这个称之为新人类文明,或者机器文明,看个人的喜好,所以他并不以悲观和乐观来标注他的创作,他偏好的科幻是“合理”——基于现实,基于科学原理,基于逻辑。

书乡专访

江波:科幻作家高估也低估了科技发展

书乡:人工智能方面的科幻小说,有哪些对您影响比较大?

江波:一是《2001太空漫游》中的哈尔,这个因为自相矛盾的指令而发疯的人工智能,对后来的科幻创作影响极大。二是阿西莫夫的机器人系列。阿西莫夫的机器人短篇系列,是一种逻辑之美。在他写作的那个时代,人工智能更多还是在一种概念阶段。这些小说也充分体现了那个时代的特色。但凭着机器人三原则这样的逻辑设定,衍生出许多有趣的小故事,对我的启发非常大。

书乡:您在序言中提到,“眼下的世界到了另一个节骨眼上,人工智能的发展让人类进入了第四次工业革命”。作为科幻作家,您如何审视人工智能对未来的影响?

江波:人工智能对未来的影响有极大的不确定性。往高里估计,它会取代人类文明,或者我们可以把它称为人类文明的继承者。往低里估,它会极大帮助人类减少劳动需求,从而重新定义人类社会形态。即便是它的下限,对人类社会也是革命性的影响。

书乡:一些人工智能方面的科学家认为,以我们目前的人工智能发展的水平,还不足以担忧“机器人统治人类”这样的许多科幻小说中发生的较为极端的可能性,您怎么看?

江波:这种说法当然是对的。当前的人工智能,最多发展到了类似于昆虫大脑的水平,当然这是个巨大无比的昆虫。昆虫的特点,就是行为的高度可预测性,可以称之为本能。复杂行为的产生,是多种本能的综合,是对本能行为的取舍。人工智能暂时还没有这种设计,自然也不会产生相关的威胁。但我相信这会是发展方向,人工智能会被用于多任务的情况,而在多任务情况下做出取舍,复杂行为就产生了,自我意识也就随着复杂行为的到来而到来。当下的确不必担忧。但这里有个前提,就是人工智能的发展一直是线性的,但很可能人工智能的发展是非线性的,当人们发现如何把两个人工智能神经网络综合在一起,此类的尝试就会突飞猛进,从而在很短时间内就孵化出高度智慧的人工智能。这样的可能因为是未来情景,你很难用现在的技术条件去估量它。这也是我们不能忽视的可能。

书乡:您怎么看科幻作家的想象与现实的关系?

江波:科幻是一个大圆,而现实是另一个大圆,两个大圆之间只有极少的重叠。从科幻研究的角度来看,科幻小说首先是一种娱乐文化,小说最初发展出来的目的就是提供大众娱乐,是一种消遣。科幻小说也不例外。但科幻小说也有独特的价值,那就是科幻小说和科技密切结合,虽然小说中描述的技术都不一定正确,但对于激发青少年的好奇心很有好处。许多科学家工程师,甚至还有企业家,都认为科幻小说是自己青少年时代的良好精神食粮,这不是偶然。另外就是,科幻小说中和现实结合得较为紧密的一部分,其实具有未来主义的特点,是科幻小说家从自己的角度对未来社会可能发生的情景进行推演。科幻小说中的明珠,除了娱乐价值,它还提供了严肃的思考,对社会未来的走向进行生动的描述,激发人们的向往或者警惕,这就是和现实最贴近的一类。

书乡:人工智能如果有一件事是不可能替代人类的话,您认为那是什么?

江波:人工智能无法取代人类的欲望。人类的欲望植根于生物性,人工智能并非生物,很难说它们会有欲望,或者说如何定义它们的欲望并且保持这种欲望,是个巨大的难题。人类社会能够发展到今天,包括人工智能的出现,追究它的根本,都在于人类自身的欲望,这是进步的核心动力。人工智能很难做到这一点。

书乡:有人说,未来人工智能会替代百分之九十的人类的工作,这究竟是一个失业率更高的被机器取代的社会,还是大部分人不需要工作的理想时代呢?

江波:设想一种人工智能能够替代人类完成工作的情景是很有意思的事。人们自由寻找自己的职业,自由扮演不同的社会角色,对物质的需求由社会供给得到满足,也不会有太多的贪欲。这是一种较为理想的情况。较为黑暗的情况,就是社会财富由极少数人占有,剩下的人类失去了劳动价值,成为被抛弃的人口,如果他们不能成功反抗,那么就会在几个世代的时间里消亡,人类社会转型成为巨富世界,人口稀少,但每个人都拥有极大的财富。社会的总需求,就是这少数人的需求,整个社会反倒因此而萧条,那时,再多的人工智能再高的生产力也没有意义。我认为人类会找到一个对大多数人有利的方式来延续社会发展,不会掉落到太黑暗的世界中去。

书乡:我们目前其实还并没有研究透彻人的大脑是如何运作的,在我们完全不理解人的大脑是如何产生智慧的情况下,如何凭计算机的发展产生出人工智能?

江波:大脑的工作原理,随着脑科学的发展会变得逐步清晰,从而给我们提供更好的参考。目前我们所谈论的有前途的人工智能,恰好是出于对大脑神经网络的模拟。科学还没有给出完整的答案。但是我们从生物的智能发展来看,智能(包括自我意识)的产生,是一个演化的优选策略。大自然演化出了各种具有智能和自我意识的生物,分布极其广泛。鸟类有鸦科动物,哺乳类有大象、黑猩猩,甚至猫和狗,软体动物有章鱼,智能和自我意识在生物界的广泛分布,可以说明智能的产生和优化是神经网络系统天然具备的能力。随着复杂度的增加,和大脑网络模式的增多,智能也变得更高,自我意识逐渐浮现。因为当前的人工智能恰好是生物智能的一种模拟,所以从这个相似性的参考角度,我会认为人工智能也会走出一条类似的道路,复杂度逐渐增加,一直发展到具备自我意识的人工智能。

书乡:百年前的科幻作家们对二十一世纪的畅想许多都没有实现,作为科幻作家,您认为是否前辈科幻作家高估了人类的科技发展?

江波:科幻作家一方面高估,另一方面低估科技发展。这是常态,科幻要是都能说准,那就不叫科幻叫科学了。科幻作家的畅想,更多的是一种线性化的畅想,在现有的基础上更多更快更便捷。比如说蒸汽机时代,就会想象一个蒸汽机驱动的机器人。有线电话时代,未来的电话可能就是机器人把电话带到你身边,而不是手机。科技的发展却往往是非线性的,总是在出乎意料的地方发生飞跃。这也是好事,至少让科幻作家一代代总可以有新东西可写。

机器人越来越智能,它会像人一样有自我意识吗

现阶段的人工智能还很弱,离实现强人工智能还很远,而在眼下,HI+AI,人类创意无限的右脑+机器的最强左脑才是赋能未来的最佳路径,最终实现人类与机器的Co-Evolution。

计算机领域的热点总是在不断更替,从大数据到云计算再到人工智能,在这些热点的背后是专家学者们在这些领域一点一滴聚沙成塔的技术突破。关于人工智能,我们见证了近年来它从默默无闻到炽手可热的过程。

大脑(Brain),心灵(Mind),意识(Consciousness),这是一回事吗?我认为不是。

在我看来,大脑是一种物理存在,心灵和意识则看不见,摸不着,只能自我感知。

大脑、心灵、意识(Consciousness),这是一回事吗?

「我」这个词来自于心灵对自身的一种定位和认同,心灵决定了「我」是怎样一个人,为什么和别人会有不一样的反应,意识则像时刻都在流动的运算程序,具有工具性质,它们都寄存在大脑和神经等物理存在里。

关键是,即使今天我们已经有本事上天下海,还能教机器学会很多事情,我们对人类自身的心灵和意识的了解却依然有限,未解之谜还有很多。比如,当医生把一个人的大脑和身体分开,这个人的心灵和意识会有什么变化吗?如果把这个人的大脑移植给另一个人呢?──在后者的「新」大脑里储存的那个「我」,究竟是谁?

又比如,当我们处在睡梦中,意识却可能继续剧烈活动,梦中的「我」甚至登上了火星,这时候,我们的意识是留存在大脑里,还是真的光速般去了火星?……

纽约州立大学心理学家小戈登.盖洛普(GordonGallupJr.)主持的「镜子测试」表明,猩猩,大象和海豚似乎能认出镜中映射是自己,这说明这些动物已聪明到具有自我意识,那它们也有心灵吗,也有坚定不移的「我」的定义吗?有没有虔诚的信念和顽固的怀疑?相比之下更加常见的猫和狗平素也有相当不俗的智力表现,却常常搞不清镜中映射究竟是不是外来动物而把自己吓一跳,如果不能确定它们是否也有明确的自我意识,它们又是怎样界定自身和主人的相对关系呢?

最近我在工作之余拜读了耶鲁大学计算机科学教授戴维.格兰特(DavidGelernter)的新书《心灵潮汐:揭示意识光谱》(TheTidesofMind:UncoveringtheSpectrumofConsciousness),感悟颇深。在书中,格兰特教授援引了马塞尔.普鲁斯特,弗兰兹.卡夫卡,弗拉基米尔.纳博科夫,欧内斯特.海明威等许多作家的故事为例证,解析了创造力的潮汐状周期性特征:当人们处在光谱的上端,也就是意识的高潮期,就会聚焦于外部世界,侧重逻辑推理和经验记忆,而当人们落在光谱的下端,即意识的低潮期,就会偏向于内视心灵,在交叉混乱的叙事脉络与梦境漫游般的狂欢中捕捉创意的火花。

创造力确实并不仅仅在专注和冷静的状态下爆发。杜甫在《饮中八仙歌》里说:「……李白斗酒诗百篇,长安市上酒家眠……张旭三杯草圣传,脱帽露顶王公前,挥毫落纸如云烟。」若照常理判断,喝酒会影响诗人与书法家的创作状态,但在现实中,诗仙和草圣却因为饮酒而进入到光谱下端,实现了创意的超常发挥。

这样的案例还有很多:在完全失聪的情况下,贝多芬创作出不朽的经典《第九交响曲》;深陷精神失常的痛苦深渊,梵高创作出《向日葵》,《星月夜》等传世名作。1864年冬,潜心研究苯结构而没有进展的德国化学家凯库勒在对着炉火打盹时,梦见咬着自己尾巴的蛇在他眼前转动。醒来后,他写出了苯的结构式,恰恰就是首尾相连一个环……可见,在受到某些特定因素影响时,大脑--特别是右脑--活动很不寻常,这当然不一定都有助于创意的发挥(更多时候应该只是胡思乱想),却也有可能迸发出一些在正常情况下藏得很深,从未闪现的灵感。

我们当然可以好像很科学地说,当某些看似完全无关,并不搭界的思维被人的脑桥意外接在一起,创造力也由此而来。但这「科学」程度也只是好像而已,人类的精神世界到目前为止仍是一片远在我们掌握之外而因此继续值得我们保持敬畏的领域。

无所不在的创造力使人们无论在意识的高潮期或是意识的低潮期常常都能有所发现而收之桑榆,人类教师在传道授业解惑之际也会注意因才施教,遇到某位学生不太能理解自己讲授的知识就会考虑换一种教法,设法让学生达至豁然开朗之境界。若是换成机器来教课,恐怕只能依循默认的程序来「灌输」信息,至于随机应变,触类旁通,举一反三的能力,那是没有的。

计算机的工具性本质:中文房间试验

继续推论--首先,今天的人工智能仍旧很弱。「中文房间」(TheChineseroomargument)是上世纪八十年代由美国哲学家约翰.塞尔(JohnSearle)提出的一项思维实验。假设在一个密闭的房间里有一个人,只会中文的你仅能通过小纸条和房间里的人交流。当你发现传回来的纸条上,你的每个问题都得到了语意确切的中文回复,这时你还会怀疑房间里的人是否懂中文吗?事实却是,房间里的人根本不懂中文,他拥有的不过是一套假设涵盖了所有中文问答的工具,包括中文字条(数据库)和如何使用这些字条的手册(程序),通过这套工具就能正确找到你要的回答而「响应」你的问题,却同时对谈话内容一无所知。

「中文房间」实验很好地说明了计算机的工具性本质:计算机虽能完成一些特定的任务,但并不代表计算机就能理解这些任务--今天的AI几乎都属于这一类。

更直白地说,无论是SkypeTranslator实时语音翻译,还是Watson,归根结底都属于弱人工智能(WeakAI)范畴,不是基于对信号和数据意义的理解而生--它们就像「中文房间」中拥有工具的人,只是信息的处理者,却无法真正理解接收到的信息,更谈不上拥有发展出意识的潜能。

对弱人工智能有两种定义,一是聚焦单一任务本身--所以它又称为狭义的人工智能(NarrowAI),二是只有结果没有理解。不过,弱人工智能其实并不弱,它也是很有价值,有益于用户的。若能与传感器网络,大数据等,云计算等技术结合,弱人工智能还是可以具备超越人类的某些能力,因为它本身就是一个专家系统,实际上在经济,科技,民生等各领域都大有可为。

其二,目前看来,强人工智能仍旧遥不可及。我在卡内基梅隆大学的导师罗杰.瑞迪(DabbalaRajagopal"Raj"Reddy)曾任卡内基梅隆机器人研究所创始主任和美国人工智能协会主席,主攻人工智能和机器交互研究,开发出全球第一台具有连续语音识别能力的系统,因在大规模人工智能系统之设计与构建的先驱性贡献而于1994年获得图灵奖。

瑞迪教授的老师是约翰.麦卡锡(JohnMcCarthy)--1956年,在美国新罕布什尔州的达特茅斯学院举办的一场学术会议上,约翰.麦卡锡首次提出了人工智能(ArtificialIntelligence)的概念,因而被后辈学者尊称为「人工智能之父」。

我的两位老师都认为,今天业界所做的「人工智能」研究与当年他们的创新思路是有分歧的。若按当前的主流路线,弱人工智能只能在专用的,受限制的轨道上越走越远,若要人工智能由弱变强,还得回到认知论的经典道路上。

强人工智能何时才能成真?

与弱人工智能相比,强人工智能(StrongAI)是真的能够理解信号与数据的意义,并由此具备人类所有或大多数的能力。但是这种通用的智能其实也可能很弱,就像人类很难同时对所有的事情都精通,也不可能一直保持着意识的高潮,通用人工智能可能具备很多能力,但每一样都很弱。但另一方面,正是因为这些不完美而让人类的存在如此微妙,并在不完美中迸发出各种奇思妙想。

有人问过约翰.麦卡锡,强人工智能何时才能成真,他的回答很耐人寻味:也许5年,也许500年--我的看法是,在理论基础尚不完备,对人的意识和创造力尚未充分了解的前提下,在架构与平台暂无标准,应用探索刚刚开始的前提下,恐怕真需要等上500年,强人工智能的萌芽才会钻出土壤。

毕竟,人的大脑,心灵,意识是如此的玄妙,以至于人类自己或许永远也搞不清楚,更何况是无机体的机器呢?

对此,戴维.格兰特的观点是,计算机可以模拟理性思考,但很难具备真正的意识,意识不属于计算机,只属于有机体。我认同这个观点。心灵,意识和创造力有极大的关系,很多人的创新来自激情而不是理性。这就意味着我们几乎不可能造出拟人的,有意识的机器。从算法,意识到创意,人工智能若要向更高的智力与智能阶梯跃进,就要踏踏实实一步步跨越这些障碍。

其三,人工智能并不可怕。计算机是有史以来人类最伟大的发明创造之一,它可以被赋予人类发明的不同算法,进而不断掌握新的能力--很强大不是吗?但更强大的人类创造物也还有一些,比如核武器和航天飞机。所有这些机器都可以被人类利用做各种不同的事,至于究竟是好事还是坏事,只由其使用者的心灵和意识决定--科幻小说作家阿西莫夫提出的「机器人三定律」,从表面上看像是用来约束未来的人工智能机器人,但究其实质,每一条何尝不是对人类创造者的警示?

我们应该担心的,不是人工智能将会强大到颠覆人类统治的地步,而是即便人工智能被越来越多业界领袖企业寄予厚望,不吝资源而加速研发,但迄今为止相关领域的技术进步仍不足以孵化出真正拥有创造力,能够通过自我学习解决未知问题,提出新思维的机器。

人类与机器的共进化(Co-Evolution)

不过,令人欣慰的是,人工智能正在与机器学习和大数据构成一个足以改变未来的技术「铁三角」;随着我们的探索趋向纵深,在不久的将来,这个"铁三角"将有可能像PC+互联网那样彻底改变人类的生活格局和商业版图。

总而言之,人类创意无限的右脑+机器的最强左脑,这才是赋能未来的最佳路径。唯有潜力无穷尽的人脑才能催生出更先进的算法和能力进化更快的「聪明机器」,人类也因为有了聪明机器的帮助而不断进化,加深着对自身的了解,对计算机技术的理解,以及对更多未知领域的探索,从而实现人类与机器的共进化(Co-Evolution)。

版权声明:本文内容由互联网用户自发贡献,该文观点仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌抄袭侵权/违法违规的内容,一经查实,本站将立刻删除。

上一篇

下一篇