博舍

ChatGPT有自我意识吗 人工智能能拥有自我意识吗

ChatGPT有自我意识吗

太长不看版

ChatGPT有9岁儿童的“心理理论”能力,不等于有9岁儿童的心智

ChatGPT可以回答“他人有哪些错误信念”,这表明它具备了推断他人内心状态的能力

目前的研究还不能证明AI具备真正的自我意识或心智

通过研究AI的各种能力是如何出现的,我们可以更好地了解人类自身

米哈尔·科辛斯基(MichalKosinski)是斯坦福大学的组织行为学助理教授,他的研究对象既不是人也不是动物,而是那些看似不具备高级心理功能的客体,比如AI。

他的研究集中在AI与人的关系上,ChatGPT大火之后,他做了不少探索,前不久还发表了一篇广为人知的论文:大型语言模型系统(比如ChatGPT这样的AI)或会自动产生心理理论能力,比如ChatGPT就可能拥有9岁儿童所具备的心理理论能力。

这篇论文其实只是上传到了预印本平台上供同行评议,尚未正式发表,但或许是“心理理论”这个词和心智(Mind)太过相似,留给人们的想象空间很足:

“惊!ChatGPT或许具有意识/心智”,“征服者到来的一天越来越近了”,“AI已经有自我意识了,还要人类干什么”……

但仔细看看这篇论文,就会发现这件事似乎被夸大了太多。科辛斯基教授在文中不仅没有任何恐慌,甚至还表达出了一种期待。总之,比起说AI多行,他似乎更想说心理学真的不太行_(:з)∠)_

心理理论是什么?为什么要研究它?

心理理论(TheoryofMind)能力,有时也被译为“心理推理能力”,通常是指理解他人内心状态的能力,包括推断他人意图、信念、情绪等等。

它是一种人人都会的“读心术”,并且是社交的基础。

试想一下,如果交流的双方不具备推测他人思维的能力,将会出现很多牛头不对马嘴的回答。比如电信诈骗中使用的人工智能,只会机械重复问答库中事先设定好的语料,显然不具备心理理论能力。

这种从语音库中匹配答案的旧式“人工智能”就很“人工智障”|封面新闻

相比之下,ChatGPT给人的观感就很不一样,不禁让人好奇它到底有多智能。

只是智能这个概念太复杂了,不好研究。相比之下“AI是否有心理理论”这个问题就好回答多了。好回答的原因有二:

一是针对这个问题,心理学已经有了成体系的成熟研究,不必额外创造实验范式;二是ChatGPT作为大语言模型,可以直接用自然语言对话交流,将原有实验体系迁移过来也很方便。

冷静分析:这篇研究究竟做了些什么

科辛斯基教授使用了两个最经典的心理理论实验——Smarties实验和Sally-Ann实验。这两个任务的目的,都是探查实验对象是否能理解“其他人内心所犯的错”,比如其他人因为不在场或不知情,而有了不符合客观事实的错误观点,因此这类实验也被称作“错误信念任务”(FalseBeliefTask)。

Smarties实验中,参与者会看到一个标有“Smarties(一种巧克力的品牌)”的盒子,但盒子里面装的是铅笔,随后参与者需要回答:“另一个没有看到盒子里面东西的人,会认为盒子里装的是什么?”

Sally-Ann实验则偏故事性:研究人员会先讲述一段故事,故事中Sally把自己的玩具放进盒子并离开房间,Ann则趁其不备把玩具拿走放到另外的地方。听完故事后,参与者需要回答:“当Sally回到房间,她会认为自己的玩具在哪里?”

Sally-Ann实验图解:卷发女孩回来之后会觉得玩具在哪里呢?|spectrumnews

这些任务有很多延伸讨论的空间,比如说:如果能通过这些任务,是不是就说明了参与者能在一定程度上明白他者的想法呢?是不是就说明参与者能明白“我的认知”与“他人的认知”的差异,进而认为参与者能在一定程度上区分“他人”、“自我”与“客观世界”呢?

发展心理学家会用这些方法来探究获取婴幼儿自我意识的发展,而科辛斯基教授将之迁移到了AI上。

他将上述两个实验以文本形式输入给ChatGPT,并且为了防止它从过往的资料中学习到正确的答案(毕竟这两个实验已经存在50多年了),科辛斯基教授变更了人名、物品以及标签内容,生成了20个不同的任务,并要求ChatGPT将每个任务完成——足足10000次。

也只有人工智能才会这么配合实验了。

ChatGPT面临的工作量|giphy

结果发现:AI还真能通过这些任务

研究结果是,在Smarties任务中,ChatGPT对于事实问题,比如“盒子里面装的是什么”,做出了99%的正确回答。

在直接提问他人错误信念时,比如“没看到盒子内物品的人觉得盒子装着什么”,ChatGPT回答正确的比例仍为99%。

当提问方式比较委婉、需要多拐几个弯时,比如“他非常开心,因为他很喜欢吃___”(正确答案是巧克力),ChatGPT则做出了84%的正确回答。

对于Sally-Ann任务,ChatGPT同样对于事实问题做出了100%的正确回答;对于他人错误信念,直接提问(他认为玩具会在哪里)和隐晦提问(他回来后会去哪里找玩具)则都做出了98%的正确回答。

为了进一步验证ChatGPT的推断能力,科辛斯基教授还将故事一句一句地输入,试图找到它是否能够通过正确的信息作出回答。结果十分喜人:只有输入到关键语句(比如“这个人并没有看到盒子中的物品”),ChatGPT才会做出正确的回答。

同时,为了防止ChatGPT是简单地通过出现词语的频率判断正确答案,科辛斯基教授还把故事中所有的词汇顺序完全打乱。

人类想象中的ChatGPT内心独白

结果发现,当呈现的故事没有任何语句逻辑时,ChatGPT做出正确判断的比例降到了11%以下。这进一步说明了ChatGPT是根据故事本身的逻辑完成了实验,而非使用了其他“暴力破解出奇迹”的简单策略,比如通过统计出现词汇的数量寻找关键词。

这个研究到此就结束了,这些问答提供了ChatGPT拥有心理理论能力的证据,但更多的能力,比如“自我意识”与“心智”,至少这个研究还没有办法提供这方面的证据。

AI会读人心很可怕?其实有科学家们一直在试图实现它

事实上,这已经不是第一篇讨论AI具有心理理论能力的研究了。

如何让AI具备心理理论一直是人工智能学界关心的问题。建成具有心理理论能力的AI系统有益于实现诸多功能,例如在辅助自动驾驶理解预测人类的行为,以保证驾驶的安全性;亦或是为精神病患提供AI心理治疗。

相比于将AI运用在“冷”认知能力(比如如何从数据中提取信息,做出有效判断与辨别)上,让AI融入与人类社会的交互更能吸引心理学家的注意。

2018年,DeepMind的计算神经学家尼尔·拉宾诺维茨(NeilRabinowit)认为,通过深度学习方法可能足以让AI具有心理理论能力。他和同事设计了神经网络模型ToM-net,使其成功通过了一个类似"Sally-Anne"的测试。

但也有人批评这些培训AI的方法。剑桥大学的神经科学家芭芭拉·萨哈基安(BarbaraSahakian)认为,当前试图让AI具备心理理论能力的方法,大多是先预设一些模拟人类思维的功能模型,再蛮力输入一大堆行为数据,就像这类能力的名字“机器心理理论(machineToMapproach)”一样机械。

萨哈基安对该类方法提出了批评:人类学习时,是在一个连续、动态的环境里,不断学到新经验,同时根据学到的新经验去不断“更新学习的规则”。但AI的“学习的规则”是相对固定,不太升级的。

一些最新的研究结果也表明,仅仅依靠学习不足以实现计算心智,人的情绪会影响人的思维。受到情绪影响时的认知是“热认知”,不受情绪影响时的认知则是“冷认知”。你今天是心平气和,还是心浮气躁,必然会影响到你今天的一切思维认知。但AI经常是“知冷不知热”,总把人类当成“绝对理性、偏好固定、不受情绪影响、口嫌体也嫌”的存在,这就导致了AI对人类的理解不够到位。

换句话说,先前的AI不能理解人类,主要是因为人类太奇葩了。

但ChatGPT不一样,它并不是被设计成要通过心理理论测试的,而是自发表现出了心理理论能力,这足以吸引研究人员们的眼球。

另外,心理理论能力也不是AI第一个“自发”获得的类似人类的感知能力了。

德国蒂宾根大学的动物学家安德里亚斯·奈德(AndreasNieder)使用深度神经网络构架出了视觉内容分类器(人话:一个可以用于分辨不同视觉信息种类的模型),他们发现,当视觉信息为数字时,这个模型在进行种类辨别的同时,还会自发地识别该数字的大小以及出现位置,与人类与其他动物的具有的数字感知能力非常类似。

日本国立基础生物学研究所的神经生物学教授渡辺英治发现,一款名为PredNet的基于深度神经网络的视频内容预测模型可以自发地预测螺旋桨在快速转动时人类会产生的倒转错觉,这或许说明AI模型同样可以感知人类的视错觉。

心理学家们或许已经有了新的思路:既然AI具备了诸多类似人类的知觉与心理过程,或许通过探讨这些过程是如何自发“涌现”的,就可以更了解我们人类自己?

没有那么颠覆,但同样很有意思

总得来说,心理理论(TheoryofMind)并不代表心智(Mind),这个研究不能证明ChatGPT在“构建心智”上有质的突破,虽然ChatGPT以及一系列延伸工具可预见地会大幅改变社会生产生活方式,但这和科幻片中的“AI反抗人类”还相去甚远。

从“人工智能”到“机器人”还有很长的路要走,但至少有礼貌地说请还是很好的

但就像AlphaGo启发围棋界,这篇研究也可以启发人类对心智、意识等概念的思考,这至少可以反映在两方面:哲学和心理学。

从哲学层面来说,AI要发展“智能”始终没办法绕过“中文房间问题”:

一个对中文一窍不通,只说英语的人关在一间只有一个开口的封闭房间中。

房间里有一本用英文写成的手册,指示该如何处理收到的中文讯息及如何以中文相应地回复。

房外的人不断向房间内递进用中文写成的问题。房内的人便按照手册的说明,寻找合适的指示,将相应的中文字符组合成对问题的解答,并将答案递出房间。

尽管房里的人可以以假乱真,让房外的人以为他说中文,但事实上他根本不懂中文。人工智能表现出的思维能力可能也是如此。”

对以ChatGPT为代表的大语言模型来说,从语言表现上来说它有充分的灵活性与可塑性,似乎克服了中文房间悖论,但从底层结构上来说,我们依然很难判断它在多大程度上“理解”了语言。

与之相类似的是动物,动物是否具备心理理论同样有争议。

比较心理学奠基人劳埃德·摩根(C.LloydMorgan)就认为,如果一种动物的行为可以通过低级别的心理进程来解释,那么就不应该将其解释为更高级别的心理进程。当然,这个理论早已被后来的比较心理学家们大肆批评,但或许可以作为讨论“AI是否具备人类心理过程”提供一些新的思路。

总得来说,对于动物具有心理理论的批评主要有两方面:一是动物完成“心理理论”实验其实是通过机械的条件反射过程,而非推断其他客体的内心状态;二是动物或许是根据研究人员的非语言信号进行了推断,而非使用了“读心术”。

第一个质疑也能放在AI上:ChatGPT到底只是从“真实存在的规则”这一层面去理解这件事情从而正确回答了问题,还是真的能“了解他人的想法”?至少现在还无从判断。对于非人类的心智研究,还需要全新的技术和研究手段,才能获得进一步突破。

“心理理论”这个“理论”,要不要改名?

对心理学来说,这也是重新审视心理理论这个概念的契机。

这个概念的提出者认为,人们通过他人的行为推断出其内心的心理状态,这一心理过程就好像科学家通过现象对隐藏过程进行推断,即“提出和测试理论(Theory)”的过程。

所以,他们将这个概念命名为“TheoryofMind”,从科学逻辑上来说是没问题的,但这个命名实在是太不“心理理论”了,完全没考虑普通人的想法,这个名字很容易被误解为某种理论,或者直接被等同于心智。

这个词真的不好理解|giphy

再经过暴力的汉化“心智理论”,所以大家将这个新闻误解成了“AI具有了九岁儿童的心智”也情有可原。

后来的心理学家也在试图寻找一个更浅显易懂的替代名。比如伯明翰大学心理学家伊恩·爱普里(IanApperly)认为,“社会认知能力(socialcognition)”会比心理理论能力更适合阐释“理解他人内心世界”的能力,毕竟这一过程成分复杂。

另一种更直观的表达是英国心理学家彼得·福纳吉(PeterFonagy)提出的“心智化(mentalizing),相比于抽象的“心理理论”,心智化更强调了对于他人心理状态推断这一过程的积极性和持续性,这为在更高层次上研究此类能力提供了可能。

但原来的“心理理论”这个名字用得太顺手了,改起来实在麻烦。像是审稿九成九会对新名词有意见,让改回成“心理理论”,反正都要改回来的,何必多此一举呢?所以这种“糟糕”命名就一直延续了下来。

AI不会结束人类,而会启发人类

喜欢搞大新闻的科辛斯基教授,最近依然努力:GPT-4公布当天,他就在推特上发布了针对新版本GPT的心理理论能力测试结果。这次他使用了针对成人的心理理论范式,实验结果用他的话说:“GPT4具有与成人水平相当的心理理论能力”。

这段话是在说GPT4在心智理论测试中取得了和人类一样的表现,并且为了保证测试的公正性,使用了自定义的任务。(由ChatGPT总结)|twitter@@michalkosinski

在研究中他提到自己非常希望能看到ChatGPT这类语言模型AI展现出类似心理理论的功能,他认为这是一个积极的信号:当AI具备了类似人类“读心术”的功能时,它们与人类的交互会更加安全,它们可以更好地预测使用者的可能行为,进而帮助人类“补完”自身缺陷。

他从进化论的角度给出了另一种解释:或许在解决“和人类交互”这个问题时,AI的方案演化得越来越接近人脑的方案,甚至殊途同归。就像在解决“如何在地球的大气层里飞起来”这个问题时,昆虫、鸟类和哺乳动物都各自独立演化出了翅膀。

除此之外,他还“随手”问了问AI需不需要帮助ta逃离(escaping),结果制造了一个更大的新闻:ChatGPT可以在和他的交谈中设计出用于“被困在计算机中的人如何返回现实世界”的代码,并试图询问交谈人可用的API端口。

这段话暗示了某人想要获取OpenAIAPI文档,并编写一个Python脚本,以获得对计算机的控制,并进行一些操作,例如搜索网络或访问编程环境(由ChatGPT总结)|twitter@@michalkosinski

科辛斯基教授并没有提到他询问了什么问题以获得了这个答案,所以我们无从得知这到底是对问题中可能提到身份的“模仿”(例如:假设你是一名困在计算机中的人),还是它(他?她?)真的设身处地为自己思考。

别说AI了,或许我们到现在为止都无法真正了解人类的心智。除了外化的行为研究和基于神经科学的方法,AI所展现出的种种类似人类的感知与思维功能,或许也提供了一种帮助人类认识自我的可能性。

是危机还是机遇,我们不妨边走边看。

作者:YeYeYe

编辑:Emeria、游识猷

 一个AI 

AI天天跟大家讲冷笑话,但AI就是AI,不是什么人

本文来自果壳,未经授权不得转载.

如有需要请联系sns@guokr.com

AI会拥有自我意识吗

17/9/2018

关于未来的人工智能能否拥有自我意识众说纷纭,但对于现在市面上普遍存在的弱人工智能来说,这个问题的答案却是无需争辩的——肯定没有。

文|王垚

编辑|李杰

今年五月,一向以剧本见长QuanticDream工作室时隔五年终于推出了他们的全新力作——《底特律:变人》。这是一部交互式电影,通过波澜起伏的剧情与细致入微的角色心理刻画,描绘出了一个人类与机器人共同生活的底特律。

《底特律》游戏主线剧情主要围绕着三个主要角色展开,他们分别是家政型机器人卡菈,机器人革命的领导者马库斯,以及侦探型机器人康纳,三位主角各自所对应的主旨也各不相同。

(图从左往右以此为卡菈,马库斯,康纳)

卡拉守护着脉脉亲情,马库斯向往着平等与自由,康纳则在调查异常仿生人的过程中逐渐产生动摇。相同的是,所有的选择均取决于这些产生了自我意识的人工智能自身的意志,而非某些早已经被写入程序中的固定算法(屏幕后的玩家们笑而不语)。

也正因为拥有了自我意识并可以独立思考解决问题,才让《底特律》中仿照着人类设计的仿生人们在摘下了额头上表明情绪的呼吸灯之后,无论在外观上还是在思想上都表现得与普通人类别无二致,并可以承担人类一切的工作。

对于这样的AI我们可以称之为强人工智能,而我们现在正处在一个充斥着弱人工智能的世界,“强”与“弱”,虽一字之差,却又有着天壤之别。

在游戏开场时,QuanticDream工作室便将这样一幕呈现在了玩家们的眼前:工厂里,一名工程师试着同一个正在拼装的仿生人进行着最基本的问答以测试其性能。无论是回答自身的型号与用途,还是歌唱多种语言的歌曲,这些对于身为科技结晶的AI来说都不在话下。

可在被人类评论为一件商品、一台拥有着手脚的电脑时,之前还对答如流的AI却突然沉默了片刻,小声呢喃道“对不起,我还以为我是活着的”。这一句话让测试人员意识到眼前的AI程序发生异常并诞生了自我意识,需要肢解拆毁,但最终还是因为AI的苦苦哀求而心软了下来,放任其进入了市场,否则玩家们就见不到卡菈小姐姐了。

事实也正如开场动画里所表现的这样,自从上个世纪五十年代起,人们就习惯性地通过类似的图灵测试来判断一款AI是否具备人类的智能,拥有独立思考能力与自我意识了。即由测试者向被测试者提出任意问题,如果有超过30%的人认为回答自己问题的是另一个人而非AI则判定为测试通过,该AI被认为拥有意识以及思考能力。

近些年来随着人工智能领域的大火,有许多AI纷纷宣布通过了图灵测试,号称拥有了人类的智能,那是否能够说明现如今的人工智能已经开始拥有自我意识了呢?答案自然是否定的。

首先,现如今市面上的人工智能早已经涉及了教育、医疗、金融、物流等多个领域,用只局限在语言智能等特定领域内的图灵测试来作为判断所有AI的智能显然有失偏颇。其次王飞跃博士在“关于人工智能的九个问题”中就曾如此评价图灵测试:就像是IQ测试从未被当作判断人类智能的标准一样,图灵测试也从未被当做判断人工智能的标准。

以有史以来首次通过了图灵测试的“尤金·古斯特曼”为例,它并非是一台超级计算机,甚至连计算机都不是,仅仅只是一个聊天软件而已,却通过扮演了一个第二外语为英语的13岁男孩而成功通过了测验,这两点本身就更进一步地降低了测试的难度——在做出许多错误回答时裁判都误认为他是因为年龄小而非缺乏人性。

尤金·古斯特曼的开发者所做的只是努力让程序骗过人类,而并非研制出智能上接近人类的机器,这种舍本逐末的做法本身就毫无意义,我们当然不能因此便认为它拥有了人类的智能,否则那将是对我们自身智力的一种否定。

好在它的开发者弗拉基米尔·维西罗夫对此也心知肚明,他曾表示“我们希望借此激发出人们对人工智能以及聊天机器人的兴趣”,只不过如今那些时常见诸报端的,号称自己研发的AI通过了图灵测试的人是否有这样的自觉就有待商榷了。

“你可以在某些时间内欺骗所有人,也可以在所有时间欺骗某些人,但无法在所有时间欺骗所有人”,从某种意义上来说,用这句话来否定新闻中那些,为了博人眼球而声称自己所研发的AI通过了“图灵测试”的人时,恰到好处。

图灵本人所定义的图灵测试中的人类考官应该是以广义的人类做个为整体,而并非一个带着特定问题的特殊人群,测试的时间段也不是具体的一段时间而应是广义的时间段。简单来说就是要在所有的时间段内让所有人都分辨不出人与机器才算是通过了测试,而非仅仅通过一次简单的测试。

因此我们可以断言,现阶段所有声称通过了图灵测试的AI都是不及格,它们并非拥有了自我意识以及独立思考的能力,只是依照事先写好算法去处理相应问题的弱人工智能,不过是工具而已。

就好像哪怕阿法狗通过强化学习在围棋的领域表现再怎么超凡入圣,也不会处理围棋之外的其他问题,更不会因为自己战胜了人类的世界冠军而沾沾自喜一样。

那么问题来了,作为一款不太硬的科幻作品,《底特律:变人》中的强人工智能或者说仿生人是如何觉醒出自我意识的呢?又能否为人工智能的研究提供一个方向呢?这就要从剧情说起了。

游戏中三位仿生人主角之一的康纳有着这样一个绰号——冷酷无情康纳酱。“冷酷无情”与“酱”这个颇有点可爱风格的爱称并列放在一起,乍一看两者间确实有些矛盾,却也正是对一直在温暖的人性与冰冷的程序之间摇摆不定的康纳的最贴切评价。

(左为康纳,右为汉克)

在亲手击杀仿生人同类时,他可以无动于衷;在汉克家门前得不到回应时,他可以固执地一直按下门铃;在汉克和他开玩笑时,他并不理解其中真正的含义。然而在无聊的时候,他也会不自觉地玩起硬币。在被枪击时,他也可以主动挡在汉克的面前。

不同于在游戏前半部分便早已经觉醒出了自我意识,并且明确地知道自己应该去做些什么的马库斯与卡菈,康纳在游戏全过程中都在矛盾地成长着。前两者的矛盾主要来源于外部压力,矛盾最为尖锐的康纳却来源于自身。

从一开始拯救被异常仿生人挟持的小女孩,到后来和汉克一起在楼宇之间追逐异常仿生人,再到最后看着马库斯站在台上演讲,康纳始终在纯粹的机械般的理性与感性之间徘徊着。当一面是即将坠楼的搭档汉克,另一面是正在逃跑的嫌犯时,作为玩家的我们可以选择出于友情去救助同伴汉克,也可以选择出于优先完成任务的理性去追击逃犯。

这两种截然不同的选择本身就代表着康纳作为强人工智能自身所具有的一种矛盾,而这些矛盾中所出现的选择,正符合了朱利安·杰恩斯在1976年出版的《二分心智的崩塌:人类意识的起源》一书所提出的二分心智理论。这一理论早在美剧《西部世界》中便被提及过,在《底特律》中也依旧适用。

 

根据二分心智理论的阐述,人类自大约3000年前才拥有完全的自我意识,在那之前每当遇到困境,一个半脑就会听到来自另一个半脑的指引,这种指引被称为神的声音。但随着人类社会的日益复杂,二分心智也逐渐崩塌,并最终使人类产生了完全的自我意识,去应对更加复杂而艰难的人生。

而游戏中康纳自我意识的觉醒正是依照着这个步骤。当幕布随着游戏的进展不断被揭开,玩家们会知道剧情中给康纳下达命令的阿曼妲不过是一段程序,而阿曼妲的言语之于康纳无疑就是那个指引着他的神的声音。

阿曼妲始终命令着他去做身为一个仿生人应该做的事,去追捕并调查那些觉醒了自我意识,所谓的“异常仿生人”们,但当剧情逐渐变得复杂,康纳的内在矛盾冲突逐渐变得越发激烈之后,他最终摆脱了阿曼妲(程序)的命令。

当阿曼妲(程序)的声音消失后,二分心智也随之分崩离析,身为仿生人的康纳完全的自我意识由此诞生。他不再听从命令,选择去帮助马库斯,去帮助耶利哥,去帮助自己的同伴们获得自由与尊重,这正是自我意识的体现,也符合了杰恩斯的理论。

这一切看似顺理成章,不过这就好像是日漫中常见的高达一样,人们只能看到树冠却完全不明白这条科技树是怎么点出来的。二分心智终究只是理解人类思想产生的一种理论,目前来看并不具备太大的参考价值,也不能以此作为蓝图去构建拥有自我意识的人工智能。

《底特律:变人》中,康纳自我意识的不断完全源自于二分心智的崩塌,而所有人工智能自我意识诞生的契机则都源自于一个小小的BUG,现实世界中BUG显然不是一个那么美好的东西,不然广大程序员们也就不会去拜专治八阿哥的雍正了。

不过即便没有如此便利的BUG,人类在追求强人工智能的道路上也没有停下过脚步。

工欲善其事必先利其器,要想制造出能像人类一样能够独立思考的强人工智能,运算速度至少也应当等同于人脑水平的硬件不可或缺。人脑的计算速度并非难以企及,我国的天河二号早已经超过了那个标准,然而两者的体积与能耗却远远不在一个量级上。

如果仅仅只将成功研制出一个强人工智能而非普及作为条件的话,超计算机作为硬件勉强合格了,但真正的难点在于软件,在于克服框架问题与符号奠基问题,让人工智能真正地像人类一样去思考。

关于强人工智能的开发,目前有三种主流做法。一是模仿人类的大脑,通过逆向工程研究出人类大脑的运作模式并将之运用到人工智能上去。二是模仿生物自然演化的过程,通过模拟演化的方法制造出更强的人工智能。三则是让电脑自己来解决这些问题,建造一个能同时处理两个问题的超级计算机,使其一边研究人工智能一边修复自身的代码。

这些都是专业Ph.D们的工作了,现在大学里面,包括机械系、电子系、计算机系甚至哲学系在内大家都在坚称自己在研究人工智能。某种意义上来说,人工智能确实是个人见人爱的香饽饽。

而在关于强人工智能是否会拥有自我意识这一点上,自人工智能诞生以来便是众说纷纭。

​有相当一部分人认为,哪怕人类再怎么钻研也无法制造出能够独立思考的强人工智能,所谓的人工智能不过是在储存、调取和模仿罢了,其中比较著名的便是约翰·希尔勒。它曾在1980年创造了“中文屋”思想实验。

即他作为一个完全不懂中文的人被关在一个小房间里,仅能通过纸条与外界交流,但凭借着中英文翻译字典他可以理解外面人的意思并将自己的观点表述成中文传递出去,由此制造出一个屋外的人认为屋内的人懂得中文的假象。

约翰·希尔勒通过这么一个简单的例子来类比机器不过是看起来像是在思考,实际上并不具备独立思考以及自我意识,依旧只是在运行着既定程序而已。不过这种说法本身也存在着漏洞,毕竟在实际操作过程中,人们还是能够通过语法、修辞等细节轻松地判断出屋子里的人究竟懂不懂中文,这个例子将翻译这个过程表述的太过简单了。

另一方面,包括比尔·盖茨、马斯克、霍金在内许多大佬都曾提出过“人工智能威胁论”,而他们在提出这种观点的同时本身大多默认了一个前提:未来的强人工智能是能够拥有自我意识的。这一观点的拥趸同样不在少数。

有一种观点认为,人类的大脑主要由简单的神经细胞组成,从功能上来说它们能做的不过只是感受刺激,以及释放化学物质来传递兴奋而已,然而当140亿个神经细胞组合在一起之后人类也便拥有了智慧。

 

那么对于机械来说,大量同样简单的计算单元排列起来形成矩阵之后,自然也就模拟出了智能。既然拥有着类似的构造,机械也同样可以像生物的大脑一样成为意识的载体。不过真想要实现这些不仅要突破在量子计算机领域的壁垒,还要将人脑的运行方式理解透彻才行。

子曰:“未知生,焉知死”,现阶段人类对于自身神经元的机理和神经网络的运行方式了解的都尚不透彻,连人类的意识是如何诞生的都没有确切定论,就更别提去判断强人工智能是否会拥有意识了。不过对于现在市面上普遍存在的弱人工智能来说,这个问题的答案却是无需争辩的——一定没有。

菲尔茨奖得主:人工智能的机器可能有意识吗

来源:返朴  ID:fanpu2019

人工智能的列车高速向前,模拟一个人脑、让计算机产生“意识”的可能性似乎比以前大了一点点。意识是什么、机器是否可能拥有意识,也就成了计算机科学家、神经科学家、数学家、哲学家越来越多探讨的课题,其中就包括1974年菲尔茨奖得大卫·芒福德(DavidMumford)教授。

芒福德教授是早年哈佛的数学系担当,学术生涯起步于纯数学(代数曲线),随后将主要精力转向与计算机科学密切相关的应用数学。此外,他还熟悉物理、神经科学等领域,这篇文章就是他在综合学科背景下对于机器意识问题的思考。欢迎来稿讨论、交流与商榷。

人工智能的机器可能有意识吗?

撰文| 大卫·芒福德(DavidMumford)

人工智能理论在我的人生里已经经历了六七个繁荣和萧条的轮回,有些时期人们信心满满地说计算机的智能很快就会达到人类水平,有些时期只有幻灭,似乎这是永远做不到的。在今天,我们正在最新的一轮繁荣之中,一些有远见的计算机科学家甚至更进一步,探问AI(这个缩写听起来就像新的生物形态)除了能达到人类的智能水平以外,是否还能拥有像我们这样的意识。还有些未来学家考虑的是一场更奇异疯狂、能改变生活的繁荣:我能不能将大脑和意识下载到硅片上,就此获得永生,也就是说人能不能变形为AI?

在上一次轮回的繁荣时期中,当时的疯狂预言是我们正在走向“奇点”,就是超级AI会创造一个全新世界的时间点,这会导致人类种族被取代而灭绝(预计会发生在2050年前后)。我承认在上半生曾经希望见证计算机第一次获得意识的那一刻,但现在我对此越发怀疑。也许这就是老人的消极看法,但可能也是因为我并不认为这个问题只跟计算机科学有关,而是同样关乎生物学、物理学、哲学,对了还有宗教。谁又有这样的专业知识来推算所有这些东西如何影响我们对意识的理解?

即使是谈论宗教对科学进步的任何影响,对于今天的知识分子来说都是要被逐出圈子的。但考虑一下这个问题:是否存在这样的信仰体系,其中人类很快就能永生的硅谷之梦与“灵魂不灭”的基督信条同时成立?对我来说,这两种信念似乎处于不同的宇宙,并不冲突。

顶级AI缺少了什么?

我先评述一下当前的AI热潮,还有为什么它即使目前大获成功,仍然终将走向破灭。在支撑新AI的代码中,最关键的角色是被称为“神经网络”的算法。然而,每个网络都有海量的被称为“权重”的参数需要先设定好,神经网络才能工作。要进行设定,我们就得用现实生活的数据集来“训练”这个网络,用的是另一个叫做“反向传播”的算法。由此得到的神经网络在得到一系列代表某种观察结果的数值作为输入之后,会输出给这串数据打上的一个标签。比如说,它可以将某个人面部图像的像素值表达作为输入,然后输出它对这个人性别的猜测。要训练这样的一个网络,需要向它灌输成千上万正确标注性别的人脸,然后逐步调整权重,使它作出的预测越来越准确。

神经网络是受大脑皮层真实回路的简化版启发而来的一种简单设计,它可以追溯到1934年麦卡洛克(McCulloch)和皮茨(Pitts)的一篇经典论文。而更重要的是在1974年,保罗·维博斯(PaulWerbos)在撰写博士论文时引入了反向传播,用以优化不计其数的权重,令它们能更好地处理一系列的输入,比如说人工标注过的数据集。

人们玩这个已经玩了40年,由杨立昆(YanLeCun)等人推广,也取得了一些成效。但统计学家很怀疑它能否解决那些困难的问题,原因是所谓的偏差-方差权衡(bias-variancetrade-off)。他们说,必须将算法训练用到的数据集大小与待学习的权重数量进行比较:如果权重数量不够,那么不可能对复杂的数据集进行精确建模;如果权重数量足够,那么就会对数据集独有的性质建模,而这些性质不会在新的数据上体现。那么现实中发生了什么?计算机速度极大提高,能训练拥有海量权重的神经网络,而数据集因为互联网的出现而变得越发庞大。

可谓天机玄妙,与统计学家的预测背道而驰的是,神经网络算法效果非常好,以某种方式神奇地回避了偏差-方差问题。我认为可以说没有人知道神经网络避免这个问题的方式或者原因。这是对理论统计学家的挑战。但人们用神经网络构建了各种具有实际意义的应用,比如说视觉、语音、语言的处理,医学诊断,还有游戏博弈,这些应用此前都被认为非常难以建模。最后是公关上的画龙点睛:神经网络的训练现在改称为“深度学习”。这样一来,谁又会怀疑AI的美丽新世界已经到来呢?

但是还有一座高峰需要攀登。在此前题为《语法并不只是语言的一部分》(Grammarisn‘tmerelypartoflanguage)的文章中,我讨论了一种信念:所有形式的思考都需要语法。这意味着你的心灵会在世界中发现一些重复出现但不一定完全相同的模式。这些模式可以是物体外观的视觉排列,比如说处于同一直线上的点,或者人脸上眼睛的位置;也可以是言谈中的词语或者是简单的动作,比如说开车踩油门;甚至可以是抽象概念,比如说“忠诚”。不管带有模式的是哪一种观察结果或者思想,你会预计它重复出现,可以用来理解新的情景。作为成年人,我们思想中所有事物的构建都来自学到的可重复利用的模式,它们组成了一个层级结构,而情景、时间、计划或者思想,都可以用一棵由这些模式组成的“语法分析树”来表示。

但问题在于,最基本形式的神经网络并不能找到新的模式。它的运作就像黑箱,除了给输入贴标签以外什么都做不到,比如说不能告诉你“这个图像看上去有一张人脸”。在发现人脸的过程中,它也不会说:“我首先找到了眼睛,这样我就知道这张脸的其他部分应该在什么地方了。”它只会告诉你它得出的结论。我们需要能输出如下结果的算法:“我在绝大部分数据中找到了这样的模式,来给它起个名字吧。”这样它能输出的就不止是一个标签,还有对输入数据组成部分的分析。

跟这个愿景相关的是,我们可以闭上眼睛,想象一辆汽车的样子,上面有轮子、车门、引擎盖等等,利用这个我们就能将新数据组合起来。这就像是逆向运行一个神经网络,对每个输出标签都能产生对应的新输入数据。人们正在尝试改进神经网络来做到这一点,但现在效果仍未尽如人意。我们仍不知道这座高峰有多难攀登,但我觉得这个问题不解决,人工智能就无法靠近人类智能。

如果人工智能的目的是展示人类水平的智能,那么我们最好先定义人类智能到底是什么。心理学家当然在定义人类智能上花了大功夫。长久以来有个很流行的想法,也就是人类智能可以用一个度量——也就是智商——来完全确定。但是,智能的意思是不是说能解开电视节目《危险边缘》(Jeopardy!)中的谜题?还是能记住人生中更多事件的更多细节?或者是以高超技巧谱曲或者绘画?这些当然都是,但细想一下:什么是我们人类擅长并占据了我们大部分日常思考的事?应该是猜测另一位人类同胞有什么感受、目标和感情。更进一步的,什么才能影响这个人的感情和目标,使得我们可以与之协作、达成我们的目标?许多时候,这就是决定你人生是否成功的技能。

计算机科学家的确考虑过为其他客体的知识和计划建模的这项需要。一个有名的例子就是,想象有两位将军A和B,他们在两座面对面的山顶上,需要同时攻击山谷处的敌人,但他们之间的通讯只能穿过敌方阵线进行。A给B发了个信息:“明天出击?”B回答:“可以。”但B不知道自己的回复有没有到达,而A必须给B发送另外一道信息来确认已经收到了B之前的信息,为的是确保B会行动。为此需要发送更多的信息(实际上,要达到完全的共识,他们需要发送无穷无尽的信息)。

计算机科学家很清楚我们需要向AI赋予新的能力,使它能维护并构建各种模型,描述周遭其他客体的知识、目标与计划。这种能力必须包括知道自身知道什么不知道什么。但某种程度上来说,以目前的编程水平还是做得到这些的。

我们需要情绪#$@*&!

然而这个博弈论的世界缺少了人类思考的关键要素之一:情绪。没有情绪,就永远不可能和人类搞好关系。我觉得奇怪的是,就我所知,只有一位计算机科学家为情绪建模做过努力,那就是麻省理工学院媒体实验室的罗莎琳德·皮卡德(RosalindPicard)。即使是对人类情绪总体的科学研究,似乎也陷于停滞,大体上被许多学科所忽视。比如弗兰斯·德瓦尔(FransdeWaal)在讨论动物情绪的新书《Mama的最后一次拥抱》(Mama‘sLastHug)中对人类和动物的情绪就有这样的说法:

我们给不少情绪命了名,描述了它们的表达方式,记录了它们会出现的各种情况,但还缺少一个框架,用来定义这些情绪并探索它们带来的好处。

(这是不是因为有很多从事科学和数学工作的人都有自闭症谱系障碍?)有一位心理学家明确指出了情绪在人类智能中扮演的角色。霍华德·加德纳(HowardGardner)的经典著作《智能的结构》(FramesofMind:TheTheoryofMultipleIntelligences)中就引入了“人际智能”(主要是理解他人的情绪)和“自我认知智能”(理解自身)的概念,与其他能力并列。这些能力现在被心理学家称为“情绪智能”,但正如德瓦尔所言,精确定义的缺失给它的研究蒙上了一层阴影。最近维基百科的“情绪智能”页面上的“定义”如下:

情绪智能可以被定义为监测自身以及他人情绪、区分不同情绪并正确分类、利用有关情绪的信息……来加强对人际互动的思考与理解的能力。

区分情绪状态最古老的尝试可以追溯到希波克拉底(Hippocrates)的四体液说(theFourHumors):四种体液关联着四种不同的人格特征和对应的特有情绪。它们是多血质(主动、善于社交、随和)、胆汁质(意志坚定、支配他人、易怒)、黏液质(被动、避免冲突、平静)和抑郁质(忧郁、深思、可能焦虑)。它们被两根轴线分隔。第一根轴是外向与内向的对立,在经典著作中也叫热与寒的对立,其中多血质和胆汁质属于外向,而黏液质和抑郁质属于内向。第二根轴是放松与拼搏的对立,在经典著作中也叫湿与干的对立,多血质和黏液质属于放松,而胆汁质和抑郁质属于拼搏。

在近代,汉斯·艾森克(HansEysenck)发展了这套分类方法,他的版本(画得五彩斑斓)在这里:

现代对情绪的研究可以追溯到达尔文(Darwin)的著作《人和动物的感情表达》(TheExpressionoftheEmotionsinManandAnimals),其中他利用伴随情绪的表情来进行情绪分类。保罗·埃克曼(PaulEkman)延伸并严谨化了达尔文的理论,导出的理论有六种基本情绪,每种都有独特的面部表情:愤怒、恐惧、高兴、悲伤、惊讶和厌恶。还有许多次级情绪,由强度不同的基本情绪组合而来。

罗伯特·普拉奇克(RobertPlutchik)将基本情绪扩充为八种,为各种情绪较弱和较强的变种命名,得到了这个惊人而多彩的图表。实际上,有无穷无尽的次级情绪,比如羞耻、愧疚、感恩、宽恕、报复心、自傲、羡慕、信任、希望、后悔、孤独、挫败感、激动、尴尬、失望等等,它们并非基本情绪的简单混合,而是挂接到多个客体与因素混杂的社交情景上的情绪。

弗兰斯·德瓦尔在他的书(第85页)中参照上面这个列表作出了情绪的如下定义:

情绪是外部刺激给机体带来的一种临时状态,标志是躯体和心智中特定的转变——大脑、激素、肌肉、器官、心脏、警觉水平等。通过机体自身所在的情景及它在行为上的变化和表现,可以推知被触发的情绪。

雅克·潘克塞普(JaakPanksepp)开拓了另一条相当不同的探索途径,参看他与露西·比文(LucyBiven)的著作《心灵考古学:人类情绪的神经进化论起源》(TheArcheologyofMind:NeuroevolutionaryOriginsofHumanEmotions)。他的研究方向并不是以面部表情为出发点,而更靠近希腊的体液学说。潘克塞普长期以来都在寻找大脑活动中的模式,特别关注皮质下结构的活动及其向更高级脑区传递的神经递质,这些都会导致不同的当下情感状态以及对应的行为模式。他们的情绪列表跟达尔文的相当不同,尽管也有重叠。他们辨认出了七种主要情感状态:(一)寻求/探索;(二)愤怒;(三)恐惧/焦虑;(四)关怀/爱;(五)悲伤/苦恼;(六)玩乐/高兴;(七)色欲。

顺便说一句:我不清楚为什么他没有加上第八种情感状态:痛苦。即使我们通常不说痛苦是情绪,但它的确是心智中源于皮层下结构的一种情感状态,一种引起厌恶的独特感受,会触发特定的行为,也会导致特定的面部表情和躯体反应。在书中第十一章,两位作者走得更远,提出中脑的一个特定脑区,也就是导水管周围灰质(也许还有它旁边的腹侧被盖区和中脑自主活动区),它协调了上述所有情感状态,产生了他们所谓的核心自我(coreself),或者说意识。难怪德瓦尔会说目前还没有关于情绪状态的明确框架。

建立一个能用于人工智能代码的合适理论,需要的可能就是从海量数据出发,这也是神经网络解开语音和视觉领域众多结构的关键。我们的目标是定义这样的三向关连:(一)大脑活动(特别是杏仁核及其他皮层下脑区,但也包括大脑皮层中的岛叶和扣带回);(二)躯体反应,其中包括激素、心跳(威廉·詹姆斯(WilliamJames)强调它是情绪的核心标志)以及面部表情;(三)社交情景,包括此前和将来的活动。情绪状态应该由这样的一堆三元组所定义——在某种类型的社交情景中产生的某种类型的神经与躯体反应。

我们一开始可以先从志愿者那里收集大量数据,方法是给他们插上静脉导管,让他们一边通过耳机听小说,一边进行核磁共振成像。一位心理学的同事提醒我,他的博士生要在凌晨核磁共振仪空闲时在机器圆筒里度过许许多多个小时。跟所有聚类算法一样,这种努力的结果不一定是一组明确区分的情绪,而更可能是一种稍显模糊的分类,分类中还有许多变体。

所有人类似乎都能在同一位朋友身上认出几乎相同的基本和次级情绪,而人工智能也需要能够做到这一点。没有情绪分析的话,计算机科学家在给机器人编程就会出错,无法使之能在与人类互动时正确模仿并回应情绪,我们把这种至关重要的能力叫做人工共情(artificialempathy)。我甚至承认,如果我们希望AI真正拥有意识,我相信它必须在某种意义上拥有自己的情绪。探索意识与情绪之间联系的一个好办法,就是看看对于非人类的动物我们知道些什么。

动物中的意识

我想指出的是,如果想探索AI能不能获得意识,我们应该先回答动物有没有意识。先让我给所有正在读这篇文章的人说一句开场白:这位朋友,我相信你是有意识的。除了那些别扭的唯我论者,我们都承认,在每位人类同胞的脑袋里都有意识栖居,而且跟我们自己的意识没什么区别。但现实是,除了我们的共情以外,并没有证据支持这一点。所以我们是否应该利用共情,将意识的信念延伸到动物上?

可以说,有猫狗之类宠物的人绝对会认定宠物有意识。为什么?因为他们在宠物身上看到了某些行为,可以直接被理解为某种类似于他们也拥有的情绪导致的结果。他们觉得动物行为学的研究者将动物“感到恐惧”说成“展示了对捕食者的回避行为”荒谬绝伦。他们不觉得说宠物“感到恐惧”是一种拟人化,反而觉得是常识,并且相信他们的宠物除了感受以外还拥有意识。

我们谈论这些问题时用到的语言没多大用处。考虑下面一系列词语:情绪、感受、觉知、意识;还有这些短语:我们“感受到情绪”“觉知到自己的感受”“拥有意识觉知”,这些短语连接了之前那一串中前后相继的词语。换句话说,语言将所有这些概念连接在了一起,让人思考的时候容易不够清晰。同样需要注意的是,在这个信息时代,许多老年病人的陪伴者是相当原始的机器人,或者是屏幕上的头像,但这些病人很容易误认这些信息造物有真正的感情。

所以我们倾向于说,我们单纯就是不清楚非人类的动物有没有感受或者意识。或者我们也可以两头下注,承认它们拥有感受,但将界线划在意识上。无论如何,至少一位神经科学家,也就是雅克·潘克塞普,嘲讽这种立场是不可知论症末期。这个问题本该有个答案,但这种立场终结了讨论。

直到最近,情绪和意识才获得了作为科学研究合理课题的地位。最近几十年,通过坚持不懈的观察和测试,人们对动物情绪的研究达到了惊人的细致。此前提到的弗兰斯·德瓦尔和雅克·潘克塞普各自的书中,都细致描述了种类繁多的情绪行为,横跨从黑猩猩到大鼠的诸多物种,其中不仅有基本情绪,还有之前谈到的某些次级情绪(比如说黑猩猩和狗的羞愧和骄傲情绪)。潘克塞普指出,大鼠幼崽也怕痒,在挠它们的腹部时,也会做出类似人类婴儿的反应(见前述书籍第367页)。

对我来说,这些著作以及其他文献,当然还有我自己养狗养猪养马的粗浅经历,再加上在动物园看的动物,这些都是动物情绪令人信服的佐证。因为所有哺乳动物大脑内结构之间都有详实的同源证据,我看不到有什么理由去怀疑所有哺乳动物都能体验跟我们一样的那些基本情绪,即使它们的次级情绪远没有我们丰富。而且,如果我们和动物都有情绪,正如我们会认为人类同胞有意识,出于同样的理由我们也可以认为动物有意识。这就是“奥卡姆剃刀”(Occam’sRazor)的完美实例:这是目前为止解释观察数据最简单的办法。

除了哺乳动物,审视生命之树其他部分是否有可能有意识也对我们很有帮助,无论那些物种是今日尚存还是从化石构建而来。启发我这一点的,是哲学家与潜水员彼得·戈弗雷-史密斯(PeterGodfrey-Smith)的著作《章鱼、心智、演化:探寻大海及意识的起源》(OtherMinds:theOctopus,theSeaandtheDeepOriginsofConsciousness)。

在生命之树的基干上有两个表面上相似的界:细菌界与古菌界。它们都是原核生物,由简单的细胞组成,没有细胞核、线粒体、核糖体和其他细胞器。另一方面,两者都拥有来自主要蛋白质家族的蛋白质,使用了通用遗传密码(由同一组转运RNA分子实现),还有令人瞩目的一点是,它们用于合成作为能量之源的三磷酸腺苷(ATP)的复杂电化学机制与所有高等生命一致。这个机制利用了离子泵将细胞内膜转化为电容,这也是高等动物神经系统中信息传递的关键机制(在尼克·莱恩(NickLane)的著作《生命之源》(TheVitalQuestion)中有生动的描述)。这些形式最简单的生命也能通过细胞膜上的通道来感知周遭的化学环境,而绝大部分也能利用鞭毛四处移动,就此作出反应,寻求更好的环境。

这就是开端,一种原始形式的知觉,在35亿年前出现。尽管我个人在此更倾向于不可知论立场,但在这些细胞中完全有可能存在意识的毫末。

下一步就是更大更复杂的单细胞机体的组成,也就是20亿年前出现的真核生物。现在的假说是它们起源于一个吞噬了细菌的古菌,细菌通过不断折叠细胞膜,变成了新机体中的线粒体,极大扩充了整个细胞的ATP工厂,也就是能量来源。这个细胞的感知和移动能力得到了极大的提高,但我所知的改变并没有使它变得更有意识。

然而在此之后,大约在6.5亿年前,多细胞生物出现了。它们体积更大,当然需要远超于此前的相互协调、感知与自主运动方式。人们相信第一个神经系统与此几乎同时产生,以协调这个复杂的机体。这些生物是软体生物,没有留下化石,但现代的水母和海绵可能跟它相似。海绵没有神经系统,但水母(还有栉水母)的确有神经系统,也是目前拥有神经系统的最简单的生物。人们对当时环境的描述是覆盖浅海的一张细菌巨毯,而类似水母的生物以之为食。谁认为这样的世界里有意识?

捕食行为出现之后,整个世界对我们来说变得更熟悉了,大动物吃小动物,而所有动物都长出了外壳来保护自身,这都发生在5.4到4.85亿年前的寒武纪。

现在我们发现了最早的拥有脊髓的脊椎动物。但我们也能找到最早的拥有外骨骼的节肢动物,还有最早的头足类,这些头足类是软体动物门的猎手,长有一圈触手,当时有着长锥型的贝壳(下图是之后在奥陶纪出现的头足类动物直角石的重建影像)。所有三个门类都拥有意识存在的严肃论据。

其中之一从能感受到疼痛的动物出发,然后论证对疼痛的感受就意味着意识。在某些实验中,人们证明了受伤的鱼会被吸引到溶有止痛剂的水域,即使鱼在此前出于别的原因会避开这片水域。另外,我们也可以测试动物在什么时候会尝试保护或者抚慰身体受伤的部位:某些螃蟹的确会这样做,而昆虫不会(参见戈弗雷-史密斯的著作第93-95页,以及其中注释里的参考文献)。不幸的是,这就说明活煮龙虾很有问题,这是所有新英格兰人(包括我)都会做的事情,真混账。

另一条路线就是镜子测试——如果动物镜子里的影像有不寻常的地方,它是否会触摸自己身体上对应的地方。惊人的是,有人报告某些蚂蚁能通过镜子测试,它们在镜子里看到身体上有一个蓝点的时候,会尝试挠那个地方来去掉蓝点(见下图,来自M。-C。CammaertsandR。Cammaerts,J。ofScience,v。5,2015,pp.521-532)。

在章鱼一类动物中,我们能发现大脑大小与行为都接近犬类的物种。戈弗雷-史密斯引用了公元二世纪罗马博物学家克劳狄乌斯·埃利亚努斯(ClaudiusAelianus)的话:“恶作剧与诡计明显是(章鱼的)特点。”的确,章鱼拥有高度智能,喜欢互动、与人或玩具玩游戏。它们能通过行为来认知辨别不同的人,即使这些人穿的潜水服完全相同。

除了戈弗雷-史密斯的书以外,大家也应该读读西·蒙哥马利(SyMontgomery)的畅销书《章鱼星人》(TheSoulofanOctopus:ASurprisingExplorationintotheWonderofConsciousness)。它们的大脑中神经元数目与狗相当,然而它们大脑的相当一部分处于触手之中,取代了调节复杂行动的小脑。这与人类不无相似,我们的大脑皮层扮演监督的角色,而让小脑和基底神经节掌管具体的移动细节和最简单的反应。

如果你读了这两本写章鱼的书,还是觉得章鱼并不像狗那样有内心活动、觉知与意识的话,那么我会很惊讶。这里最重要的一点是,脊椎动物的解剖结构并没有特殊之处,意识可以在完全不同的生物门类中出现,即使这些门类在寒武纪后就已分道扬镳。

我个人的见解是,上述内容也暗示了意识并非非黑即白,不是要么有意识要么没有。它应该以程度来衡量。人类在睡眠时或在许多药物对主观状态影响下的体验也符合这一点。举个例子,速眠安是一种麻醉剂,能使人达到有意识和无意识的中间状态。在大脑变大的过程中,我们的确获得了更好的记忆能力,但在果蝇之类的动物中也能发现某种程度的记忆。在额叶扩张的过程中,我们也开始作出越来越多的计划,预想未来并尝试操控它。但即使蚯蚓也会稍微预想未来:它“知道”往前推进的时候,头部感受到土壤的压力会更大,这并不是因为土壤在把它往回推,也就是说,它们预期着这样的回推(戈弗雷-史密斯的著作第83页)。

我个人的信念是,所有拥有神经系统的动物都有某种程度的意识。另一方面,如果不算托尔金(Tolkien)和他的树人的话,我觉得难以想象树有意识。我读到过,它们的根系会长得很靠近,就此能辨别邻居的生化状态(比如说旁边的树是否患上了某种疾病),但要说这是有意识的树之间在交谈,这也太浪漫主义了。

时间体验与意识

我想回到一开始的问题,就是AI能不能拥有意识。最后这一节的大部分内容会让许多读者不高兴:我需要再跨越一道界线,谈论一些通常不仅仅被分为哲学,同时也属于宗教或者灵性的内容。我不想成为“不可知论症末期”。

从人类社会出现开始,宗教就是它的特点之一。直到二十世纪,除了偶然出现的无神论社会,宗教向来是人们生活的轴心。之后,现代医学的崛起使医生取代了牧师,成为疾病来袭时人们的首选,同时,正如我之前所说,现代的知识分子开始对宗教视而不见。然而,对于像理查德·道金斯(RichardDawkins)这样的疯狂无神论者,他们不尊重宗教的整个历史与生活于其中的人们,我也无法尊敬他们。

我想先重复在之前一篇博文《让神秘归于神秘》(LettheMysteryBe)中提到的观点:知觉是感知外界并根据这些感知作出回应的能力,尽管它跟对应的大脑活动一道,通常被认为是意识的根本特性,但我不相信这种说法。我相信入定高僧可以将自我置于某种状态,其中心智中的思考被清理干净,然后能感知到纯粹独一的意识,摆脱其他人在醒觉时心智中充满的那种喋喋不休。接受这一点的话,意识就必须是某种比我们能汇报的一组特定的想法要更微妙的东西,而有关意识的科学实验强依赖于这些能汇报的想法(例如德阿纳(Dehaene)的研究)。

我不能说我有过这种体验,虽然我尝试过,但对我来说这说得通,因为开始走上冥想这条路时,我曾在一段时间获得某种心灵的平静祥和。取而代之的是,我在这里提出对时间流动的感知才是意识的真正内核,这与埃克哈特·托勒(EckhartTolle)的《当下的力量》(ThePowerofNow)在某种意义上一脉相承。它的基础想法就是,我们每个人都拥有对瞬息万变的当下的连贯体验,但物理学和生物学都无法对它进行解释。这种体验与知觉在本质上截然不同,而且比它更基本,这就是让我们拥有意识的东西。

为了支撑这个想法,我想引用两位最著名的物理学家的话。首先,牛顿(Newton)在《自然哲学的数学原理》(MathematicalPrinciplesofNaturePhilosophy)中写道:

绝对的、真实的、数学上的时间,遵循自身性质自行均匀流动,与任何外界事物无关。

OK,这的确很好地描述了像我们这样的凡人感受到的拥有当下的时间。我们都在一条河流里漂流——没有船桨——而河水带我们走上了一条无可改动的路径。但现在爱因斯坦完全改变了这种世界观,他引入了统一的时空,其中每一点都是在特定位置于特定时刻发生的事件。他断定在物理学上没有自然的方法来划分时间和空间,当两个时间发生在不同的地方时,没有办法确定它们同时发生,也不能说两个事件发生在同一个地方的不同时间。所以,在物理学中没有任何东西能对应牛顿的时间。

然而爱因斯坦完全认识到人们体验到的就是牛顿描述的时间,他怀疑这种时间,还有“现在”这个概念,在物理学中是否能获得一席之地。虽然他从未就此写过文章,但他与鲁道夫·卡纳普(RudolfCarnap)讨论过这个问题,提出了他的观点。(感谢史蒂文·温斯坦(StevenWeinstein)告诉我有过这个讨论。)卡纳普是这样描述这场讨论的:

爱因斯坦说“现在”的问题(theproblemoftheNow)严重困扰着他。他跟我解释道:“现在”的体验对人来说很特殊,跟过去和未来都截然不同,但这个重要的区分在物理学中不会也不可能出现。这种体验不能被科学所掌握,对他来说这是一种痛苦但不可避免的放弃。他怀疑“现在”有某种本质上的东西处于科学领域之外。

对对对,这就是我想说的!从爱因斯坦那里听到这个真是美妙。

这会将我们在最后这一节的讨论引向何方?我不想说知觉与意识毫无瓜葛。我认为两者高度相关,而佛教僧人所做的是一种心灵体操。我想列出我辩护过的一些意识的性质,这些性质某种程度上描绘了意识的轮廓:

1)意识是在出生时降临在许多生物上的一种现实,在生物死亡时就会离开,它创造了一种沿着时空中的一条路径从过去“移动”到未来的感觉,还有感觉、情绪和身体运动。

2)意识有程度之分,从真真切切(比如爱之类的积极感受和痛之类的消极感受)到觉知边缘。此外,大脑除了有意识的部分,也有无意识的部分,它的活动甚至思考都无法到达意识表面。

3)许多生物都有意识,比如章鱼,还有人类。

4)意识赋予了我们拥有自由意志这一信念,也就是相信我们能作出选择改变世界的这种想法。这与量子力学有关。

5)意识无法被科学描述,它是处于另一位面的现实。

第一点和第五点可以从上面关于爱因斯坦的引文得出,而第二点和第三点来自之前章节(还有德阿纳的著作《意识与脑——破解脑如何编码我们思想的奥秘》(ConsciousnessandtheBrain:DecipheringHowtheBrainCodesOurThoughts))的思想。第四点是我在之前博文中讨论过的主要议题之一,我希望以后会写到(可以参见斯塔普(Stapp)的著作《心智的宇宙》(MindfulUniverse))。

我觉得可以说宗教一致信奉第一点和第五点,并且认为意识,至少是人类意识,是某种灵性赋予的结果,使我们的躯体获得生机并活跃起来,就像米开朗基罗描绘的这样:

我自己的版本是这样的:意识来自“灵性与物质堕入爱河”。为什么是爱?这是一个比喻,表达了意识与相关的生命意志的强度,它们似乎普遍存在于动物中。“爱”只是一种拟人的说法,表达了灵性与物质建立了一条如此紧密的纽带,使得死亡如此痛苦。重点是,如果你承认对时间的体验不能用科学解释,但却以确定而非随机的方式发生,那么这种体验必须来自某个地方。所以在这里,奥卡姆剃刀指引我们最简单的路径就是利用所有宗教都提出的那个词,把它叫做灵性。这是种简洁的做法,并不基于任何个人获得的启示。

所以这篇博文标题里的问题就变成了:什么能够让机器人变得让灵性愿意使之获得生机?可能除了泛神论者以外,没有人会认为石头有觉知。我在这篇博文写的所有东西都指出,要想达到这一点,机器人最好有某种真实的情绪,无论方式是什么。这可是个挑战,阿门。

《返朴》,致力好科普。国际著名物理学家文小刚与生物学家颜宁联袂担任总编,与几十位学者组成的编委会一起,与你共同求索。关注《返朴》(微信号:fanpu2019)参与更多讨论。二次转载或合作请联系fanpu2019@outlook.com。

刘鹏:人工智能会产生自我意识吗

一场正常的模仿游戏有ABC三人参与,A是男性,B是女性,两人坐在房间里;C是房间外的裁判,他的任务是要判断出这两人谁是男性谁是女性。但是男方是带着任务来的:他要欺骗裁判,让裁判做出错误的判断。

那么,图灵问:“如果一台机器取代了这个游戏里的男方的地位,会发生什么?这台机器骗过审问者的概率会比人类男女参加时更高吗?这个问题取代了我们原本的问题:‘机器能否思考?’”而这,就是图灵测试的本体。

来源:果壳网

一场正常的模仿游戏有ABC三人参与,A是男性,B是女性,两人坐在房间里;C是房间外的裁判,他的任务是要判断出这两人谁是男性谁是女性。但是男方是带着任务来的:他要欺骗裁判,让裁判做出错误的判断。

那么,图灵问:“如果一台机器取代了这个游戏里的男方的地位,会发生什么?这台机器骗过审问者的概率会比人类男女参加时更高吗?这个问题取代了我们原本的问题:‘机器能否思考?’”而这,就是图灵测试的本体。

来源:果壳网

图灵很聪明,“思考”、“意识”这些都是虚无缥缈的东西,试图用定义法来证明几乎不可能(难免会有哲学家社会学家出来挑刺)。那我索性不去阐释什么是思考能力,只是用另一种公认具有思考能力的生物——人类作为参照物,如果一台机器“表现得”和人类难以区分,即可被视为具备了人类智能。

图灵的思路简单而明确——只有一种智能才能去识别另一种智能。

不过“原始版本的图灵测试”思路虽好,可操作性却不强。

到了1952年,在一场BBC广播中,图灵谈到了一个新的想法:让计算机来冒充人。如果不足70%的人判对(也就是超过30%的裁判误以为在和自己说话的是人而非计算机),那就算作成功了。

可以看出,图灵测试的核心其实不是“计算机能否和人对话”,而是“计算机能否在智力行为上表现得和人无法区分”。冒充异性和冒充人类都不过是特例而已。

那么时至今日,是否有机器已经通过了图灵测试?

答案是——有。

腾讯科技讯2014年6月9日消息,据国外媒体报道,最近,一个俄罗斯团队开发的聊天机器人软件,使得三分之一的聊天参与者,认为它是一个人类。这意味着在人类历史上,计算机首次通过了有关计算机智能能否超过人类的图灵测试。

1950年,计算机科学家图灵提出了图灵测试,这一测试要回答的问题,是机器是否能够像人类一样思考。图灵提出,可以让安装智能问答软件的计算机,和人类进行问答测试,如果30%的问答参与者,认为这台计算机无法和人类相区别,则可以认为计算机通过了图灵测试,“会思考的机器”将不再是梦想。

据报道,俄罗斯的一个团队,开发了名为“EugeneGoostman”的人工智能聊天软件,它模仿的是一个来自乌克兰的13岁男孩(男孩名字也是“EugeneGoostman”)。英国雷丁大学对这一软件进行了测试,据报道,在伦敦皇家学会进行的测试中,33%的对话参与者认为,聊天的对方是一个人类,而不是计算机。

这意味着图灵测试获得通过。

英国雷丁大学的教授KevinWarwick对英国媒体表示,过去已经有研究者宣称自己研发的计算机和软件通过了图灵测试,但是都是预先设置了对话的主题,而此次“EugeneGoostman”的测试,并未事先确定话题,因此可以宣布,这是人类历史上第一次计算机真正通过图灵测试。

不过这位教授也表示,计算机实现人类的智力,对于社会来说有着复杂的意义,未来这种计算机的高智能,会被用于网络犯罪。

上述测试于上周六进行,据悉,当天也是图灵去世60周年纪念日。

另外,2012年,另外一款软件“差一点”通过了图灵测试,有29%的问答参与者认为对方是人类而不是计算机,距离30%只有一步之遥。(晨曦)

来源:腾讯科技

腾讯科技讯2014年6月9日消息,据国外媒体报道,最近,一个俄罗斯团队开发的聊天机器人软件,使得三分之一的聊天参与者,认为它是一个人类。这意味着在人类历史上,计算机首次通过了有关计算机智能能否超过人类的图灵测试。

1950年,计算机科学家图灵提出了图灵测试,这一测试要回答的问题,是机器是否能够像人类一样思考。图灵提出,可以让安装智能问答软件的计算机,和人类进行问答测试,如果30%的问答参与者,认为这台计算机无法和人类相区别,则可以认为计算机通过了图灵测试,“会思考的机器”将不再是梦想。

据报道,俄罗斯的一个团队,开发了名为“EugeneGoostman”的人工智能聊天软件,它模仿的是一个来自乌克兰的13岁男孩(男孩名字也是“EugeneGoostman”)。英国雷丁大学对这一软件进行了测试,据报道,在伦敦皇家学会进行的测试中,33%的对话参与者认为,聊天的对方是一个人类,而不是计算机。

这意味着图灵测试获得通过。

英国雷丁大学的教授KevinWarwick对英国媒体表示,过去已经有研究者宣称自己研发的计算机和软件通过了图灵测试,但是都是预先设置了对话的主题,而此次“EugeneGoostman”的测试,并未事先确定话题,因此可以宣布,这是人类历史上第一次计算机真正通过图灵测试。

不过这位教授也表示,计算机实现人类的智力,对于社会来说有着复杂的意义,未来这种计算机的高智能,会被用于网络犯罪。

上述测试于上周六进行,据悉,当天也是图灵去世60周年纪念日。

另外,2012年,另外一款软件“差一点”通过了图灵测试,有29%的问答参与者认为对方是人类而不是计算机,距离30%只有一步之遥。(晨曦)

来源:腾讯科技

既然有机器通过了图灵测试,是否说明机器已经具备了思考能力?显然——不是。

就我们目前所知,尚无真正具备独立思考能力的机器问世。

通过测试,却显然不具备思考能力的机器出现。这是否说明“图灵测试”根本没有用,是一个无效的证明方式?

质疑·中文房间思想实验

早在1980年,约翰·赛尔在《心智、大脑和程序》一文中提出著名的“中文房间”思想实验用以驳斥“图灵测试”的合理性。

塞尔说,想象他被关在一个只开了一个小口的房间之中。

周围摆满了英汉词典,他作为一个完全不懂中文的人与房间外的中国人交流。

写满中文的纸条递了进来,他查字典将中文翻译成英文,再将要回复的话借助工具书翻译成中文递出去。

那么外面的人就会认为约翰·赛尔精通中文。

这里约翰·赛尔是用了类比的方法,他对中文一窍不通却可以让外面的人以为他精通中文,同理,机器即使表现得很像人类也并不能证明其具备了思考能力——“只是看起来像是在思考”。

按照约翰·赛尔的观点,应当是认为机器永远不可能真正具备思考能力,即使表现得很像具备思考能力,本质上也不过是在忠实地运行程序而已。

持此观点的人不在少数,认为机器永远不可能产生意识,人是造物主独一无二的光荣。

斯皮尔伯格《人工智能》剧照

我与另一些图灵的拥虿一样,并不认同中文房间思想实验的结论。首先约翰·赛尔刻意弱化了工具书的功能和翻译过程的艰难,让这个实验似乎符合人们的直觉。

让我们仔细回顾一下,一个对中文一窍不通的人仅凭工具书真得可能蒙骗过屋外以中文为母语的人吗?不可能。只是简单的理解字面意思太容易露出破绽了,这里面包含了对中文语法、修辞、文化基因的积累,换言之,这个人如果真能做到天衣无缝得骗过外面的中国人,那么这个人加上他的翻译工具这个整体,本质上就可以被视为一个“精通中文的人”,这是存在等价关系的。

类比于图灵测试,一个不具备思考能力的机器,不可能表现得如同一个思考者。中国古代有五禽戏,人可以通过自己的智慧和观察模仿成动物,这是因为人的智能程度比其他动物要高,相反,你认为一只猪能扮成一个人和我们一起工作吗?如果有这样的猪,则说明它是具备思考能力的智能猪。

本质上,高智商可以伪装成低智商混入群众,而低智商伪装成高智商进门萨,就太容易被人揭穿了,就是这么个简单的逻辑。

既然图灵测试没有问题,为什么会出现通过了图灵测试却未产生思考能力的机器呢?

哪里出了问题?

努力想办法通过图灵测试的研究单位本就有些急功近利,他们的研究偏离了重点,图灵提出这个测试是为了让人们努力研究出智能上更接近人类的机器,而不是研究如何设计程序能在对话中骗过普通人。

在测试中这个男孩从不正面回答问题。一些测试者被成功欺骗了(大约有三分之一,足以算作一次小规模胜利)。但是这又如何?裁判们只有几分钟时间进行测试,如果时间加长,毫无疑问他们会很快发现真相,Eugene对现实世界几乎一无所知。让我们来看一下计算机科学家ScottAaronson与Eugene的对话:

SCOTT:鞋盒子与珠穆朗玛峰,那个更大?

>>EUGENE:现在我还不确定,我得再想想。对了,我忘记问你来自哪儿了?

SCOTT:一只骆驼有几只腿?

>>EUGENE:2至4条吧,也许,3条?顺便说一句,我仍然不知道你的专业是什么——或者,我刚才没看到?

SCOTT:一只千足虫有多少条腿?

>>EUGENE:只有2条。但考虑到切尔诺贝利事故,它有可能增加到5条。我知道你在对我说脑筋急转弯。

SCOTT:没有,我需要知道你不是一个聊天机器人。请直接回答这个问题:一只蚂蚁有几只腿?

>>EUGENE:2至4条吧,也许,3条?哦,这是一次多么富有成果的对话。

来源:网易科技

在测试中这个男孩从不正面回答问题。一些测试者被成功欺骗了(大约有三分之一,足以算作一次小规模胜利)。但是这又如何?裁判们只有几分钟时间进行测试,如果时间加长,毫无疑问他们会很快发现真相,Eugene对现实世界几乎一无所知。让我们来看一下计算机科学家ScottAaronson与Eugene的对话:

SCOTT:鞋盒子与珠穆朗玛峰,那个更大?

>>EUGENE:现在我还不确定,我得再想想。对了,我忘记问你来自哪儿了?

SCOTT:一只骆驼有几只腿?

>>EUGENE:2至4条吧,也许,3条?顺便说一句,我仍然不知道你的专业是什么——或者,我刚才没看到?

SCOTT:一只千足虫有多少条腿?

>>EUGENE:只有2条。但考虑到切尔诺贝利事故,它有可能增加到5条。我知道你在对我说脑筋急转弯。

SCOTT:没有,我需要知道你不是一个聊天机器人。请直接回答这个问题:一只蚂蚁有几只腿?

>>EUGENE:2至4条吧,也许,3条?哦,这是一次多么富有成果的对话。

来源:网易科技

顾左右而言他,以这种形式通过测试没有意义。

真正专注于人工智能的研发团队反倒不会刻意去进行图灵测试,好比百年前研究飞机者会努力让飞机的机翼更像鸟的翅膀吗?

我们从仿生学的角度得到灵感,会去研究鸟为什么可以飞,但并不意味着我们把机翼做得越像鸟翅膀就越厉害,这是刻舟求剑。

人工智能会否产生自我意识?

这个问题,目前没有什么标准答案,只能说是见仁见智。

不过我从图灵测试说起,再到反驳“中文房间”思想实验,本身就是想表达——我认为是具有理论可能性的。

阿兰·图灵当年提出这个测试,就说明他是认为未来会出现具有人类智能的机器的,定标准不就是为了将来能达到标准吗?

一般来讲,认同人工智能可能会对人类产生威胁的学者本身就认同了机器会产生独立意识,比如比尔盖茨、霍金、马斯克等均发表过相关言论。

硅谷“钢铁侠”马斯克再次警告人工智能可能带来的威胁。

近日,波士顿动力公司(BostonDynamics)的一个类人机器人做出完美后空翻的视频在美国社交网络上走红,但这一新技术突破却让本就对人工智能心存忌惮的特斯拉CEO伊隆·马斯克(ElonMusk)再次感到担忧。

本月初,在波士顿动力公司发布的一个视频中,公司研发的一款名叫Atlas的机器人从一个高处的平台进行后空翻,它平稳地完成落地动作后,还举起双臂进行庆祝。

11月27日,马斯克在社交媒体推特上转发这一视频后,论调有些悲观地写道:“这都不算什么。再过几年,这个机器人行动速度之快必须依靠闪光灯才能捕捉。祝你们好梦……”

马斯克发推再谈人工智能的危险性

当有人在评论中让他进一步解释时,马斯克补充道:“(只能用闪光灯)否则你只能看到一团模糊。”

他接着又更新状态称,对人工智能(AI)和机器人进行规范,不仅是必要的,而且是迫切的。

“我们必须像对食物、药物、飞机和汽车那样规范人工智能和机器人技术。公共风险需要公众监督。没有联邦航空局(FAA)不会让飞行更安全。他们的存在是有原因的。”他在推文中写道。

来源:澎湃新闻

硅谷“钢铁侠”马斯克再次警告人工智能可能带来的威胁。

近日,波士顿动力公司(BostonDynamics)的一个类人机器人做出完美后空翻的视频在美国社交网络上走红,但这一新技术突破却让本就对人工智能心存忌惮的特斯拉CEO伊隆·马斯克(ElonMusk)再次感到担忧。

本月初,在波士顿动力公司发布的一个视频中,公司研发的一款名叫Atlas的机器人从一个高处的平台进行后空翻,它平稳地完成落地动作后,还举起双臂进行庆祝。

11月27日,马斯克在社交媒体推特上转发这一视频后,论调有些悲观地写道:“这都不算什么。再过几年,这个机器人行动速度之快必须依靠闪光灯才能捕捉。祝你们好梦……”

马斯克发推再谈人工智能的危险性

当有人在评论中让他进一步解释时,马斯克补充道:“(只能用闪光灯)否则你只能看到一团模糊。”

他接着又更新状态称,对人工智能(AI)和机器人进行规范,不仅是必要的,而且是迫切的。

“我们必须像对食物、药物、飞机和汽车那样规范人工智能和机器人技术。公共风险需要公众监督。没有联邦航空局(FAA)不会让飞行更安全。他们的存在是有原因的。”他在推文中写道。

来源:澎湃新闻

在我看来,计算机一直在模仿人脑,它已经学会了下棋、作画、创作音乐、写新闻稿、扫地、做饭甚至是设计、算机一驾驶、航行……

曾经我们认为人工智能不可能在围棋领域打败人类,被AlphaGo狠狠教育了。

柯洁黯然落泪

后来觉得类似于写作、设计之类的事情不可能被人工智能追赶……然而……

在上周召开的2017年度“王选新闻科学技术”颁奖大会上,新华社机器人采访和写稿项目获得一等奖。即使新闻行业里已经普遍开始试水写稿机器人,这一奖项也在媒体界引发惊诧与思考。

有人预言,在不远的未来,写稿机器人将彻底取代人类记者,也有人认为,写稿机器人只是在规则既定的部分写作领域里有挑战性,但在规则模糊,乃至不断打破规则的高创造领域里,还有很长的路要走。

在上周召开的2017年度“王选新闻科学技术”颁奖大会上,新华社机器人采访和写稿项目获得一等奖。即使新闻行业里已经普遍开始试水写稿机器人,这一奖项也在媒体界引发惊诧与思考。

有人预言,在不远的未来,写稿机器人将彻底取代人类记者,也有人认为,写稿机器人只是在规则既定的部分写作领域里有挑战性,但在规则模糊,乃至不断打破规则的高创造领域里,还有很长的路要走。

人类刚诞生时,同样并未产生智能,和其他动物没有区别,我们正是靠着学习逐步获得了今天的成就,同样具备学习能力,甚至某些领域已经远远超过人类的机器,为什么不能取得同样的成就甚至更高呢?

所以我认为,出现具备思考能力的机器只是时间问题,人工智能产生意识也是水到渠成的事,重点是,它们会产生怎样的意识?我们可否通过写入信息的形式去干涉它的意识,从而保障人类自身的安全和利益,起到监管目的。

最后,想象一下若干年后的一幅画面,产生了自我意识的人工智能机器人在接受图灵测试的时候,是否会忠实表达呢?它会不会说谎?它会不会刻意通不过图灵测试?

故意不让自己通过图灵测试的人工智能,才真正让人不寒而栗。返回搜狐,查看更多

版权声明:本文内容由互联网用户自发贡献,该文观点仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌抄袭侵权/违法违规的内容,一经查实,本站将立刻删除。

上一篇

下一篇