人工智能可能有自主意识了吗
参会者在第六届世界智能大会上参观(2022年6月24日摄) 赵子硕摄/本刊
➤大模型、大数据的驱动让人工智能在对话的自然度、趣味性上有了很大突破,但距离具备自主意识还很远。换言之,即便人工智能可以对人类的语言、表情所传递的情绪作出判断,但这主要应用的是自然语言处理、计算机视觉等技术
➤不同于当前依赖数据学习的技术路线,新一代人工智能强调在没有经过数据学习的情况下,可以通过推理作出合理反应,从而与没有见过、没有学过的事物展开交互
➤当前人工智能治理面临的最大挑战,是我们没有一套比较成熟的体系来规制其潜在的风险。在发展科技的同时,必须同步发展我们的规制体系
➤“技术归根结底是由人类来发展和把控的。人类和人工智能的未来,是由人类选择的。”
文 |《瞭望》新闻周刊记者 于雪 魏雨虹
今年6月,美国谷歌公司软件工程师布莱克·勒莫因称语言模型LaMDA出现自我意识。他认为,LaMDA拥有七八岁孩童的智力,并相信LaMDA正在争取自己作为一个人的权利。
LaMDA是谷歌去年发布的一款专门用于对话的语言模型,主要功能是可以与人类交谈。
为佐证观点,勒莫因把自己和LaMDA的聊天记录上传至互联网。随后,谷歌以违反保密协议为由对其停职。谷歌表示,没有任何证据支持勒莫因的观点。
事实上,“AI(人工智能)是否拥有自主意识”一直争议不休。此次谷歌工程师和LaMDA的故事,再次引发讨论。人们想知道:人工智能技术究竟发展到了怎样的阶段?是否真的具备自主意识?其判定依据是什么?未来我们又该以怎样的能力和心态与人工智能和谐共处?
人工智能自主意识之辨
勒莫因认为LaMDA具有意识的原因有三:一是LaMDA以前所未有的方式高效、创造性地使用语言;二是它以与人类相似的方式分享感觉;三是它会表达内省和想象,既会担忧未来,也会追忆过去。
受访专家告诉《瞭望》新闻周刊记者,上述现象仅仅是因为LaMDA所基于的Transformer架构能够联系上下文,进行高精度的人类对话模拟,故能应对人类开放、发散的交谈。
至于人工智能是否已经具备自主意识,判定标准如何,受访专家表示,对人类意识的探索目前仍属于科技前沿,尚未形成统一定义。
清华大学北京信息科学与技术国家研究中心助理研究员郭雨晨说:“我们说人有自主意识,是因为人知道自己在干什么。机器则不一样,你对它输入内容,它只是依照程序设定进行反馈。”
中国社会科学院科学技术哲学研究室主任段伟文认为,一般意义上,人的自我意识是指对自我具备觉知,但如何认识和理解人类意识更多还是一个哲学问题而不是科学问题,这也是很难明确定义人工智能是否具备意识的原因。
被誉为“计算机科学与人工智能之父”的艾伦·图灵,早在1950年就曾提出图灵测试——如果一台机器能够与人类展开对话而不能被辨别出其机器身份,那么可以称这台机器具有智能。
这一设想随后被具化为,如果有超过30%参与测试的人以为自己在和人说话而非计算机,就可以认为“机器会思考”。
当前随着技术的发展,已经有越来越多的机器能够通过图灵测试。
但清华大学人工智能国际治理研究院副院长梁正告诉《瞭望》新闻周刊记者,图灵测试只能证明机器在表象上可以做到让人无法分辨它与人类的不同,却不能证明机器能够思考,更不能证明机器具备自主意识。
段伟文表示,目前大体有两种方式判定人工智能是否具有自主意识,一种以人类意识为参照,另一种则试图对机器意识进行全新定义。
若以人类意识为参照,要观察机器能否像人一样整合信息。“比如你在阳光下,坐在河边的椅子上看书,有树影落在脸上,有风吹来,它们会带给你一种整体的愉悦感。而对机器来说,阳光、河流、椅子等,是分散的单一元素。”段伟文说。
不仅如此,段伟文说,还要观察机器能否像人一样将单一事件放在全局中思考,作出符合全局利益的决策。
若跳出人类构建自主意识的范式,对机器意识进行重新定义,则需要明白意识的本质是什么。
段伟文告诉记者,有理论认为如果机器与机器之间形成了灵活、独立的交互,则可以称机器具备意识。也有理论认为,可以不追究机器的内心,仅仅把机器当作行为体,从机器的行为表现判断它是否理解所做事情的意义。“比如机器人看到人类喝咖啡后很精神,下次当它观察到人类的疲惫,能不能想到要为人类煮一杯咖啡?”段伟文说。
但在段伟文看来,这些对机器意识进行重新定义的理论,其问题出在,即便能够证明机器可以交互对话、深度理解,但是否等同于具备自主意识尚未有定论。“以LaMDA为例,虽然能够生成在人类看来更具意义的对话,甚至人可以与机器在对话中产生共情,但其本质仍然是在数据采集、配对、筛选机制下形成的反馈,并不代表模型能够理解对话的意义。”
换言之,即便人工智能可以对人类的语言、表情所传递的情绪作出判断,但这主要应用的是自然语言处理、计算机视觉等技术。
郭雨晨直言,尽管在情感计算方面,通过深度学习的推动已经发展得比较好,但如果就此说人工智能具备意识还有些一厢情愿。“把‘意识’这个词换成‘功能’,我会觉得更加准确。”
技术换道
有专家提出,若要机器能思考,先要解决人工智能发展的换道问题。
据了解,目前基于深度学习、由数据驱动的人工智能在技术上已经触及天花板。一个突出例证是,阿尔法围棋(AlphaGo)在击败人类围棋世界冠军后,虽然财力和算力不断投入,但深度学习的回报率却没有相应增长。
一般认为,人工智能可被分为弱人工智能、通用人工智能和超级人工智能。弱人工智能也被称为狭义人工智能,专攻某一领域;通用人工智能也叫强人工智能,主要目标是制造出一台像人类一样拥有全面智能的计算机;超级人工智能类似于科幻作品中拥有超能力的智能机器人。
从产业发展角度看,人工智能在弱人工智能阶段停留了相当长时间,正在向通用人工智能阶段迈进。受访专家表示,目前尚未有成功创建通用人工智能的成熟案例,而具备自主意识,至少需要发展到通用人工智能阶段。
梁正说,大模型、大数据的驱动让人工智能在对话的自然度、趣味性上有了很大突破,但距离具备自主意识还很远。“如果你给这类语言模型喂养大量关于内省、想象等与意识有关的数据,它便更容易反馈与意识有关的回应。”
不仅如此,现阶段的人工智能在一个复杂、专门的领域可以做到极致,却很难完成一件在人类看来非常简单的事情。“比如人工智能可以成为围棋高手,却不具备三岁小孩对陌生环境的感知能力。”段伟文说。
谈及背后原因,受访专家表示,第一是当前人工智能主要与符号世界进行交互,在对物理世界的感知与反应上发展缓慢。第二是数据学习让机器只能对见过的内容有合理反馈,无法处理陌生内容。第三是在数据驱动技术路线下,人们通过不断调整、优化参数来强化机器反馈的精准度,但这种调适终究有限。
郭雨晨说,人类在特定任务的学习过程中接触的数据量并不大,却可以很快学习新技能、完成新任务,这是目前基于数据驱动的人工智能所不具备的能力。
梁正强调,不同于当前主要依赖大规模数据训练的技术路线,新一代人工智能强调在没有经过数据训练的情况下,可以通过推理作出合理反应,从而与没有见过、没有学过的事物展开交互。
相比人类意识的自由开放,以往人工智能更多处在封闭空间。尽管这个空间可能足够大,但若超出设定范畴便无法处理。而人类如果按照规则不能解决问题,就会修改规则,甚至发明新规则。
这意味着,如果人工智能能够超越现有学习模式,拥有对自身意识系统进行反思的能力,就会理解自身系统的基本性质,就有可能改造自身的意识系统,创造新规则,从而成为自己的主人。
“人工智能觉醒”背后
有关“人工智能觉醒”的讨论已不鲜见,但谷歌迅速否认的态度耐人寻味。
梁正表示:“如果不迅速驳斥指认,会给谷歌带来合规性方面的麻烦。”
据了解,关于人工智能是否有自主意识的争论并非单纯技术领域的学术探讨,而关乎企业合规性的基本坚守。一旦认定公司研发的人工智能系统出现自主意识,很可能会被认为违反第2版《人工智能设计的伦理准则》白皮书的相关规范。
这一由美国电气和电子工程师协会2017年发布的规范明确:“根据某些理论,当系统接近并超过通用人工智能时,无法预料的或无意的系统行为将变得越来越危险且难以纠正。并不是所有通用人工智能级别的系统都能够与人类利益保持一致,因此,当这些系统的能力越来越强大时,应当谨慎并确定不同系统的运行机制。”
梁正认为,为避免社会舆论可能的过度负面解读,担心大家认为它培育出了英国作家玛丽·雪莱笔下的弗兰肯斯坦式的科技怪物,以“不作恶”为企业口号的谷歌自然会予以否认。“不仅如此,尽管这一原则对企业没有强制约束力,但若被认为突破了底线,并对个体和社会造成实质性伤害,很有可能面临高额的惩罚性赔偿,因此企业在合规性方面会更为谨慎。”
我国也有类似管理规范。2019年,国家新一代人工智能治理专业委员会发布《新一代人工智能治理原则——发展负责任的人工智能》,提出人工智能治理的框架和行动指南。其中,“敏捷治理”原则主要针对技术可能带来的新社会风险展开治理,强调治理的适应性与灵活性。
中国信息化百人会成员、清华大学教授薛澜在接受媒体采访时表示,当前人工智能治理面临的最大挑战,是我们没有一套比较成熟的体系来规制其潜在的风险。特别是在第四次工业革命背景下,我国的人工智能技术和其他国家一样都处于发展期,没有现成的规制体系,这样就使得我们在发展科技的同时,必须同步发展我们的规制体系。“这可能是人工智能发展面临最大的挑战。”
在梁正看来,目前很难断言新兴人工智能技术具有绝对风险,但必须构造合理的熔断、叫停机制。在治理中既要具有一定的预见性,又不能扼杀创新的土壤,要在企业诉求和公共安全之间找到合适的平衡点。
毕竟,对人类来说,发展人工智能的目的不是把机器变成人,更不是把人变成机器,而是解决人类社会发展面临的问题。
从这个角度来说,我们需要的或许只是帮助人类而不是代替人类的人工智能。
为了人机友好的未来
确保通用人工智能技术有益于人类福祉,一直是人工智能伦理构建的前沿。
薛澜认为,在科技领域,很多技术都像硬币的两面,在带来正面效应的同时也会存在风险,人工智能就是其中一个比较突出的领域。如何在促进技术创新和规制潜在风险之间寻求平衡,是科技伦理必须关注的问题。
梁正提出,有时技术的发展会超越人们预想的框架,在不自觉的情况下出现与人类利益不一致甚至相悖的情况。著名的“曲别针制造机”假说,即描述了通用人工智能在目标和技术都无害的情况下,对人类造成威胁的情景。
“曲别针制造机”假说给定一种技术模型,假设某个人工智能机器的终极目标是制造曲别针,尽管看上去这一目的对人类无害,但最终它却使用人类无法比拟的能力,把世界上所有资源都做成了曲别针,进而对人类社会产生不可逆的伤害。
因此有观点认为,创造出法力高超又杀不死的孙悟空本身就是一种不顾后果的冒险行为。
与其对立的观点则认为,目前这一担忧为时尚早。
“我们对到底什么样的技术路线能够发展出具备自主意识的人工智能尚无共识,现在谈论‘禁止发展’,有种空中楼阁的意味。”梁正说。
商汤科技智能产业研究院院长田丰告诉《瞭望》新闻周刊,现实中人工智能技术伦理风险治理的关键,是产业能够在“预判防范-应用场景-用户反馈-产品改进”中形成市场反馈机制,促成伦理风险识别与敏捷治理。同时,企业内部也需建立完整的科技伦理自律机制,通过伦理委员会、伦理风控流程平台将伦理风险把控落实到产品全生命周期中。
郭雨晨说,人工智能技术发展到目前,仍始终处于人类可控状态,而科技发展的过程本来就伴随对衍生问题的预判、发现和解决。“在想象中的人工智能自主意识出现以前,人工智能技术脚踏实地的发展,已经造福人类社会很多年了。”
在梁正看来,人与人工智能在未来会是一种合作关系,各自具备对方无法达成的能力。“技术归根结底是由人类来发展和把控的。人类和人工智能的未来,是由人类选择的。”□
长沙华夏实验学校学生和机器狗互动(2022年6月22日摄)薛宇舸摄/本刊
菲尔茨奖得主:人工智能的机器可能有意识吗
来源:返朴 ID:fanpu2019
人工智能的列车高速向前,模拟一个人脑、让计算机产生“意识”的可能性似乎比以前大了一点点。意识是什么、机器是否可能拥有意识,也就成了计算机科学家、神经科学家、数学家、哲学家越来越多探讨的课题,其中就包括1974年菲尔茨奖得大卫·芒福德(DavidMumford)教授。
芒福德教授是早年哈佛的数学系担当,学术生涯起步于纯数学(代数曲线),随后将主要精力转向与计算机科学密切相关的应用数学。此外,他还熟悉物理、神经科学等领域,这篇文章就是他在综合学科背景下对于机器意识问题的思考。欢迎来稿讨论、交流与商榷。
人工智能的机器可能有意识吗?
撰文| 大卫·芒福德(DavidMumford)
人工智能理论在我的人生里已经经历了六七个繁荣和萧条的轮回,有些时期人们信心满满地说计算机的智能很快就会达到人类水平,有些时期只有幻灭,似乎这是永远做不到的。在今天,我们正在最新的一轮繁荣之中,一些有远见的计算机科学家甚至更进一步,探问AI(这个缩写听起来就像新的生物形态)除了能达到人类的智能水平以外,是否还能拥有像我们这样的意识。还有些未来学家考虑的是一场更奇异疯狂、能改变生活的繁荣:我能不能将大脑和意识下载到硅片上,就此获得永生,也就是说人能不能变形为AI?
在上一次轮回的繁荣时期中,当时的疯狂预言是我们正在走向“奇点”,就是超级AI会创造一个全新世界的时间点,这会导致人类种族被取代而灭绝(预计会发生在2050年前后)。我承认在上半生曾经希望见证计算机第一次获得意识的那一刻,但现在我对此越发怀疑。也许这就是老人的消极看法,但可能也是因为我并不认为这个问题只跟计算机科学有关,而是同样关乎生物学、物理学、哲学,对了还有宗教。谁又有这样的专业知识来推算所有这些东西如何影响我们对意识的理解?
即使是谈论宗教对科学进步的任何影响,对于今天的知识分子来说都是要被逐出圈子的。但考虑一下这个问题:是否存在这样的信仰体系,其中人类很快就能永生的硅谷之梦与“灵魂不灭”的基督信条同时成立?对我来说,这两种信念似乎处于不同的宇宙,并不冲突。
顶级AI缺少了什么?
我先评述一下当前的AI热潮,还有为什么它即使目前大获成功,仍然终将走向破灭。在支撑新AI的代码中,最关键的角色是被称为“神经网络”的算法。然而,每个网络都有海量的被称为“权重”的参数需要先设定好,神经网络才能工作。要进行设定,我们就得用现实生活的数据集来“训练”这个网络,用的是另一个叫做“反向传播”的算法。由此得到的神经网络在得到一系列代表某种观察结果的数值作为输入之后,会输出给这串数据打上的一个标签。比如说,它可以将某个人面部图像的像素值表达作为输入,然后输出它对这个人性别的猜测。要训练这样的一个网络,需要向它灌输成千上万正确标注性别的人脸,然后逐步调整权重,使它作出的预测越来越准确。
神经网络是受大脑皮层真实回路的简化版启发而来的一种简单设计,它可以追溯到1934年麦卡洛克(McCulloch)和皮茨(Pitts)的一篇经典论文。而更重要的是在1974年,保罗·维博斯(PaulWerbos)在撰写博士论文时引入了反向传播,用以优化不计其数的权重,令它们能更好地处理一系列的输入,比如说人工标注过的数据集。
人们玩这个已经玩了40年,由杨立昆(YanLeCun)等人推广,也取得了一些成效。但统计学家很怀疑它能否解决那些困难的问题,原因是所谓的偏差-方差权衡(bias-variancetrade-off)。他们说,必须将算法训练用到的数据集大小与待学习的权重数量进行比较:如果权重数量不够,那么不可能对复杂的数据集进行精确建模;如果权重数量足够,那么就会对数据集独有的性质建模,而这些性质不会在新的数据上体现。那么现实中发生了什么?计算机速度极大提高,能训练拥有海量权重的神经网络,而数据集因为互联网的出现而变得越发庞大。
可谓天机玄妙,与统计学家的预测背道而驰的是,神经网络算法效果非常好,以某种方式神奇地回避了偏差-方差问题。我认为可以说没有人知道神经网络避免这个问题的方式或者原因。这是对理论统计学家的挑战。但人们用神经网络构建了各种具有实际意义的应用,比如说视觉、语音、语言的处理,医学诊断,还有游戏博弈,这些应用此前都被认为非常难以建模。最后是公关上的画龙点睛:神经网络的训练现在改称为“深度学习”。这样一来,谁又会怀疑AI的美丽新世界已经到来呢?
但是还有一座高峰需要攀登。在此前题为《语法并不只是语言的一部分》(Grammarisn‘tmerelypartoflanguage)的文章中,我讨论了一种信念:所有形式的思考都需要语法。这意味着你的心灵会在世界中发现一些重复出现但不一定完全相同的模式。这些模式可以是物体外观的视觉排列,比如说处于同一直线上的点,或者人脸上眼睛的位置;也可以是言谈中的词语或者是简单的动作,比如说开车踩油门;甚至可以是抽象概念,比如说“忠诚”。不管带有模式的是哪一种观察结果或者思想,你会预计它重复出现,可以用来理解新的情景。作为成年人,我们思想中所有事物的构建都来自学到的可重复利用的模式,它们组成了一个层级结构,而情景、时间、计划或者思想,都可以用一棵由这些模式组成的“语法分析树”来表示。
但问题在于,最基本形式的神经网络并不能找到新的模式。它的运作就像黑箱,除了给输入贴标签以外什么都做不到,比如说不能告诉你“这个图像看上去有一张人脸”。在发现人脸的过程中,它也不会说:“我首先找到了眼睛,这样我就知道这张脸的其他部分应该在什么地方了。”它只会告诉你它得出的结论。我们需要能输出如下结果的算法:“我在绝大部分数据中找到了这样的模式,来给它起个名字吧。”这样它能输出的就不止是一个标签,还有对输入数据组成部分的分析。
跟这个愿景相关的是,我们可以闭上眼睛,想象一辆汽车的样子,上面有轮子、车门、引擎盖等等,利用这个我们就能将新数据组合起来。这就像是逆向运行一个神经网络,对每个输出标签都能产生对应的新输入数据。人们正在尝试改进神经网络来做到这一点,但现在效果仍未尽如人意。我们仍不知道这座高峰有多难攀登,但我觉得这个问题不解决,人工智能就无法靠近人类智能。
如果人工智能的目的是展示人类水平的智能,那么我们最好先定义人类智能到底是什么。心理学家当然在定义人类智能上花了大功夫。长久以来有个很流行的想法,也就是人类智能可以用一个度量——也就是智商——来完全确定。但是,智能的意思是不是说能解开电视节目《危险边缘》(Jeopardy!)中的谜题?还是能记住人生中更多事件的更多细节?或者是以高超技巧谱曲或者绘画?这些当然都是,但细想一下:什么是我们人类擅长并占据了我们大部分日常思考的事?应该是猜测另一位人类同胞有什么感受、目标和感情。更进一步的,什么才能影响这个人的感情和目标,使得我们可以与之协作、达成我们的目标?许多时候,这就是决定你人生是否成功的技能。
计算机科学家的确考虑过为其他客体的知识和计划建模的这项需要。一个有名的例子就是,想象有两位将军A和B,他们在两座面对面的山顶上,需要同时攻击山谷处的敌人,但他们之间的通讯只能穿过敌方阵线进行。A给B发了个信息:“明天出击?”B回答:“可以。”但B不知道自己的回复有没有到达,而A必须给B发送另外一道信息来确认已经收到了B之前的信息,为的是确保B会行动。为此需要发送更多的信息(实际上,要达到完全的共识,他们需要发送无穷无尽的信息)。
计算机科学家很清楚我们需要向AI赋予新的能力,使它能维护并构建各种模型,描述周遭其他客体的知识、目标与计划。这种能力必须包括知道自身知道什么不知道什么。但某种程度上来说,以目前的编程水平还是做得到这些的。
我们需要情绪#$@*&!
然而这个博弈论的世界缺少了人类思考的关键要素之一:情绪。没有情绪,就永远不可能和人类搞好关系。我觉得奇怪的是,就我所知,只有一位计算机科学家为情绪建模做过努力,那就是麻省理工学院媒体实验室的罗莎琳德·皮卡德(RosalindPicard)。即使是对人类情绪总体的科学研究,似乎也陷于停滞,大体上被许多学科所忽视。比如弗兰斯·德瓦尔(FransdeWaal)在讨论动物情绪的新书《Mama的最后一次拥抱》(Mama‘sLastHug)中对人类和动物的情绪就有这样的说法:
我们给不少情绪命了名,描述了它们的表达方式,记录了它们会出现的各种情况,但还缺少一个框架,用来定义这些情绪并探索它们带来的好处。
(这是不是因为有很多从事科学和数学工作的人都有自闭症谱系障碍?)有一位心理学家明确指出了情绪在人类智能中扮演的角色。霍华德·加德纳(HowardGardner)的经典著作《智能的结构》(FramesofMind:TheTheoryofMultipleIntelligences)中就引入了“人际智能”(主要是理解他人的情绪)和“自我认知智能”(理解自身)的概念,与其他能力并列。这些能力现在被心理学家称为“情绪智能”,但正如德瓦尔所言,精确定义的缺失给它的研究蒙上了一层阴影。最近维基百科的“情绪智能”页面上的“定义”如下:
情绪智能可以被定义为监测自身以及他人情绪、区分不同情绪并正确分类、利用有关情绪的信息……来加强对人际互动的思考与理解的能力。
区分情绪状态最古老的尝试可以追溯到希波克拉底(Hippocrates)的四体液说(theFourHumors):四种体液关联着四种不同的人格特征和对应的特有情绪。它们是多血质(主动、善于社交、随和)、胆汁质(意志坚定、支配他人、易怒)、黏液质(被动、避免冲突、平静)和抑郁质(忧郁、深思、可能焦虑)。它们被两根轴线分隔。第一根轴是外向与内向的对立,在经典著作中也叫热与寒的对立,其中多血质和胆汁质属于外向,而黏液质和抑郁质属于内向。第二根轴是放松与拼搏的对立,在经典著作中也叫湿与干的对立,多血质和黏液质属于放松,而胆汁质和抑郁质属于拼搏。
在近代,汉斯·艾森克(HansEysenck)发展了这套分类方法,他的版本(画得五彩斑斓)在这里:
现代对情绪的研究可以追溯到达尔文(Darwin)的著作《人和动物的感情表达》(TheExpressionoftheEmotionsinManandAnimals),其中他利用伴随情绪的表情来进行情绪分类。保罗·埃克曼(PaulEkman)延伸并严谨化了达尔文的理论,导出的理论有六种基本情绪,每种都有独特的面部表情:愤怒、恐惧、高兴、悲伤、惊讶和厌恶。还有许多次级情绪,由强度不同的基本情绪组合而来。
罗伯特·普拉奇克(RobertPlutchik)将基本情绪扩充为八种,为各种情绪较弱和较强的变种命名,得到了这个惊人而多彩的图表。实际上,有无穷无尽的次级情绪,比如羞耻、愧疚、感恩、宽恕、报复心、自傲、羡慕、信任、希望、后悔、孤独、挫败感、激动、尴尬、失望等等,它们并非基本情绪的简单混合,而是挂接到多个客体与因素混杂的社交情景上的情绪。
弗兰斯·德瓦尔在他的书(第85页)中参照上面这个列表作出了情绪的如下定义:情绪是外部刺激给机体带来的一种临时状态,标志是躯体和心智中特定的转变——大脑、激素、肌肉、器官、心脏、警觉水平等。通过机体自身所在的情景及它在行为上的变化和表现,可以推知被触发的情绪。
雅克·潘克塞普(JaakPanksepp)开拓了另一条相当不同的探索途径,参看他与露西·比文(LucyBiven)的著作《心灵考古学:人类情绪的神经进化论起源》(TheArcheologyofMind:NeuroevolutionaryOriginsofHumanEmotions)。他的研究方向并不是以面部表情为出发点,而更靠近希腊的体液学说。潘克塞普长期以来都在寻找大脑活动中的模式,特别关注皮质下结构的活动及其向更高级脑区传递的神经递质,这些都会导致不同的当下情感状态以及对应的行为模式。他们的情绪列表跟达尔文的相当不同,尽管也有重叠。他们辨认出了七种主要情感状态:(一)寻求/探索;(二)愤怒;(三)恐惧/焦虑;(四)关怀/爱;(五)悲伤/苦恼;(六)玩乐/高兴;(七)色欲。
顺便说一句:我不清楚为什么他没有加上第八种情感状态:痛苦。即使我们通常不说痛苦是情绪,但它的确是心智中源于皮层下结构的一种情感状态,一种引起厌恶的独特感受,会触发特定的行为,也会导致特定的面部表情和躯体反应。在书中第十一章,两位作者走得更远,提出中脑的一个特定脑区,也就是导水管周围灰质(也许还有它旁边的腹侧被盖区和中脑自主活动区),它协调了上述所有情感状态,产生了他们所谓的核心自我(coreself),或者说意识。难怪德瓦尔会说目前还没有关于情绪状态的明确框架。
建立一个能用于人工智能代码的合适理论,需要的可能就是从海量数据出发,这也是神经网络解开语音和视觉领域众多结构的关键。我们的目标是定义这样的三向关连:(一)大脑活动(特别是杏仁核及其他皮层下脑区,但也包括大脑皮层中的岛叶和扣带回);(二)躯体反应,其中包括激素、心跳(威廉·詹姆斯(WilliamJames)强调它是情绪的核心标志)以及面部表情;(三)社交情景,包括此前和将来的活动。情绪状态应该由这样的一堆三元组所定义——在某种类型的社交情景中产生的某种类型的神经与躯体反应。
我们一开始可以先从志愿者那里收集大量数据,方法是给他们插上静脉导管,让他们一边通过耳机听小说,一边进行核磁共振成像。一位心理学的同事提醒我,他的博士生要在凌晨核磁共振仪空闲时在机器圆筒里度过许许多多个小时。跟所有聚类算法一样,这种努力的结果不一定是一组明确区分的情绪,而更可能是一种稍显模糊的分类,分类中还有许多变体。
所有人类似乎都能在同一位朋友身上认出几乎相同的基本和次级情绪,而人工智能也需要能够做到这一点。没有情绪分析的话,计算机科学家在给机器人编程就会出错,无法使之能在与人类互动时正确模仿并回应情绪,我们把这种至关重要的能力叫做人工共情(artificialempathy)。我甚至承认,如果我们希望AI真正拥有意识,我相信它必须在某种意义上拥有自己的情绪。探索意识与情绪之间联系的一个好办法,就是看看对于非人类的动物我们知道些什么。
动物中的意识
我想指出的是,如果想探索AI能不能获得意识,我们应该先回答动物有没有意识。先让我给所有正在读这篇文章的人说一句开场白:这位朋友,我相信你是有意识的。除了那些别扭的唯我论者,我们都承认,在每位人类同胞的脑袋里都有意识栖居,而且跟我们自己的意识没什么区别。但现实是,除了我们的共情以外,并没有证据支持这一点。所以我们是否应该利用共情,将意识的信念延伸到动物上?
可以说,有猫狗之类宠物的人绝对会认定宠物有意识。为什么?因为他们在宠物身上看到了某些行为,可以直接被理解为某种类似于他们也拥有的情绪导致的结果。他们觉得动物行为学的研究者将动物“感到恐惧”说成“展示了对捕食者的回避行为”荒谬绝伦。他们不觉得说宠物“感到恐惧”是一种拟人化,反而觉得是常识,并且相信他们的宠物除了感受以外还拥有意识。
我们谈论这些问题时用到的语言没多大用处。考虑下面一系列词语:情绪、感受、觉知、意识;还有这些短语:我们“感受到情绪”“觉知到自己的感受”“拥有意识觉知”,这些短语连接了之前那一串中前后相继的词语。换句话说,语言将所有这些概念连接在了一起,让人思考的时候容易不够清晰。同样需要注意的是,在这个信息时代,许多老年病人的陪伴者是相当原始的机器人,或者是屏幕上的头像,但这些病人很容易误认这些信息造物有真正的感情。
所以我们倾向于说,我们单纯就是不清楚非人类的动物有没有感受或者意识。或者我们也可以两头下注,承认它们拥有感受,但将界线划在意识上。无论如何,至少一位神经科学家,也就是雅克·潘克塞普,嘲讽这种立场是不可知论症末期。这个问题本该有个答案,但这种立场终结了讨论。
直到最近,情绪和意识才获得了作为科学研究合理课题的地位。最近几十年,通过坚持不懈的观察和测试,人们对动物情绪的研究达到了惊人的细致。此前提到的弗兰斯·德瓦尔和雅克·潘克塞普各自的书中,都细致描述了种类繁多的情绪行为,横跨从黑猩猩到大鼠的诸多物种,其中不仅有基本情绪,还有之前谈到的某些次级情绪(比如说黑猩猩和狗的羞愧和骄傲情绪)。潘克塞普指出,大鼠幼崽也怕痒,在挠它们的腹部时,也会做出类似人类婴儿的反应(见前述书籍第367页)。
对我来说,这些著作以及其他文献,当然还有我自己养狗养猪养马的粗浅经历,再加上在动物园看的动物,这些都是动物情绪令人信服的佐证。因为所有哺乳动物大脑内结构之间都有详实的同源证据,我看不到有什么理由去怀疑所有哺乳动物都能体验跟我们一样的那些基本情绪,即使它们的次级情绪远没有我们丰富。而且,如果我们和动物都有情绪,正如我们会认为人类同胞有意识,出于同样的理由我们也可以认为动物有意识。这就是“奥卡姆剃刀”(Occam’sRazor)的完美实例:这是目前为止解释观察数据最简单的办法。
除了哺乳动物,审视生命之树其他部分是否有可能有意识也对我们很有帮助,无论那些物种是今日尚存还是从化石构建而来。启发我这一点的,是哲学家与潜水员彼得·戈弗雷-史密斯(PeterGodfrey-Smith)的著作《章鱼、心智、演化:探寻大海及意识的起源》(OtherMinds:theOctopus,theSeaandtheDeepOriginsofConsciousness)。
在生命之树的基干上有两个表面上相似的界:细菌界与古菌界。它们都是原核生物,由简单的细胞组成,没有细胞核、线粒体、核糖体和其他细胞器。另一方面,两者都拥有来自主要蛋白质家族的蛋白质,使用了通用遗传密码(由同一组转运RNA分子实现),还有令人瞩目的一点是,它们用于合成作为能量之源的三磷酸腺苷(ATP)的复杂电化学机制与所有高等生命一致。这个机制利用了离子泵将细胞内膜转化为电容,这也是高等动物神经系统中信息传递的关键机制(在尼克·莱恩(NickLane)的著作《生命之源》(TheVitalQuestion)中有生动的描述)。这些形式最简单的生命也能通过细胞膜上的通道来感知周遭的化学环境,而绝大部分也能利用鞭毛四处移动,就此作出反应,寻求更好的环境。
这就是开端,一种原始形式的知觉,在35亿年前出现。尽管我个人在此更倾向于不可知论立场,但在这些细胞中完全有可能存在意识的毫末。
下一步就是更大更复杂的单细胞机体的组成,也就是20亿年前出现的真核生物。现在的假说是它们起源于一个吞噬了细菌的古菌,细菌通过不断折叠细胞膜,变成了新机体中的线粒体,极大扩充了整个细胞的ATP工厂,也就是能量来源。这个细胞的感知和移动能力得到了极大的提高,但我所知的改变并没有使它变得更有意识。
然而在此之后,大约在6.5亿年前,多细胞生物出现了。它们体积更大,当然需要远超于此前的相互协调、感知与自主运动方式。人们相信第一个神经系统与此几乎同时产生,以协调这个复杂的机体。这些生物是软体生物,没有留下化石,但现代的水母和海绵可能跟它相似。海绵没有神经系统,但水母(还有栉水母)的确有神经系统,也是目前拥有神经系统的最简单的生物。人们对当时环境的描述是覆盖浅海的一张细菌巨毯,而类似水母的生物以之为食。谁认为这样的世界里有意识?
捕食行为出现之后,整个世界对我们来说变得更熟悉了,大动物吃小动物,而所有动物都长出了外壳来保护自身,这都发生在5.4到4.85亿年前的寒武纪。
现在我们发现了最早的拥有脊髓的脊椎动物。但我们也能找到最早的拥有外骨骼的节肢动物,还有最早的头足类,这些头足类是软体动物门的猎手,长有一圈触手,当时有着长锥型的贝壳(下图是之后在奥陶纪出现的头足类动物直角石的重建影像)。所有三个门类都拥有意识存在的严肃论据。
其中之一从能感受到疼痛的动物出发,然后论证对疼痛的感受就意味着意识。在某些实验中,人们证明了受伤的鱼会被吸引到溶有止痛剂的水域,即使鱼在此前出于别的原因会避开这片水域。另外,我们也可以测试动物在什么时候会尝试保护或者抚慰身体受伤的部位:某些螃蟹的确会这样做,而昆虫不会(参见戈弗雷-史密斯的著作第93-95页,以及其中注释里的参考文献)。不幸的是,这就说明活煮龙虾很有问题,这是所有新英格兰人(包括我)都会做的事情,真混账。
另一条路线就是镜子测试——如果动物镜子里的影像有不寻常的地方,它是否会触摸自己身体上对应的地方。惊人的是,有人报告某些蚂蚁能通过镜子测试,它们在镜子里看到身体上有一个蓝点的时候,会尝试挠那个地方来去掉蓝点(见下图,来自M。-C。CammaertsandR。Cammaerts,J。ofScience,v。5,2015,pp.521-532)。
在章鱼一类动物中,我们能发现大脑大小与行为都接近犬类的物种。戈弗雷-史密斯引用了公元二世纪罗马博物学家克劳狄乌斯·埃利亚努斯(ClaudiusAelianus)的话:“恶作剧与诡计明显是(章鱼的)特点。”的确,章鱼拥有高度智能,喜欢互动、与人或玩具玩游戏。它们能通过行为来认知辨别不同的人,即使这些人穿的潜水服完全相同。
除了戈弗雷-史密斯的书以外,大家也应该读读西·蒙哥马利(SyMontgomery)的畅销书《章鱼星人》(TheSoulofanOctopus:ASurprisingExplorationintotheWonderofConsciousness)。它们的大脑中神经元数目与狗相当,然而它们大脑的相当一部分处于触手之中,取代了调节复杂行动的小脑。这与人类不无相似,我们的大脑皮层扮演监督的角色,而让小脑和基底神经节掌管具体的移动细节和最简单的反应。
如果你读了这两本写章鱼的书,还是觉得章鱼并不像狗那样有内心活动、觉知与意识的话,那么我会很惊讶。这里最重要的一点是,脊椎动物的解剖结构并没有特殊之处,意识可以在完全不同的生物门类中出现,即使这些门类在寒武纪后就已分道扬镳。
我个人的见解是,上述内容也暗示了意识并非非黑即白,不是要么有意识要么没有。它应该以程度来衡量。人类在睡眠时或在许多药物对主观状态影响下的体验也符合这一点。举个例子,速眠安是一种麻醉剂,能使人达到有意识和无意识的中间状态。在大脑变大的过程中,我们的确获得了更好的记忆能力,但在果蝇之类的动物中也能发现某种程度的记忆。在额叶扩张的过程中,我们也开始作出越来越多的计划,预想未来并尝试操控它。但即使蚯蚓也会稍微预想未来:它“知道”往前推进的时候,头部感受到土壤的压力会更大,这并不是因为土壤在把它往回推,也就是说,它们预期着这样的回推(戈弗雷-史密斯的著作第83页)。
我个人的信念是,所有拥有神经系统的动物都有某种程度的意识。另一方面,如果不算托尔金(Tolkien)和他的树人的话,我觉得难以想象树有意识。我读到过,它们的根系会长得很靠近,就此能辨别邻居的生化状态(比如说旁边的树是否患上了某种疾病),但要说这是有意识的树之间在交谈,这也太浪漫主义了。
时间体验与意识
我想回到一开始的问题,就是AI能不能拥有意识。最后这一节的大部分内容会让许多读者不高兴:我需要再跨越一道界线,谈论一些通常不仅仅被分为哲学,同时也属于宗教或者灵性的内容。我不想成为“不可知论症末期”。
从人类社会出现开始,宗教就是它的特点之一。直到二十世纪,除了偶然出现的无神论社会,宗教向来是人们生活的轴心。之后,现代医学的崛起使医生取代了牧师,成为疾病来袭时人们的首选,同时,正如我之前所说,现代的知识分子开始对宗教视而不见。然而,对于像理查德·道金斯(RichardDawkins)这样的疯狂无神论者,他们不尊重宗教的整个历史与生活于其中的人们,我也无法尊敬他们。
我想先重复在之前一篇博文《让神秘归于神秘》(LettheMysteryBe)中提到的观点:知觉是感知外界并根据这些感知作出回应的能力,尽管它跟对应的大脑活动一道,通常被认为是意识的根本特性,但我不相信这种说法。我相信入定高僧可以将自我置于某种状态,其中心智中的思考被清理干净,然后能感知到纯粹独一的意识,摆脱其他人在醒觉时心智中充满的那种喋喋不休。接受这一点的话,意识就必须是某种比我们能汇报的一组特定的想法要更微妙的东西,而有关意识的科学实验强依赖于这些能汇报的想法(例如德阿纳(Dehaene)的研究)。
我不能说我有过这种体验,虽然我尝试过,但对我来说这说得通,因为开始走上冥想这条路时,我曾在一段时间获得某种心灵的平静祥和。取而代之的是,我在这里提出对时间流动的感知才是意识的真正内核,这与埃克哈特·托勒(EckhartTolle)的《当下的力量》(ThePowerofNow)在某种意义上一脉相承。它的基础想法就是,我们每个人都拥有对瞬息万变的当下的连贯体验,但物理学和生物学都无法对它进行解释。这种体验与知觉在本质上截然不同,而且比它更基本,这就是让我们拥有意识的东西。
为了支撑这个想法,我想引用两位最著名的物理学家的话。首先,牛顿(Newton)在《自然哲学的数学原理》(MathematicalPrinciplesofNaturePhilosophy)中写道:
绝对的、真实的、数学上的时间,遵循自身性质自行均匀流动,与任何外界事物无关。
OK,这的确很好地描述了像我们这样的凡人感受到的拥有当下的时间。我们都在一条河流里漂流——没有船桨——而河水带我们走上了一条无可改动的路径。但现在爱因斯坦完全改变了这种世界观,他引入了统一的时空,其中每一点都是在特定位置于特定时刻发生的事件。他断定在物理学上没有自然的方法来划分时间和空间,当两个时间发生在不同的地方时,没有办法确定它们同时发生,也不能说两个事件发生在同一个地方的不同时间。所以,在物理学中没有任何东西能对应牛顿的时间。
然而爱因斯坦完全认识到人们体验到的就是牛顿描述的时间,他怀疑这种时间,还有“现在”这个概念,在物理学中是否能获得一席之地。虽然他从未就此写过文章,但他与鲁道夫·卡纳普(RudolfCarnap)讨论过这个问题,提出了他的观点。(感谢史蒂文·温斯坦(StevenWeinstein)告诉我有过这个讨论。)卡纳普是这样描述这场讨论的:
爱因斯坦说“现在”的问题(theproblemoftheNow)严重困扰着他。他跟我解释道:“现在”的体验对人来说很特殊,跟过去和未来都截然不同,但这个重要的区分在物理学中不会也不可能出现。这种体验不能被科学所掌握,对他来说这是一种痛苦但不可避免的放弃。他怀疑“现在”有某种本质上的东西处于科学领域之外。
对对对,这就是我想说的!从爱因斯坦那里听到这个真是美妙。
这会将我们在最后这一节的讨论引向何方?我不想说知觉与意识毫无瓜葛。我认为两者高度相关,而佛教僧人所做的是一种心灵体操。我想列出我辩护过的一些意识的性质,这些性质某种程度上描绘了意识的轮廓:
1)意识是在出生时降临在许多生物上的一种现实,在生物死亡时就会离开,它创造了一种沿着时空中的一条路径从过去“移动”到未来的感觉,还有感觉、情绪和身体运动。
2)意识有程度之分,从真真切切(比如爱之类的积极感受和痛之类的消极感受)到觉知边缘。此外,大脑除了有意识的部分,也有无意识的部分,它的活动甚至思考都无法到达意识表面。
3)许多生物都有意识,比如章鱼,还有人类。
4)意识赋予了我们拥有自由意志这一信念,也就是相信我们能作出选择改变世界的这种想法。这与量子力学有关。
5)意识无法被科学描述,它是处于另一位面的现实。
第一点和第五点可以从上面关于爱因斯坦的引文得出,而第二点和第三点来自之前章节(还有德阿纳的著作《意识与脑——破解脑如何编码我们思想的奥秘》(ConsciousnessandtheBrain:DecipheringHowtheBrainCodesOurThoughts))的思想。第四点是我在之前博文中讨论过的主要议题之一,我希望以后会写到(可以参见斯塔普(Stapp)的著作《心智的宇宙》(MindfulUniverse))。
我觉得可以说宗教一致信奉第一点和第五点,并且认为意识,至少是人类意识,是某种灵性赋予的结果,使我们的躯体获得生机并活跃起来,就像米开朗基罗描绘的这样:
我自己的版本是这样的:意识来自“灵性与物质堕入爱河”。为什么是爱?这是一个比喻,表达了意识与相关的生命意志的强度,它们似乎普遍存在于动物中。“爱”只是一种拟人的说法,表达了灵性与物质建立了一条如此紧密的纽带,使得死亡如此痛苦。重点是,如果你承认对时间的体验不能用科学解释,但却以确定而非随机的方式发生,那么这种体验必须来自某个地方。所以在这里,奥卡姆剃刀指引我们最简单的路径就是利用所有宗教都提出的那个词,把它叫做灵性。这是种简洁的做法,并不基于任何个人获得的启示。
所以这篇博文标题里的问题就变成了:什么能够让机器人变得让灵性愿意使之获得生机?可能除了泛神论者以外,没有人会认为石头有觉知。我在这篇博文写的所有东西都指出,要想达到这一点,机器人最好有某种真实的情绪,无论方式是什么。这可是个挑战,阿门。
《返朴》,致力好科普。国际著名物理学家文小刚与生物学家颜宁联袂担任总编,与几十位学者组成的编委会一起,与你共同求索。关注《返朴》(微信号:fanpu2019)参与更多讨论。二次转载或合作请联系fanpu2019@outlook.com。
人工智能的“意识”
在人工智能飞速发展的条件下,如何认识物质与意识的关系。
37月8日,2021年WAIC世界人工智能大会正式开幕。会上百度创始人,董事长兼首席执行官李彦宏提出一个核心的观点就是:AI无疑将会影响未来四十年人类发展的进程。诚然,在当今这个科技飞速发展的时代,人工智能逐渐走入人们的生活,从扫地机器人,到智慧保姆,再到无人驾驶技术,和目前还在研究中的类脑科学,在人工智能给我们带来了更多便捷的同时,我们不禁会思考,人工智能在未来是否会取代人类,或者说,我们如何去理解这种物质和意识之间的关系。对于上述思考,李彦宏的观点是:“人工智能存在的价值就是帮助人,教人学习,让人成长,而不是超越和替代人。技术只有服务于人,服务与社会,产生更多的正向价值和贡献,才真正的有意义。”人类致力于创造一种服务于我们的物种,但不允许他们产生文明。毕竟这对于人类是一场灾难。因此基于这种担忧,一部分人还是想让人工智能产生意识,而不是机械性模仿。让他们拥有能够传导的神经系统,感受疼痛和愉悦。但是对于让他们产生自己的大脑,代码和规律性学习只是一小步,突破在于物质与意识的分离亦或是神学和科学的融合,这也是AI给未来带来的更多挑战。对于人工智能来说,何为意识?要探究这个问题,要先理解人类的意识是什么。意识,不是人类独有的生命能态。是生命感知环境、适应环境、保护自己、完善自己的能力。生命为何能产生意识,究其原因是因为神经中枢大脑。人类拥有地球上最高级的大脑,它让我们引以为傲,我们因为大脑而能完成一系列的意识行为,我们用自己的思维主宰了地球。现在人类想用自己的智慧创造一种新的“物种”服务于我们,但又担忧他们又是否会创造新的文明。可是,人类的智慧和意识怎会如此轻易就复制?我们拥有的智慧是远复杂于0和1编程的AI的。对于人工智能,其真正“智能”的奥秘就在于背后的一串串的操控代码。这些代码就是让机器能够仿照人类的思维模式完成一定工作的关键钥匙所在。因为其机械的特殊属性,人工智能的的确确能够模拟人脑的思维完成一些人类无法做到的事情,可这是否意味着人工智能已经超越了人类的思维产生意识?答案显然是否定的。从本质上说,如果人工智能产生意识,那必然会出现自主行为,产生情感,而非受控于人类赋予它的代码。可以说,人工智能目前还只是人类思维的一种模仿,还不是真正的意识。只能说目前人工智能的发展还处在“智能”阶段,只是机器的模仿学习,而非意识阶段。比如一个写古诗的机器人,能够根据输入的名字“即兴赋诗一首”,那这样可以说它真正理解古诗词的含义了吗?他只不过是根据他其中的代码和巨大的数据库在机械的执行功能罢了。这叫做智能而非意识。当今很热门的机器自主学习,就是想让人工智能产生复杂神经结构,让其拥有自主学习的能力,但我们不能说这是让机器产生意识。因为他们依然不具有产生主观情感和动机的条件。想让机器做到举一反三,就得为其搭建神经网络。人类的神经系统通过无数神经细胞神经递质传导信号控制人体做出反应,如何让机器也拥有一套类似的复杂结构产生神经网络,这已不在我们的讨论范畴,但如果要实现这样的目标,还需要更长的时间和更多的努力。可能在未来的某一天,人工智能真的能够实现对人类大脑的深度模仿,但让人工智能产生真正属于他们自己的意识,难度可见一斑。在哲学层面,人类之所以能够主宰地球,就是因为我们拥有更强的思维和智慧。人类领先的关键就在于思维和意识,“我思故我在”。人类是具有独立思维和强大创造力的。人类的行为动机完全取决于需求和价值观。需求只是最低等的饿了就去吃饭,渴了就去喝水,感到疲惫了就休息。而价值观则是道德层面上的约束。就比如我们会觉得做某些事是不合适的,做某些事是应该而且必要的,这都是道德动机潜移默化的影响。但机器不会明白什么是价值观,更不会有一把衡量的标尺。机器的行为动机就来源于人类创造它时给他赋予的功能。如果人类能够赋予机器这样的意识,让机器自我约束,人工智能也许就不会超越人类的意识而创造新的文明。当然这只是一种浅显的猜想。回到我们要讨论的问题上来说,现阶段科学家们把类脑智能作为人工智能发展的终极目标,目的不是让人工智能产生高于人类的自主意识甚至反作用于物质,其目标是使机器以类脑的方式实现各种人类具有的认知能力及其协同机制,最终达到或超越人类智能水平。科学家们想通过对人脑的探索,模拟出一个和人类一样具有思考能力和学习能力的机器人,这样它就能完成更多更强大的功能。我们想象可以赋予机器人的意识,让他们产生情感,但我们的目的是只让他们拥有学习的能力,利用其机器的特性帮助人类完成一些人脑难以完成的工作。就像一开始说的那样,如果我们无法控制好赋予人工智能的意识,人类也无法判断这些机器会如何发展,这无疑是一场灾难。因此人工智能不能成为人类智能取代人类的意识,他只是人类创造出来的“工具”而已。不可否认,人工智能一旦拥有意识,就算其功能再简单,也是人类的一大威胁。人类自然不会让这种情况发生。因为对人类来说,让人工智能拥有意识没有绝对的必要,因为我们创造他们的初衷就是“工具”,因此只要让他们完成我们需要的强大功能就可以了。作为创造者的人类,不会想创造一个累了就罢工的机器来服务于我们,因此让人工智能真正拥有意识,只需要存在于科幻小说和科幻电影里就好。部分内容参考以下文章作文纸条——HiddenSink——传导产生的https://www.zhihu.com/question/372639666/answer/1343242547https://hackernoon.com/ai-and-the-consciousness-gap-tr9f3ydz
浅析人工智能和意识计算机是否能像人类一样学习感觉
你是那种会思考、会意志、会思考、会相信、会理解的生物。你是那种把自己投射到未来,然后追求目标的生物。
我也假设你现在的经历和我的差不多。我相信,简而言之,你是清醒的。
但是,这到底意味着什么——只是什么是意识?
仅仅是上面列出的认知和情感能力吗?即使我有信心我是有意识的,我为什么要相信你们是吗?我为什么要相信任何事其他是有意识的?
据计算机科学家布雷克·莱莫因称,有一款谷歌聊天机器人觉得–简而言之,它是有意识的。
这种被称为对话应用程序的语言模型的人工智能界面被认为像八岁儿童一样情绪复杂或有能力,并且足够聪明,知道物理。
我知道我是,但你是什么?
“我思故我在”勒内·笛卡尔他的理由论方法。按照笛卡尔的说法,“我”从根本上说是自我意识。否认我的存在需要我的存在——特别是作为一个思考的东西。
因此,正如笛卡尔在另一部作品,“这个命题,我在,我存在,无论何时由我提出或在我头脑中构想,都必然是真的。”
对笛卡尔来说,成为“我”就是成为一个头脑,一个非物质的东西——一个灵魂——它的本质是思想。
换句话说,做我自己就是做一个思考物;我的身体完全是另外一种东西。更具体地说,思维总是第一人称单数。我所有的想法都是…我的.我的记忆,我的感到困惑或高兴。
我的看到字母和单词出现在笔记本电脑屏幕上I类型——“我”属于意识是什么。笛卡尔认为,和我们大多数人一样,人工智能没有“我”。
事实上,笛卡尔总结道非人类动物仅仅是机器人–不会思考的机器,与计算机没有本质区别。
例如,如果你曾经在人工智能上吐过一堆脏话和不法的话,你很快就会得出结论,这个彬彬有礼的人工智能没有自我意识。
当你咆哮和愤怒时,人工智能不会表现出愤怒或表现出生气,不会为你的感激感到骄傲,也不会因为一个笑话而傻笑。
事实是,人工智能不能参与——人工智能不能在乎关于你我所说的。
相反,人工智能被编程为筛选大量文本并识别模式,以预测适当的反应。
我的狗埃迪怎么样了?他似乎也没有感到被冒犯或愤怒。这意味着他不是吗自己有意识?大概吧。尽管如此,笛卡尔认为像埃迪这样的生物是没有意识的机器是错误的总共。
的确,我们许多人认为非人类的动物有不同程度的意识,哲学家托马斯·内格尔被描述为“经验的主观特征”思考拥有意味着什么经验打开了另一种方式来探讨人工智能是否会以你我有意识的方式存在。
机器中的幽灵:身心二元论存在吗?
假设我们得出结论,笛卡尔关于心灵的观点也是错误的。假设没有二各种各样的东西在宇宙中,没有非物质的头脑和物质身体。仅仅材料事物是存在的。
人和机器都是物质的东西。区别在于,人类拥有机器没有的特定特征或属性。所以,即使我们不是精神和身体的复合物,也没有机器中的幽灵–人类拥有机器所不具备的思考能力。
笛卡尔的二元论实际上可能会分散我们对非人类是否有意识的调查。换句话说,通过将现实一分为二——非物质的和物质的——笛卡尔消除了有意识计算机的理论可能性。
另一方面,如果我们假设没有非物质的或先验的现实,我们就只剩下物质的东西,至少其中一些是有意识的。还有哪些有意识的,物质的东西?(当然除了艾迪)
图灵测试将人类与“机器人”区分开来
记住,根据谷歌计算机科学家布雷克·莱莫因的说法,至少有一个人工智能是有意识的。他们的脑袋里是否有一个肉做的大脑并不新的。
或者他们有十亿行代码。我和他们交谈。我听到他们要说什么,这就是我如何决定什么是人,什么不是人。”那是什么意思?
20世纪国外数学家艾伦·图灵提出了一个思想实验来确定答案。在”模仿游戏一个人试图确定另外两个参与者中哪个是计算机,哪个是人。
一个参与者通过写一些问题来玩这个游戏,比如“你会下棋吗?“另一个人类的作用是帮助提问者做出正确的决定,而计算机的作用是愚弄提问者,使其误认为是人类。
《模仿游戏》是一部2014年的传记电影,由本尼迪克特·康伯巴奇饰演艾伦·图灵。它是根据安德鲁·霍奇斯1983年的传记改编的。
1950年首次提出的图灵测试成为试图回答“机器能思考吗?”这个问题的标准在某种意义上,鉴于人类创造了机器,答案显然是肯定的。
毕竟,机器——或者至少是运行在机器上的程序——是用来计算、计算和推断的。
这些是思维活动,但它们是否反映了认知能力则是另一回事。不清楚运行计算机程序是否等同于你我所拥有的那种智力。
这样的程序甚至达不到当我们简单地导航我们的世界而不反思它时所表现出的低意识阈值,就像我们在自动驾驶仪上摇摇晃晃地制作早晨咖啡时所做的那样。
为了帮助我们思考这里发生了什么,考虑以下问题:你是否有过试图理解你所看到或听到的东西的令人不安的经历——这些东西,无论多么短暂,都会让你困惑。
所以你不知道发生了什么?你看到远处有一个物体。它看起来像只猫,但行动起来不像。你很困惑,直到你意识到你看到了一只浣熊。
那一刻揭示了你的认知结构有助于创造你称之为经验的东西。你的困惑说明了你认为理所当然的日常现实实际上是结果我们没有(或不能)注意到的相当复杂的过程。
我们只是做我们该做的,通常相信经验来敬我们完成或者完好无损。事实上,我们可以退一步思考猫狸故障在认知方面教给我们什么,这让我们对经验本身产生了有趣的思考。
石头不会经历任何事,但艾迪会。你和我都知道。“体验”意味着某种东西是它喜欢的为我去是我,即使当我在自动驾驶仪上煮早餐咖啡的时候。
据我们所知,有没有任何东西这就像为一个人工智能是一种人工智能。换句话说,计算机不会经历任何事情——还记得人工智能对你假设的诽谤的冷静回应吗?那是因为人工智能没有有观点.
“中文教室”把信息和理解分开了
假设你是在一个房间里带着一盒标准的中文符号和一本英文的规则书。你不懂中文,但没联系。你的工作是按照英文书写的规则将一组中文符号与另一组符号匹配。
根据哲学家的说法,你在做什么约翰·塞尔仅仅是操纵符号或处理信息。这正是图灵计算机所做的。你们不懂中文,图灵的电脑也不懂明白;理解它所赋予的符号。
它只是以逐步的方式处理信息。然而,对于知道我们符号的人来说,这是有意义的相貌好像你懂中文似的!
正如塞尔所说,计算机根本没有“湿件”——它们没有我们所知的意识认知能力。如果我们相信意识是神经生物学的东西(不是什么东西另外物质的东西)。
我们知道机器不是生物,那么机器是没有意识的。缺乏必要的物质元素,计算机无法进化出意识。
当然,人工智能可以像人类一样执行一些任务。这并不奇怪,因为我们人类制造了机器,这些机器的架构支持一些与人类自然相同的功能和模式。
此外,我们以利用蛮力计算速度和能力的方式来构造它们。例如,人工智能可以比人类更快、更准确地计数和做算术。
然而,这并不等同于谅解就像你和我因为一个笑话而大笑一样。那么,在“机器学习”中使用“学习”这样的语言,在“神经网络”中使用“神经”这样的语言,就像计算机科学家在谈论人工智能时所做的那样,这是一种误导。
狮子、老虎和熊?哦,不!这是哲学僵尸
你我之间、与非人类动物之间——以及与计算机之间,有许多行为是相同的。这些行为完全可以用物理机制和状态来解释。
例如,考虑这样一个事实,即我们可以解释电脉冲是如何在生物有机体或计算机的机器中起作用的。或者思考疼痛只是一组神经纤维放电的事实。
接下来,让我们把任何模仿人类的机械行为归类为行尸走肉一个显然能做你我所做的一切的东西,除了它是在没有意识的情况下做的。
它可以谈论经历,创作诗歌,甚至在被挠痒痒时大笑。简而言之,一个僵尸拥有你我所有的大脑状态和功能,但它缺乏意识。
但如果那是真的,那么(人类)意识就是不与大脑状态和功能相同。那么,对于意识只不过是大脑状态或功能的说法,我们该怎么办呢?
作为哲学家大卫·查尔莫斯就像他说的,“没有什么像僵尸一样。”同样,从这个角度来看,作为一台计算机没有什么是一样的。
总结:
看,如果一些计算机是有意识的,或者有能力像我一样有意识,或者甚至像我确信我的狗一样有意识,那么这三者肯定有一个共同的特征。
如果计算机没有意识,也不能被制造出来(或者我们不希望它们有意识),那么,作为哲学家丹尼尔·丹尼特告诉我们,人工智能是“有能力但没有理解力。
对于丹尼特和其他人然而,我们是否应该追求创造有意识的人工智能。我们想要一个艾萨克·阿西莫夫的机器人三定律接受考验。
返回搜狐,查看更多