人工智能可能有自主意识了吗
➤大模型、大数据的驱动让人工智能在对话的自然度、趣味性上有了很大突破,但距离具备自主意识还很远。换言之,即便人工智能可以对人类的语言、表情所传递的情绪作出判断,但这主要应用的是自然语言处理、计算机视觉等技术
➤不同于当前依赖数据学习的技术路线,新一代人工智能强调在没有经过数据学习的情况下,可以通过推理作出合理反应,从而与没有见过、没有学过的事物展开交互
➤当前人工智能治理面临的最大挑战,是我们没有一套比较成熟的体系来规制其潜在的风险。在发展科技的同时,必须同步发展我们的规制体系
➤“技术归根结底是由人类来发展和把控的。人类和人工智能的未来,是由人类选择的。”
今年6月,美国谷歌公司软件工程师布莱克·勒莫因称语言模型LaMDA出现自我意识。他认为,LaMDA拥有七八岁孩童的智力,并相信LaMDA正在争取自己作为一个人的权利。
LaMDA是谷歌去年发布的一款专门用于对话的语言模型,主要功能是可以与人类交谈。
为佐证观点,勒莫因把自己和LaMDA的聊天记录上传至互联网。随后,谷歌以违反保密协议为由对其停职。谷歌表示,没有任何证据支持勒莫因的观点。
事实上,“AI(人工智能)是否拥有自主意识”一直争议不休。此次谷歌工程师和LaMDA的故事,再次引发讨论。人们想知道:人工智能技术究竟发展到了怎样的阶段?是否真的具备自主意识?其判定依据是什么?未来我们又该以怎样的能力和心态与人工智能和谐共处?
人工智能自主意识之辨勒莫因认为LaMDA具有意识的原因有三:一是LaMDA以前所未有的方式高效、创造性地使用语言;二是它以与人类相似的方式分享感觉;三是它会表达内省和想象,既会担忧未来,也会追忆过去。
受访专家告诉《瞭望》新闻周刊记者,上述现象仅仅是因为LaMDA所基于的Transformer架构能够联系上下文,进行高精度的人类对话模拟,故能应对人类开放、发散的交谈。
至于人工智能是否已经具备自主意识,判定标准如何,受访专家表示,对人类意识的探索目前仍属于科技前沿,尚未形成统一定义。
清华大学北京信息科学与技术国家研究中心助理研究员郭雨晨说:“我们说人有自主意识,是因为人知道自己在干什么。机器则不一样,你对它输入内容,它只是依照程序设定进行反馈。”
中国社会科学院科学技术哲学研究室主任段伟文认为,一般意义上,人的自我意识是指对自我具备觉知,但如何认识和理解人类意识更多还是一个哲学问题而不是科学问题,这也是很难明确定义人工智能是否具备意识的原因。
被誉为“计算机科学与人工智能之父”的艾伦·图灵,早在1950年就曾提出图灵测试——如果一台机器能够与人类展开对话而不能被辨别出其机器身份,那么可以称这台机器具有智能。
这一设想随后被具化为,如果有超过30%参与测试的人以为自己在和人说话而非计算机,就可以认为“机器会思考”。
当前随着技术的发展,已经有越来越多的机器能够通过图灵测试。
但清华大学人工智能国际治理研究院副院长梁正告诉《瞭望》新闻周刊记者,图灵测试只能证明机器在表象上可以做到让人无法分辨它与人类的不同,却不能证明机器能够思考,更不能证明机器具备自主意识。
段伟文表示,目前大体有两种方式判定人工智能是否具有自主意识,一种以人类意识为参照,另一种则试图对机器意识进行全新定义。
若以人类意识为参照,要观察机器能否像人一样整合信息。“比如你在阳光下,坐在河边的椅子上看书,有树影落在脸上,有风吹来,它们会带给你一种整体的愉悦感。而对机器来说,阳光、河流、椅子等,是分散的单一元素。”段伟文说。
不仅如此,段伟文说,还要观察机器能否像人一样将单一事件放在全局中思考,作出符合全局利益的决策。
若跳出人类构建自主意识的范式,对机器意识进行重新定义,则需要明白意识的本质是什么。
段伟文告诉记者,有理论认为如果机器与机器之间形成了灵活、独立的交互,则可以称机器具备意识。也有理论认为,可以不追究机器的内心,仅仅把机器当作行为体,从机器的行为表现判断它是否理解所做事情的意义。“比如机器人看到人类喝咖啡后很精神,下次当它观察到人类的疲惫,能不能想到要为人类煮一杯咖啡?”段伟文说。
但在段伟文看来,这些对机器意识进行重新定义的理论,其问题出在,即便能够证明机器可以交互对话、深度理解,但是否等同于具备自主意识尚未有定论。“以LaMDA为例,虽然能够生成在人类看来更具意义的对话,甚至人可以与机器在对话中产生共情,但其本质仍然是在数据采集、配对、筛选机制下形成的反馈,并不代表模型能够理解对话的意义。”
换言之,即便人工智能可以对人类的语言、表情所传递的情绪作出判断,但这主要应用的是自然语言处理、计算机视觉等技术。
郭雨晨直言,尽管在情感计算方面,通过深度学习的推动已经发展得比较好,但如果就此说人工智能具备意识还有些一厢情愿。“把‘意识’这个词换成‘功能’,我会觉得更加准确。”
技术换道有专家提出,若要机器能思考,先要解决人工智能发展的换道问题。
据了解,目前基于深度学习、由数据驱动的人工智能在技术上已经触及天花板。一个突出例证是,阿尔法围棋(AlphaGo)在击败人类围棋世界冠军后,虽然财力和算力不断投入,但深度学习的回报率却没有相应增长。
一般认为,人工智能可被分为弱人工智能、通用人工智能和超级人工智能。弱人工智能也被称为狭义人工智能,专攻某一领域;通用人工智能也叫强人工智能,主要目标是制造出一台像人类一样拥有全面智能的计算机;超级人工智能类似于科幻作品中拥有超能力的智能机器人。
从产业发展角度看,人工智能在弱人工智能阶段停留了相当长时间,正在向通用人工智能阶段迈进。受访专家表示,目前尚未有成功创建通用人工智能的成熟案例,而具备自主意识,至少需要发展到通用人工智能阶段。
梁正说,大模型、大数据的驱动让人工智能在对话的自然度、趣味性上有了很大突破,但距离具备自主意识还很远。“如果你给这类语言模型喂养大量关于内省、想象等与意识有关的数据,它便更容易反馈与意识有关的回应。”
不仅如此,现阶段的人工智能在一个复杂、专门的领域可以做到极致,却很难完成一件在人类看来非常简单的事情。“比如人工智能可以成为围棋高手,却不具备三岁小孩对陌生环境的感知能力。”段伟文说。
谈及背后原因,受访专家表示,第一是当前人工智能主要与符号世界进行交互,在对物理世界的感知与反应上发展缓慢。第二是数据学习让机器只能对见过的内容有合理反馈,无法处理陌生内容。第三是在数据驱动技术路线下,人们通过不断调整、优化参数来强化机器反馈的精准度,但这种调适终究有限。
郭雨晨说,人类在特定任务的学习过程中接触的数据量并不大,却可以很快学习新技能、完成新任务,这是目前基于数据驱动的人工智能所不具备的能力。
梁正强调,不同于当前主要依赖大规模数据训练的技术路线,新一代人工智能强调在没有经过数据训练的情况下,可以通过推理作出合理反应,从而与没有见过、没有学过的事物展开交互。
相比人类意识的自由开放,以往人工智能更多处在封闭空间。尽管这个空间可能足够大,但若超出设定范畴便无法处理。而人类如果按照规则不能解决问题,就会修改规则,甚至发明新规则。
这意味着,如果人工智能能够超越现有学习模式,拥有对自身意识系统进行反思的能力,就会理解自身系统的基本性质,就有可能改造自身的意识系统,创造新规则,从而成为自己的主人。
“人工智能觉醒”背后有关“人工智能觉醒”的讨论已不鲜见,但谷歌迅速否认的态度耐人寻味。
梁正表示:“如果不迅速驳斥指认,会给谷歌带来合规性方面的麻烦。”
据了解,关于人工智能是否有自主意识的争论并非单纯技术领域的学术探讨,而关乎企业合规性的基本坚守。一旦认定公司研发的人工智能系统出现自主意识,很可能会被认为违反第2版《人工智能设计的伦理准则》白皮书的相关规范。
这一由美国电气和电子工程师协会2017年发布的规范明确:“根据某些理论,当系统接近并超过通用人工智能时,无法预料的或无意的系统行为将变得越来越危险且难以纠正。并不是所有通用人工智能级别的系统都能够与人类利益保持一致,因此,当这些系统的能力越来越强大时,应当谨慎并确定不同系统的运行机制。”
梁正认为,为避免社会舆论可能的过度负面解读,担心大家认为它培育出了英国作家玛丽·雪莱笔下的弗兰肯斯坦式的科技怪物,以“不作恶”为企业口号的谷歌自然会予以否认。“不仅如此,尽管这一原则对企业没有强制约束力,但若被认为突破了底线,并对个体和社会造成实质性伤害,很有可能面临高额的惩罚性赔偿,因此企业在合规性方面会更为谨慎。”
我国也有类似管理规范。2019年,国家新一代人工智能治理专业委员会发布《新一代人工智能治理原则——发展负责任的人工智能》,提出人工智能治理的框架和行动指南。其中,“敏捷治理”原则主要针对技术可能带来的新社会风险展开治理,强调治理的适应性与灵活性。
中国信息化百人会成员、清华大学教授薛澜在接受媒体采访时表示,当前人工智能治理面临的最大挑战,是我们没有一套比较成熟的体系来规制其潜在的风险。特别是在第四次工业革命背景下,我国的人工智能技术和其他国家一样都处于发展期,没有现成的规制体系,这样就使得我们在发展科技的同时,必须同步发展我们的规制体系。“这可能是人工智能发展面临最大的挑战。”
在梁正看来,目前很难断言新兴人工智能技术具有绝对风险,但必须构造合理的熔断、叫停机制。在治理中既要具有一定的预见性,又不能扼杀创新的土壤,要在企业诉求和公共安全之间找到合适的平衡点。
毕竟,对人类来说,发展人工智能的目的不是把机器变成人,更不是把人变成机器,而是解决人类社会发展面临的问题。
从这个角度来说,我们需要的或许只是帮助人类而不是代替人类的人工智能。
为了人机友好的未来确保通用人工智能技术有益于人类福祉,一直是人工智能伦理构建的前沿。
薛澜认为,在科技领域,很多技术都像硬币的两面,在带来正面效应的同时也会存在风险,人工智能就是其中一个比较突出的领域。如何在促进技术创新和规制潜在风险之间寻求平衡,是科技伦理必须关注的问题。
梁正提出,有时技术的发展会超越人们预想的框架,在不自觉的情况下出现与人类利益不一致甚至相悖的情况。著名的“曲别针制造机”假说,即描述了通用人工智能在目标和技术都无害的情况下,对人类造成威胁的情景。
“曲别针制造机”假说给定一种技术模型,假设某个人工智能机器的终极目标是制造曲别针,尽管看上去这一目的对人类无害,但最终它却使用人类无法比拟的能力,把世界上所有资源都做成了曲别针,进而对人类社会产生不可逆的伤害。
因此有观点认为,创造出法力高超又杀不死的孙悟空本身就是一种不顾后果的冒险行为。
与其对立的观点则认为,目前这一担忧为时尚早。
“我们对到底什么样的技术路线能够发展出具备自主意识的人工智能尚无共识,现在谈论‘禁止发展’,有种空中楼阁的意味。”梁正说。
商汤科技智能产业研究院院长田丰告诉《瞭望》新闻周刊,现实中人工智能技术伦理风险治理的关键,是产业能够在“预判防范-应用场景-用户反馈-产品改进”中形成市场反馈机制,促成伦理风险识别与敏捷治理。同时,企业内部也需建立完整的科技伦理自律机制,通过伦理委员会、伦理风控流程平台将伦理风险把控落实到产品全生命周期中。
郭雨晨说,人工智能技术发展到目前,仍始终处于人类可控状态,而科技发展的过程本来就伴随对衍生问题的预判、发现和解决。“在想象中的人工智能自主意识出现以前,人工智能技术脚踏实地的发展,已经造福人类社会很多年了。”
在梁正看来,人与人工智能在未来会是一种合作关系,各自具备对方无法达成的能力。“技术归根结底是由人类来发展和把控的。人类和人工智能的未来,是由人类选择的。”
编辑:李华山
2022年08月16日07:42:05
刘嘉:人工智能会超越人脑吗
人工智能加速发展,有一天会超越人脑吗?近日,清华大学基础科学讲席教授、心理学系主任刘嘉在“人文清华讲坛”上发表了演讲《脑与人工智能:站在进化的节点上》。他指出,虽然目前人工智能无法与人脑相比,但它发展迅猛,类人智能是人工智能的下一个发展目标。
目前,人工智能和人的智能仍有巨大差距,还没有达到类人智能。我坚信,通过脑科学加上人工智能,有一天一定能制造出一个数字人类大脑。——刘嘉
如何认识我们看见的世界(作者 本报记者)我们无时无刻不在观察着这个世界,但我们看到的未必是真实的世界。到底发生了什么?这取决于我们的视觉系统。
打个比方,前面有一个绿苹果,它会以大约100亿比特/秒的信息量进入我们的视网膜,视网膜通过约100万个神经元连接到视觉皮层,经过加工之后再传到高级皮层,来决定我们看到的东西到底是什么。在这个信息传输的过程中,信息量被衰减到1/1亿,而大脑就像魔术师一样会把这些缺失的信息补上。为什么有的人看见一个绿苹果,会认为那是一个红苹果呢?因为人的眼睛看见的过程,其实是一个大脑重构的过程,而不是简单的复制。
正如康德所言:“没有感觉支撑的知识是空的,没有知识引导的感觉是瞎的。”这句话的上半句说的是,如果我们没有外部的信息输入,我们很难构建自己的心理世界;下半句说的是,如果你不知道你看到的是什么东西,那你就什么也看不见。因为我们从外部世界得到的信息往往是模棱两可的,我们必须加上一点先验知识、加上一点推理、加上一点猜测,需要大脑去重构,把自己的理解加进去,才能真正知道这个世界究竟发生了什么。
与理解相比,更重要的是创造。当我们的大脑没有被外部信息填满,留下一定的空间时,我们就能在这空间里创造出自己想要创造的东西。正如《小王子》的作者圣·埃克苏佩里所言:“一堆岩石在有人对着它思考时就不再是岩石了,它将化身为大教堂。”这就是人类了不起的创造。
在过去的300万年里,人和猴子分开进化,人发生的最大改变不是从四肢着地变成直立行走,也不是褪掉了身上的毛,而是大脑的体积增加了3倍。而且,大脑不是平均增加体积的,体积增加最大的部分在额叶。与我们200万年前的祖先相比,我们的头骨更往前突出了,以容纳更大体积的额叶。
我们为什么要有更强大的额叶?因为它使我们能够构造和想象出不存在的东西。比如,我们的祖先准备去打猎,他不用等看见了猎物才去做出反应,他只需要提前想象狩猎的情景,就可以把一切都安排好。人可以在脑海里预想一遍未来将要发生的场景,构建出一个个可能的未来,这样就能够制定出行动方案,这是人类能够战胜其他比我们更强大、更凶猛的动物,成为万物之灵的关键。这也正好印证了荀子的一句话:“然则人之所以为人者,非特以二足而无毛也,以其有辨也。”“有辨”是指我们能够辨识、能够思考,而这些都来自额叶的功能。
重构心理世界的知识从何而来那么,我们心理世界的这些预设的知识究竟是从哪里来的?
一部分先验知识来自基因的烙印。我们来到这个世界并不是一张白纸,我们是带着32亿年进化的智慧来到这个世界的,而这些智慧就印刻在我们的基因之中。比如,我们将18位女教授和女博士后的脸进行叠加,做成一个“平均脸”,你会发现这张平均脸充满了睿智和文气。平均脸代表了什么?人脸其实就是我们的基因图谱,我们的基因都写在脸上。所以,当我们把脸叠加之后,我们得到的是18位知识女性平均的基因。平均的基因代表突变很少。基因一旦突变,大概率而言是有害的,所以基因突变越少,说明基因越好,所携带的遗传性疾病的概率就越低,这就是为什么人类会觉得平均脸更好看的原因。
我们的另一部分先验知识则来源于社会基因。人和动物的进化有本质区别,动物是按照基因、按照达尔文的进化论逐步向前发展的,而人既有生物基因的演化,这代表着我们的过去,同时更重要的是,人还有社会基因的进化,它带着我们以与动物不一样的方式前进。
社会基因和生物基因的作用方式非常类似。远古时,人类祖先中有一个人突然因为某种原因把火生起来了,这相当于知识、技能被创造出来,就像基因突变,一个优秀的基因产生了。渐渐地,生火这种技能被传播给了其他人,从一个部落传到其他部落,最终成了人类普遍拥有的技能。接着,人类又学会了制作长矛和其他工具,经过漫长的发展,逐渐构建成我们今天的人类社会。
人类的文明演进可以分成三个时期:第一是原始文明,经历了200多万年,前后变化并不大。第二是农业文明,经历了5000年左右。这期间,野兽被驯服变成了家畜,人类成了文明的种族,懂得了一些天文地理的知识。第三是工业文明,从诞生至今不过近300年的历史。然而,工业文明给人类带来了巨大的变化,以至于我们不得不将它分成四个阶段:第一个阶段是机械化时代(1760年—1840年),出现了蒸汽机等。第二个阶段是电气化时代(1840年—20世纪初),出现了电力等。第三个阶段是自动化时代(1950年—21世纪初)。第四个阶段就是我们现在所处的信息时代。
文明进程出现革命性的进化信息时代诞生了新的物种——人工智能。
2002年,我的博士论文答辩题目是《面孔识别的认知神经机制》。当时,即使是最先进的机器,用来识别人脸的正确率也很低。2015年,我参加了江苏卫视《最强大脑》的节目策划。我发现,经过十几年的发展,人工智能已经强大到在人脸识别上可以胜过人类的最强大脑。
随后,我们研究建立了一个人工神经网络,训练它去识别性别,即区别对象是男性还是女性。结果,它的正确率能达到100%。而且,它在完成任务的过程中会产生与人类相类似的心理操作,也就是说,人工智能会自发产生和人类一样的心理世界。
那一刻我开始意识到,生物过去的进化都是基于碳基的方式来运行的。但是,当人类创造出人工智能后,一个新的物种产生了,这个新的物种是基于硅基的方式运行的,而这种基于硅基的物种一定会给我们带来一种革命性的变化。以前人类文明的进化都是循序渐进的,当人工智能这个阶段来临时,文明进程可能会出现一个“奇点”,出现一种革命性的进化。
为什么这么说呢?我们来看人类和人工智能的三大区别。
第一是算力。人类的大脑已经进化到极限,而人工智能随着科技的进步,它的算力将不断精进。
第二是存储能力。人类的大脑大约是1.4千克,虽然只占了我们体重的2%—3%,但是消耗了我们身体25%以上的能量,它是一个耗能大户。但人工智能的存储能力是无限的,一块硬盘不够,可以再加一块硬盘。
第三是寿命。人类的寿命是有限的,而人工智能的寿命是无限的。CPU烧了,可以换块CPU,电线断了,再换根电线就行了。
除了无限的存储能力、算力和寿命,人工智能还有着无尽的可能性。
2016年,AlphaGo击败了人类围棋顶尖高手李世石。后来,很多中国围棋高手也和AlphaGo进行了切磋。当时世界上排名第一的围棋选手柯洁说:“我们人类下了2000年围棋,连门都没入。”围棋的空间极其庞大,AlphaGo之所以比人类更加强大,并不是它比人类更加聪明,而是因为它探索了更大的空间,找到了更多下法而已。
如今,不仅在律师、医生、税务师、咨询师等专业领域,在绘画、音乐等艺术领域,都出现了人工智能的身影。“神经网络之父”、深度学习的创始人杰弗里·辛顿在接受采访时说:“将来深度学习可以做任何事情。”
类人智能是人工智能的发展目标然而,人工智能真的无所不能吗?
心理学家发现,对于一个简单的场景,人和人工智能有完全不同的理解。比如,一个人不慎从柱子上摔落,人工智能会说一个人从柱子上掉下来了,而我们对这个场景的反应是“惊恐和疼痛”。
这个区别体现了人类有一种特别重要的能力,叫共情,即别人遭受了苦难,我能感同身受。如果一个孩子缺乏共情的能力,就会导致自闭行为。所以,人工智能的奠基人之一马文·李·明斯基说:“现在的问题不是一个智能的机器是否拥有情感,而是不拥有情感的机器是否能拥有智能。”在马文·李·明斯基看来,情感是智能的基础,得先有情感,才有智能。
目前,人工智能和人的智能仍有巨大差距,还没有达到类人智能。如何实现类人智能呢?我认为它的切入点是脑科学加上人工智能。
举个例子,线虫是一种非常简单的生物,只有302个神经元,麻省理工学院的研究者模仿了其中的19个神经元,就完成了自动驾驶的一般任务。其实这项研究模仿的并不只是这个简单的生物,而是32亿年进化形成的智慧。从这个角度来讲,人类的大脑目前仍是这个世界上最聪明的大脑,它有860亿个神经元,平均每个神经元有3000个连接,它代表着宇宙中生物智力的最高水平。那么,人工智能的发展为什么不能向人脑学习,以人脑为模板呢?
我的同事们模拟线虫的302个神经元,构建了一个数字线虫,来模仿线虫在水里的游动。这只是一个开始,下一步也许我们会模仿神经元数量达百万级的果蝇,再到更高量级的斑马鱼,甚至到小鼠、大鼠、猕猴,最后模仿人类的860亿个神经元。虽然还存在巨大的鸿沟,但是我坚信,通过脑科学加上人工智能,有一天一定能制造出一个数字人类大脑。
人工智能未来的三种可能莎士比亚说,“所谓过往,皆为序章”。今天,我们正站在一个进化的节点上。
从32亿年前,一个单细胞逐渐发展成水生动物,然后爬上岸边变成两栖动物,再变成哺乳动物,在约300万年前哺乳动物猿猴又开始进化成人类,这些都是我们的过往。然而,此时此刻,我们的未来是未定的。
人类发明出了人工智能,今天,随着算力的推进,随着技术的进步,人工智能有了超越人类的可能。
未来会怎样?大约有三种可能。第一种,人工智能像科幻电影《星球大战》里的R2-D2一样,是人类忠实的伙伴,成为人类非常好的朋友,帮助人类变得更加强大。第二种,我们构建出了一个数字大脑,它的能力比人类的大脑更强,这时候人机可以合二为一,把人的意识、记忆、情感上传到数字大脑中,人就能获得“永生”。未来学家库兹韦尔在《奇点来临》这本书中写道,大约在2045年,这一刻就会到来。第三种,就像电影《终结者》里所展示的,人类文明彻底消失,进入机器文明时代。
未来到底会怎么样,最终取决于今天我们站在这个时间节点上做了些什么。
物理学和心理学对于什么是值得做的事情有不同的定义。物理学更在意空间,在物理学看来,如果放在一个远远超出地球大小的空间尺度下来看,那些有意义的事情,才是值得做的事情。而心理学更关注的是时间,我们思考的问题是:人间的一切问题,如果放在一个远远超出人的寿命的时间尺度下来看,它们还有没有意义?
1905年,孙中山和严复在伦敦有过一次会面,他们当时讨论的议题是半殖民地半封建的中国究竟如何改变。严复提出要慢慢教化民众,要稳步向前。孙中山对于严复的方法不太认同,他说:“俟河之清,人寿几何?君为思想家,鄙人乃执行家也。”后来,孙中山回到国内,开启了轰轰烈烈的辛亥革命。
对于现在的我们来说,解决未来的问题,就要从现在做起,行胜于言,以有限的生命行超越生命之事,这就是我们这一代人的使命。
编辑:李华山
2022年11月28日07:03:32
人工智能为什么不能代替人类
■吴荻枫
人工智能没有意义的概念,没有价值观,终究只能是人的工具,而不可能超越人类。
近年来,人工智能技术发展极其迅速,各种智能设备、智能软件已走进千家万户,改变了我们的生活方式和工作方式。因此,不少人认为,在不久的将来,人工智能将会全面代替人类智能,甚至超越人类智能。不过,这种观点过于悲观,人类的思想和行为中最重要最独特的部分,是人工智能无法实现,更无法替代的。
人工智能不管多么发达,归根结底,都是在人类给定的框架下解决问题。比如,某人每天上下班,公司和家之间的距离有15公里。他可以选择的交通工具包括打的、公交车、地铁、自驾车、共享单车,以及这些工具的组合。如果他去问导航软件,导航软件可以根据他的要求以及实时路况,给出一个最优的出行方案。这在现实中往往是很有用的。然而,虽然有不少人会选择在工作地点附近买房或租房来解决通勤问题,导航软件却绝不会给出搬家的方案。因为导航软件的运行程序,或者说运行框架没有这种手段可供选择,但人却不会受既有框架的约束。
人工智能也不能主动确定需要解决的问题是什么。举一个非常简单的例子,如果我问智能应答软件:“帅帅在哪里,你看到帅帅了么?”它要么回答不知道,要么给出一个错误的答案。而我如果拿这个问题去问人,被问的人不管知识水平如何,第一个反应恐怕都是:“你说的帅帅是谁啊?”我就会告诉他,帅帅是我的小狗,是什么样子,有多大,有什么特点,等等。可见,人类首先能够主动确定要解决的问题是什么,也就是说确定目标。我举的这个例子非常简单,以后人工智能或许也能应对,但并不是软件学会了如何确定问题所在,而是设计人员扩充了或者改变了软件运行的程序或框架。
总之,如果人类确定了问题,确定了可用的手段或者信息,人工智能可以给出答案,乃至近乎完美的答案。但是,人工智能不会设计这种目的—手段的框架,也不会主动突破这种框架。
人是追求意义的智慧生物,因此有自己的价值观。人类赋予某些事物以意义或价值,才构成了目的—手段的逻辑关系。也就是说,人能知道自己要的是什么,怎样才算是达成了目的。而人工智能没有意义的概念,需要人类将具有意义的逻辑关系编码输入,人工智能才能按照这种关系工作,但它本身无从建立这种关系。
人以意义来理解世界,也以此与他人交流、合作。米塞斯曾举过一个例子,假如某人闯入了一个从未去过的原始部落。那些原始人未开化,没有语言,或者即使有语言他也听不懂。但是,如果他看到这些原始人架锅生火,他就会知道,他们是要做饭了。人类有相似的心智结构,即使语言不通,也可以相互理解。如果换成机器人呢?除非是科幻电影里那些由演员扮演的机器人,否则它只会搜索和输出代码,而不会真正试图去理解眼前所发生的事。
可见,人与人工智能最大的不同,就是人通过意义和价值与外部世界建立联系。这是人作为主体而不是客体的基础,也是人类合作和创新的基础。人工智能没有意义的概念,没有价值观,终究只能是人的工具,而不可能超越人类。
值得注意的是,我们可以看出,主流新古典经济学的理性经济人假设,正是将人当成了在既有目的—手段框架下寻求最优解的机器。这其实是省略了人的行为中最具有本质性和创新性的部分。理性经济人所构成的经济体,是静态的、机械的,被动的,充其量是人工智能的世界,而不是人类社会。
经济学是价值中立的科学,因此经济学不研究也没有足够的能力研究某个个人究竟应该确定什么具体的目标,运用什么具体的手段,但是,经济学应该将个人在目的—手段框架的行为模式纳入研究的范畴,否则就是舍本逐末,具有难以克服的缺陷。
(作者系西南民族大学讲师)
[责编:战钊]