为什么人工智能不会产生“意识”
拥有自我意识和情感的超级人工智能到底会不会出现?说实话,这个话题都烂大街了。科学家、科技大佬、各国政要们争论得头破血流,我们也不可能知道答案。
但我们想说的是,什么事都要讲逻辑。有没有一些理论或者猜想可以触发AI觉醒这个话题呢?有没有一些理论或者猜想,让我们不会云里雾里或者一腔热血地想象人工智能的未来?
巧合的是,确实有一些这样的理论,比如说著名的“中文房间悖论”。这个情景猜想在大部分情况下都被用来否定“图灵测试”。但它更深层的本意,其实是在阐释人工智能永远不可能像人类那样拥有自我意识。
什么是“中文房间悖论”
所谓的“中文房间实验”,是由美国哲学家约翰·希尔勒(JohnSearle)在1980年发表论文提出的一个思维试验。
这个思维实验是说,如果把一位只会说英语的人关在一个封闭的房间里,他只能靠墙上的一个小洞传递纸条来与外界交流,而外面传进来的纸条全部由中文写成。
这个人带着一本写有中文翻译程序的书,房间里还有足够的稿纸、铅笔和橱柜。那么利用中文翻译程序,这个人就可以把传进来的文字翻译成英文,再利用程序把自己的回复翻译成中文传出去。
在这样的情景里,外面的人会认为屋里的人完全通晓中文,但事实上这个人只会操作翻译工具,对中文一窍不通。
当然了,这是个思维实验,具体操作起来近乎不可能。但这个实验里蕴含的思想却在表达这样一个可能:机器所表现出的智能(理解中文),很可能只是翻译程序带来的假象,其实它对真正的人类智能一无所知。
这个实验本来是为了反驳图灵测试的,认为即使通过了图灵测试,机器也不见得有了智能。但或多或少有点牵强,始终也没有把图灵测试彻底反驳掉。但“中文房间悖论”却可能在技术发展之路上告诉了我们另一件事:我们所有的技术探索与研究,可能都是在完善那个中英文翻译程序,从来不是去教机器真的智能。
通用人工智能和强人工智能的界限
这里要来认识两个大家经常听到,但有可能混淆的概念——通用人工智能与强人工智能。
所谓通用人工智能(ArtificialGeneralIntelligence,AGI),是指在不特别编码知识与应用区域的情况下,应对多种甚至泛化问题的人工智能技术。这个技术虽然冷门并遥远,但其实也有不少学术机构与企业在做,一般被认为是人工智能技术的未来发展方向。
而强人工智能(StrongArtificialIntelligence)则是约翰·希尔勒在提出“中文房间实验”时设定的人工智能级别。这个等级的人工智能,不仅要具备人类的某些能力,还要有知觉、有自我意识,可以独立思考并解决问题。
虽然两个概念似乎都对应着人工智能解决问题的能力,但我们可以把前者想象为无所不能的计算机,后者则类似穿着钢铁侠战甲的人类。
“中文房间悖论”表达的思想,是人类研究的方向根本无法逼近强人工智能。即使能够满足人类各种需求的通用人工智能,也与自我意识觉醒的强人工智能之间不存在递进关系。
现实中的技术发展好像也确实是这样的。
在通用人工智能领域,人类已经提出了一些设想与架构模型。其中最著名的应该是澳大利亚国立大学学者马库斯赫特(MarcusHutter)在2000年提出的AIXI。这个计算模型据说可以涵盖各种算法与技术,逼近通用人工智能的本质……当然,这个算法的复杂程度奇高,根本无法执行,所以仅仅是个设想。
而OpenAI和DeepMind这样的企业在近两年则都开始了具体层面的AGI研究,其中DeepMind被认为是继承AIXI的先锋军。
从DeepMind进行的通用人工智能性质的研发与实验中,我们可以看到其“通用性”主要集中在四个层面:智能体应对复杂环境、陌生环境处理、时间变量应对、多个信息源同时处理任务。
而这些技术都指向同一个方向,就是智能体与外界的交互——也许可以理解为AI与这个世界的翻译程序吧?
换言之,人类所做的仅仅是给“那个人”更好的翻译程序,而非教他中文(当然也没法教)。所以通用智能这种已经很玄的东西,依旧与强人工智能保持着清晰的界限。
绝望的强AI:能力和意识,也许南辕北辙
让我们把“中文房间实验”极限化一点,把整个房间放在一个人的大脑里。
假如一个人记住了所有翻译程序,看到任何中文他都能调用回忆,能写出相应的回答,那么他是不是就懂中文了呢?对于人类来说,可能他自然而然就已经理解中文了。但对机器来说,即使这个过程速度再快、反应再灵敏,它也依旧没有理解任何一个汉字。
确切地说,这个人(智能体)获得的是使用中文的能力,但他(它)对中文没有意识。
能力与意识的区别,是我们在想象未来超级智能时最容易混淆的问题。但从现实的逻辑推理,就会发现这二者差别很大,而且近乎没有关联。
知识表示、机器学习、NLP等等人工智能技术,只是在不断强化人工智能模仿人类能力(这句话有点绕),但让人工智能模仿人类意识,直到现在依旧是一片空白。
没有因,自然无果。“中文房间理论”讲述的,就是按照人类遵循的技术轨迹,智能体崛起意识这个命题将永远缺乏基础条件。
如果这个结论成立,那么对于强人工智能来说可谓是非常绝望的。它们只能继续在时空的长河里沉睡。在人类的幻想中,一如远古的神祇,一如都市传说里的鬼怪。
想一想,还是觉得蛮无趣的咧。
思考人工智能是否应该具有自我意识
忘掉如今人工智能领域的小幅进步吧,比如汽车自动驾驶的能力越来越强。等待我们的可能是一项突破性的进展:一种能够感知自身及其周围环境的机器,它可以实时接收和处理大量数据。它可能会被安排执行危险的任务,比如被送进太空或参加战斗。除了开车,它还可以做饭、清洁、洗衣服——甚至当其他人不在身边时,陪伴在我们身旁。
理论上说,一系列十分先进的机器几乎可以取代所有的人类工作。这将使人类免于平凡的苦差事,但也会动摇许多社会基矗没有工作,只有玩乐的生活可能会变成一个反乌托邦(与“乌托邦”相对,指不幸之地,?这种社会表面上充满和平,但内在却充斥着无法控制的各种弊病)。
具备意识的机器也会给法律和道德带来问题。有意识的机器是否在法律意义上可被视为“一个人”,如果它的行为伤害了某人,或者是犯了错,它会承担责任吗?想想一个更可怕的场景:这些机器是否可能会反抗人类,并希望彻底消灭我们?如果答案是肯定的,它们代表了进化的顶点。
作为一名从事机器学习和量子理论的电气工程和计算机科学教授,我可以说,研究人员对于这种超感知机器是否会存在尚有分歧。还有一种争论是关于机器是否可以或者应该被称为“有意识的”,就像我们对人类的看法,甚至是一些动物的意识一样。有些问题与科技有关,而另一些则与意识的本质有关。
有“意识”就足够了吗?
大多数计算机科学家认为,意识是伴随技术发展而出现的一种特征。一些人认为,意识涉及接受新信息,将旧信息存储和检索,并将其认知过程全部转化为感知和行动。如果这是对的,那么终有一天机器将成为终极意识。相对于人类而言,他们能收集与存储更多的信息,快速处理庞大的数据量,从而做出复杂的决定,比任何人类都更加具有逻辑性。
另一方面,也有物理学家和哲学家说,许多人类行为是无法由机器计算出来的。例如,创造力,以及人们所拥有的自由感,似乎并不来自于逻辑或计算。
然而,这些并不是关于“意识是什么”以及“机器是否能实现”的唯一观点。
来自量子理论的视角
另一个关于意识的观点来自于量子理论,量子理论是物理学最深奥的理论。根据传统的哥本哈根解释,意识和现实世界是同一现实的互补方面。当一个人观察,或在物理世界的某个方面进行实验时,那个人的有意识的互动会引起明显的变化。因为它把意识作为一种假设,并且没有试图从物理学中推导出它,哥本哈根的解释可能被称为意识的“大C”观点,它本身就是一种存在的东西——尽管它需要大脑才能变成现实。这种观点受到了量子理论先驱们的欢迎,比如尼尔斯波尔、维尔纳海森堡和埃尔温施罗丁格。
意识和物质之间的相互作用导致了悖论,在经过80年的争论后,这些矛盾仍未得到解决。一个著名的例子就是薛定谔猫的悖论,在这种情况下,一只猫被置于一种情境中,结果是它同样有可能存活或死亡——而观察本身就是使结果确定的原因。
相反的观点是,意识是从生物学中产生的,就像生物学本身从化学中产生,而化学又反过来从物理学中产生。我们把这种不那么广阔的意识概念称为“小c”。它符合神经科学家的观点,即大脑的思维过程与大脑的状态和过程是相同的。它还符合对量子理论的一种更近期的解释,其动机是试图摆脱多世界解释的悖论,在这种解释中,观察者是物理学数学的一部分。
科学哲学家相信,这些现代量子物理学观在古代哲学中有相似之处。“大C”就像吠檀多派的心智理论——在这个理论中,意识是现实的基本基础,与物理世界是一样的。
相比之下,“小c”则与佛教非常相似。尽管佛陀选择不去解决意识本质的问题,但他的追随者宣称,思想和意识是由空虚或虚无产生的。
“大C”和科学发现
科学家们也在探索意识是否一直都是一个计算过程。一些学者认为,创造性的时刻并不是经过深思熟虑的计算的结果。例如,梦或幻像本应激发出Elias?Howe于1845年设计出的现代缝纫机,以及August?Kekulé在1862年发现的苯的结构。
一个案例与自学成才的印度数学家SrinivasaRamanujan(1920年去世,享年32岁)有关。他的笔记本被遗忘了大约50年,直到1988年才被出版,笔记本中含有几千个不同领域的数学公式,没有推导过程,却远超那个时代。此外,他发现的这些公式方法仍然难以捉摸。他自己声称,在他睡着的时候,这些公式是由一位女神向他透露的。
“大C”的意识概念提出了一个问题,即它与物质的关系,以及物质和精神如何相互影响。意识本身不能改变世界,但也许它能改变量子过程演化的概率。正如康奈尔大学的物理学家在2015年所证明的那样,观察行为会冻结甚至影响原子的运动。这很可能是对物质和思想相互作用的解释。
思想和自组织系统
意识现象有可能需要一个自我组织的系统,就像大脑的物理结构一样。如果是这样,那么当前的机器存在缺陷。
学者们不知道自适应的自组织机器是否可以被设计成和人脑一样复杂的东西,我们缺乏这样系统的数学计算理论。也许,只有生物机器才具有足够的创造力和灵活性。但是,这表明人们应该(或者很快)开始研究新的生物结构,这些结构或可能变得有意识。