博舍

意识统一性,人工智能与哲学的意识对谈 人工智能会有意识吗哲学问题

意识统一性,人工智能与哲学的意识对谈

2021年5月,MindMatters播客的主持人罗伯特·马克斯(RobertJ.Marks)博士,邀请到了威斯康星康考迪亚大学的哲学教授安格斯·梅纽格(AngusMenuge)博士,两人从人工智能和哲学两个视角出发,针对意识的三个问题展开了深度对谈,以下是为第三场“意识统一性”的翻译,我们将看到两人对意识统一性的理解,以及现代科技如何与之相关或不相关。

播客主持人

RobertJ.Marks博士是贝勒大学电气与计算机工程系教授、WalterBradley自然与人工智能中心主任。他的研究兴趣包括人工智能、人工神经网络、统计学、机器学习等。他在BIO-Complexity等多本期刊中担任主编工作。

对谈嘉宾

AngusMenuge博士是威斯康星康考迪亚大学的哲学教授和福音派哲学学会主席。他的研究兴趣包括心灵哲学、科学哲学等。著作包括AgentsUnderFire:MaterialismandtheRationalityofScience 等。

RobertJ.Marks:我们似乎都只有一个统一的意识,为什么我们不存在两个或三个意识,这到底是怎么回事?今天的MindMatters将讨论这个话题。

我们都听说过Jekyll与Hyde(《化身博士》)、双重人格之类的故事,但我们大多数人只有一个意识。这到底是怎么回事?为什么我们会表现出这种意识统一性?AngusMenuge博士将和我们共同讨论这个问题。他是康考迪亚大学的哲学教授和主席。Angus,欢迎你。

AngusMenuge:感谢再次邀请我。

意识的统一性

RobertJ.Marks:非常非常欢迎你!Angus是一名非常优秀的学者,我们真的很荣幸可以有机会和他交谈。那么现在我想以这样一个问题开始今天的对谈,什么是所谓的“意识统一性”(unityofconsciousness)?这是哲学的一个领域,对吗?

AngusMenuge:是的,这可以追溯到非常久远的年代。柏拉图和亚里士多德就曾提到这个问题,后来康德也对此产生了思考,他们都是伟大的思想家。这里的问题是,我们似乎有一个非常单一的意识领域。我们可以同时拥有许多体验:当你看到日落时,你可以同时听到起重机的蜂鸣、闻到咖啡的香气、感觉到风穿过你的头发。然而所有这些都统一于同一个意识领域。所以并不是有一个意识看到了日落,一个意识听到了蜂鸣,一个意识感觉到了风,另一个意识闻到了咖啡的香味。不,它们都是隐含地位于同一个意识领域内的经验。

随着我们对大脑有了更多的了解,这个问题就变得更加突出。因为我们现在知道,大脑是一个高度分布式的、一个平行分布式系统。我们知道,即使只有一个物体(也会有多种属性),就像我之前提到过的那个弹跳中的蓝球的例子。大脑中与颜色有关的部分、与形状有关的部分以及与运动有关的部分都是不同的。然而我们整合了这些,我们是对“一个物体”有意识。所以就存在这样的统一性,既是指许多经验同属于一个意识,也是指我们把物体和活动作为一段经验的综合中心来体验。

裂脑手术

RobertJ.Marks:这很有趣。我听说过裂脑手术(split-brainoperation),癫痫病人有时会去做这种手术。神经外科医生将病人的左右半脑分开。根据我的理解,我认为发生的情况是,癫痫发作的信号从一侧开始,并传递到大脑的另一侧。但通过分裂大脑,我们消除了从一侧到另一侧的路径,病人因此摆脱了癫痫发作。我在与迈克尔·埃格诺(MichaelEgnor)的对谈中发现,裂脑实验中令人着迷的地方是,病人的性格并没有发生很大的变化。而且似乎他们也没有改变他们的意识。这使我很震惊,这似乎真的以一种非常强烈的方式促进了意识统一性的想法。

AngusMenuge:确实如此,早期当这些裂脑手术首次完成时,人们会说:快看,我们可以分裂意识,现在将会有两个意识,每个半球都有一个意识。但研究意识统一性的专家蒂姆·贝恩(TimBayne)指出,不是这样的,对发生的事情最好的解释是,有一个意识可以分裂它的注意(attention),它正在进行两种不同的加工,而加工取决于其所涉及的半球。所以一个半球可能没有它在某些类型的认知任务中所需要的一切,但它确实是一个意识在以两种不同的方式分割其注意。据Tim所说,这不是两个不同的意识。

- BenBauchau -

分裂人格

RobertJ.Marks:我对分裂人格的全部了解都是来自电影中的:(比如,)变成Jekyll和Hyde的人;还有莎莉·菲尔德(SallyField)主演的一部关于一个有无数分裂人格的女孩(我一下子想不起电影叫什么)。那我们是否可以说,这是一种意识的交换,这只是心理学而非哲学上的某种东西吗,还是说这里究竟发生了什么?

AngusMenuge:在我看来,分裂人格最好的解释是,对某些信息的取用发生了变化。而实际上一直只有一个主体,但就像裂脑手术的例子,这个主体可以转换它的注意,所以在这些不同的模式(mode)中,一个人格会发现另一个人格的记忆和经验是不可取用的,就像你所说的Jekyll和Hyde的例子。实际上并没有理由认为有多个意识主体的存在。只不过是有一个主体可以进入不同的模式,而其在一个模式中拥有的信息和经验不一定能在另一个模式中获得。

“Toomanythinkers”问题

RobertJ.Marks:这很有意思。所以单一的意识总是适用的,但它就像一个抛出的小开关,让你可以从Jekyll变成Hyde,而你在转换的时候与另一个人格是没有关系的。我想起莎莉·菲尔德主演的电影的名字了,叫做《心魔劫》(Sybil,1976)。影片里,她因为小时候被虐待,经历了所有这些分裂人格的特征。所以这就涉及到一个非常有趣的话题:什么是“toomanythinkers”?这也是哲学的一个领域,那么“toomanythinkers”究竟讲了些什么?

AngusMenuge:“Toomanythinkers”问题是由个体同一性的复杂观点引起的。个体同一性的简单观点是,你的灵魂/你的心智永远是你,这是一种二元论的观点。而复杂观点不是,它是基于某种连续性(continuity)的,要么是大脑状态的连续性、身体的连续性,要么是记忆的连续性、精神状态的连续性。而在所描述的情景中,它们给这种复杂观点带来了问题。举个例子来说:假设有一个本体论的三维复印机,它可以在物理上复制人。那么你和在各个物理层面都和你一样的分身,似乎享有一个共同的起源。这个分身由你制作,并且具有连续性。(根据复杂观点,)既然存在连续性,那么现在似乎就有两个你了。但问题是不可能存在两个你,因为两个东西不可能是一个东西。

理察·斯温伯恩(RichardSwinburne)提出了另一个例子。他想象自己做一个手术,把大脑两个半球分别放在不同的人身上。所以我们需要想象这里预先存在着两个人,其中一个人有一个缺失的左脑半球,另一个人有一个缺失的右脑半球。然后把你的左脑移植给第一个人,右脑移植给另一个人。那么这两个人与原来的你是连续的。因此,如果你把个体同一性建立在连续性的基础上,似乎他们都必须是你。但它们不可能都是你,因为两件东西不可能是一件东西。所以真实的情况是,要么你根本无法生存,要么你作为其中某一个生存,但你不可能同时作为两个人生存。当我们根据唯物主义思考什么是意识的必要条件时,这一点得到了更进一步的发展。它必须具有正确的神经复杂性(neurologicalcomplexity)。

那么问题是,我们看到一些大脑被手术改变的病人可以继续保持意识。他们依旧保留和之前一样的意识。其次,随着时间的推移,从物理学的角度来看,你的大脑看起来更像是一团粒子云(acloudofparticles)。而你却仍然是同一个人。可以说困难就在这里,有很多“候选的大脑”可以在同一时间产生意识。换句话说,根据唯物主义,你的大脑以及它的很多子集都足以产生意识。那么为什么你不是在同一时间有许多意识?同样地,如果你的大脑是不断变化的原子云,其中的物质一直在增加和减少,为什么你没有不断地从一个意识变化到另一个意识呢?

换句话说,为什么随着时间的推移,我们还是同一个人?如果要说所有这些不同的原子云总是产生相同的意识,那完全是一种无稽之谈。而如果你采取简单观点,因为有一些东西是不变的。那么随着时间的推移,你就有一个唯一的灵魂,这就解释了为什么你具有跨时间统一的一个意识。物理主义(physicalism)做出了令人难以置信的预测,即我们应该可以同时存在许多意识,更不用说随着时间推移了。而这恰恰不是我们所观察到的。

- BenBauchau -

为什么身体变化

不会产生不同意识?

RobertJ.Marks:我之前查了一些资料,因为我曾经听说,人类身体的质量(mass)每七年就会发生一次彻底的变化,类似这样的情况。但我深入了解后发现,情况并非如此。我猜想有一些细胞变化相当大,然后有一些细胞变化不大。例如,其中之一就是神经元,你会保持着相同的神经元。另一个令我沮丧的发现是,脂肪细胞(fatcells)会永远存在。它们有某种与之相关的不朽性。但这并没有解决你所提到的问题,即它们可能在一定的时间间隔内被一个原子或其他什么东西替换掉。(在这种情况下,)坦率地说,你仍然是同一个人这个事实是令人吃惊的。

AngusMenuge:是的,因为如果你100%的神经元足以产生意识。99.9%和99.8%的神经元也能够做到。那当你看到所有这些子集时,为什么它们中的每一个不单独产生不同的意识?同样地,随着时间的推移,很多部分都在以不同的方式改变。为什么他们没有继续产生不同的意识,而是形成了我们现在所观察的有连续性的意识呢?我们可以从自己的经验中发现这一点,比如,当我们在听交响乐中的一个乐句的时候,我们会有一种感觉,是的,这个主题又出现了。这预示着你和第一次听到这个乐句的人是同一个人。又比如说,当你在数学和逻辑学中进行证明时,你依赖于这样一个事实,即你是从你之前理解的前提中进行论证的。而且你知道你证明到了哪里,并基于你已经证明过的内容,知道你要继续前进的方向。所有这些思维的前提是,你从开始到证明的最后都是同一个人。

否则,你就不是真正得出结论的人。就会像一个人在研究问题,而另一个人得出结论,但他们都没有从前提推理到结论。我们的行动也是如此。我的意思是,如果在医学预科和法律预科上准备了很久,但结果是别人上了法学院或医学院,那预科的工作还有什么意义?或许考虑到债务问题,你会想这么做。但尽管如此,我们实际上并不是这样想的。我们是根据我们目前的行动来规划我们自己的未来,同时假设未来做这些事情的也将是我们自己。如果我们不能正确地解释这种随时间变化的同一性,我们实际上就削弱了人类行动的合理性。科学家为什么要费心做这些实验来证实或反驳他的理论?如果最终发现结果的不会是他或她。

- BenBauchau -

马斯克的Neuralink

RobertJ.Marks:在我们结束讨论之前,我想问你一个例外的问题。埃隆·马斯克(ElonMusk)正在开发一种芯片Neuralink,它可以进入大脑。在我看来,它将直接应用于那些残疾人。这种芯片将能够让他们与因残疾而无法正常控制的物体进行直接沟通。你认为这样的东西或者是其他对人脑的增强是否会改变我们的意识和我们所认为的意识?

AngusMenuge:这将取决于我们对意识的理解,因为它可以改变我们的取用意识。它可以做的是修复信息流的缺陷,所以现在一个人能够说或做一些事情,而之前由于向他们的器官发送信息时出现了问题,他们无法做到这一点。同样,在听力方面,将会有一些芯片实际上会修复一些神经系统的损伤,这可能会恢复人们的听力。但这并不是说意识到某些东西的基本能力被改变了,那种现象级的意识,要么有,要么就没有。只是,你能够取用该意识做的事情将通过改善进出你意识的信息流而得到改善。

RobertJ.Marks:但它不会改变意识本身?

AngusMenuge:是的,不是意识的本身,只是意识的内容。换句话说,你将能够意识到一些新的东西。这其实并不令人惊讶,你可以想象当你戴上红外线护目镜,你就可以在黑暗中看到你以前看不到的东西。而这并不像从无意识到有意识那样,给你之前所没有的意识。只是现在你对不同的事物有了意识,你有机会接触到你以前接触不到的信息。

RobertJ.Marks:这很有意思。例如,当我做数学运算时,我一次只能做两位数之内的加法或乘法。这就是为什么当我计算619乘413时,我必须把它写下来,因为那张纸是我对我正在做的事情的短时记忆。我一次只能做一个乘法,然后做一次进位。在我看来,Neuralink并不能改善这一点。有些人会认为我们将成为具有超强思考能力和创造能力的超人。但我无法理解这将如何改善我正在做的事情,即每次在有限的短时记忆里做一件事。你提到了一个证明。你必须有关于你要去的地方和你要完成的事情的短时记忆,但我不认为这有多大帮助。你对此有什么想法吗?

AngusMenuge:是的,我的意思是,这些仪器显然会加快我们得到结果之前的时间。但实际上,我们所做的是把一些事情委托给机器,就像使用计算器或电脑一样。它本身并不使我们更有意识。因此,我们会更快地意识到答案,但我们不会更快地主动思考到答案,因为这其实是设备为我们做的转变。

RobertJ.Marks:这很有趣。我想,可能有了Neuralink,我可以说什么是438乘528,然后把它提交给一个搜索引擎。他们会给我答案,而不需要我每次都经历所有这些步骤。因此,我可以看到某种意义上的加速。

好的,我们一直在与AngusMenuge博士谈论一些关于意识统一性的问题,我认为这些哲学在人工智能中会有一些很好的应用。让我们再次感谢Menuge博士与我们共度的时光。

译者:朱思嘉| 审校:十三维 |排版:光影

https://mp.weixin.qq.com/s/fwLWofyMnEbuUNLnct3a5A

特别声明:以上文章内容仅代表作者本人观点,不代表新浪网观点或立场。如有关于作品内容、版权或其它问题请于作品发表后的30日内与新浪网联系。

人工智能应该有“意识”吗这是一个错误的问题

他说,真正的危险在于:

尽管这些机器本身是无能为力的,但它们可能被一个人或一群人用来加强对其他种族的控制。政治领导人可能不是通过机器本身,而是通过狭隘和漠视人类可能性的政治手段,试图控制他们的人口,就好像他们实际上是被机械地构想出来的一样。

果然,这些危险现在无处不在。

例如,在媒体领域,在发烧友和电影爱好者眼中,数字音频和视频的创新,让我们为放弃模拟格式付出了一小部分代价,而作为回报,我们可以轻而易举地以近乎完美的保真度再现录音。

但是有一个巨大的隐藏成本。奥威尔的“真理部”(乔治·奥威尔的小说《一九八四》中,专门制造假新闻的部门)现在有了切实可行的可能性。

人工智能技术创造了几乎无法察觉的伪造品,这将使过去150年来,我们认为理所当然的调查工具变得过时。

我们是简单地放弃短暂的摄影证据时代,回到人类记忆和信任提供黄金标准的早期世界,还是会在真理的军备竞赛中开发新的防御和进攻技术?

我们可以想象回到模拟胶片曝光,保存在“防篡改”系统中,直到向陪审团展示等等。但是,在有人想出用怀疑的方式感染这样的系统之前,还需要多长时间呢?

从最近的经历中得到的一个令人不安的教训是,破坏信誉的任务比保护这种信誉的任务要简单得多。

维纳从最普遍的角度看待了这一现象:“从长远来看,武装我们自己和武装我们的敌人没有区别。”信息时代也是虚假信息时代。

我们能做什么?在我看来,一个关键的短语,是维纳未经核实的观察,如上,“这些机器”是“无能为力的”。

正如我最近一直在争论的那样,我们正在制造工具,而不是同事,最大的危险是没有意识到这种差异,我们应该努力强调这种差异,通过政治和法律创新来强调这种差异,并为之辩护。

人工智能目前的表现形式,是寄生在人类智力上的。

它不分青红皂白地吞噬人类创造者创造的任何东西,并从中提取出可以在那里找到的模式——包括一些有害的习惯。

这些机器(还)没有自我批评和创新的目标、策略或能力,无法通过反思自己的想法和目标来超越数据库。

正如维纳所说,它们是中立的,不是被束缚的智能体或残缺的智能体,而是根本不是智能体——没有能力被呈现给它们的“理性所感动”(正如康德所说)。重要的是我们要保持这种状态,这需要做一些事情。

从长远来看,“强人工智能”或通用人工智能原则上是可能的,但不可取的(下面有更多介绍)。

今天实际上可能出现的更受约束的人工智能,不一定是邪恶的。但是它也带来了一系列的危险——主要是它可能会被误认为是强大的人工智能!

二、

许多外行和内行的人,都低估了今天的系统和主导大众想象的科幻系统之间的差距。这种差距很大。让我们看一下IBM的沃森,它可以暂时成为我们想象中的一个有价值的里程碑。

它是一个跨越许多人的大规模研发过程的结果,得益于几个世纪的智能设计,它消耗的能量是人脑的数千倍。

它在《危险边缘》(jeopardy!)节目中的胜利有点牵强,但这是一次真正的胜利,这得益于《危险边缘》节目中公式化的限制,但为了让它参与竞争,甚至连这些规则都必须修改。

其中一个折衷方案是:放弃了一点多样性,一点人性,最后得到了一场大众喜爱的表演。

尽管来自IBM的误导性广告暗示沃森具有通用的对话能力,但将沃森变成一个貌似合理的多维智能体就像是将一个手工计算器变成沃森一样。

沃森可能是这种智能体的一个有用的核心部分,但它更像是小脑或杏仁核,而不是大脑——充其量是一个特殊用途的子系统,可以发挥很大的辅助作用,但远不足以完成构建目的、计划以及在对话体验基础上进行深入挖掘的任务。

为什么我们要从沃森身上创造出一个有思想、有创造力的代理人?

也许图灵关于操作测试的绝妙想法,著名的图灵测试,把我们诱入了一个陷阱:至少要在屏幕后面创造一个真实的人的幻觉,架起跨越“恐怖谷”的桥梁。

这里的危险是,自从图灵提出他的挑战——毕竟,这是愚弄评委的挑战——人工智能的创造者们就试图用可爱的类人动作,比如迪士尼化的效果,让外行着迷并解除他们的武装。

德裔美国计算机科学家、麻省理工大学的荣休教授约瑟夫·维森鲍姆(JosephWeizenbaum)的ELIZA,一个非常早期的聊天机器人,就是一个基于这种肤浅的幻觉制造的例子。

他对自己可笑、简单而肤浅的程序能轻易说服人们进行严肃的心灵对话感到沮丧,哪怕是它第一次执行任务。

他的担心是对的。

如果说我们从一年一度的罗布纳奖(LoebnerPrize)限制性图灵测试竞赛中学到了什么的话,那就是即使是非常聪明的人,如果他们不熟悉计算机编程的可能性和快捷方式,也很容易被简单的技巧所迷惑。

对这些在人工智能的“用户界面”上进行掩饰的方法,人们的态度从轻蔑到庆祝不等。

他们普遍认为这些技巧并不深奥,但可能很有效。一个非常受欢迎的态度转变,是坦率地承认人性化的掩饰是虚假广告,是应该谴责而不是鼓掌的。

那这怎么可能实现呢?一旦我们认识到,人们开始在很大程度上基于人工智能系统的“建议”做出生死抉择,而人工智能系统的内部运作在实践中是深不可测的时。

我们就可以找到一个很好的理由,那些以任何方式鼓励人们对这些系统更加信任的人,应该在道德上和法律上承担责任。

人工智能系统是非常强大的工具。因为非常强大,以至于即使是专家也有充分的理由不相信他们自己对工具所作出的“判断”。

但是,如果这些工具使用者,想要通过在未知领域使用这些工具而获得经济或其他方面的利益,他们需要确保他们知道如何负责任地做到这一点,并最大限度地控制和证明这一点。

正如我们对药剂师、起重机操作员和其他因为错误和误判会产生可怕后果的专家进行授权和许可一样,我们也会对这些系统的操作者进行授权许可和绑定。

在保险公司和其他保险商的压力下,迫使人工智能系统的创造者,竭尽全力寻找和揭示他们产品中的弱点和漏洞,并培训那些有资格操作这些系统的人来警惕它们。

人们可以想象一种倒置的图灵测试,在这种测试中,评委受审;直到他或她能够发现弱点、系统中的漏洞,才会发放操作许可证。获得评委资格证书所需要的心理训练是很苛刻的。

通常情况下,当我们遇到一个似乎是智能体的东西时,把人类的思维能力归于是一个物体的冲动,几乎是无法抗拒的。

事实上,能够抵制把一个表面上的人当作一个人来对待的诱惑,是一种丑陋的天赋,散发着种族主义或物种主义的气息。

许多人会发现,培养这种无情的怀疑主义方法在道德上是令人反感的,我们可以预见,即使是最熟练的系统操作者偶尔也会屈从于与他们的工具“交朋友”的诱惑,哪怕只是为了减轻他们在履行职责时的不适。

无论人工智能设计者如何小心翼翼地清洗他们产品中虚假的“人类”符号,我们都可以预见到,一个繁荣时期,充满了快捷方式、变通方法和容忍对系统及其操作者的实际“理解”的扭曲。

电视上宣传的新药的已知副作用列表长得令人无语,但这与强制性披露的特定系统无法负责任地回答的问题相比,将相形见绌,“忽视”其产品缺陷的制造商将被处以重罚。

人们普遍指出,当今世界日益严重的经济不平等,在很大程度上是由于数字时代的企业家积累的财富;我们应该制定法律,为了公共利益将他们的巨额财富托管起来。

三、

我们不需要人造的有意识的智能体。已经有太多具备自然意识的智能体,足以处理任何应该留给这些特殊和特权实体的任务。

我们需要的是智能工具。工具没有权利,不会有可能受到伤害的感觉,也不对无能用户强加给它们的“滥用”产生怨恨。

不制造有人类意识智能体的原因之一是,不管它们可能变得多么自动化(原则上它们可以像任何人一样具有自主性、自我增强性或自我创造性),如果没有可能被放弃的特殊规定,它们不会与我们这些具备自然意识的智能体分享我们的脆弱性或我们的死亡。

我曾经在塔夫茨大学(TuftsUniversity)的一个关于人工智能体和自主性的研讨会上,向学生们提出了一个挑战:给我一个可以与你签订有约束力合同的机器人的规格说明书,它不会代替一些人类所有者,而是自己。

这不是一个让它理解条款或在一张纸上操纵一支笔的问题,而是作为一个道德上负责任的智能体拥有和应得的法律地位的问题。

年幼的儿童不能签署这样的合同,那些法律地位要求他们接受这样或那样的监护人照顾和负责的残疾人也不能签署这样的合同。

对于想要获得如此崇高地位的机器人来说,问题在于,就像超人一样,它们太过于坚不可摧,无法做出可信的承诺。

如果他们食言,会发生什么?违背诺言的惩罚是什么?被关在牢房里,还是更有可能的是被拆除?除非我们首先安装人工智能不能忽视或禁用的人工漫游功能,否则被关起来对人工智能几乎不会构成任何不便(鉴于人工智能的狡猾和自知之明,从系统上讲,很难将其作为一个万无一失的解决方案)。

而且,如果人工智能设计和软件中储存的信息得以保存,那么拆解人工智能(不管是机器人还是沃森这样的智能体)也不会杀死它。

数字记录和传输非常容易,这一突破使软件和数据实际上是不朽的,将机器人从脆弱的世界中移除,至少是通常想象中的机器人,带有数字软件和记忆。

如果这不是显而易见的,想想如果我们能每周为人们做“备份”,人类道德会受到怎样的影响。

周六,在没有蹦极绳索的情况下,头朝下地从一座高桥上跳下。周日早上,你恢复周五晚上的备份,你将不会记得这一切,但是你可以欣赏你明显死亡的过程。

因此,我们要创造的不是,也不应该是一个有意识的人形生物,而应该是一种全新的实体,没有良心,没有死亡恐惧,没有令人分心的爱与恨,没有个性(但是各种各样的弱点和怪癖,无疑会被认为是系统的“个性”):真理盒(如果我们幸运的话)几乎肯定被散布的谎言所污染。

如果我们不去幻想人工智能将奴役我们的奇点,那么我们将很难学会与它们一起生活。

“人类”对人类的使用将很快再一次永远地改变,但如果我们对自己的发展轨迹负责,我们可以掌握舵柄,在一些危险之间腾转挪移,向前发展。

原文链接:https://www.wired.com/story/will-ai-achieve-consciousness-wrong-question/

编译组出品。编辑:郝鹏程

​返回搜狐,查看更多

人工智能威胁论:逻辑考察与哲学辨析

中德两国正在共同打造具有跨时代意义的“工业4.0”,该项目号称“第四次工业革命”,主导方向是智能制造,推动制造业向智能化转型。人工智能是未来工业转型的重要助推器,不仅在工业制造领域扮演重要角色,而且必将成为革新我们生活方式的未来趋势,全方位地重塑我们的生活。人工智能发展速度令人惊叹,很多人工智能专家系统在一些领域已经极大地超越了人类,比如我们所熟知的AlphaGo完胜世界顶尖围棋选手,它的升级版AlphaZero在短时间内就超越了上一代,并“精通”各种棋类。更令人匪夷所思的是,DeepMind推出了能够从事“科研”的AlphaFold,通过基因序列,成功预测出蛋白质的3D形状。人工智能的迅猛发展引发了一些学者的担忧,他们担心人工智能如果以这样的惊人速度发展下去,是否会产生情感认知因素,更具体地说,会不会产生不友好的动机。像科幻电影《终结者》中的情节那般,人工智能奴役、毁灭人类。我们可以通过构造一个驳斥人工智能威胁论的溯因推理结构,证明人工智能威胁论信念是基于不可靠的归纳论证;而以哲学的视角看,可以将人工智能威胁论视为一种信念。鉴于该信念达成之后的灾难性后果,有必要采取适当的防范策略。

一、通向乌托邦还是奴役之路

我们目前无法确定人工智能是否是一个潘多拉之盒,但它必定是一个黑箱,至少现在无法预测人工智能的走向。根据当前的发展态势,有部分学者对人工智能的前景持积极乐观的态度,他们认为人工智能会实现技术的乌托邦,人将得到最大限度的解放。他们指出,人工智能所有的知识都是人类“喂给”的,其自身无法创造新的明述知识或命题性知识,而且人工智能的学习能力基于算法而不是社会交往[1]。所以,人工智能只是人类器官的投影和延伸,它们不会出现自主意识,更不会出现社群组织,不会对人类产生危害[2]。一种心智考古学的观点认为,一个能够自主地威胁人类的人工智能体首先必须是一个具有自治情感的生命系统,智能只是心智的一个子集,没有情感系统的引导,智能就不会发挥作用。因此人工智能体不会对人类产生生存威胁[3]。还有一部分人则对人工智能发展到高阶水平的可能后果充满担忧,他们预言人工智能将是人类的终结者。国内学者以江晓原为代表,他认为人工智能近期的威胁会导致大量工人失业,以及军事化用途所带来的世界格局震荡。长远的威胁就是人工智能的失控和反叛[4-5]。我们把这种论调称为人工智能威胁论。

近年来,人工智能威胁论的支持者越来越多。其中不乏一些著名科学家和知名人物,如史蒂芬·霍金(StephenHawking)、迈克斯·泰格马克(MaxTegmark)和伊隆·马斯克(ElonMusk)等。马斯克曾多次在推特上发长文警告,人工智能可能是人类有史以来最为严峻的生存威胁。霍金指出,人工智能的崛起要么是最好的,要么就是最糟糕的。

一些研究中心或智库开始研究人工智能可能带来的风险,牛津大学的“人类未来研究所”是目前最具代表性的技术风险研究机构,下设“人工智能政策研究中心”。泰格马克牵头在麻省理工学院成立了类似的机构:“生命未来研究所”。剑桥大学成立了“利弗休姆未来智能研究中心”。北京大学于2018年11月成立了“北京大学人类未来研究中心”……。此外,许多科技企业纷纷成立人工智能研究部门,探讨人工智能的未来前景。

当谈到人工智能威胁论的时候,我们到底针对的是人工智能的哪些方面或哪个阶段。学界粗略地将人工智能分为三个阶段:弱人工智能(artificialnarrowintelligence)、强人工智能(artificialgeneralintelligence)和超级人工智能(artificialsuperintelligence)。弱人工智能只擅长某一具体领域,强人工智能适用范围要更大,能与人类智能比肩;而超级人工智能是机器智能的顶峰,牛津大学“人类未来研究所”所长、人工智能思想家尼克·波斯特洛姆(NickBostrom)把超级人工智能定义为“在几乎所有领域远远超过人类的认知能力”[6]29。人工智能拥有巨大的潜力,它可以让人类永生,抑或彻底灭绝。所以当我们言及人工智能威胁论时,主要针对的是超级人工智能。这种威胁论主要基于以下三个前提。

第一个前提认为,最先被创造出来的超级人工智能与包括人类智能在内的所有其他形式的智能相比,拥有决定性的战略优势。这种优势足以使超级人工智能控制并塑造地球上所有智能生命的未来。如果超级人工智能是友好良善的,那么我们无须担心。但根据波斯特洛姆的说法,我们没有任何理由认为它是友好的。第二个前提指出,智能水平和善行之间没有必然关系。但智能水平与其终级目标有着一定的相关性:几乎任何水平的智力都与它的最终目标相一致。波斯特洛姆构想的“曲别针最大化”(paperclipmaximiser)思想实验生动地阐释了这一点,如果超级人工智能确定一个目标,就会最大化地实现这个目标。假如它的目标是制造曲别针,那它会尽可能地制造更多的曲别针[6]153。第三个前提指出,超级人工智能很可能设定一些与人类利益无关的目标。比如它可能会执着于获取广泛的资源,其中可能包括人类赖以生存的资源。

就已发表的相关文献来看,波斯特洛姆的专著《超级智能:路线图、危险性与应对策略》代表了这一趋势的典范。波斯特洛姆在书中详细论述了超级人工智能得以实现的几种形式、可能存在的风险、应对措施等。泰格马克的大部头著作《生命3.0:人工智能时代而为人的意义》呈现了一幅专业物理学家对人工智能的展望图景。书中对人类的未来作出了最大胆的想象,构造了对未来生命、科技、文化和社会的全新理解。泰格马克追问人类到底能发展到什么极限?人类到底要走向哪里?“生命3.0”体现了“生命”系统从1.0到2.0,再到3.0的更迭。生命1.0是简单生物阶段;生命2.0是文化阶段,人类就是生命2.0的代表;生命3.0则是科技时代,系统不断地升级自己的软件和硬件,直接跳跃漫长的自然进化,堪称智能系统全面觉醒的阶段。比起有血肉的生命之躯,届时便产生了新的“生命”[7]27。泰格马克担忧新“生命”会与旧生命发生冲突。这些担忧是杞人忧天的无稽之谈,还是有着坚实的经验基础?我们接下来做一番考察。

二、驳斥人工智能威胁论的溯因推理论证

我们可以尝试着构造一个溯因推理结构反驳人工智能威胁论。这个论证结构是这样的:如果威胁论者们认为人工智能在未来会对人类生存构成致命威胁,那么它必然要拥有善恶、喜恶这样的认知情感因素,它甚至可能会伪装。我们进一步追问,人工智能何以拥有像“动机”这样的情感认知功能,我们选定一种可能的实现途径:全脑仿真。这项技术的实现又依赖智能设备运算能力的“指数爆炸”假设;而该假设目前的成功基于归纳,不具备必然可靠性。

1.预测人工智能善恶的归纳论证

有学者对人工智能威胁论提出质疑,他们对波斯特洛姆的观点提出了一个明显的反驳:为了确保人工智能的安全使用,将人工智能应用于实践之前,必须对其进行严格测试,验证它是否友好。这样做的目的是将人工智能限制在一个安全可控的环境中,并反复测试它的友好属性和安全性。建造一个模拟真实场景的“沙盒”,当我们在实验环境中做了足够多的测试,验证它是友好、合作、负责任之后,才会把它从“沙盒”中释放出来[6]145。在一个高度仿真的实验环境中,反复经验检测,如果发现人工智能看起来没有威胁,那么我们就有理由相信它是友好的。这里的推理模式属于典型的归纳论证。

波斯特洛姆试图回击这个论证,他提出了“背叛转折”(treacherousturn)概念[6]147。即超级智能化的人工智能会运用策略,它在实施计划的同时,还会预测人类的反应。我们从人与人之间的日常交流中可以发现,人们为了达成目标,有时会欺骗他人。例如,某人可以假装对他同事的尖端研究缺乏兴趣,希望同事会信赖他,向他披露所有的研究细节,然后他就能窃取同事的成果,据为己有。超级人工智能是否也会做同样的事呢?难道它们没有意识到,我们正在测试它们?难道它们就不会采取假装友好的策略来走出困境吗?

一个人工智能体看似完全友好,与人类合作并保护人类的利益,但它实际上可能筹备着威胁人类生存的长远计划。在欺骗我们陷入虚假的安全感之后,超级人工智能可能会触发背叛转折。所以,质疑人工智能威胁论的归纳论证在“背叛转折”原则下失效。然而,该原则预设了一个前提:人工智能系统具备很强的自主性,甚至能够产生坏的“动机”。那么,人工智能可否发展出诸如“动机”这样的情感要素呢?

2.人工智能的“动机”论何以成立

针对超级人工智能“动机”论的质疑,波斯特洛姆予以了回应。他认为:“只要具有足够的智能升级能力,所有其他智能就都在系统的间接方式范围内,因为系统能够开发所需的新的认知模块和技能。”[6]112如此一来,波斯特洛姆就把人类的各种认知能力视为智能系统内化的功能,随着智能升级,这些功能便随之开发出来。波斯特洛姆并没有直面质疑,没有解释超级人工智能为何会产生“动机”。其实,这里涉及一个更为复杂的问题,就是人工智能是否会拥有意识,如果拥有意识,是依靠何种方式实现的。倘若我们不首先说明人工智能的“意识”来源及可能性,那么讨论人工智能的动机,必是漫天猜想,没有理据可循。

波斯特洛姆曾提出过超级人工智能的五种可能实现形式:人工智能、全脑仿真、生物认知、人机交互、网络和组织。其中,生物认知基于这样一个观念:生物技术的进步可能会直接控制人类遗传学和神经生物学,而无须实施人类优生繁衍计划。简言之,就是通过生物技术对人体进行无限改造,以提升人类智能。人机交互与网络和组织也是类似的原理,人机交互意图将机器智能和人脑互联,大幅度提升人脑的能力,网络和组织则企图通过技术手段把人脑连接在一起,形成强大的集体智能[6]37-52。这三种途径都强调对人类智能的增强和提升,属于人类增强的范畴,因为在这样的智能形式中,人脑依旧是主体,增强的是人类智能,而非人工的智能体。这样的超级智能必然会保有人类的各种认知能力,不在我们讨论范围内。

所以,严格意义上说,超级人工智能只有两种可能的实现途径:人工智能和全脑仿真。人工智能途径就是现在所采用的主流方式,依赖算法和硬件的提升。人工智能在“情商”的学习过程中,效率有余,效果不足。微软的人工智能“微软小冰”在2017年出版了一本所谓的题名为《阳光失了玻璃窗》的“诗集”。我们来看其中的一首标题为“黄昏里来了一碗茶”的“现代诗”:黄昏里来了一碗茶/回家一齐看/嘴里的妻子已失去了/让野火的人们/风景如风车里一碗茶凉/是少年的故事/回家一年的时候/我猜我也一例有敌骑的呼声晌[8]14。这里的诗歌“意象”更多的是句型与词汇随机混搭生成的“后现代风格”,不能展现人类诗歌才有的情感张力。故而有人批评人工智能有智商而无情商,有智能而无智慧。智能系统要想发展出自主意识,仅靠算法无法达成,可能需要借助全脑仿真技术。这项技术可能完全模拟出被模仿对象的大脑活动,然后加以原理化,但这种技术建立在强大的硬件基础上。接下来又产生了一个新的问题,硬件升级速度能否跟上人工智能的发展?

3.“指数爆炸”的迷雾

其实全脑仿真有一个前提,即大脑本质上是“计算”的,并且能够被模拟。这里涉及到诸多哲学议题,我们不做深究,暂且假定该前提成立。波斯特洛姆认为全脑仿真不需要理论上的突破,但需要一些非常先进的技术。他认为实现这项技术须满足三个先决条件:扫描、翻译和模拟。其中扫描需要有足够分辨率和相关检测性能的高通量显微镜,模拟则需要强大的硬件。以上两项先决条件能否满足,很大程度上取决我们能否制造出性能优越的硬件设备。

众所周知,硬件迭代速度依赖“指数爆炸”假设。“指数爆炸”原指指数函数的爆炸性增长。此后借用到计算机领域,一般与“摩尔定律”同义,表示计算机的计算能力将在固定的周期内以指数形式提升。从第一台现代意义上的计算机诞生至今,计算机运算能力的发展符合“指数爆炸”。我们就拿目前的超级计算机领域来说,超算的运算能力大约每14个月提升一倍。超级计算机代表着目前计算机设备性能的最高水平。2018年6月,IBM公司助力美国田纳西州橡树岭国家实验室推出了一台名为“Summit”的超级计算机,计算峰值惊人,每秒可执行21017次运算,其性能远超我国研发的神威·太湖。倘若超级计算机的发展一直符合“摩尔定律”,那么似乎就能满足全脑仿真技术在硬件上的要求。但这个推理模式是典型的归纳论证,基于目前的发展水平来推断未来发展速度依旧保持不变。更为严峻的是,“摩尔定律”已经遇到瓶颈,芯片制造已经接近物理极限,经济成本不降反升。由此,我们认为人工智能威胁论论题站不住脚。

对人工智能威胁论的批评还有很多,其中凯文·凯利(KevinKelly)认为我们把智能误解为可以无限增长的空间,反对算力和智能之间存在正相关关系。至于人工智能最终发展到像电影《超验骇客》那般无所不能的地步,他将这种过分夸大、毫无根据的观点称为“意淫主义”(thinkism)[9]。我们充其量只能将人工智能威胁论视为一种信念,我们可以选择相信它为真,但却很难辩护其为真。

三、人工智能威胁论与帕斯卡赌

倘若我们将人工智能威胁论仅仅视做一种信念,会产生积极的启示作用吗?有些人会嗤之以鼻,因为该信念带有某种神秘的宗教色彩。还有一些学术评论员批评未来学家雷·库茨韦尔(RayKurzweil)提出的所谓“奇点”临近,因为他们的信念体系是信仰主义的,即基于信仰或缺乏合理的论证基础[10]。

我们可以尝试将人工智能威胁论信念与上帝存在的信念作一番类比。后者是宗教学领域中争论的焦点之一,前者可以看做是科学领域中的预言。这两个信念都有一个共同的特点,被证明为真的概率极低,并且假如我们先前拒斥该信念,但后来证明为真,其后果是毁灭性的。比如说,我们无法证明上帝存在,因为根据现有的科学理论体系,假想一位有形体有人格的全能神似乎是一件很荒谬的事情。倘若上帝不存在,我们在世间纵情享乐,不信奉任何教义,那相信上帝存在与否于我们都没有影响。但如果上帝存在,不信上帝存在者虽然享受了短暂的快乐,死后则会坠入地狱,遭受无穷无尽的折磨。既然如此,我们是选择相信上帝存在呢,抑或拒斥?这就是帕斯卡诉诸信仰的论证上帝存在之路径。帕斯卡将相信上帝存在与否视为一场赌博,是赌博就会有输赢,虽然赌徒不知道赌局的结果如何,但他知道输赢的奖励和惩罚,也就是“赌注”,所以赌徒会权衡利弊,然后决定选择是否相信上帝存在。类似地,我们可以将帕斯卡赌应用于人工智能威胁论。显然,人工智能威胁论信念到底有多大概率为真,我们无法预测,但倘若该信念成真,那么后果是无法估量的。正如波斯特洛姆所定义的“存在风险”(existentialrisk)威胁着地球上智慧生命的根本福祉,它具有潜在的“毁灭性的”或“地狱般的”影响[11]。波斯特洛姆的末日预言暗示了超级聪明的人工智能可能会给人类带来灭顶之灾。因此,波斯特洛姆认为,即便现有的种种证据都不利于人工智能威胁论,其发生的总体概率很低,但背叛转折依旧不容忽视。

诚然,在相信上帝存在的承诺和人工智能威胁论的承诺之间存在一些明显的区别。相信上帝存在的承诺是一种朴素的宗教信念,是一种对现实的终极本质和原因的信仰,信仰者可以诉诸非理性的方式;而人工智能威胁论的信念是对某项科技发展后果的信念,这种信念基于一定的经验基础,基于对现有科技成就的评估和预测[12]。宗教信念与科学信念不能划等号,此处类比只是较弱层面上的。

我们通过更深入地考察“背叛转折”,可以发掘人工智能威胁论信念的一些实践意义和认知意义。超级人工智能可能会设定对人类不友好的目标,可能会欺骗我们,用邪恶的方式来达成目标。必定会有人批评波斯特洛姆的“背叛转折”,其观点违反我们的直觉。但正是这种反常观念,才会迫使我们反思科学成功的合理性,重新评估我们习惯性地使用的各种归纳推理。肯定“背叛转折”就要质疑科学取得成功所依赖的主要推理工具,此举难以让人接受,因为在人工智能领域中,归纳推理不仅能够解决复杂情况,而且还相当可靠。但我们试着转换视角,其实人工智能威胁论和休谟的怀疑论有着相似的旨趣。在休谟的经验怀疑主义看来,我们不能根据我们迄今为止吃的面包有营养,就推断出接下来吃的面包也会有营养。在波斯特洛姆看来,我们无论在广度、深度,抑或接触时间上,与人工智能的互动极为有限,所以我们无法断言人工智能未来依旧安全,更何况目前无人智能驾驶系统事故频出。在某种程度上,我们能够理解休谟问题背后的深刻哲理,在具体实践中,却容易忽视归纳推理的固有缺陷。对归纳合理性的审视,促使我们思考人工智能威胁论信念折射出的深刻蕴义,提防“背叛转折”。

即使是那些希望我们认真对待人工智能风险的人也会争辩说,人工智能威胁论的一些观点似乎危言耸听。他们指出,超级人工智能可能会有不可控风险,但也有巨大的益处。几乎没有人会怀疑人工智能的社会变革力量,我们现在更需要关注的是如何理解、应对人工智能的潜在风险。像波斯特洛姆、泰格马克等等这样的威胁论者和未来预言家免不了充斥着天马行空的想象,但他们以这种方式呈现出人工智能的可能威胁,提醒我们在充分发展人工智能时,警惕“背叛转折”风险,彰显了人工智能威胁论的认知与实践意义。

四、规避人工智能潜在风险及其挑战

我们正处于弱人工智能阶段,针对人工智能的一些建议性政策主要集中在司法审判、大数据隐私、机器人伦理等具体的应用问题上,很少有预防人工智能发展到较高阶段威胁人类生存的策略。

人工智能价值观的加载问题是目前学术界讨论较多的议题。即如果我们给人工智能系统设定一套代码形式的价值观,可否确保人工智能不会偏离正常的发展轨迹。学者们之所以尤为关注该议题,是因为我们通过监视超级人工智能的程序运行预测其动机的方式行不通。正如波斯特洛姆所言:一个不友好的人工智能可能会变得足够聪明,能够意识到隐藏自己的一些能力会获得更大的收益。它可能不会显露进步,并故意放弃一些难度较大的测试,以避免在获得决定性的战略优势之前引起恐慌。程序员试图通过秘密监视人工智能的源代码和它的内部工作来防范这种可能性,但是一个足够聪明的人工智能会意识到它可能被监视,并相应地调整它的应对策略。监视超级人工智能行为的路径走不通,从源头入手,似乎更为行之有效。霍金一语道出了要害:“尽管人工智能的短期影响取决于控制人工智能的人,它的长期影响取决于人工智能到底能否受到控制。”[13]让人工智能戴上像阿西莫夫构想的机器人三定律式的“紧箍咒”,是最为高效便捷的处理方式。

然而,该进路面临如下三重困境。首先是理论层面。所谓的“价值观”由非常含混的观念集合而成,我们何以确保我们要设立的价值观必定是合理不悖的。退一步说,倘若我们可以确保价值观是一致的、没有矛盾的,那么我们需要给人工智能系统输入什么价值观,以及智能系统能否“理解”这些加载的价值观?如果让人工智能系统回答“电车难题”,会出现什么样的情形呢?我们需要给人工智能系统设定什么样的价值标准?[14]这一系列追问都是令人懊恼的哲学和伦理学问题。其次是技术层面。以现在的技术水平,把伦理准则嵌入人工智能系统为时尚早。要想实现伦理准则的嵌入,需要靠在设计计算力和机器智能的大规模应用中推动[15]。技术层面难以实现,应用层面亦是困难重重。我们设定一个具体的应用情景,假如我们给人工智能系统设立一个密尔的功利主义原则:“确保人类总体快乐最大化”。如果它认为快乐就是刺激负责快乐的中枢神经,那么它极有可能创造出《黑客帝国》里弱化版的“缸中之脑”。纵而览之,虽然人工智能价值观嵌入看似一劳永逸,实际上面临着理论、技术和应用三面难题,还存在许多难以克服的问题。

其实,我们也可以借鉴其他高风险技术的发展经验,如基因编辑技术、克隆技术和NBIC聚合技术等新兴技术。虽然“贺建奎事件”让基因编辑技术蒙上阴影,但总体上还是朝着安全平稳的势头发展。一个重要的原因就是各国政府和整个学术共同体在这些领域制定了规范研究的准则和公约。以克隆技术为例,鉴于克隆人技术特别是生殖性克隆可能会引发严重的社会、伦理、道德、宗教和法律问题,所以联合国在2002年制定了《禁止生殖性克隆人国际公约》,许多国家分别制定了禁止生殖性克隆和治疗性克隆的法律。类似地,各国在人工智能领域竞争时,合作和沟通也必不可少,有效减少人工智能研发过程中的草率和盲动行为。居安思危,防微杜渐,是应对将要到来的人工智能时代所应持有的合理立场。

随着人工智能发展的深入,与大众生活日渐交融,必定会出现新的情况。根据形势的发展,还需要修订或增加新的规约和法律条文。谁也不知道新兴技术最终把我们引向何方,但无论如何,在面对人工智能这项重大课题时,多方协作、共同应对、群策群力、小心谨慎是预防人工智能“背叛转折”的有效法宝。

人工智能会将我们带向何方

最近有关AI绘画的事情引发了人们的热烈讨论,而伴随着这一讨论,人们不禁再次思考起相关问题,即AI人工智能在未来是否能够代替人类的某些工作或工种,AI真的有可能产生自主意识吗?本篇文章里,作者便发表了他对人工智能的看法,一起来看一下。

01

最近在网上看到绘画界对于AI绘画热烈的争论。主要的焦点在于:AI绘画的兴起会给行业带来什么样的冲击?会否导致大量画师的失业?

其实,在这几年AI高速发展的阶段里,类似的争论一直都存在。比如:AlphaGo会不会摧毁围棋行业?GPT-3会不会摧毁传媒行业?DeepL会否摧毁翻译行业?诸如此类。

但这一次,AI在绘画界引起的反响要更大一些。为什么?也许一个原因是因为:AI绘画的兴起,的的确确让人看到了颠覆行业的可能性。

今年6月份,我体验了一款叫做DiscoDiffusion的AI,做出了一些作品。详见分享一些新知识和生活方式。当时我的感觉是:非常出色,效果极好,但是对行业尚算不上颠覆。因为出图速度太慢(一幅图要渲染10分钟),并且在构图、布局上较为欠缺,也无法准确地画出人物。只能作为辅助工具。

没想到才过了两个月,这个观点就遭到了无情的回击。

8月份,我尝试了一款新的AI,叫做StableDiffusion。它可以说把DiscoDiffusion远远甩在了后面,不仅出图速度极快(几十秒),并且质量极高,在纹理、细节、光影等方面几乎可以以假乱真,甚至可以忠实地还原出实物的效果。

以下是我从网上找的一些别人用StableDiffusion做的图:

可以看到,它出图的效果,连一般的画师可能都望尘莫及。

02

那么,绘画行业会被AI绘画颠覆吗?

实际上,将AI绘画应用于实践中已经有了不少案例。一类案例是游戏工作室。现在已经有不少游戏工作室,用脚本在后台自动运行AI,在极短的时间内自动生成成千上万幅头像、人物和图标,再精选出能用的进行细化修改和调整,极大地压缩了成本。

另一类案例是专业画师。有不少画师已经开始利用AI绘画辅助创作。比如,先画一幅草图,定好整体布局,然后用AI填充上丰富而饱满的细节,再在最终的成品上进行微调,节省大量描绘和填充的时间。

可以想见,等AI绘画更进一步地发展和流行起来之后,大量基础的执行工作会被替代掉。像「人物头像」这种创意含量不高、执行步骤较为繁琐的任务,用AI来操作就可以极大地提升性价比。

进一步,AI也可以成为画师们的利器。利用AI来辅助构图、找寻灵感、填充细节……可以极大地解放画师们的劳动,而把更主要的精力集中在沟通、创意和调整上。就像电脑绘画替代了大部分手绘一样,未来无法用AI来辅助创作的画师,也同样可能会被同行所替代。

从这个角度来讲,不管行业会否被颠覆或摧毁,新的改变已经无可阻挡地、浩浩荡荡地到来。

不过,现阶段的AI,依然还停留在「工具」的定位。它能发挥出什么样的效果,完全取决于使用它的人。毕竟,AI无法取代人去跟客户沟通,也无法完全理解自然语言,更不具备通常意义上的「自主性」和「创造力」。因此,对于诸多行业而言,它其实更多的是一种机会,而不是威胁。

比如:在AphaGo家族出现的时候,也有许多人惊呼「围棋是不是要被AI摧毁了」。但其实,围棋AI给围棋行业带来的是什么呢?是门槛的大幅度降低和普及化。

在过去,你要学围棋,得去培训班学习,由专门的老师指导,跟同学对弈、复盘,经历高强度的训练。但如今不需要了。现在每个人在家里,都能非常方便地找到可用的围棋AI,你可以调整难度跟AI对弈,也可以用AI来帮你复盘。在这种情况下,老师能起到的作用就很小了,只剩下偶尔的点拨和答疑了。

这对于传统围棋培训行业的商业模式当然是一种冲击,但门槛的降低,也会带来大量热爱围棋的入门者,让围棋行业变得更加繁荣。那么,能否通过转型适应大环境的改变,就是这个行业需要去做的事情了。

再比如翻译行业。这几年,AI翻译的发展如火如荼。以最新的几个翻译引擎来说,翻译质量已经超越了一般外语水平的使用者,几乎达到了母语的水准。但AI翻译能否直接使用、会否替代掉人工翻译呢?答案也是否定的。

原因很简单:绝大多数需要翻译的领域,对翻译质量都有极高的要求,不仅要求准确,还可能会有专业术语、语境、背景、遣词用字上的要求,而这是AI难以胜任的。在这种情况下,用AI先粗译一遍,再进行细致的润色,就是更有效的做法。

因此,在这个行业,用AI进行辅助翻译已经是行业惯例。不使用AI的译员,可能很难在这个行业立足——因为效率差距实在太大了。从这个角度来讲,AI给翻译行业带来的,也不是摧毁,而是更高的质量和效率。

这些只是一些消费行业的例子。事实上,近十几年以来,在全球的各个领域,使用AI作为辅助工具,已经是一种行业发展的必然趋势,也是一种默认选择。

比如,在美国,贷款机构已经开始利用AI来决定是否放款。他们会利用一套复杂的算法,依据客户的消费、债务和其他数据,最终得出客户的「信用评分」,并根据信用评分判断是否批准贷款、批准多少额度的贷款。

在英国,已经有许多地方议会开始利用AI进行社会保障决策。据《卫报》2020年的一项调查,在英国的229家地方议会中,约有100家使用AI来辅助决策,包括决定是否通过福利申请和提供社会保障。

国外的许多公司也开始用AI来进行招聘。从简历筛选、职位匹配,到对面试者进行打分和心理评估,节省了大量的人力。

在心理、医疗和健康行业,AI也得到了大量的应用。比如,能够跟你对话并引导你进行心理干预的AI,能够结合患者的数据量身制定治疗方案的AI,能够辅助医生进行诊断和提供治疗建议的AI……尽管还未实现大规模普及,但已经有了不少卓有成效的尝试。

我们都知道能够伪造视频和音频的Deepfake技术,许多人都对其忧心忡忡,但加以规范利用和引导,它也可以发展出正向的应用。比如,目前有一个研究方向,是用AI模拟出逝去的亲人,跟我们进行对话。尽管目前只能实现简单的动态,但假以时日,像《黑镜》里面的景象,很可能成为现实。

更有名的可能是GPT-3。GPT是一款非常出色的文本AI引擎,2020年发布的GPT-3,拥有1750亿个参数,可以「创作」出足以以假乱真的各种文字,包括小说、新闻、报告、散文……

它的应用空间也极其广阔。比如:游戏公司可以用它生成真正随机的、完全不同的游戏对白;小说和剧本创作者可以用它来帮助寻找灵感;媒体可以用它来快速生成新闻报道;各类服务提供商可以基于它开发各种各样的聊天机器人;文学研究者可以用它来进行文本分析……诸如此类。

那么,它摧毁传媒行业了吗?其实也没有。相反,它的存在,使得传媒和创意行业的可能性被极大地拓展了,未来的发展空间无比广阔。许多过去难以实现的效果,都变成了可能。

总而言之,不管各行各业的人怎么看待AI,AI的到来已经是一种无可争辩的事实。与其捂上眼睛去诋毁它、漠视它、恐惧它,不如想办法去迎接它,并利用它去提高自己的效率,实现人力难以企及的突破。这可能是一种更好的心态。

未来并不遥远,很可能已经在我们身边。

03

不过,要注意的是,上面所说的AI,都停留在工具的层面,也就是「弱人工智能」。本质上来说,它们只是一段对信息进行加工处理的程序。我们喂给它们一堆数据,它们再根据规则吐出我们想要的结果,仅此而已。跟我们所理解的「人工智能」有着天壤之别。

如果我们把科幻片里的人工智能——那种有意识、有人格、有自己的「思想」,能够「理解」自己在做什么的强人工智能,看作100%的形态的话,那么目前的AI,可能只是不到1%。

换句话说,如果强人工智能可以看作生命的话,那么目前我们实现的弱人工智能,最多可能只是一个氨基酸。

这也说明,目前的AI只是一个极其初级的形态,它的成长空间几乎是无限的。实际上,现阶段的AI翻译引擎,比起几年前的版本,质量好了不止一个档次;同样是扩散模型,StableDiffusion比起年初的DiscoDiffusion,也好了不止一个档次。

那么,弱人工智能跟强人工智能的分野究竟在哪里呢?我们有没有可能对AI进行不断的优化和提升,使之最终能够达到强人工智能的程度?如果能够实现的话,到时的世界会变成什么样子?

以下是我的理解和思考,不一定对,仅供参考。

我们知道:目前所有的AI,不管是什么领域、采用什么模型,它们的本质都可以大致归纳为三步:训练,预测,反馈。

首先,我们需要喂给AI大量的数据,告诉它「我们希望它学到什么」,让它从这些数据里面提炼出特定的模式。这就叫做训练,这些数据就叫做训练集。

从训练集中提取出模式和特征之后,AI就可以根据这些模式,基于不同的场景,去「预测」在这个场景下会出现什么、应该如何应对。这就是AI能够产生的结果。

最后,就是对AI所产生的结果提供反馈,告诉AI它做得好不好、对不对,从而让它不断进行自我修正、自我提升,最终能够产出更好的成果。

一个常见的例子就是生成对抗网络(GAN)。它包含一个生成网络和一个对抗网络。用绘画来打比方:生成网络的任务,就是我们给它一堆训练集,比如说某个画家的许多幅画作,让它努力地学习画家的风格,然后想办法创作出一幅以假乱真的画。

而对抗网络的任务,就是努力去挑生成网络的刺,把它创作的画从真画中区分出来。通过这样的「左右互搏」,AI就能够不断自我提升,最终达到真正以假乱真的效果。

但是,目前所有的AI都存在一个问题:它们所有的训练集来源,都来源于数码信息。换句话说,它们相当于「活」在数码空间里面,跟我们所处的现实物理空间是没有任何交集的。因此,它们永远没有办法真正「理解」所得到的数据,而只能按照自己从数码空间得到的规律去生硬地「套用」在信息上面,完成我们要求的任务。

一个经典的例子是「莫拉维克悖论」:尽管AI可以做到许多人脑无法实现的事情,比如在一秒内完成上千万次运算、处理上百万条数据、做出极其复杂的决策,但是一些对人类来讲极其简单的任务,比如用眼睛区分两个杯子,在一个房间里自由行走,或者理解一段对话的上下文,对它们来说却难如登天。

为什么会这样呢?因为,数码世界是没有办法自发地产生数据,构建出一个完整的、自洽的世界的,它的一切数据,都来源于现实世界的「投射」。也就是说,它只是现实世界的一个「降维」的投影而已。因此,「活」在低维度世界的AI,只能理解我们输入给它、为它制定的规则,是不可能真正理解高维度的世界的。

打个比方:就像一部小说里的角色,哪怕写得再生动、再鲜明,他也不可能真正活过来,理解小说之外的现实世界。同样,目前的AI,只能是一种工具,它不可能具备真正意义上的意识、人格和「生命」。

04

人工智能哲学界有一个经典的问题,叫做「框架问题」。丹尼尔·丹尼特是这样表述它的:

假设现在有一个洞穴,洞穴里有一块电池,洞穴外有一个机器人,快没电了,机器人必须拿到这块电池。但与此同时,电池绑着一颗炸弹,触动电池就会引发炸弹。

机器人1号:被下达指令「拿出电池」。但拿出电池的同时,它也被炸毁了。因为它不知道触动电池同时会引发炸弹。

机器人2号:下达指令「做一件事时,必须考虑它是否会导致其他事件的发生」。于是,机器人2号一直在思考:当我拿动电池时,墙壁会变色吗?天花板会塌下来吗?等等。最终没电了。

机器人3号:下达指令「只考虑跟任务相关的事,不考虑不相关的事」。于是,机器人3号一直在思考:哪些是跟任务相关的,哪些是不相关的?墙壁相关吗?天花板相关吗?于是也没电了。

简而言之:对于AI来说,让它知道「应该在一个什么样的框架内去考虑问题」是非常困难的——尽管这对人类来说毫无难度。

那么,为什么AI存在框架问题,而人类就没有这个问题呢?

我们不妨想一想:我们是如何知道「当我拿动电池时,天花板不会塌下来」的?是因为我们看到了这条规则吗?不是的。是因为我们知道:天花板是一个稳定的结构。一般来说,如果没有外力对它进行作用,它是不会变化的。

那么,我们又是如何知道「天花板是一个稳定的结构」的?是有人教给我们这条规则吗?也不是。是因为我们在成长的过程中,我们看到过非常多次的天花板,我们从生活经验中学习到天花板的特性,知道它不会轻易地塌下来,于是我们的大脑自发地从这些经验中提炼出了这条规则。

许许多多这样的规则组合起来,就形成了我们对这个世界的认知,也形成了我们思考问题、考虑问题的「框架」。

但AI是没有这些「生活经验」的。它们的所有信息来源,只有现实世界投射到数码世界的信息。因此,对它们来说,所有的信息本质上都是一堆数字,它们无法把这对数字还原成规则和框架。

我们在生活中看见过无数次的人脸,那么不需要别人教我们,我们也会知道人的脸有五官、大致的比例是什么。但AI没有这些经验。对它来说,「人脸」也只是一堆数字而已,只不过这些数字经常一起出现,似乎存在某种特定的规律——这就是AI眼中的世界。

再比如,看到「落霞与孤鹜齐飞,秋水共长天一色」,会让我们产生各种各样的想象,体验到审美的愉悦感;但在AI眼中,这14个字只是一堆数据,无法产生任何联想,因此并不存在任何「意义」和「美感」。

所以,要想让AI能够真正理解现实世界,也许只有两种方式。要么,是找到一种方法,可以更加有效地传达给它关于现实世界的种种规则和「隐性知识」,让AI具备跟人类相似的思维基础;要么,是让AI模仿人类的成长过程,直接从现实世界中学习规则,构造关于现实世界的各种表征。

后者现在也开始有研究人员在探索了。今年发表在《Nature》上的一篇研究讲到:他们基于发展心理学设计出了一款机器人,可以像人类婴儿一样学习简单的物理规律。这个机器人在学习后,当看到不符合物理规律的画面时,会呈现出「惊讶」的反应——这或许是一条可行的道路。

那么,AI有没有可能发展出真正的强人工智能?如果到了那一天,这个世界会变成什么样子?

说实话,我也不知道。如果AI真的能够弥补这一空缺,真正像人类一样思考和学习(或者起码「看起来」像),那么,理论上来说,似乎没有什么是无法实现的。到时的世界,也许会变得完全不一样。

尽管从目前看,这一天似乎还要很久。

05

最后,聊一个有趣的问题:AI会有意识吗?如果我们真的面对着一台宣称它具备了意识的AI,我们如何判断它是否具备意识呢?

图灵测试吗?显然不行。图灵测试测的是智能,而非意识。

意识是什么?是能够体验和感知到自身存在的一种状态。一个有意识的个体,它能够体验到自身的存在,能够有主观的感受(我们称之为感质,qualia),而不是只是对输入信息做出固定的、程式化的响应。

哲学家SusanSchneider提出过一个很有意思的「人工智能意识测试」。她认为:如果一台机器具备意识,能够体验到自我的存在,那么它一定也能产生跟意识相关的其他想法和感受,比如:灵魂,轮回,自我,等等。

一个简单的类推:我们每个人一定都曾经有过类似的想法:我是谁?为什么我会是「我」,而不是其他任何人?藏在「我」身体里,构成我的种种想法、念头和主观感受的那个东西是什么,在哪里?诸如此类。

SusanSchneider认为,这是有意识的生物所必然会经历的困惑和思考。一个对象有了意识,意识到自己的存在,必然会对这种存在感到好奇,进而去探寻和思考这种存在的本质。

因此,「人工智能意识测试」的步骤如下:

阻止人工智能去学习关于意识、心灵、存在等相关的哲学和科学知识。跟它正常交流,聊聊意识、心灵、存在……看它能不能流畅地、自然地进行回答。

如果能,那可能意味着人工智能自发地产生了对这些话题的理解和体验。这种体验来自哪里呢?既然没有外在信息的输入,那只能是来自于它自身所产生的意识体验了。

当然,让AI产生意识的难度,可能比产生强人工智能的难度还高。

我无比期待这一天的到来,又无比担忧这一天的到来。

作者:李睿秋Lachel;公众号:L先生说(ID:lxianshengmiao)

原文链接:https://mp.weixin.qq.com/s/wc7x8UpPwb1nQZpkEiSruQ

本文由@L先生说授权发布于人人都是产品经理,未经作者许可,禁止转载

题图来自Unsplash,基于CC0协议

该文观点仅代表作者本人,人人都是产品经理平台仅提供信息存储空间服务。

版权声明:本文内容由互联网用户自发贡献,该文观点仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌抄袭侵权/违法违规的内容,一经查实,本站将立刻删除。

上一篇

下一篇