博舍

机器人拥有自我意识是好处多还是风险多 人工智能拥有意识

机器人拥有自我意识是好处多还是风险多

11月3日消息,针对现下大热的人工智能,很多人会有一个疑问:机器人会拥有自主意识吗?在2019腾讯科学WE大会前,哥伦比亚大学教授、机器人研究权威专家HodLipson给出了回答。

HodLipson向TechWeb等表示,“不可避免会出现这一天,至于是10年后,还是100年后,我们还不知道。但我比较确信的是,我们孙辈生活的世界里,机器将会有自我意识。”

如果机器拥有了自我意识,你是否会为此感到担心?HodLipson对此持乐观态度,他认为,“自主意识的机器人带来的好处将会远远超过它的风险”。

他以火的发现为例解释称,火非常危险,也非常强大。但人类是否希望自己从未发现火呢?答案应该是否定的,因为有了火之后,使得我们能做很多之前做不到的、不可思议的事情。

HodLipson指出,“我们现在已经发展和运用了很多机器,而这些机器的数量将会越来越多,它们也会越来越复杂,总有一天人类将无法直接照顾这么多、这么复杂的机器人,我们要想办法让机器人自己来照顾自己。”(周小白)

以下为HodLipson对话速记:

提问:您真的会觉得机器人会拥有自主意识吗?你担心它拥有自主意识吗?

HodLipson:我的回答是肯定的,也是否定的。因为我认为不可避免的会出现这样一天,这个世界上的机器获得自我的意识。这是一个非常伟大的事件,因为我们现在在逐步给这些机器系统一点一点添加智能。最终,它们会给自己找到一个模型,它们最终要想明白,并最终明白自己是什么,自己能做什么和不能做什么。

这件事情将在10年之后发生,还是100年之后发生,我也不知道。但是,我比较确信的是我们的孙辈所生活的世界里,机器将会有自我意识。

我是否对此感到担心呢?我可以给您举一个例子,就是火的发现。火非常危险,也非常强大。但人类是否希望自己从未发现火呢?答案应该是否定的,因为有了火之后,使得我们能做很多之前做不到的、不可思议的事情。

具有自主意识的机器人也是如此,它是一种非常强大的技术,重要的是每一个人都认识到这种机器人能够做些什么、不能够做一些什么,就像火一样,我们知道它是强大而危险的,所以我们要确保将它用于好的事情上。

我个人在这个问题上保持乐观态度。我认为自主意识的机器人带来的好处将会远远超过它的风险,因此我们要追求发展这样一个技术,因为我们现在已经发展和运用了很多机器,而这些机器的数量将会越来越多,它们也会越来越复杂,总有一天人类将无法直接照顾这么多、这么复杂的机器人,我们要想办法让机器人自己来照顾自己。

提问:第一个问题,上过《自然》杂志封面的那个论文提到过粒子机器人没有单点故障,也没有集中控制。这个系统可以继续保持运行,它的阈值在什么范围内?因为现在测试下来是20%的粒子发生故障,整个系统还是能够保持运行,这个事情是对机器人鲁棒性的一个突破。

之前《科学》杂志的主编提到过现在所有人们认为机器人的意识问题,都是因为它的鲁棒性,机器人的鲁棒性如果真的够了,它就能产生意识吗?第二个问题,我不是非常理解刚才举的火的例子,因为火是没有自己意识的,它仍然只是一个工具,教授之前讲50年之后人可能和人工智能一起进步,就是人和人工智能共生的一个状态,在这样的环境下,人们会面临哪些伦理和社会上的挑战?

HodLipson:其实您是把很多问题都集中到了这两个问题。我先回答一下关于鲁棒性的问题,我们所做的粒子机器人把这个整体当成一个机器人。这种机器人我更想比喻成一个人的身体。我们的身体是由许多细胞组成的,这些细胞会产生、发展和死亡,不断地会有细胞死去。虽然有很多细胞都死掉了,但我还是我,你还是你。

那么到底我们能让多少细胞死,而不改变自己的性质呢?到底是20%,还是30%呢?其实,我们知道人体的细胞不断地在死亡,这是一个持续的过程,同时也会有新的细胞不断产生。

换句话说,我们的身体是由一个个不可靠的部分组成,这些部件本身会死亡、坏掉,但是新的部件会不断出现,反复的出现,我们这个整体还是我们自己。

做机器人主要在于新思路,你谈到了它的鲁棒性,你也提到了所谓的20%。其实这个20%只是我们测的一个数字而已,我们更关心的是一个想法,就是如何建造一种机器人,像人体一样,能够用这些不可靠的部件组成它,但是它作为一个整体仍然是像人体一样,可以正常的运行。

这一点和我们今天造机器的想法完全不一样,比如我们现在造的飞机,它由很多部件组成,其中任何一个部件都有自己特定的功能。假如这个部件失灵了、出故障了,那这个飞机就是不能上天的。假如有一辆车其中一个轮子掉了,这辆车也就无法运行了。

我们现在希望以一种全新的思路来做机器人,它的鲁棒性和机器人是否有自我意识是无关的,我们更多的是把它想像成一种生物体。从生物体来讲,你的身体、头脑是维持运行所必要的部分,我们希望这种机器人有一个头脑,能够自我去建模,这样就能够发展起来。

我举火的这个例子,并不是因为它有自我意识。它并没有自我意识,主要还是从伦理的角度来讲,是说火也是非常非常强大、危险的。但是,它是人类文明真正开始发展的原因,有了火人类才能够吃以前吃不了的食物,能够建造以前建造不了的东西,能够在夜里看见东西,这一切极大的促进了文明的发展,但是同时火也是非常危险的。

所以,我们所有人都需要意识到火是非常有用的,非常强大。假如火失控,就会带来非常糟糕的后果。人工智能也是如此,它既强大又危险,这个技术非常值得我们拥有,但是我们要知道这种技术能强大到什么程度,并且给予它尊重,确保能够恰当地使用。

你提到的所有伦理问题,目前应该还是没有答案的。其实就在5年前,人工智能技术就已经开始发展了,但是没有人对它感到兴奋,它只是一个学科而已,也没有任何人担心它有一天会接管了全世界。

但是,在过去5年间,这一技术真的腾飞了。突然之间好像大家都在问这些伦理问题,但是正如我前面说过的那样,我们对这些伦理问题还没有答案,这个技术肯定会继续发展,而有自我意识的机器人也终将出现。

提问:粒子机器人是否能够在一个很小的空间内模拟宇宙?

HodLipson:你问粒子机器人能否模拟宇宙,我想我们这个机器人更多的是试图模拟生命,而不是模拟宇宙的发展和运行。

我们试图让它模拟生物,特别是动物的机制。我们试图认识我们身体里所存在的这些粒子,或者更确切的说是细胞,每一个单个细胞都是不可靠的,而且大脑并不指挥每一个单个的细胞,这些细胞通过自己的随机运动组合在一起,最终产生了每一个真实的个人。

这个也仍然是一个比喻,但是总的想法是它使我们能够试着模拟,或者试着复制一下生命的运行。

提问:随着自主机器人意识越来越强烈,现在越来越多人对这个感到担忧,与此同时包括腾讯在内的这些企业,提出了“科技向善”的理念。你是否听说过腾讯“科技向善”的理念,你对科技向善这个理念是怎么理解的?以及你觉得科技向善该怎么引领未来机器人、人工智能与人类命运的和谐发展。

HodLipson:这个问题非常好,作为人类来说,我们开始意识到这样一种强大的自主意识会出现,我们肯定会想到必须要确保这些技术会用于好的事情、善的事情。

但是,这种科技向善的想法在很多地方都有人提出来,并且大家在不断的重复。比如我所在的哥伦比亚大学,我们有一个非常类似的说法,叫做数据向善,就是把数据用于善的事情,这是所有人类都希望能做的事情,关键还在于怎么做到,如何确保技术总是以好的方式得到运用,这一点是非常难的,确保人工智能完全用于好的事情并不容易,因为这个技术非常易用,也不需要投入很多钱就能够用上。技术本身既可以被用来做好事,也可以被用来做坏事,关键在于人类文明和人类社会应该想怎么把它用于好的事情,而不是坏的事情。

关于怎么办目前我们还没有完全想清楚。将来是让人工智能去监督人工智能,还是采取什么别的办法?但是总的来说最终要靠人类的伦理,指导我们在一个机器能够自主做出决定的新世界里,确保这些技术仍然用于好的事情。

应该说任何这样的问题都没有一个简单的答案,但是我们必须走上这样一个历程,并且一步一步的往前走,我们现在要公开讨论它应该可以做些什么,不可以做些什么,我们要不断地进行研究。

在这个过程中,人类会逐步做出什么能做、什么不能做的决定,实际上在人类历史上我们发现了既强大又危险的技术,比如说核技术、基因技术的出现,基因技术如果被误用或滥用,它的结果也会很糟糕。比如化学的发展,它也有可能会被人用于做坏事,但是最终人类社会都选择把这些技术用于好的地方。

所以,在人类历史上我们曾经多次发现这些强大而危险的技术。但在大部分的情况下,人类社会作为一个整体做出了正确的决定。所以我本人是乐观的,我相信这次人类社会整体也将做出正确的决定。虽然,在某个时点上可能有少数人会做出少数错误的、不好的决定,但是作为一个整体,我们会做出正确的决定。

提问:通常人们会想科学家做机器人,是让它来模仿人类所做的一些动作,或者人类的功能。但是也有一些科学家做出来的机器人已经能做一般人做不出来的动作了,为什么要让机器人做到这些呢?

HodLipson:这个问题非常好,就像我们为什么要让人工智能或者机器人玩国际象棋、围棋一样。这个是一个挑战,我们会试着让人工智能和机器人做一些人觉得难的东西,看是否能让机器人学会这些技术。

这是自我的挑战,也是一个测试,就好像人工智能在最开始学国际象棋的时候,世界上绝大部分普通人是不可能战胜国际象棋大师的。因为,一般人都做不到,不过一开始大家肯定也认为人工智能也是做不到的。这对它是一个智力上的挑战,它会去学习,然后逐步做到这一点,这是智力上的挑战。

身体上的挑战也是一样的,我们会去问机器人能不能走路。走路这件事看上去非常简单,每一个儿童,甚至婴儿很小就开始学走路,并且学会了。但实际上教机器人走路比让它学国际象棋难得多,因为每一个人类都觉得我们特别擅长走路,所以我们不觉得走路这件事有什么难的,但是教机器人走路是非常困难的。

巴斯大学和其它的一些大学进行了特别多研究,才逐步让他们的机器人能够走路。在它做到走路之后,科研人员会想能不能让它跑起来,能不能让它在摔倒之后自己爬起来,能不能让它能爬山、爬墙,或者说能不能让它做一个后空翻。

几个月前,伯克利大学发布了一段视频,它的机器人在玩一个魔方,这个是一件非常小的事。因为只要是个人,他的手就能玩魔方,但是对机器人来说这是非常难的事情。

对于科研人员来说,让机器人做这些事情就是在爬一个阶梯,是人在身体和智力上能做到的这些事情,让它像爬梯子一样一个一个得掌握,并且试着看一看我们在这方面能够走多远。

这个技术是不是有用呢?

我或许可以举一个例子。让机器人做后空翻的动作可能本身想不出来有什么实际的用处,但是后面支持机器人走路、拿东西、做后空翻的这些技术有很多非常实际的应用。

提问:您的这项研究适合于哪方面的实际应用,比如医学或者其它的。在您的成果当中,未来还有哪些可以提升的方向?比如说更多、更快、更小的组件。

我听说您领导的研究团队里面有一个中国人,叫李曙光。您怎么评价中国在机器人研究和应用方面的贡献?

HodLipson:我先跟您讲一下我们的计划,我们预期必须把它做的更小。我们在设想这样一种机器人的时候,我们希望能够模拟成百上千个细胞一起运作的状况。事实上,我们现在能做到的只是几十个细胞进行这样的运行。我们希望有一天能够达到数百万、上千万的细胞一起组成的粒子机器人来运作,就像我们的身体一样。我们身体里有数十亿、上百亿的细胞,它们共同形成了我们。我们要这样做的话,就需要把它做的更小,我们需要使用纳米技术,或者说至少是微米技术,这是我们的下一个目标。因为在它的每一个部件足够小之前,是不可能有实用场景的,因为在大的规模上没有办法实现细胞之间永续的更新,如果它足够小,能够做到很多有趣的事情。

比如说我们现在看到工厂里的机器人,乃至你家里的吸尘器,现在都是一些大的部件坏了,整个机器就不能运作的部件组成的。将来它们也可以由这样一个一个小的细胞组成,它的好处有很多。

首先,就是它能够应对某个部件出现故障,但是整体不会出问题,可以完全循环。在今天我们看到的这些机器是不能够循环的,机器坏掉之后相当于把它埋葬了,或者说这个机器的某个金属部件、塑料部件是可以循环的,但是机器作为一个整体是不行的。

但是生物体不一样,生物体是可以百分之百循环的。比如说你吃掉了一只鸡,你就能够充分利用鸡提供给你的蛋白质,如果你吃了植物或者素食,你也会充分利用它给你提供的一切,因为你的身体会把它所提供给你的有用物质进行循环,从氨基酸开始,然后对它实现充分的利用。

我们现在希望能够有一种物理的机器,使它也能够实现这样的循环,这样它就由数百万、上千万的小部件组成,形成这样一个小粒子的生态系统。只有实现这样的生态系统,才有机会使我们维持使用很多机器的人类文明生生不息,因为这些机器自己可以照顾自己,但是应该说这是一个非常长远的目标,这不是一个明天就能用上的技术。

提问:能够用两个词谈一谈对于腾讯明天WE大会科学精神的理解吗?并且讲一下故事,教授这边是不是采取了什么行动,来防止相关的技术被误用,是否存在一些规则,如何对相关的技术进行监管?

HodLipson:我非常期待明天的大会,而且我知道大会涉及到很多不同的主题,内容都非常有趣,这也使我想到中国和美国科学界的合作。

您提到我团队里面有中国人,其实我那里总共有10个博士生,里面有四个中国人,从硕士的学生来说,数量就更多了,大概占到了一半,可能大概有10多个。

所以,不管是哥伦比亚大学还是其它大学,其实都是如此。我想这也表明中美在这个领域的合作比历史上任何时候都要多,不仅在我们的项目组有中国学生,在大学的教职员工里面也有不少的中国人。

人工智能和机器人领域尤为如此,在这个领域发表论文的数量,中国、美国、欧洲数量大致是一样的,我们也知道在中国、美国,在世界上很多地方都存在着很多竞争,但是在人工智能和机器人的世界里,世界确实是平的。

其中部分原因是因为这个领域对资本投入的需求很低,因此你不需要投入大量的资金,就可以去研究和发展这个技术,所以每一个人感兴趣都可以参与进来。另外一部分原因是在人工智能和机器人的领域,我们分享意识是非常强的,迄今为止这个领域所取得的每一项成就都是开源的,这也大大促进了国际合作。

至于监管的问题,从目前来看,我们唯一能做的就是不断的谈论这样的事情,我们绝对不能关上门搞开发,要保持百分之百的开放。在我们的实验室白天黑夜都有记者找我们,他们会来拍照,会问问题,而且有些时候会问非常难回答、根本就没有答案的问题。

在机器人技术的发展领域,我想这是唯一的出路。可能我们进行大量的交流还不能确保这个技术一定是用于好的事情,但是至少通过这个讨论,人们可以了解到这种技术的危险性何在,而不是在未来某一天突然被它吓坏了。

提问:单个粒子机器人现在的收缩状态直径是15厘米,您刚刚提到在它做的足够小之前是不太可能应用的,大概要等多少年时间才有可能做到微米级、纳米级?在这期间会遇到什么难题?如果真的做到纳米级、微米级,这个粒子机器人具体落地应用场景大概是什么样的?可以举几个例子描述一下吗?

HodLipson:需要多少年才能达到你说的这个尺度我确实不知道答案。这个研究的进展并不仅仅取决于研究的难易程度,还涉及到是否能够得到资金支持,是否有学生对这个课题感兴趣。可能他们会被其它的技术所吸引,这些都是一些影响因素。

但是,我个人仍然觉得它会在我们的有生之年达到微米。比如10年,或者说我不会想像做的比微米更小,我不会真的想像那时候就能做到纳米级,但是或许我们只能做到毫米级的,比如说像小的砂糖颗粒一样,毫米级的,那时候就可以做这样的细胞。

没有办法把毫米级的粒子机器人到人类的血管中去,或者我们现在想像的那些医学中特别先进的应用,可能还是做不到,但是它应该可以成为一些机器的组成部分,这些机器能够行走、恢复、重复使用。

比如在外空有一些需要做的工作,或者是如果我们需要登上月球的话,我们就需要这些机器人能够根据任务的需求,改变自己的形态,在一些地方可能把材料运过去非常昂贵,我们需要重复使用我们的机器人,让它能够根据任务需求进行形态的调整。我个人想像,这很可能是这种机器人比较早的应用形态。

提问:有人说中国和美国在人工智能、机器人领域的不同是中国可能研究更偏应用一点,美国可能在基础研究做的更扎实一点,怎么看待中美在这两个领域当中研究发展程度的不同?中国人工智能领域在基础研究方面的缺乏和不足会不会对未来应用造成一些影响?

HodLipson:我不太确定我看到的情况和您的这个描述是一致的。因为我觉得中国也有很多人在做应用和基础研究,也有很多美国人在做应用方面的研究,中国这边也是两方面研究都有。

应该说这个领域的研究一直都是混合的。在机器人和人工智能领域,一向都是这两种,并不总是两分法的判断,很多人都是同时在做的。而且你很少看到有人只会研究某个特定的应用。比如说只研究某个医学的应用,或者某个康复功能的应用,或者他只关注于自动驾驶的机器人,更准确的描述就是这个领域非常广泛,确实没有人能够把所有的细分学科、某个技术细节都关注到。

但是在这两个国家都有大量的人做各种各样的研究,所以恐怕不能一下子判断中美出现这样一种不同偏好的原因。

即便在我自己的实验室,有的研究人员比较重视应用。我们有一个项目是能做“抓”这个动作的机器人,他们会和工厂有很多的联系,去看现有这样的机器人和我们自己的机器人,能不能保证它抓10万次不出故障。

此外也有特别关注于机器人创造力和自我意识的人,这个更具有哲学性的思考。恐怕只能说这个领域的内容如此丰富,所以一个人恐怕没有什么都关注到,但是放在国家尺度上,两国都既有实用研究,也有大量的基础研究,这就是我们这个学科和其它学科不一样的地方。

比如天文学肯定要做大量理论研究。我们这一行是不一样的,机器人这个领域有很多商业的力量参与,也有很多政治、经济的力量参与,这个领域的钱非常多,比如说百分之百人工智能驱动的无人驾驶汽车,在这个领域投入了大量的资金,它非常热,有来自于各个方向上的压力和兴趣,所以可能像这样的一些特定细分领域会吸引到更多的关注,但其实在更广泛的人工智能和机器领域,实用和理论基础性的研究都在广泛进行。

责任编辑:ct

当人工智能有了情感,人类未来该如何自处

《情感经济:人工智能、颠覆性变革与人类未来》,[美]罗兰·T.拉斯特、黄明蕙著,彭相珍译,中译出版社2022年1月版。

文学作品和电影,往往将奇点视为威胁和恐怖事件。例如,在斯坦利·库布里克的电影《2001:太空漫游》中,计算机HAL(IBM公司缩略名称字母前移一位,即H-I、A-B、L-M),不仅具有机械智能和思维智能,它还具有足够的情感智能来愚弄和操纵宇航员(并杀死了大部分宇航员)。最终,HAL基于自己的利益,损害了它本应服务的人类的利益。

电影《2001:太空漫游》(1968)剧照。

但在斯蒂芬·斯皮尔伯格的优秀电影《人工智能》中,人工智能表现为更积极的形象,库布里克也是该片的主要合作者(直到他英年早逝)。在这部电影中,大部分主角都是拥有发达情感智能的机器人。在电影的最后,人工智能外星人已经占据了主导地位,但他们对老一代的机器人,表现出了相当程度的关心、关注和同情。电影《她》也从一种有利于人类的角度描绘了人工智能。人工智能“操作系统”(斯嘉丽·约翰逊配音),对她的人类主人表现出极大的同情心。经典科幻电影《银翼杀手》也从正面描写了人工智能机器人,并描绘了具备深刻情感智慧的最先进的机器人。

因此,我们也看到,人类对人工智能的情感能力的观感是矛盾的。在最坏的情况下,人工智能将利用其情感智能来操纵人类,以达到自己的目的。在最好的情况下,人工智能将利用其情感智能,与人类产生共鸣并帮助人类。我们将在下文中探讨这两种可能性。

电影《人工智能》(2001)剧照。

收入和财富不平等会进一步恶化吗?

一旦人工智能发展到了高度的情感智能,它将全方位压倒人类智能。这将自然而然地导致一个后果,即人类的劳动变得不够理想,因为人工智能几乎在所有方面都表现得比人类智能更好。这就意味着人类的劳动将丧失价值,且所有的工作将由人工智能接管。如果经济中的所有价值,几乎都来自人工智能,那么价值将几乎来自资本,而不是劳动。其结果是,经济将由相对少数的资本家掌控。这反过来又会进一步加剧收入和财富的严重不平等。在这种情况下,大多数人类将如何谋生,尚无答案。

人类真的能控制人工智能吗?

许多思想家声称人工智能永远也不能自主完成任务,因为它必须由人类编程。因此,人类将永远控制着人工智能。但事实真的如此吗?我们不妨简单地回想一下当前最常见的人工智能形式,即深度学习神经网络。这种人工智能已经被视为一个“黑盒子”,因为人类很难对其如何产出结果进行解释,即为什么它们能给出特定的解决方案。为此,计算机科学当前的一个重要研究领域就是,如何让深度学习对其客户(人类)而言,变得“可解释”。但一个显然的趋势是,随着人工智能变得越来越复杂,也越来越难被人类理解,导致人类感觉其逐渐失控。

最终,这个问题将变得越来越严重,而不是随着发展逐渐淡化。当人工智能变得足够聪明时,它就有可能做到自我编程。毕竟,计算机的自我编程作用已经存在,并将随着时间的推移而变得越来越普遍。换句话说,人类对人工智能的控制力正在迅速减弱,而随着控制力的丧失,人类如何确保人工智能继续按照既定的要求,致力于实现人类设定的目标,而非它自己的目标,也将成为一个问题。

牛津大学哲学家尼克·博斯特罗姆和麻省理工学院物理学家马克斯·泰格马克,都提醒人类应该注意这种人类失去对机器的控制的问题。他们都指出,人工智能可能会演变成一种智能或多种智能,无论哪种结果,都可能威胁到人类的控制力,甚至威胁到人类的生存能力。正如作家凯文·凯利(KevinKelly)所指出的那样,人工智能设备的联网可能造就异常强大的超级人工智能。

人类享受悠闲生活的设想

关于奇点,人们设想的最幸福场景是,人工智能负责完成社会的所有工作,而人类则可以自由地过着悠闲的生活,追求艺术、玩电子游戏、看3D电视,或沉浸在虚拟现实中。人类也会拥有几乎无限的社交时间(无论是面对面交流还是线上互动),或许未来全人类的生活都会变得类似现代的沙特阿拉伯王国公民的生活。在那里,几乎所有的工作,都由外国人完成,而沙特公民(至少是男性)则享有相当高程度的财富和自由。

电影《人工智能》(2001)剧照。

然而,如果我们从现实的角度来研究这种人类享受闲暇的情景,就会看出这种可能性将很难被实现。因为控制资本的相对少数人,将控制社会的大部分财富,而与对社会没有价值贡献的其他人分享财富,显然不符合前者自身的利益。或许会有少数杰出的人类技术专家能够赚取大量的金钱,但即使是这样的可能性也不太现实,因为人工智能将在三个智能层面碾压人类,并能够比最优秀的人类更好地完成各项工作。

有人可能会辩驳,最终剩下的少数占据主导地位的资本家,或许会是利他主义者,并愿意把自己的财富分配给其他没有赚钱能力的人类,但我们在现实世界中,并没有看到很多证明此类举动可能存在的证据。事实上,在收入最不平等的国家(如印度)中,出现此类善举的概率比世界上最平等的国家(如丹麦)要少得多。

人类的増强和改造

库兹维尔认为,既然相较于超级人工智能而言,人类在经济上不会有竞争力,那么唯一有吸引力的发展道路,就是人类利用人工智能来增强自己,甚至是彻底改变自己。人类利用人工智能实现增强自己,已经存在很长时间了。

首先,是身体的增强。例如,有人可能会使用一条人工腿,来替代被截肢的腿。听力不好的人可以戴助听器,视力不好的人可以戴眼镜。

接下来,是思维增强。人工智能可以通过很多方式来增强人类的思维智能。在很多方面,人工智能已经比人类更聪明了,这些能力可能会被用于人类能做的事情。例如,人类可能会给自己增加一个记忆芯片或计算模块,现在已经有各种各样的方法,能够连接人脑和计算机。最近,科学家已经成功地将人脑与互联网连接起来,可以让人类直接与一个巨大的信息网络连接。

最终,我们还将看到情感的增强。黄明蕙教授曾开玩笑说,她有时候希望拉斯特有一个“同理心芯片”,可以在和她交流的时候运用。而拉斯特则希望黄明蕙教授在开这个玩笑的时候,就能使用这个同理心芯片,然后她就会知道,这样的玩笑听起来不公平且伤人。我们离制作出这样的同理心芯片还相当遥远,但必定会越来越努力地利用人工智能,让人类变得更好。

电影《银翼杀手:2022黑暗浩劫》(2017)剧照。

另一种可能性是,人类有可能完全脱离身体的躯壳。如果整个人类的大脑,都能够被映射和理解(目前,我们只能在体型微小的动物身上运用这种技术),那么理论上一个人的所有知识和记忆,都可以被上传到电脑,甚至转移到机器人的躯体里。这样的技术,被称为“数字季生”气因此,仅在理论上而言,只要计算机能够运行,这样的人类就可以永生。

作为一种已经存在的技术,人类增强几乎必然会随着时间的推移,而变得更加广泛和复杂,从只能够增强机械智能,发展到思维智能和情感智能的增强。

但我们也有理由相信,人类的增强和改造将无法在奇点中存活,且我们的理由非常合乎逻辑。假设我们现在有一个增强型的人类,表现为人类智能+人工智能。毫无疑问,增强的人类将优于未增强的人类,因为其人工智能部分可增加价值。现在,我们再从人工智能的角度来看,人类智能+人工智能可能同样优于单纯的人工智能,只要人类智能部分能贡献一些人工智能不具备的东西。

但问题在于,在奇点概念中,人工智能将在各个方面优于人类智能,换句话说,人工智能可以利用人工智能,生产出一个“更好”的人工智能版本(我们将其称为HI)。那么,人工智能生产的人类智能+人工智能,将比人类增强版的人类智能+人工智能更好。也就是说,人工智能将失去与人类合作的动力。结论是,在人类可以控制人工智能的范围内,人类智能+人工智能(HI+AI)的版本是可行的,但基于优胜劣汰的自然进化理论,更有效的人工智能更有可能存活下来,最后将导致不与人类智能合作成为对人工智能最有效的策略。

末日场景

博斯特罗姆认为,如果出现了人工智能“超级智能”,末日情景是最有可能出现的结果。他指出,在超级智能的人工智能实体中,未必存在仁爱等人类品质。这表明人类作为物种的存在将有处于巨大危险。例如,假设人工智能与人类之间的智力差异,大致类似于人类与蚊子之间的智力差异。如果人类认为彻底消灭蚊子不是什么大事儿,那么人工智能在将人类视为蟆蚁,并彻底灭绝人类的时候,能不能做到三思而后行?

物种进化的下一阶段?

当然,我们也拥有一个合理地应对高级人工智能的出现的积极方式,就是将其视为人类进化的下一个阶段。就像人类从“低等的”、不那么聪明的猿类进化而来那样,一个高级的人工智能,将以人类为基础进化出来。前面讨论的电影《人工智能》就预示了这种可能性。在那部电影中,人类已经灭绝,地球完全由人工智能管理。我们能否接受这种情况可能取决于我们与人工智能的联系,以及我们是否认为新兴的超级人工智能比人类“更好”。但是,要人类接受这样的想法可能存在相当大的阻力,这也意味着,人类接受超级人工智能,可能会变得越来越困难。

电影《人工智能:灭绝危机》(2018)剧照。

当人工智能变得足够聪明的时候,它可以在机械、思维和情感这三个领域,都优于人类的智能。这就是广为人知的奇点场景。我们的观点是,这种情况的发生,可能还需要几十年的时间,但它最终将是不可避免的。市面上已经有不少流行的电影,让我们初步领略了奇点到来之后的可能场景。

和所有大规模的技术变革一样,奇点导致的后果存在无数的可能性,从乌托邦式的(人工智能负责工作,人类负责享受),到灾难性的(人工智能彻底淘汰人类)。但在这两个极端场景的中间,存在一个相辅相成的领域,即人类有可能利用人工智能来增强自己的能力,就像今天我们经常使用机械辅助工具那样。不幸的是,我们得出的结论是,帮助人类可能不符合人工智能自身的利益。相比之下,奇点将使目前的社会由思维经济向情感经济的过渡,变得平淡无奇、无足轻重。

本文选自《情感经济:人工智能、颠覆性变革与人类未来》,较原文有删节修改。已获得出版社授权刊发。

作者丨[美]罗兰·T.拉斯特、黄明蕙

摘编丨安也

编辑丨张进

导语校对丨赵琳

版权声明:本文内容由互联网用户自发贡献,该文观点仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌抄袭侵权/违法违规的内容,一经查实,本站将立刻删除。

上一篇

下一篇