利用AI“复活”死去的人,能否实现数字生命,或将颠覆人类文明
0分享至随着人工智能技术的快速发展,数字生命成为了一个备受关注的领域。其中,数字化复活已经成为了一个备受争议的话题。在数字化复活的背景下,许多人开始思考数字化复活是否可以重塑人类文明。数字化复活的背景数字化复活是一个在科幻电影中常常出现的概念。它涉及到通过人工智能技术模拟人类生命的过程,对逝去的亲人进行“复活”,让他们以数字化的形式融入我们的生活中。在数字化复活的实践中,最核心的技术之一是深度学习。深度学习是一种模拟神经网络的技术,利用机器学习的方式模拟人类的思维过程,并且通过不断学习提高算法的准确性。目前,深度学习已经得到广泛应用,比如在金融和医疗行业都有着广泛的应用。数字化复活也已经有了一定的进展。一些机构提供了云上人工智能服务,为客户提供资深技术人员支持,以确保逝者信息真实可靠。利用先进的技术,人们可以通过人工智能技术重建逝去亲人,甚至将他们“复活”,让他们以数字化的形式融入我们的日常生活。数字化复活可能带来的影响数字化复活也引起了许多争议和难题。首先,数字化复活是否符合伦理道德标准?我们不能否认,逝者未曾完成的意愿和小我意识将被否定,他们的思想、意念和情绪也都是过去的,对于他们来说,重新回到这个世界是否是一种漫长而广阔的煎熬?无论如何,我们都应该认真思考这个问题,以确保数字化复活的实践不会给逝者和其家属带来更多的痛苦。其次,数字化复活是否会改变人们的世界观和价值观?我们的社会、文化和心理模式是根据人类的自然发展和生存状况形成的。通过数字化复活,人们将得到以前没有经验过的死亡。这将会引发许多社会、政治和心理问题。数字化复活可能彻底改变我们对生命和死亡的看法,在这个过程中,我们需要探讨和反思那些至关重要的问题。最后,数字化复活是否能成为未来数字生命发展的先驱?数字化复活的发展与数字生命的其他方面密切相关,并对未来的数字生命发展有重要的影响。但是,我们需要充分考虑到其潜在的负面影响,以确保这种技术的发展能够真正造福人类。数字化复活的前景数字化复活逝去亲人是人工智能技术的新发展方向,但绝对不会是未来研究的重点。因为这种技术可能会彻底改变人们对生命、死亡、社会和文明的看法,而大众是否做好迎接这种巨大改变的准备,现在还不得而知。不可否认的是,如果我们能够处理好数字化复活可能带来的各种问题,并制定相应的伦理规范,数字化复活未来的前景是相当广阔的。数字化复活的技术发展将会使得人们能够更好地理解和应对生命的特殊性质,从而带来更多的尊重和保护。此外,数字化复活还可能推动整个数字生命的发展。数字化复活技术的发展需要解决很多基础性的问题,比如如何模拟人类的思维和行为,如何通过机器学习提高算法的准确性等等。这些问题的解决将会使得数字生命整体的发展更加快速和稳健。而数字生命的发展则会带来许多实际的应用,比如智能机器人、虚拟人物等等,这将极大地促进社会和经济的发展。结论随着时间的推移,数字化复活技术将会越来越成熟和完善。我们需要充分考虑数字化复活可能带来的潜在负面影响,并尽量规避风险。同时,我们也需要制定相应的伦理规范,确保数字化复活技术的服务对象及其家属的合法权益得到保障。除此之外,我们也需要认识到数字化复活技术的巨大潜力。数字化复活技术的发展不仅将使得逝去的亲人可以以数字化的形式重新回到我们的生活中,从而带来更多的安慰和慰藉,更将推动人类文明和数字生命的发展,给我们带来更广阔的前景和可能性。特别声明:以上内容(如有图片或视频亦包括在内)为自媒体平台“网易号”用户上传并发布,本平台仅提供信息存储服务。
Notice:Thecontentabove(includingthepicturesandvideosifany)isuploadedandpostedbyauserofNetEaseHao,whichisasocialmediaplatformandonlyprovidesinformationstorageservices.
/阅读下一篇/返回网易首页下载网易新闻客户端刘嘉:人工智能会超越人脑吗
人工智能加速发展,有一天会超越人脑吗?近日,清华大学基础科学讲席教授、心理学系主任刘嘉在“人文清华讲坛”上发表了演讲《脑与人工智能:站在进化的节点上》。他指出,虽然目前人工智能无法与人脑相比,但它发展迅猛,类人智能是人工智能的下一个发展目标。
目前,人工智能和人的智能仍有巨大差距,还没有达到类人智能。我坚信,通过脑科学加上人工智能,有一天一定能制造出一个数字人类大脑。——刘嘉
如何认识我们看见的世界(作者 本报记者)我们无时无刻不在观察着这个世界,但我们看到的未必是真实的世界。到底发生了什么?这取决于我们的视觉系统。
打个比方,前面有一个绿苹果,它会以大约100亿比特/秒的信息量进入我们的视网膜,视网膜通过约100万个神经元连接到视觉皮层,经过加工之后再传到高级皮层,来决定我们看到的东西到底是什么。在这个信息传输的过程中,信息量被衰减到1/1亿,而大脑就像魔术师一样会把这些缺失的信息补上。为什么有的人看见一个绿苹果,会认为那是一个红苹果呢?因为人的眼睛看见的过程,其实是一个大脑重构的过程,而不是简单的复制。
正如康德所言:“没有感觉支撑的知识是空的,没有知识引导的感觉是瞎的。”这句话的上半句说的是,如果我们没有外部的信息输入,我们很难构建自己的心理世界;下半句说的是,如果你不知道你看到的是什么东西,那你就什么也看不见。因为我们从外部世界得到的信息往往是模棱两可的,我们必须加上一点先验知识、加上一点推理、加上一点猜测,需要大脑去重构,把自己的理解加进去,才能真正知道这个世界究竟发生了什么。
与理解相比,更重要的是创造。当我们的大脑没有被外部信息填满,留下一定的空间时,我们就能在这空间里创造出自己想要创造的东西。正如《小王子》的作者圣·埃克苏佩里所言:“一堆岩石在有人对着它思考时就不再是岩石了,它将化身为大教堂。”这就是人类了不起的创造。
在过去的300万年里,人和猴子分开进化,人发生的最大改变不是从四肢着地变成直立行走,也不是褪掉了身上的毛,而是大脑的体积增加了3倍。而且,大脑不是平均增加体积的,体积增加最大的部分在额叶。与我们200万年前的祖先相比,我们的头骨更往前突出了,以容纳更大体积的额叶。
我们为什么要有更强大的额叶?因为它使我们能够构造和想象出不存在的东西。比如,我们的祖先准备去打猎,他不用等看见了猎物才去做出反应,他只需要提前想象狩猎的情景,就可以把一切都安排好。人可以在脑海里预想一遍未来将要发生的场景,构建出一个个可能的未来,这样就能够制定出行动方案,这是人类能够战胜其他比我们更强大、更凶猛的动物,成为万物之灵的关键。这也正好印证了荀子的一句话:“然则人之所以为人者,非特以二足而无毛也,以其有辨也。”“有辨”是指我们能够辨识、能够思考,而这些都来自额叶的功能。
重构心理世界的知识从何而来那么,我们心理世界的这些预设的知识究竟是从哪里来的?
一部分先验知识来自基因的烙印。我们来到这个世界并不是一张白纸,我们是带着32亿年进化的智慧来到这个世界的,而这些智慧就印刻在我们的基因之中。比如,我们将18位女教授和女博士后的脸进行叠加,做成一个“平均脸”,你会发现这张平均脸充满了睿智和文气。平均脸代表了什么?人脸其实就是我们的基因图谱,我们的基因都写在脸上。所以,当我们把脸叠加之后,我们得到的是18位知识女性平均的基因。平均的基因代表突变很少。基因一旦突变,大概率而言是有害的,所以基因突变越少,说明基因越好,所携带的遗传性疾病的概率就越低,这就是为什么人类会觉得平均脸更好看的原因。
我们的另一部分先验知识则来源于社会基因。人和动物的进化有本质区别,动物是按照基因、按照达尔文的进化论逐步向前发展的,而人既有生物基因的演化,这代表着我们的过去,同时更重要的是,人还有社会基因的进化,它带着我们以与动物不一样的方式前进。
社会基因和生物基因的作用方式非常类似。远古时,人类祖先中有一个人突然因为某种原因把火生起来了,这相当于知识、技能被创造出来,就像基因突变,一个优秀的基因产生了。渐渐地,生火这种技能被传播给了其他人,从一个部落传到其他部落,最终成了人类普遍拥有的技能。接着,人类又学会了制作长矛和其他工具,经过漫长的发展,逐渐构建成我们今天的人类社会。
人类的文明演进可以分成三个时期:第一是原始文明,经历了200多万年,前后变化并不大。第二是农业文明,经历了5000年左右。这期间,野兽被驯服变成了家畜,人类成了文明的种族,懂得了一些天文地理的知识。第三是工业文明,从诞生至今不过近300年的历史。然而,工业文明给人类带来了巨大的变化,以至于我们不得不将它分成四个阶段:第一个阶段是机械化时代(1760年—1840年),出现了蒸汽机等。第二个阶段是电气化时代(1840年—20世纪初),出现了电力等。第三个阶段是自动化时代(1950年—21世纪初)。第四个阶段就是我们现在所处的信息时代。
文明进程出现革命性的进化信息时代诞生了新的物种——人工智能。
2002年,我的博士论文答辩题目是《面孔识别的认知神经机制》。当时,即使是最先进的机器,用来识别人脸的正确率也很低。2015年,我参加了江苏卫视《最强大脑》的节目策划。我发现,经过十几年的发展,人工智能已经强大到在人脸识别上可以胜过人类的最强大脑。
随后,我们研究建立了一个人工神经网络,训练它去识别性别,即区别对象是男性还是女性。结果,它的正确率能达到100%。而且,它在完成任务的过程中会产生与人类相类似的心理操作,也就是说,人工智能会自发产生和人类一样的心理世界。
那一刻我开始意识到,生物过去的进化都是基于碳基的方式来运行的。但是,当人类创造出人工智能后,一个新的物种产生了,这个新的物种是基于硅基的方式运行的,而这种基于硅基的物种一定会给我们带来一种革命性的变化。以前人类文明的进化都是循序渐进的,当人工智能这个阶段来临时,文明进程可能会出现一个“奇点”,出现一种革命性的进化。
为什么这么说呢?我们来看人类和人工智能的三大区别。
第一是算力。人类的大脑已经进化到极限,而人工智能随着科技的进步,它的算力将不断精进。
第二是存储能力。人类的大脑大约是1.4千克,虽然只占了我们体重的2%—3%,但是消耗了我们身体25%以上的能量,它是一个耗能大户。但人工智能的存储能力是无限的,一块硬盘不够,可以再加一块硬盘。
第三是寿命。人类的寿命是有限的,而人工智能的寿命是无限的。CPU烧了,可以换块CPU,电线断了,再换根电线就行了。
除了无限的存储能力、算力和寿命,人工智能还有着无尽的可能性。
2016年,AlphaGo击败了人类围棋顶尖高手李世石。后来,很多中国围棋高手也和AlphaGo进行了切磋。当时世界上排名第一的围棋选手柯洁说:“我们人类下了2000年围棋,连门都没入。”围棋的空间极其庞大,AlphaGo之所以比人类更加强大,并不是它比人类更加聪明,而是因为它探索了更大的空间,找到了更多下法而已。
如今,不仅在律师、医生、税务师、咨询师等专业领域,在绘画、音乐等艺术领域,都出现了人工智能的身影。“神经网络之父”、深度学习的创始人杰弗里·辛顿在接受采访时说:“将来深度学习可以做任何事情。”
类人智能是人工智能的发展目标然而,人工智能真的无所不能吗?
心理学家发现,对于一个简单的场景,人和人工智能有完全不同的理解。比如,一个人不慎从柱子上摔落,人工智能会说一个人从柱子上掉下来了,而我们对这个场景的反应是“惊恐和疼痛”。
这个区别体现了人类有一种特别重要的能力,叫共情,即别人遭受了苦难,我能感同身受。如果一个孩子缺乏共情的能力,就会导致自闭行为。所以,人工智能的奠基人之一马文·李·明斯基说:“现在的问题不是一个智能的机器是否拥有情感,而是不拥有情感的机器是否能拥有智能。”在马文·李·明斯基看来,情感是智能的基础,得先有情感,才有智能。
目前,人工智能和人的智能仍有巨大差距,还没有达到类人智能。如何实现类人智能呢?我认为它的切入点是脑科学加上人工智能。
举个例子,线虫是一种非常简单的生物,只有302个神经元,麻省理工学院的研究者模仿了其中的19个神经元,就完成了自动驾驶的一般任务。其实这项研究模仿的并不只是这个简单的生物,而是32亿年进化形成的智慧。从这个角度来讲,人类的大脑目前仍是这个世界上最聪明的大脑,它有860亿个神经元,平均每个神经元有3000个连接,它代表着宇宙中生物智力的最高水平。那么,人工智能的发展为什么不能向人脑学习,以人脑为模板呢?
我的同事们模拟线虫的302个神经元,构建了一个数字线虫,来模仿线虫在水里的游动。这只是一个开始,下一步也许我们会模仿神经元数量达百万级的果蝇,再到更高量级的斑马鱼,甚至到小鼠、大鼠、猕猴,最后模仿人类的860亿个神经元。虽然还存在巨大的鸿沟,但是我坚信,通过脑科学加上人工智能,有一天一定能制造出一个数字人类大脑。
人工智能未来的三种可能莎士比亚说,“所谓过往,皆为序章”。今天,我们正站在一个进化的节点上。
从32亿年前,一个单细胞逐渐发展成水生动物,然后爬上岸边变成两栖动物,再变成哺乳动物,在约300万年前哺乳动物猿猴又开始进化成人类,这些都是我们的过往。然而,此时此刻,我们的未来是未定的。
人类发明出了人工智能,今天,随着算力的推进,随着技术的进步,人工智能有了超越人类的可能。
未来会怎样?大约有三种可能。第一种,人工智能像科幻电影《星球大战》里的R2-D2一样,是人类忠实的伙伴,成为人类非常好的朋友,帮助人类变得更加强大。第二种,我们构建出了一个数字大脑,它的能力比人类的大脑更强,这时候人机可以合二为一,把人的意识、记忆、情感上传到数字大脑中,人就能获得“永生”。未来学家库兹韦尔在《奇点来临》这本书中写道,大约在2045年,这一刻就会到来。第三种,就像电影《终结者》里所展示的,人类文明彻底消失,进入机器文明时代。
未来到底会怎么样,最终取决于今天我们站在这个时间节点上做了些什么。
物理学和心理学对于什么是值得做的事情有不同的定义。物理学更在意空间,在物理学看来,如果放在一个远远超出地球大小的空间尺度下来看,那些有意义的事情,才是值得做的事情。而心理学更关注的是时间,我们思考的问题是:人间的一切问题,如果放在一个远远超出人的寿命的时间尺度下来看,它们还有没有意义?
1905年,孙中山和严复在伦敦有过一次会面,他们当时讨论的议题是半殖民地半封建的中国究竟如何改变。严复提出要慢慢教化民众,要稳步向前。孙中山对于严复的方法不太认同,他说:“俟河之清,人寿几何?君为思想家,鄙人乃执行家也。”后来,孙中山回到国内,开启了轰轰烈烈的辛亥革命。
对于现在的我们来说,解决未来的问题,就要从现在做起,行胜于言,以有限的生命行超越生命之事,这就是我们这一代人的使命。
编辑:李华山
2022年11月28日07:03:32
人工智能究竟能否获得主体地位
从存在论视角看人工智能的主体地位
我们针对以上三种观点讨论。其一,人类智能应用领域的广泛性。
科学家们通常承认,很多动物擅长某种事情,如蜜蜂擅长建造蜂房,老鼠擅长打洞。但动物在它们各自擅长的领域之外,往往就会“黔驴技穷”,比如蜜蜂不会打洞,老鼠也不会构造房子。也就是说,动物和自己的生命活动是直接同一的,它所擅长的领域通常是固定的,来自于本能;而且这样的领域是有限的,不会超出它们生存所需要的范围。但人类与一般动物不同,人类虽然天生不会造房子,但可以通过后天的学习,学会如何建造房子;人类虽然天生不会打洞,但可以通过设计出相应的机械打造出合适的洞穴。所以马克思指出,人的活动与动物的本能活动之间存在着本质区别:“动物只是按照它所属的那个种的尺度和需要来构造,而人却懂得按照任何一个种的尺度来进行生产,并且懂得处处都把固有的尺度运用于对象;因此,人也按照美的规律来构造。”
人类之所以是“万物之灵”“世界的主宰”,关键在于人“会思维”,具有智能。博斯特罗姆(NickBostrom)和尤德考斯基(EliezerYudkowsky)认为,虽然关于“人类智能是否是普遍的”这一问题存在争议,但毫无疑问,人类智能肯定比非人科智能具有更广泛的应用。这也就是说,人类智能的应用领域并不会像一般动物那样固定在某个特定的领域。人类智能可以在不同的领域中起作用,并且,其应用领域可以不断地发生变化。上述第一种观点认为,正是因为人类智能的这种特征,使得人类可以获得独立的主体地位。
我们现在需要追问的是:人工智能能否发展出类似于人类智能那样的特征,可以独立地应用于各种不同的领域。在回答这个问题之前,我们有必要首先扼要了解一下什么是人工智能,以及人工智能的一般运作模式。
人工智能正在快速发展之中,关于“人工智能是什么”这一问题,目前学术界尚没有一个公认的定义。大致说来,人工智能是一门通过利用计算机、数学、逻辑、机械甚至生物原则和装置来理解、模拟、甚至超越人类智能的技术科学。它可以是理论性的,但更多的时候是实践性的,主要属于认知科学。其中,大数据是人工智能的基础,而程序或算法则是其核心。当然,基于对人工智能的这种理解,要想直接回答“通过这样一门技术科学所获得的成果能否像人类一样获得主体地位”这个问题还难度甚大,但这不妨碍我们间接地思考这一问题的答案。
学者们往往将人工智能划分为强人工智能与弱人工智能。这一划分最早是由塞尔(JohnRSearle)提出来的。他首先提出了这样一个问题:我们应该赋予最近计算机模拟人类认知能力的努力什么样的心理和哲学意义?然后基于对这一问题的回答区分弱人工智能与强人工智能。弱人工智能认为,人工智能模拟人类心灵的价值原则是为我们提供一个强有力的工具。而强人工智能则认为,计算机并不仅仅是一种工具,在它能够给出合适的程序的意义上,它可以被理解为拥有其他种类的认知状态,应该被视为一个心灵。塞尔的区分得到很多人的支持。如阿库达斯(KonstantineArkoudas)和布林斯约德(SelmerBringsjord)认为,弱人工智能旨在构建行动聪明的机器,而在该机器实际上是否聪明的问题上不采取立场;至于强人工智能,他们借鉴了海于格兰(J.Haugeland)的观点,认为人工智能不仅仅是模仿智能或产生某些聪明的假象,而是希望获得真正的主体,即成为拥有心灵的机器。
如果我们接受弱人工智能的观点,认为人工智能只是一种工具,那么很显然,人工智能无法拥有主体地位。首先,工具总是被动的,为人类所利用,无法自主地行动。其次,工具往往具有特定的功能,只适用于特定的任务,无法像人类智能那样适用于比较广泛的领域。当前人工智能产品所展现的恰恰是这种工具性。如AlphaGo目前在围棋领域独步天下,但对其他领域一无所知;“薇你写诗”小程序比较擅长古诗创作,却无法处理其他事务。因此,如果认为人类智能是由于能够广泛地适用于各种不同的领域而获得主体地位,那么弱人工智能无论如何都无法获得主体地位。
如果我们支持强人工智能的观点,认为人工智能不仅仅是一种工具,更应该被理解为心灵,那么情况将会复杂得多。因为心灵一般被视为可以适用于多种不同的领域。如果这种观点成立,似乎意味着强人工智能视角下的人工智能应该具有主体地位。
在做出肯定的回答之前,我们有必要追问强人工智能视角下的心灵界定。根据塞尔的观点,强人工智能认为,应该被视为心灵的机器是被“合适程序”控制的机器。这表明,强人工智能所理解的心灵实际上等价于程序。即是说,强人工智能认为,心灵即是程序。很明显,这种对心灵的解释与人们通常对心灵的理解是不同的。基于对程序的理解,博斯特罗姆和尤德考斯基认为,人工智能要求具有鲁棒性(berobust,即系统在一定参数波动下能够维持其基本性能的特性),而不是可篡改性(manipulation)。即是说,人工智能要求它的产品能够排除外在因素的影响,在不同场景中实现同一个目的。因此,它所预设的程序总是为了某个特定的目的而被内置于其中的,而这与人类智能的要求恰恰相反。人类智能并不需要为心灵预先设定某个特定的目的,它的目的总是随环境的变化而发生变化,甚至在同一种环境中也可能有所不同。当然,我们可以设想程序叠加的情况。也就是说,我们可以设想在某个时候,科学家将不同的程序通过某种方式融合在一起,使其不但能够处理不同场景中的事情,甚至可以在同一场景中处理不同的事情。在我们看来,这种情况即便成立,人工智能可能仍然无法获得主体地位。因为严格地说,人类智能所能应用的领域是无限的。因为人类有无限的可能性。但对于人工智能而言,无论如何添加算法,它的程序数量总是有限的。因此,如果坚持人类智能是由于能够广泛适用于各种不同的领域而获得主体地位,那么强人工智能视角下的人工智能也无法获得主体地位。
从认识论视角看人工智能的主体地位
我们现在考察第二类观点,即认为人类之所以拥有主体地位,是因为人类拥有某些不同于非人类的高级智能。至于这些高级智能到底是什么,观点各异。如亚里士多德认为,“理性实为人类所独有”〖ZW(〗亚里士多德:《政治学》,吴寿彭译,北京:商务印书馆,1983年,第385页。〖ZW)〗;卡西尔则认为,“应当把人定义为符号的动物”,也就是说,会使用符号即语言是人类独有的能力;而马克思则同意富兰克林的理解,认为人是能制造工具的动物。在人类所具有的这些独特能力中,究竟哪种或哪些能力是人类具有主体地位的真正原因呢?回答这个问题十分困难,甚至通过判断人工智能能否获得此种能力、从而推论人工智能能否获得主体地位的思路也是行不通的。因为我们很难推断出哪种或哪些能力是人类具有主体地位的真正原因。
图灵测试为解决上述问题提供一个很好的方案,因为它并不需要假设人类具有何种独特的能力。图灵测试由图灵(A.M.Turing)于1950年首次提出。某一机器能否通过图灵测试,被许多学者看作判断该机器是否具有心理状态的标准。在论文《计算机器与智能》中,图灵围绕“心灵能否思考”的问题设计了一种“模仿游戏”。在这个游戏中,存在一个询问者,一个男性A和一个女性B,他们处于相互隔离的房间中,询问者的目的是通过询问A和B以确定他们各自的性别,A和B则以打字的方式回复询问者,其中,A试图扰乱询问者的判断,B则通过给出真实的答案帮助询问者。图灵认为,如果以一台机器代替A,并且游戏可以进行下去,那么就意味着该机器具有心理状态。如果图灵测试是有效的,我们就可以按照这个标准,在不需要知道什么样的能力是人类获得主体地位的原因的情况下,判断机器是否具有心理状态,并进一步判断人工智能能否获得主体地位。因此,问题的关键在于判断图灵测试是否有效。
图灵测试自诞生以来,在很长时间内都得到学术界的支持,直到塞尔提出“中文屋”思想实验,才打破了这一局面。中文屋的思想实验大致可以概括如下:假设塞尔被关在一个屋子里,这个屋子里有三批书,第一批书和第三批书是中文,第二批是英文。第二批书中的英文描写的是如何将第一批书和第三批书的内容联系起来的规则,并且指导塞尔在回复过程中使用什么样的符号。塞尔不懂中文,只懂英文,他的工作就是利用规则和中文书中的内容回复他看不懂的中文问题。从外部来看,塞尔似乎懂中文,因为他给出的回答与会说中文的人没有什么区别。但实际上,塞尔只不过是按照规则操作符号,他始终没有理解中文问题,甚至不知道他所处理的是中文。塞尔认为,他在中文屋里的工作是计算机工作的一种例示,只不过他所遵守的是英文的解释,而计算机遵守的是内置于其中的程序。如果塞尔的中文屋思想实验成立,那么就表明,即使有人工智能通过了图灵测试,也不能证明该人工智能具有心理状态。因为人工智能只不过是按照符号的句法规则进行操作,并没有达到真正的理解。
塞尔的中文屋思想实验提出以后,引起了广泛的讨论。由于篇幅有限,我们不打算在此详细讨论这些争论,而是将注意力集中在塞尔根据他的中文屋思想实验提炼出的一个核心论证之上。这个论证可以概括如下:
公理1:计算机程序是形式的(句法的);
公理2:人类心灵拥有心智内容(语义的);
公理3:句法自身既不是语义的结构性成分,也不是它的充分条件;
结论:程序自身既不是心灵的结构性成分,也不是它的充分条件。
这个论证的关键在公理3,即句法不能构成语义。一方面,如果我们将计算机的本质看作程序,而程序本身是由代码构成的,那么它只是符号的组合,只具有句法特征。另一方面,语义对于一个符号系统而言是独立的,如果有人希望发现句法的运作与语义之间的联系,那么,他必须能提供某些复杂的证据以展现这一点。就此而言,句法和语义不同,仅凭句法不能解释它的语义特征。因此,如果计算机可以被看作程序,那么最终的结论很可能是:机器,或者说人工智能的产品无论如何都不能被视为拥有心灵。
有些学者并不同意塞尔对机器的理解,比如科尔(DavidCole)、丹尼特(DanielDennett)、查尔默斯(DavidChalmers)等人认为,运行程序的计算机并不能简单地等同于句法,而应该视为一个复杂的电子因果系统。如果考虑到现在的人工智能产品(比如智能机器人),这一特点更加明显。也就是说,程序虽然可以视为句法,但运行程序的东西本身不能简单地归结为句法,它们与现实世界之间存在着紧密的联系。查尔默斯等人的观点毫无疑问是对的,但这是否意味着塞尔的批评无效呢?在我们看来,即便肯定机器人与现实世界之间的因果联系,也无法认定人工智能具有心智状态。因为因果联系本身不能为语义提供任何辩护。语义系统涉及真假,而真假与辩护相关,需提供证据或理由加以支持;但因果关系本身没有辩护能力,因果关系只能描述发生的事件。塞拉斯(WilfridSellars)曾说过:“在刻画有关知道的情景或状态时,我们不是为该情景或状态给出一个经验性的描述;我们是将其置于理由的或者关于辩护的逻辑空间之中,并且能够为一个人所说的内容辩护。”这也就是说,关于辩护的逻辑空间与经验性的描述必须明确区分开来。语义与辩护的逻辑空间相关,而因果关系则是一种经验性的描述,两者属于不同的层次。因此,即便人工智能产品与现实世界之间存在紧密的因果联系,仍然无法构成心智状态所要求的语义部分。从这个角度说,塞尔的结论仍然成立。也就是说,人工智能无法真正地具有心理状态。
由于塞尔的中文屋论证并没有假设人工智能产品具有何种能力,因此,如果我们为塞尔的论证提供的辩护是有效的,那么就表明,人工智能无论获得何种能力,都将无法获得主体地位。因为人工智能所获得的能力只能基于句法和因果关系进行运作,但无论是句法还是因果关系都无法构成主体所要求的语义成分,因而无法获得主体地位。
从价值论视角看人工智能的主体地位
从价值维度说,人之所以获得主体地位,是因为人类将自己当作目的,而不是像一般动物一样仅仅依据本能生活。当然,人类的目的很多,具体到个人身上,事业、爱情、甚至活着都可以是自己的目的。如果人工智能的发展使得自己具有目的意识,不再将自己视为人类的工具或者创造品,那么,我们可能就不得不承认人工智能具有主体地位。然而,在人工智能获得目的意识之前,我们需要考虑的是,在什么情况下,人工智能才有可能具有目的意识。
根据康德的理解,一个存在物要想具有目的意识,它必须首先是理性的,而且在实践领域必须是自由的。将这种观点应用于人工智能,我们认为,如果人工智能想要具有目的意识,必须首先具有理性能力,并且具有自由意识。当然,“什么是理性”,“什么是自由”,这些问题学术界一直存在争议,众说纷纭,莫衷一是。但处理这些争论不是我们讨论的重心,我们采用常识性的理解足矣。我们可以将人工智能具有理性能力理解为他能够进行反思推理,即人工智能知道自己在做什么,并根据已有的证据能够做出推断;至于自由意识,则可以设想成人工智能能够自由地进行价值选择,做出决断。如果我们的这种理解成立,那么,人工智能是否具有理性反思和推断能力,是否能够自由地进行价值选择、做出自由的决断呢?
首先考虑理性能力。从技术发展的视角看,令人工智能具有反思推理能力,应该不存在什么终极的困难。即使现在人工智能产品无法达到这一要求,也不意味着它们将来无法做到。实际上,围棋领域的AlphaGoZero已经具备了一定的推理能力,因为它可以根据围棋规则自我博弈,自己学习,并不断进行评估,推导下一步棋应该怎么走。而且,我们可以认为,AlphaGoZero已经具备了一定的反思能力,因为它是根据自我博弈的棋局深度学习、并进行优化选择的。因此,问题的关键在于考察人工智能产品能否在实践中具备自由决断的能力。
关于人工智能产品在实践中是否具备自由地选择、决断能力的问题,我们首先需要理解自由地选择和决断能力到底是什么样的能力。如果我们将自由地选择和决断的能力置于某一个系统内,那么很显然,人工智能产品可以自由地选择、决断。比如,在智能驾驶领域,无人驾驶汽车可以依据内嵌的交通规则和传感器获取的实时路况,实时地选择到底走哪一条路线。没有任何人会阻碍它的选择。问题在于,这种系统内的自由决断称不上真正的自由。就像一只老虎可以在羊群里自由地选择追逐任意一只羊,但几乎没有人承认老虎是自由的一样。真正意义上的自由需要突破这种特定的目的以及自身的限制,在所有的可能世界中进行选择。也就是说,人工智能要想真正地获得自由,必须能够不再局限于自身的某个特定目的,它所内嵌的程序需要能够赋予人工智能突破自身的潜力。
在我们看来,这种情况是不可能的。因为程序一旦生成,便决定了运行此程序的人工智能的“所是”,不论在什么情况下,它都不可能发生任何本质上的变化。一种可以设想的极端情况是人工智能自己编程,并利用相关的资源制造出新的人工智能产品。在这种情况下,新的人工智能产品有可能突破原有局限,进而获取新的能力;而原有的人工智能产品则有可能将制造出新的人工智能产品视为自己的目的。
接下来讨论被制造的新人工智能产品。被制造出的新人工智能产品受制于原有的人工智能产品,只要它的程序被固定下来,那么它就会受程序本身的限制,因而不可能是自由的。而且,如果我们将原有的人工智能产品与新的人工智能产品视为一个整体,那么,新的人工智能产品无论如何也无法突破这个整体的限制。即便它能够自由选择,这种自由选择仍然只是系统内的自由,而非真正意义上的自由。对于原有的人工智能产品而言,情况要更加复杂一些。因为它制造出新的人工智能产品的工作是一种创造工作,如果这种创造工作是自由的,它能够自由地创造出新的人工智能产品,那么,我们必须承认这种人工智能产品具有主体地位。问题在于,这种能够自由创造的人工智能产品是否可能?在我们看来,除非多明戈斯(PedroDomingos)所说的能够解决所有事情的“终极算法”存在,否则,这样一种能够自由创造的人工智能产品是不可能的。因为任何人工智能产品最终都会受算法的限制,都不可能进行自由的创造。但多明戈斯主张终极算法存在的论证很难令人信服。因为他所期望的终极算法依赖于现存的机器学习领域中的五大主流学派力推的五大主算法,如符号学派力推的规则和决策树、联结学派力推的神经网络、进化学派主张的遗传算法、贝叶斯学派主张的概率推理和类推学派推崇的类比推理。但五大主流学派主推的这些算法未必能处理所有事情。更重要的是,任何一种算法都是基于已有的数据进行自主学习,都很难处理小概率的黑天鹅事件。因此,我们认为,由于人工智能受制于程序(算法)本身,注定了它不可能获得真正的自由,也不可能获得价值论意义上的主体地位。
小结
通过以上论证,可以从存在论、认识论以及价值论的视角都得出了同样的结论,即人工智能难以获得真正的主体地位。从存在论的角度看,人工智能产品处理的领域是有限的;从认识论的角度看,人工智能产品无法获得真正的理解;从价值论的角度看,人工智能产品无法获得真正的自由。
不过,由于人工智能毕竟是一种颠覆性、革命性的高新科学技术,人工智能发展快速,特殊应用领域广泛(例如人形智能机器人的研发),我们也不能故步自封,固执己见。咀嚼现实,我们不难得出这样的结论,即不能将所有的人工智能产品简单地等同于工具。因为对于工具而言,它的价值仅仅只在于服务人类;但对于人工智能而言,我们不难想象在未来的某个时候,人工智能的发展使得一些人对某些人工智能产品(如人形的智能小秘书、智能保姆、智能机器人伴侣等)产生了一定的情感,并出于某些因素善待这些产品。尤其是智能技术与生物技术相结合,当仿生科技越来越先进之后,这种可能性将会越来越高。在诸如此类的新情况下,将所有人工智能产品简单地视为工具并不合适,甚至会受到一些人的质疑和抗议。因此,在未来智能社会,如何对待人工智能产品是值得我们思考的一个重大问题。
由于人工智能一般而论不可能具有主体地位,同时,有些人工智能产品又不能简单地等同于工具,因此,我们不妨将人工智能产品分类,其中一部分人工智能产品只能被当为工具,比如智能语音识别系统,而另一些人工智能产品则由于其特殊性,可以赋予其介于人类与工具之间的地位。我们可以将后者称为准主体地位。后者并不是真正的、完全意义上的主体,而是人类“赋予”它的主体地位。这有些类似今天登堂入室、地位不断攀升的宠物。人们之所以认为需要善待狗、猫之类宠物,甚至坚持它们是家庭的一份子,是因为“主人”长期与宠物相处,已经对这些宠物产生了复杂的情感,将它们当作一个主体来看待。不过需要指出的是,宠物之所以能够获得这种地位,并不是凭借宠物本身的能力获得的,而是人类赋予它们的,这源自人类本身的一种自我需要。如果人类在感情上不需要这些宠物,那么,它们就将失去这种地位。某些人工智能产品可能获得的准主体地位也与此类似。即是说,即便某些人工智能产品最终被某些人视为主体,这种主体地位仍然是人类赋予它们的,它最终依然可能失去这种主体地位。
以上图片来自百度图片
责编|阿尔法马返回搜狐,查看更多