人工智能是否能具有像人类一样的理解能力
对人工智能来说,理解数据很简单,但要设计一个真正能够检验机器理解能力的测试却很困难。还记得IBM的人工智能程序“沃森”(Watson)吗?2010年的一条宣传语称,“沃森能够理解自然语言的模糊性和复杂性。”然而,正如我们所看到的,沃森后来在“运用人工智能的医学革命”探索中遭遇惨败,表面上的语言能力并不等同于真正理解人类语言。
理解自然语言一直是人工智能研究的主要目标之一。起初,研究人员试图手动编程机器所需的一切,使其理解新闻故事、小说或其他人类可能编写的东西。正如沃森所展示的那样,这种方法是徒劳的,研究人员不可能将理解文本所需的所有不成文的事实、规则和假设都写下来。最近,一种新的范式已经建立起来:与其构建明确的知识,不如让机器自己学习理解语言,它所要做的,就是吸收大量的书面文本并学会预测单词。研究人员将此称为语言模型。2020年,美国旧金山的人工智能公司OpenAI训练并开发了一个自回归语言模型,称为“生成型已训练变换模型3”(GenerativePre-trainedTransformer3,简称GPT-3)。当基于像GPT-3这样的大型神经网络时,这些模型可以产出令人难以置信的,可与人类散文(和诗歌!)媲美的“作品”,并似乎能执行复杂的语言推理。
GPT-3是用成千上万的网站、书籍和百科全书的文本训练出来的,那我们能否说,它已经超越了沃森的“表面功夫”?它真的理解它产生的语言和表面上的推理?在人工智能研究领域,这个话题存在着严重的分歧。在过去,这样的讨论是哲学家的研究范畴,但在过去十年间,人工智能已经冲破了学术圈层,进入了现实世界;有人认为,人工智能对现实世界的缺乏理解可能会产生真实的、甚至是毁灭性的后果。在一项研究中,沃森提出了“许多不安全和不正确的治疗建议”。另一项研究表明,谷歌的机器翻译系统在为非英语患者翻译医疗说明时,出现了一些重大错误。
那么,我们如何在实践中确定机器真的具有理解能力?1950年,计算机先驱阿兰·图灵试图用他著名的“模仿游戏”来回答这个问题,这个游戏现在被称为“图灵测试”。一个机器如果能和一个人展开对话(通过电传设备),而不被辨别出谁是人类,谁是机器,那么我们就应该认为这台机器具有智能,即它是能思考的,具有理解能力。
不幸的是,图灵低估了人类被机器愚弄的倾向。即使是简单的聊天机器人,比如德裔美国计算机科学家约瑟夫·魏森鲍姆在20世纪60年代发明的人工智能心理治疗师“Eliza”,也会欺骗人们,让他们相信自己是在和一个善解人意的人交谈,即使知道他们的谈话对象是一台机器。
在2012年的一篇论文中,计算机科学家赫克托·莱韦斯克、欧内斯特·戴维斯和莱奥拉·摩根斯坦提出了一个更客观的机器智能测试,他们称之为“威诺格拉德模式挑战”(Winogradschemachallenge,简称WSC)。这项测试已经被人工智能语言社区采用,作为评估机器理解能力的一种方式,也许是最好的方式——尽管目前来看还尚不完美。该测试以斯坦福大学语言研究者和计算机科学家特里·威诺格拉德的名字命名,由两个句子组成,二者仅有一个单词不同,然后紧接着一个问题。机器需要识别问题中的前指关系,即指出问题中某一代词的先行词。为了正确回答问题,机器需要拥有常识推理的能力。以下是两个例子:
句子1:我把水从瓶子里倒进杯子里,直到它满为止。
问题:什么满了,瓶子还是杯子?
句子2:我把瓶子里的水倒进杯子里,直到它空为止。
问题:什么空了,瓶子还是杯子?
句子1:乔的叔叔打网球仍然能赢他,尽管他大了30岁。
问题:谁更年长,乔还是乔的叔叔?
句子2:乔的叔叔打网球仍然能赢他,尽管他年轻了30岁。
问题:谁更年轻,乔还是乔的叔叔?
对于特定的威诺格拉德模式集,神经网络语言模型达到了约97%的准确率。这大致可以和人类的表现相媲美。
在每一对句子中,一个词的差异可以改变代词指的是什么东西或什么人。正确回答这些问题需要一定的常识推理能力。威诺格拉德模式的设计正是为了测试这种理解能力,减轻了图灵测试在不可靠的人类判断或聊天机器人技巧下的弱点。特别是,该挑战的作者设计了几百种他们认为是“无法搜索”的模式:机器不应该使用谷歌搜索(或类似的任何东西)来获得正确的问题答案。
威诺格拉德模式是2016年举行的一场比赛的主题,在比赛中获胜的程序只理解对了58%的句子——很难说比瞎猜的结果好多少。人工智能研究专家奥伦·埃齐奥尼打趣道:“当人工智能无法确定一个句子中的‘它’指的是什么时,很难相信它会接管世界。”
然而,由于大型神经网络语言模型的出现,人工智能程序解决威诺格拉德模式挑战的能力正迅速提升。OpenAI公司在2020年的一篇论文报告称,在威诺格拉德模式的基准测试集中,GPT-3在近90%的句子上是正确的。其他的语言模型在经过这些任务的专门训练后,表现得甚至更好。在撰写本文时,神经网络语言模型在一组特定的威诺格拉德模式——SuperGLUE基准测试数据集的一部分——上达到了约97%的准确率。如此高的准确性已经大致相当于人类的表现。那么,这是否意味着神经网络语言模型已经获得了类似人类的理解能力?
不一定。尽管创建者尽了最大的努力,但这些威诺格拉德模式实际上并不能“免于谷歌搜索”。这些挑战,就像目前许多其他人工智能语言理解测试一样,有时会允许神经网络在没有理解的情况下也能很好地运行。例如,考虑以下句子,“跑车超过了邮车,因为它行驶得更快”和“跑车超过了邮车,因为它行驶得更慢”。一个在大量英语句子语料库上训练的语言模型会归纳“跑车”和“快”、“邮车”和“慢”之间的相关性,从而可以仅基于这些相关性而不是利用任何理解能力来做出正确回答。结果是,在SuperGLUE测试中,许多威诺格拉德模式允许使用这种类型的统计相关性。
艾伦人工智能研究所的一组研究人员没有放弃将威诺格拉德模式作为机器智能理解能力的测试,而是尝试解决其存在的一些问题。2019年,他们创建了“WinoGrande”,一个更大的威诺格拉德模式集。WinoGrande包含了多达44000个语句,而不是仅有数百个例子。为了获得如此大量的语句,研究人员求助于流行的众包工作平台“亚马逊土耳其机器人”(AmazonMechanicalTurk)。在这个平台上,每个(人类)工作者被要求写下几对句子,并加上一些约束,以确保集合中包含不同的主题。不过,现在每对句子中可能会有不止一个单词的差异。
然后,研究人员试图将一种相对简单的人工智能方法应用到每个句子上,剔除那些过于容易回答的句子,从而消除可能出现的统计捷径。正如预期的那样,对机器来说,剩下的句子比最初的威诺格拉德模式集要困难得多。人类的得分仍然很高,但与人类表现相匹配的神经网络语言模型在WinoGrande集合中的得分要低得多。这个新的挑战似乎弥补了威诺格拉德模式作为常识理解测试的缺陷——只要句子经过仔细筛选,就能确保它们不受“谷歌搜索”的影响。
然而,一个新的惊喜正在酝酿。在WinoGrande模式集发布后的近两年时间里,神经网络语言模型变得越来越大,它们在这个新挑战中的得分似乎也越来越高。在撰写本文时,目前最好的程序——已经在太字节(TB)级别的文本上进行了训练,然后在数以千计的WinoGrande示例上进行了进一步的训练——准确率接近90%(人类的准确率约为94%)。这种表现的提升几乎完全归功于神经网络语言模型及其训练数据规模的增加。
那么,这些规模越来越大的神经网络最终能获得像人类一样的常识理解能力吗?答案同样是否定的。WinoGrande的研究结果有一些重要的警示。例如,由于句子依赖于“亚马逊土耳其机器人”的工作者,写作的质量和连贯性相当不均衡。同时,在清除“不能免于谷歌搜索”的句子时,“不够成熟”的人工智能方法可能过于简单,不仅找出了所有可能用于大型神经网络的统计捷径,而且可能只应用在个别句子上,导致一些余下的句子最终失去了“孪生语句”。一项后续研究表明,当神经网络语言模型只对两个“孪生”句子进行测试——并且要求两个句子都正确——的时候,其准确率要比人类低得多。这意味着,早先准确率接近90%的结果并没有看上去的那么显著。
那么,我们应该如何看待威诺格拉德模式挑战?主要的教训是,我们通常很难从人工智能系统在特定挑战中的表现来判断它们是否真正理解其所处理的语言(或其他数据)。我们现在知道,神经网络经常使用统计捷径——而不是实际类似于人类的理解能力——以在威诺格拉德模式以及许多最流行的“通用语言理解”基准测试中获得上佳表现。
问题的关键在于,理解语言的前提是理解世界,而只接触语言的机器无法获得这样的理解。例如,让我们理解一下“跑车超过了邮车,因为它行驶得更快”这句话是什么意思。首先,你需要知道跑车和邮车分别是什么,而两种车之间可以互相“超车”;此外,在更基本的层面上,车辆存在于这个世界上,能与其他事物产生互动,而且由人类驾驶,有着各自的用途。
在我们人类的认知中,所有这些都是理所当然的知识,但它们并没有内置在机器当中,也不可能明确地记录在任何语言模型的训练文本中。一些认知科学家认为,人类依靠先天的、非语言的核心知识来学习和理解语言,这些核心知识包含了空间、时间和其他许多关于世界的基本属性。如果我们想让机器同样掌握人类语言,首先就需要赋予它们人类与生俱来的基本原则。在评估机器的理解能力时,我们应该从评估它们对这些原则的理解开始,这或许可以称为“婴儿形而上学”。
与沃森和GPT-3等人工智能系统的惊人成就相比,训练和评估婴儿水平的机器智能似乎是一个巨大的倒退。但如果我们的目标是让人工智能拥有真实可信的理解能力,这可能是唯一的途径;只有这样,机器才能真正理解句子中的“它”指的是什么,同时也理解与“它”有关的其他所有一切。(任天)
这些工作将被人工智能取代,来看看你的行业能幸免吗
原创小北北京大学出版社人工智能拍了拍你,然后你的工作没了……没了……早在1965年,人工智能这个术语就被正式提出。
1977年,IBM深蓝战胜人类国际象棋冠军,标记着人工智能往前迈开了重要一大步。2017年谷歌旗下的AphaGo与柯洁对战,3比0获胜,至此,围棋界公认AphaGo的棋力已经超过人类职业围棋顶尖水平。含泪对弈的柯洁正是此弈之后,人工智能迅速引起社会关注,人工智能即将取代人类工作的话题被广泛讨论,引起了普遍的狂热和焦虑。
事实上,在AlphaGo成名前人工智能就已不再只是一项存在于实验室中的科技,Siri、微软小冰、小爱同学等都已经出现在我们的生活中,只不过那时的他们还没那么聪明罢了。而随着人工智能水平的不断提高和人工智能的广泛应用,确实有越来越多的岗位受到冲击——
例如从2016年到2018年,智能化建设的推进使银行业务线下人工处理率从15.69%下降到11.31%。因此,中国农业银行雇用了638名技术工程师,而26808名柜面人员则失去了工作。
这一趋势在中国建设银行的事例中更为明显,2017年中国建设银行将线下人工处理率降低至3%,柜面人员和技术工程师的数量在2018年均有所下降。
还有那些更直观的例子,高速收费站慢慢地没有了收费员,图书馆多了自助机器人,超市多了自助结账通道......所有这些在日常生活中具体可感的事例让人们“人工智能即将让人类失业”的焦虑更是有增无减。站在人类历史的角度来看,人们的这种焦虑实属变革中的常态。这不是人类技术史上第一次有人担心工作被机器取代。
根据历史经验,虽然科技进步取代了人类的一部分工作,但同时又会派生出新的工作。比如蒸汽机革命让大批使用手摇纺织机的工人失业,但英国的纺织工业却因此有了巨大发展,而由此也需要更多的人从事相关工作。但是,对于每一个个体而言,我们最关心的并不是那些宏大的历史叙事中的劳动者,而是生活在真实世界中的需要工作养家糊口的劳动者。对于历史而言,一些职业消失了,一些新的职业会填补空白,如此就业岗位数量总体是稳定的。而对于个人而言,在技术变迁中提供的新岗位往往是自己无法胜任的。因此,人们总是容易看到那些失去的工作,但不容易看到新技术带来的新工作。
人工智能对就业的影响已经初见端倪,而未来随着人工智能的普遍应用和发展,人工智能又将对就业市场产生什么影响呢,哪些人最有可能被人工智能替代?来看专家团队的分析吧。人工智能的理论替代概率这一概念可理解为人工智能取代人类智能的全部潜力。
更通俗点,就是从理论上讲人工智能可以在哪些方面在哪种程度上取代人,比如AlphaGo就能够在计算能力上完胜人类,但是它的识图水平远比不上人类。
我们将引入指数“人类水平绩效评分”(也就是人类做某项工作的平均水平)来定义人工智能理论替代概率。人工智能技术在人类水平绩效评分卡中所获分数越高,它对劳动力的理论替代概率就越高。下图显示了按目标能力划分的技术分类。
与人类能力相对应的主要人工智能技术人工智能替代的是能力而非职业,因此那些被替代的劳动力则需要依靠其他能力寻找新工作。
各职业人工智能理论替代概率的计算结果显示,对感知和操作能力、创造力和沟通技能要求较低的职业更易受到人工智能的影响,例如水利设施管理养护人员替代率高达88%,机械制造加工人员替代率为87.67%。
另一方面,人工智能虽然在过去十年中取得了巨大进展,但许多关键性的人工智能技术仍在技术生命周期的起始阶段,因此人工智能就目前而言发展尚处于起始阶段,我们依然有时间去学习新技能以满足将来的工作要求。各职业理论替代概率人工智能应用率顾名思义,人工智能应用率其实就是AI应用在各个行业的广泛程度。这一因素衡量了人工智能技术的现实收益。
当人工智能系统的能力显著提高至接近甚至超越人类水平后,AI方案会在各类行业工作场景中爆发式广泛应用,取代人类劳动。
但是,受制于投资回报、效率、改造成本甚至政治原因等现实瓶颈,人工智能在工业领域的应用以及对人工劳动的替代进度将远远落后于人工智能的理论发展速度,而且AI方案在不同行业和职业的落地速度也差异巨大。即,人工智能虽然看上去对我们工作威胁巨大,但它现在还是只刚出生的小老虎,对我们威胁有限。
人工智能时代最重要的就是各类数据的采集和获得,因为人工智能需要大量数据“投喂”如此他们才能变得更聪明。想想各大厂,如阿里、腾讯等最值钱的是什么?我们现在最担心的是什么?就是他们手中掌握的广大用户的各类使用数据。因此,我们将数据的可获得性量化为数字化率。某一行业对物联网投资越多,可用数据量就越大。而当前低数字化率是应用人工智能的主要瓶颈。此外,人工智能解决方案在行业中的应用依然严重依赖于部署定制,而且应用场景的限制不同,所应用的解决方案也会体现较大差异。
也就是说,各个行业内部对于人工智能的使用尚未达成某种标准协定,各个企业各自为营,自己搞自己的,这将会阻碍人工智能的大规模推广应用。
如同集装箱一样,在集装箱出现之前,各个国家都有自己的标准,跨国运输就会很麻烦,运输成本也将提高一大截,而集装箱的出现在最大程度上规避了这些矛盾和麻烦。而人工智能领域内的“集装箱”目前尚未出现。
综合以上因素和2017人工智能应用率,中国各行业2049人工智能应用率计算结果显示,批发零售业、住宿和餐饮业、金融业为应用率最高的三个行业,而其相对应的职业则是替代率较高的职业。纵观全局,人工智能无法完全替代人类智慧和所有职业,但各行业对人工智能的不同采用程度的确会使就业率受到不同程度影响。人工智能实际替代率实际替代概率等于理论替代概率乘以应用率,根据这一公式,我们根据劳动者的年龄、性别、受教育程度和收入水平等特征将样本划分为不同子样本,估算出了人工智能对不同特征劳动者的实际替代概率。
年龄
首先,根据劳动者年龄计算出人工智能替代概率加权平均值,结果如图所示。
不同年龄组人工智能替代效应结果表明,20-29岁年龄组的人工智能替代概率最低,而60-69岁年龄组的人工智能替代概率最高。
造成这一现象的主要原因是,年轻人更有可能获得新知识和新技能,而老年人适应技术变革的能力较弱,因此更有可能被人工智能所取代。
性别
下图显示了根据劳动者性别计算出的人工智能替代概率加权平均值。
不同性别组的人工智能替代效应结果表明,女性劳动者比男性更容易被人工智能替代,但差距仅为1个百分点。
一些研究表明,在求职、晋升机会和劳动报酬方面,女性在劳动力市场上比男性受到歧视的可能性更大,这可能是二者在替代概率上细微差别的来源。
受教育程度
一些研究表明,人工智能对就业的替代效应并不是技术中性的,对高技能劳动力和低技能劳动力的影响存在较大差异。下图显示了根据受教育程度计算得出的人工智能替代概率。
不同受教育程度组别的人工智能替代效应结果显示,人工智能替代概率随着受教育程度的提高而降低:文盲、小学和初中组的替代率较高,而高中及以上组的替代概率则大大低于前者。特别是具有大学及以上教育程度的人,人工智能的替代概率仅为低教育程度组的一半。
2049年这些人将被替代在前文我们已经获得了2049年各行业人工智能的实际替代概率,而根据中国目前的行业分类,劳动力就业主要分布在19个行业大类中。
因此可以根据2015年人口普查数据中的各行业就业比率和2018年中国就业人数来估算这些行业大类中的就业人数,并结合人工智能的实际替代概率,预测2049年每个行业中被人工智能替代的就业人数。
2049年被人工智能替代的就业人数估算结果显示,中国将有1.42亿城市劳动力被人工智能替代,占城市总就业人数(4.34亿)的32.7%;同时,中国农村劳动力中将有1.35亿人被替代,占农村劳动力总数(3.42亿)的39.5%;到2049年,中国将有2.78亿劳动力被人工智能替代,占中国当前就业人数的35.8%。
具体而言,城市中就业人数替代最多的三个行业是制造业、交通运输、仓储和邮政业,以及农、林、牧、渔业。农村中就业人数替代最多的三个行业是农、林、牧、渔业,制造业,以及建筑业。
而如果我们将人工智能应用率的高低因素考虑进去,那么在高应用率下2049将有3.326亿劳动者被替代,在低应用率下也将有2.007亿劳动者被替代。
其他因素的约束然而,人工智能对中国劳动力市场的影响也受制于许多其他因素。
首先,它取决于人工智能技术和人类传统劳动力的相对使用成本和收益,虽然目前中国劳动力成本显著增加,但与发达国家相比仍然相对较低,而人工智能技术的应用目前成本较高,若将劳动力成本因素考虑在内,人工智能的应用则可能需要更长时间。
其次,中国逐步加快的人口老龄化进程也会作用于人工智能对中国劳动力市场的影响,但人工智能也会反过来弥补老龄化进程加快造成的劳动力数量的减少。
根据相关专家的预测,从2018到2049,中国适龄劳动人口数量将减少1.67亿-2.57亿,而减少的劳动力将很可能被人工智能取代。换言之,人工智能技术的发展在一定程度上减轻了老龄化对中国劳动力市场的负面影响。最后,与其他技术类似,人工智能技术在产生巨大替代效应的同时,也具有非常显著的创造效应。受人工智能上下游产业发展的驱动,人工智能技术将创造出一系列相关领域的工作或新职业。
人工智能并不可怕,它如同蒸汽机和电力的出现一样,将对人类社会产生前所未有的广泛影响。而人工智能并非在取代任何行业,而是在改变所有行业。在未来,人工智能必将得到长足发展,而我们想要避免被其取代就不能让自己成为依赖单一工具的人,而要成为能够利用人工智能来提升自己的人。
中国2049-End-
编辑:山鬼黄泓
文字来源:
《中国2049》
原标题:《这些工作将被人工智能取代,来看看你的行业能幸免吗?》
阅读原文
未来的机器人将取代人类吗
文|韩东屏,河北大学特聘教授作者授权发布
美国人乔治·德沃尔在1954年造出世界上第一台可编程的机器人之后,就时而有人出来发布未来机器人会在能力上超越人类并最终取代人类的警告,只是此类“取代警告”或者出自科幻作家的想象,或者属于个别学者的单纯预言,缺乏说理。事实也是如此,那时计算机论域中与人相关的讨论,还聚焦在电脑或人工智能是否会有类似于人的意识或智能的问题上。而绝大多数学者对此问题的回答,还都是否定性的观点。
可是近些年的情况明显不同。一个不同是,发出“取代警告”的人已经不是科幻作家与个别学者,而是变成许多专家,其中就有当今世界著名的科学家和技术家。如著名的物理学家霍金曾警告:“人类由于受到缓慢的生物进化的限制,无法与机器竞争,并会被取代,全人工智能的发展可能导致人类的终结。”马斯克则是著名的技术家,他也将人工智能说成人类“最大的生存威胁”,并将发展人工智能比喻成“召唤恶魔”。另一个不同是,此时的“取代警告”已经有了理论论证以及某种程度的事实佐证和可感受性。尤其是当人们发现战胜人类围棋世界冠军的智能机器阿尔法狗居然会自己学习时,就不得不在惊叹之余,相信人工智能还会有越来越快速的发展和越来越令人惊诧的表现。正是在这样的背景下,关于未来的机器人是否将取代人类的讨论就空前热火地在学界展开了,众多学者纷纷参与,各抒己见。
这个“取代警告”之所以能成为令众人瞩目的热点问题,在于对此问题的不同回答将决定人类社会对人工智能技术的发展将会采取不同的态度和制度安排:要么是积极推动,要么是有所限制。此外,不同的回答还意味着我们能据此判断,现在,除了“取代警告”之外的那些关于人工智能问题的讨论,其中哪些问题是有意义的?哪些问题由于不会出现而是没有意义的?比如,如果未来不存在机器人超越和取代人类的可能,我们就没有必要继续研究以这种“可能性”为前提的人工智能问题。因此,关于“取代警告”的讨论不仅必要和重要,而且还应尽早形成共识性的明确结论。
那么,这个明确结论会是什么样的观点,这就需要对讨论中已有的各种观点进行全面的分析评价,再做最后判定。
目前学界讨论“取代警告”的学者,主要是科学家和哲学家,他们对此问题形成两种截然相反的回答,一种是给出肯定回答的“取代论”,即人工智能将来会超越人类并取代人类,成为地球新主宰;另一种是给出否定回答的“否取代论”,即人工智能永远也不可能超越人类和取代人类。
以下先对这两种回答分别进行考察,再逐步形成最终结论。
一、取代论
霍金、马斯克等发出“取代警告”的理论依据,是这些年盛行于人工智能学界的AI(人工智能)技术发展目标理论和AI技术奇点理论。
(一)AI技术发展目标理论
AI技术发展目标理论是经20世纪中叶的L.G.古德到现在的尼克·博斯特罗姆等一众科学家的论述而形成的理论。他们将AI技术的发展分为弱人工智能、强人工智能和超级人工智能三个阶段,并将超级人工智能作为AI技术发展的终极目标。时下已有的智能机,不论是非人形的智能机,还是人形智能机即智能机器人,如美国的阿尔法狗、埃及的索菲亚、日本的ShibuyaMirai,都还属于第一阶段的弱人工智能,是基本上只能完成一个单纯任务的专用智能机。第二阶段的通用人工智能属于强人工智能,能拥有像人一样的能力,可以通过学习胜任人的任何工作,只是没有创造能力和自主意识。第三阶段的超级人工智能更胜一筹,不仅具备人类的创造能力和自主意识,而且还比人类的所有能力都更为强大,可谓超人人工智能。古德在1956年首次提出超级人工智能设想的论文中说:“一台超级智能机器可以定义为是一台在所有智能活动上都远超人类——不管人有多聪明——的机器。由于机器设计属于这些智能活动的一种,那么一台超级智能机器当然能够设计更出色的机器,那么毫无疑问会出现一场‘智能爆炸’,把人的智力远远抛在后面。因此,第一台超级智能机器也就成为人类做出的最后的发明了——前提是这台机器足够听话且愿意告诉我们怎样控制它。”而用博斯特罗姆的话说就是:“完全成熟的超级智能能够出色完成智能升级、战略策划、社会操纵、黑客技术、技术研发、经济生产等任务,这也是为什么科学家会认为超级智能将控制人类”。
与当年古德对超级人工智能只有设想不同,现在已经有了各种实现路径,它们来自诸多专家的不同构思和论述,大体可概括为如下六条。
第一条路径是全脑仿真或人脑复制。它直接通过扫描人的大脑,将扫描得到的原始数据输入计算机,然后在一个足够强大的计算机系统中输出神经计算结构,造出仿人脑的电脑。
第二条路径是提升复杂度。博斯特罗姆在《超级智能》中指出,“我们之所以能控制地球,是因为我们的大脑比即使最聪明的动物的大脑都要复杂得多”。据此,只要设法让电脑的“神经元”也足够多,电脑的系统也足够复杂时,电脑就能达到乃至超越人脑的意识。
第三条路径是功能模仿。此路径的提出者认为,人体有11种系统功能,每个系统的最底层都是微处理器,因而只要模仿这11种系统功能来建造人工智能系统并将它们合在一起,就可以使智能机器人达到人类智能的水平,继而,就可以实现超越。对人工智能发展有重大贡献的马文·明斯基说:“如果我们能制造一个和人一样聪明的机器人,那我们也就可以制造一个比人更聪明的机器人。”
第四条路径是机器与生物相结合。其要旨是将人体基因或仿人体基因植入机器人,使机器人不仅有比人更强大的逻辑思维运算能力,而且也有欲望、情感和非逻辑思维的智慧。比如有位韩国科学家就正在研究如何将人造染色体赋予机器人,使之也有性欲。
第五条路径属于本质性建构。这就是“学习胡塞尔的‘想象力自由变更’的办法,对‘智能’的本质进行直观剖析。……该办法的具体操作步骤便是:对各种可能的智能类型进行展列,并由此为出发点对各种可能的智能形式进行想象,最终剔除关于智能的偶然性成分,找到智能的本质性要素”,从而用它制造超级人工智能。
第六条路径是制造以量子计算为基础的人工智能。随着量子力学的发展及其对量子特性了解的增多,许多著名科学家都“提出了人类意识的量子假设”,猜测“人类智能的底层机理就是量子效应”。于是有人认为,“以量子计算为基础的人工智能”可以成为超越人类能力的人工智能,这种超级人工智能会成为取代人类的“后人类”。
(二)AI技术奇点理论
AI技术奇点理论是享誉世界的美国发明家和未来学家雷·库兹韦尔提出的,他在2005年出版的《奇点临近》一书中,预言人工智能将在2045年超过人类智能,而这一刻,就是AI技术的“奇点”。奇点预言的根据,是库兹韦尔本人受启发于摩尔定律所归纳出的“加速回报定律”。摩尔定律是指半导体芯片上集成的晶体管和电阻数量将每两年增加一倍,加速回报定律是指“对技术史的分析表明,技术变革是指数性的,与常识性的‘直觉的线性观’相反。所以我们在21世纪将不会经历100年的进步——它将更像是2万年的进步(以今天的速度)”。正因如此,“几十年内,机器智能将超越人类智能,并导致技术奇点的来临”。由于库兹韦尔以往的多种科技预言都足够灵验,尤其是他依据“加速回报定律”对人类基因组计划的完成时间为7年的预测,虽然与当时所有人预计的时间至少都要少一半以上(该研究项目计划用15年完成,对此很多人还是认为根本不可能),但最终的实际完成时间证明他的预言是准确的,所以他的AI技术奇点理论一经提出,也得到学界很多人的广泛认同,乃至可以开办奇点大学,广招天下学员。
“取代论”除了从正面用超级人工智能理论和AI技术奇点为自己立论外,有时也从反面通过对已经存在或可能的挑战观点进行预防性反驳。一个反驳针对的是“机器人作为无机物构成,不可能超过有机物”的观点。其驳辞是:“然而没有人能够证明思想一定和身体有关。就信息处理和数据输出获取而言,机器人比人脑有更多的优越性”。一个反驳针对的观点是:模拟者怎么会超越被模拟者?人工智能怎么会超越被模拟的人类?其驳辞是:“没有任何一条定理证明被创造的东西不能超过造物主,现实生活中反而有很多相反的例子,比如孩子比父母聪明,就非常典型”。
二、否取代论
否认未来的机器人将取代人类的学者似乎更多,他们中既有科学家,也有哲学家,偶有作家。由他们所分别给出的否定性论述也相当多,最终均可概括为以下三个方面的论述。
第一方面的否证可谓技术性论证。这就是从技术的维度出发,证明人工智能不可能超越人类智能。这类证明又有四种,基本上都是由人工智能专家做出的。
其一是对AI技术奇点论的否定。对其否定的依据有三个理由。第一个理由是奇点论者“忽略了十分重要的一点:计算速度的提升并不等同于智能的提升”。因为智能的提升要靠深度学习的算法的改进来实现,而计算速度的提升则“只是硬件提升和数据量增大带来的规模效应”。虽然“基于深度学习算法的人工智能系统在近些年取得了令人瞩目的成就”,但这只是技术应用的成就,并不是深度学习算法本身的提升,更不是什么指数级的提升。第二个理由是经验表明,“各种类型的人工智能系统在数十年来的实际发展中都经历着收益递减的过程。在研究初期,人工智能系统通常可以快速提升,甚至在某些时刻超越技术奇点理论所设想的指数增长速度,但随着完善度和复杂度的增加,人工智能系统往往会遭遇各类难以改进或跨越的瓶颈,导致无法维持固定的改进速率”。简单说,人工智能越是往上发展,需要解决的问题就越多、越复杂、越困难,这就导致研究投入的收益率也越来越低。第三个理由是奇点论者认为,“递归自我改进系统是实现技术奇点的有效途径”,这里不仅有硬件方面的困难,而且“递归自我改进系统在自我指涉方面也存在着严峻的挑战”。这就是,系统复杂程度的不断提升,将导致理解自身所需要的智能也不断提升。于是,要想使智能机器有一点儿智能提升,就得先有最高级的自我理解能力系统来适应,这说明人工智能的递归自我改进效率受到自我理解能力的限制,不会有高速度的改进。
其二是对超级人工智能的否定。该观点认为人工智能将来无论怎么发展,都不可能实现超级人工智能。首先,智能机器总是在人所严格规定的范围工作,不会做人没要它做的事。著名的机器人设计师亚瑟·塞缪尔就说:“机器不能输出任何未经输入的东西”,“所谓‘结论’只不过是输入程序和输入数据的逻辑结果。”其次,人工智能的升级能力也在人设定的程序之内。智能机器的升级能力只能在软件即人给定的范围之内。美国辛辛那提大学智能维护中心主任李杰也指出,人工智能的确有学习能力,但那属于程式里的学习,不会跳到程式之外,人工智能只能在指定领域升级。“不要忘了,人工智能里都有一个核心东西叫软件,软件不会自己思考,一定是人编程的。”
其三是对人工智能基础理论的质疑。根据学界公认的“哥德尔不完全性定理”,“证明任何无矛盾的公理体系,只要包含初等算术的陈述,就必定存在一个不可判定的命题,即一个系统漏洞,一颗永远有效的定时炸弹”。因而以二进制为公理的电脑逻辑运算系统也必然存在这样的漏洞。正是基于这一点,牛津大学的哲学家卢卡斯(ColinLucas)确信:“根据哥德尔不完全性定理,机器人不可能具有人类心智”。
其四是提出人类以脑机融合的方式防止被取代。这个想法的思路是,如果将来的超级人工智能真能全面超越人类智能,那就不妨让人脑与人工智能结合,比如在人脑中植入芯片,使人脑也能接受无线传输的大数据,拥有云脑,也能进行云计算和深度学习,等等,这就至少可以做到让人和超级人工智能一样强大,于是也就不会被机器人取代。现在这个设想已经被一些科技专家付诸研究,其中就包括发出“取代警告”的技术大家马斯克。
第二方面的否证可谓差异性论证,就是通过分析比较智能机器人与人之间的不同来说明机器人不能超越和取代人类。这些被论及的不同,可以分别命名为意识性差异、价值性差异、社会性差异和结构性差异。
意识性差异是指智能机器人在意识方面与人类相比,缺少了许多东西。因为智能只是意识的一种表现形式,其本质是逻辑思维的运算,但人的意识无比丰富。从思维方式说,人的意识不仅有逻辑思维,还有抽象思维、形象思维、直觉思维和灵感思维。这些思维形式与逻辑思维截然不同,是非逻辑的,根本不能通过编程或逻辑运算实现。从自主性说,人有自主意识,机器人没有,甚至连自我意识都没有,它是被人造出来为人服务的,机器人“永远无法摆脱作为人类工具的命运”。“人工智能可以模拟人类心灵的很多重要特征,比如自主性,但这仅仅是模仿,因为自主性概念本质上是排斥模仿的”。从能力上说,机器人只有计算能力,而人还有想象力和创造力,它们是人类智能的最大优势,“人类利用这类能力能够想象并且创造出自然界中不存在的东西”。从基本分类说,人既有理性意识,也有非理性意识,如潜意识、欲望、情感等,而机器人则没有非理性意识。除以上差异之外,还有一类被作家韩少功注意到了的意识性差异,这就是“人必有健忘,但电脑没法健忘;人经常糊涂,但电脑没法糊涂;人可以不讲理,但电脑没法不讲理——即不能非逻辑、非程式、非确定性的工作”。而其中的“可以不讲理”,意味着人有“同步利用‘错误’和兼容‘悖谬’的能力,把各种矛盾信息不由分说一锅煮的能力”。这种能力“有‘大智若愚’之效,还是只能让机器人蒙圈”。综上可知,人工智能与人的意识的差异,就是前者局部超越后者,前者整体不及后者的状况。
价值性差异是指人机在价值知识上存在差异,它包含两个层面的意思。首先,机器人存在做什么和不做什么的情况,这一情况意味着它的行动总要遵循某种价值原则。而这种价值原则“是要由人来设定的。而人给机器人设定怎样的价值体系,实际来自人对人类自己价值体系的理解和贯彻。这个事实表明,机器人没有自主性,人机仍是主从关系。其次,无论是设计发展人工智能,还是对人工智能的实际运用,都面临价值难题。“一旦涉及价值观,机器人其实一直力不从心”。比如当事故难以避免,需要两害相权取其轻的时候,“肯定要让机器人蒙圈”。而这种价值难题之所以能困扰智能机器人的发展和应用,就是因为“人类这个大林子里什么鸟都有,什么鸟都形迹多端,很难有一定之规”。易言之,人类的价值观是多元的,没有统一性,也就不能确定该给机器人灌输什么样的价值观。
社会性差异是指从社会的角度考察人机差异,它也有两个层面的含义。一层含义是说,尽管机器人的硬件系统可以“相当于人的肉体”,软件系统可以“相当于人的思维体系”,但是人在社会历史中形成的“人的社会现实性,即人的历史文化本性”,“是不可能以机械的方式重复和再现的”,它“将成为根本的、很可能是无法超越的技术瓶颈和价值悖论。这是‘机器人难题’的核心和实质”。所以“人工智能不具有人的思维的社会性”。另一层含义是说,“人是社会性动物,个人的智能是有限的,个人的生命也是有限的,但人类群体和整体的智能有巨大的加和效应,这种效应正常发挥出来是任何个人的智能无法比拟的。而且人类智能以及作为其基础的知识可以一代又一代的延续、传承下去。与之不同,机器人作为机器,不具有社会性、群体性,它总是单独的、孤立的个体,即使用程序将它们联结起来,它们不可能在程序之外随意与同伴合作。它们之间的简单合作只会有简单相加效应,似乎不可能产生加和效应。机器人不具有生殖功能,其智能当然也不可能一代一代传下去,更无所谓不断地进化发展。没有社会性,这也是机器人不可能取代人类、超越人类的根本性局限”。
结构性差异是指人与机器人的内在结构不一样,智能机器人没有人的结构。“人工智能虽然能够模拟出人的动作、人的表情、人的声音,甚至能够精确地展示出人的情感,但这些都不能表明人工智能能够成为人。核心原因只有一个,人工智能没有人的‘结构’,而结构决定着意识和本质属性”。具体说来,人体是一个极为复杂的性能完善的多级结构的巨大系统,“机器人无法拥有人类的系统结构、器官结构、细胞结构、基因结构,乃至终极的碳基分子结构。人工智能只能通过不断模拟逼近人类结构,或者演化成为一个全新的生命形态,但永远不可能成为人类”。
第三方面的否证可谓“超而不代”的论述。该论述虽然承认未来的机器人在能力上会超越人类,但不会取代人类:“超级智能时代的机器人一定会具有非常高的智能水平,在很多方面也一定会超过人类,但是,机器人智能发展的总体趋势是与人类愈加接近、亲近,而不是对抗,更不可能取代或淘汰人类。自然界之所以拥有200多万个物种,正是因为大多数物种并不会取代老物种,它们宁愿与现有的生物体交织起来,挤进小生境之间,以其他物种的成就为基础”。因此,“人类不会被颠覆,反而会变成类似基础设施的存在”。
三、评析
经过梳理取代论与否取代论的论述可知,在取代问题上,这两种相互反对的观点都各有许多道理及理由,这似乎意味着争鸣双方是旗鼓相当、胜负难分的。但据笔者评析,则是否取代论明显处于下风。因为尽管取代论的理论中含有假说的成分,可否取代论对取代论的所有否证却仍是无效的,所以,不管取代论的立论究竟如何,否取代论都是落败的状况。
先看否取代论的技术性论证中的四种论述。
第一种论述是对AI技术奇点论的否定,但从该否定论述所依据的三个理由(即计算速度的提升不等于智能的提升、人工智能的研发存在收益递减的情况、人工智能的递归自我改进效率受到自我理解能力的限制)看,它们所否定的,实际上都只是奇点到来的速度绝不会像库兹韦尔设想的那么快,而不是它不可能出现。既然奇点未被否定,这就意味否取代论没有否认在未来的某个时刻,人工智能还是“会出现一场‘智能爆炸’,把人的智力远远抛在后面”。
在技术性论证中,第二种论述是对超级人工智能的否定,所依据的理由是智能机器人总是按照人的要求做事,人工智能的升级也只能在人的软件编程之内。这两个理由,在AI技术还没有发展出超级人工智能之前,都是可以成立的,可是一旦发展出超级人工智能就不再成立,因为超级人工智能已经被定义为“一台在所有智能活动上都远超人类”的机器。这就是说,否取代论在这里不能用现在的弱人工智能的局限性去证明未来的超级人工智能也超越不了人类。
在技术性论证中,第三种论述是根据“哥德尔不完全性定理”,推论人工智能的理论基础即逻辑运算系统也会存在系统漏洞,成为“一颗永远有效的定时炸弹”,但它并没有具体说明,这个系统漏洞究竟会是怎样的漏洞?究竟会在何时爆炸?又会给人工智能技术的发展带来什么样的危害?更没说明,这个系统漏洞的存在,与否定取代论有什么必然性关联?如果漏洞就是机不如人的证据,那么,人类就是无比完美,没有任何软肋、短板和缺点的吗?
技术性论证的最后一种论述,是设想以脑机融合的方式防止人类被超级智能机器人取代。且不说脑机融合能否成真,也不说这种融合是否会对人脑造成损伤,只要承认未来智能机器人的机脑会实现对人脑的超越,那么,让一个不如机脑的人脑去和机脑结合的结果还是赶不上机脑,这就类似于任何负数加1,最后都是小于1而不是大于1。因此,实现脑机融合后的人脑,最多也只能是缩小人脑与机脑的差距,最终还是避免不了被机脑超越的命运。因为既然全面超越人脑的超级人工智能完全是以物理性物质的电脑为基础实现的,那么以生物性物质为主构的脑机融合后的人脑就产生不了同样的功能。即便是以物理性物质为主构的脑机融合也仍会存在差距,而且这样的大脑应该也不再属于人脑。这就说明,无论怎样进行脑机融合都防止不了机脑(机器人之脑)对人脑的超越和超级智能机器人对人类的取代。
再看否取代论的四种差异性论证,也同样难称有效。
就意识性差异论证来说,它存在两个不足。其一是它基本上是根据现在的人工智能水平即弱人工智能的状况来说明智能机器人与人类在意识方面存在的各种差异,但有谁说过弱人工智能就能超越人类?取代论分明说的是超级人工智能。而超级人工智能之所以能超越人类意识,则在于它还被规定为不仅具有自主性,而且也拥有了以往只有人类智能才有的能体现人类“最大优势”的创造力,并且,由于还有深度学习、互联网、大数据和云计算的支持,超级人工智能的创造力还会比人类更强。其二是意识性差异论证虽然指出了一些人工智能在意识上有少于人类意识的东西,即情感、潜意识、健忘、犯糊涂和兼容悖论等,而且这种差异即便到超级人工智能时代也可能仍然存在,却没有说明为何有这些意识性差异的存在就意味超级人工智能不能超越人类?尤其是健忘、犯糊涂和兼容悖论,未必会比不健忘、不犯糊涂和不自相矛盾更厉害?人类顶级棋手赢不了阿尔法狗,不就是因为其记忆力、计算力和精准性都不如对手吗?
就价值性差异论证来说,也有两个问题:一是即便未来的超级智能机器人的行动价值原则还是由人来设定的,也并不意味着它就不能超越和取代人类,因为阿尔法狗的行棋价值原则也是由人给定的,而且与人类棋手的行棋价值原则是一样的,结果它还不是战胜了人类棋手?如此,以后在不作身份限制的世界顶级围棋比赛中,自然也不会再有人类棋手的事了。更何况有了自主性和创造力的智能机器人,难道就不可能再给自己创立价值原则吗?须知,人的价值观也不是一成不变的。二是把人工智能遇到价值难题会“蒙圈”说成是人工智能的“力不从心”是不对的,因为这分明是人类自己都没解决的问题,所以才不知该在这方面怎样设计人工智能。而人类之所以受困于此,根本原因的确是人类的价值观的多元化。
就社会性差异论证来说,同样不能成立。人的“社会现实性”或“历史文化本性”并不是生而有之的,而是在后天的社会实践中形成的。既然如此,有自主行动能力的未来机器人为何就不能拥有?难道它就不能在社会中进行自己的实践吗?显然不是。此外,由于人的历史文化本性不过是后天实践经验和文化学习的结晶,这就可说,在这个事情上超级智能机器人只会比人更有优势。因为它是一诞生就有自主行动能力,而不需要一个成长的过程,并且也是一诞生就拥有了包含在大数据中的海量的历史文化知识。既然超级智能机器人有这样明显的优势,那它就势必比任何一个自然人甚或是自然人的最高天才都更聪明,于是所谓的“人类整体的智能加和效应”也赶不上它。这就是说,机器人不用联合起来就可以超越人类整体的智能,何况有自主行动能力并且更聪明的机器人为何就不能联合起来?至于机器人“不具有生殖功能,其智能当然也不可能一代一代传下去”,这也不是机器人的劣势所在,因为机器人不是肉身,是被认为可以永生不死的,这就比生命有限的肉身人类有优势。因此,无论是从以上哪种意义说社会性,都不能证明未来机器人不会超越人类。
就结构性差异论证来说,它的问题是,虽然其关于“人工智能没有人的‘结构’,而结构决定着意识和本质属性”的观点是对的,也符合现在的实情,并且由此思考问题的方向也是对的,但仅此还不够,它最多只说明了机器人目前的结构与人的不一样,还没有说明一种结构比另一种结构优越的因素是什么?这就无法从道理上保证未来的智能机器人也永远不可能有人的结构或比人更优越的结构,何况就是目前结构的智能机器人也不是一切不如人,除了它的超强计算能力已经远超人类外,而且还有不死的身体。因而此差异论证最多只能说明机器人的结构和本质属性与人的结构和本质属性不一样,而不能用来作为机器人不可能超越人类的证据。因为有这种不一样,也可能形成的是恰恰是机器人超越人类的结果,如非肉身的机器人相比肉身的人类,就具有永生不死的优势。
最后来看否取代论的“超而不代”论述。这个论述混淆了一个概念,即将“取代人类”等同于“淘汰人类”或“毁灭人类”,但实际上,前者是指使人类失去主宰地球的地位,后者是指使人类灭亡。有此区分之后,可以承认,如将来真有超越人类的机器人,它们是有可能不毁灭人类,但一定会取代人类,成为地球的新主宰。因为最聪明的存在者不会容忍比其笨的存在者来管理自己和地球。而人类一直以来能成为地球的主宰,还不是因为人类比其他所有存在者都聪明?所以当机器人超越人类,变得比人还聪明之后,人类最好的结局也只能是充当世界的“基础设施”,而不会仍然是“上层建筑”。
或许正因为否取代论的三类论证都说理不力,完全不能让人信服,所以现在的状况是多数学者包括诸多知名学者,都相信了取代论的观点,并且其中一些学者已经将这种相信作为前提,开始思考在它之后的问题。有的着手研究如何防范机器人反叛人类的问题,还成立了专门的研究机构;有的开展了如何与超人机器人相处的问题研究;有的则是想出了可以宽慰已知自己终结命运的人类的说辞,即“承认他们(指机器人)是我们自己进化了的后代,人类进入了一种改变了繁殖方式的发展新阶段。后代取代前辈继续生存,实现更好的发展,这不是人类的灾难,而是人类的进化飞跃到了一个新阶段”;还有人提出,其实还不等机器人来淘汰人类,人类就可能因为太过安逸地无所事事而死于“人工智能创造的一切好事”。
四、我见
尽管否取代论的论证都是无效的,却并不意味着取代论就是正确的。因为只要否取代论还能提供新的论证,或者取代论还没确证未来机器人将取代人类的必然性,取代论就还是存在被否定的可能。取代论目前的情况正是这样,由于自身仍存在不少假说的成分,所以并未确证“取代”的必然性。
无需多言,未来机器人若想取代人类,必须先超越人类,而要超越人类,不仅先得是有自主意识和独立行动能力的主体,而且还必须具有比人类更强的创造力,至于是否具有人类的其他意识能力则都不是“超越”的决定性因素。能无中生有的创造力是最高的智慧,因而如果未来机器人的创造力比人类强大,就意味着未来机器人也比人类更智慧、更聪明。但恰恰在未来机器人何以也能拥有创造力这一点上,取代论语焉不详。
取代论宣称超级人工智能会拥有创造力,并提出了实现超级人工智能的多种路径。而这里可以确证,人工智能无论如何发展,无论是走什么路径,都永远创造不出有创造力的机器人。
人工智能要想发展出创造力,必须先搞清楚人脑如何会有创造力的机理,而目前是连人脑的许多基本情况都没弄清楚,又遑论能模仿人脑造出有创造力的机脑?并且,即便将来会有弄清楚的那一天,也还是无法使机器人具有创造力。
不同种类的实体必有不同的性能,这应该是一个普遍真理。因为在该真理的证伪性方面,不会有任何人能找到一个这样的反例:两个不同种类的实体,竟有完全相同的性能。不同的实体之所以会有不同的性能,在于它们或是质料不同,或是结构不同,或是形态不同,当然也可以是兼而有之。质料不同如矿石的化学成分不同,决定了有的具有可燃性,有的则没有;结构不同如建筑物因整体结构不同而有了不同的用途,有的成为民宅,有的成为厂房……;形态不同如钢筋和钢刀虽材质相同,仍因形态不同而用途不同。而机脑与人脑相比,就是这三种不同全部都有。从质料说,机脑的质料是物理性的电子元件,而人脑的质料是生物性的细胞。从结构说,电脑是平行结构,主要由电源、主板、CPU、硬盘、内存、调制解调器、软驱等构成,而人脑则是立体结构,人脑由脑干、小脑和前脑三大部分构成。脑干处于底层,又有延髓、脑桥、中脑和网络系统这四个部分的构造;前脑处于高层,也有四个部分的构造,即视丘、下视丘、边缘系统和大脑皮层;小脑处于中间层,由左右两个半球构成。从形态说,电脑是机箱中的板上楼盘状硬物体,人脑是颅骨中的球形玛瑙状软物体。正因机脑与人脑在质料、结构和形态上都存在差异,所以机脑再怎么设计、发展,都不可能具有人脑的所有性能。
而人脑的创造力就必然属于机脑所不可能具有的性能之一。因为机脑无论是现在的状况还是设想出的未来理想状况,都是以计算为基础功能的智能。计算是对已有信息或数据的处理,属于“有中推有”的逻辑思维,而创造则属于“无中生有”的非逻辑思维,是以想象为前提,先想象出世上尚未有的东西,再设法采用具体手段将它造出来。因此,机脑的计算能力再怎么强大,人工智能再怎么提升,都形成不了创造力,而且也形成不了人脑的所有非理性意识。
人工智能的提升,从方法上说无非两类:一类是系统模仿的方法,一类是还原构造的方法。系统模仿就是通过从整体上模仿人脑来使人工智能具有人脑的所有功能,前述取代论实现超级人工智能的六条路径的前四条,即全脑仿真、提升复杂度、功能模仿和机器与生物相结合就属于这个方法;而后两条路径即本质性构造和量子计算则属于还原构造的方法,此法是意欲通过发现智能的本质来构造具有所有意识功能的人工智能。
可是,由于系统模仿方法的四条路径都是以计算的方式体现模仿,就不可能模仿出非计算的创造力,而且,不管今后还会有何种系统模仿人脑的方式,只要机脑所采用的建造质料与人脑的不一样,二者也就不可能有同样的结构和形态,于是也不可能模仿出人脑的所有功能。除非是机脑全部用人脑的质料来模仿人脑的结构和形态进行构造,才有这种可能,可是这样构造出的东西仍是人脑而不是机脑。
与之同理,还原构造的方法也不可能成功。因为我们即便是发现了智能的本质,但只要没用人脑的质料来构造机脑,机脑就还是不可能有人脑的结构和形态,因而也就不可能使按照智能的本质制造的机脑具有人类的所有智能,此其一。其二,所有昆虫、动物都有一般的智能而无特殊的智能即自我意识和创造力等,表明掌握了智能的本质不过是知道了各种具体智能的最一般的规定性而已,仅此并不足以造出智能的最高形态。量子计算路径实际上也属于本质还原。它认为在量子层面,物质与意识已经不分彼此,量子既是物质也是意识,因而人类智能的底层机理就是量子效应,于是以量子计算为基础的人工智能就可以具有人脑的所有智能。可是,这个想法忽略了一个最基本的事实。这就是,所有的实体性存在者都可以被还原到量子层面,或者说都有自己的量子层面,然而为什么却不是所有种类的实体,比如水、泥沙、岩石、石油、草木等自然物和诸多人造实体都有意识?而在所有有意识的生命活动者中,为何又仅仅是人类才具有创造力,而昆虫和动物则全都没有?这就说明,所谓“人类智能的底层机理就是量子效应”的观点是大错特错的。量子计算路径根本行不通,还原构造的方法不可取。另外,还可以从“整体大于部分之和”的古老命题得到说明。因为整体作为一个系统,不仅仅是所有构成因子的集合,还包括了这些构成因子之间的相互作用,而还原构造由于省略了这些相互作用,也就再造不出同样有这些相互作用的系统。由此推广,其他形式的还原构造方法,如分子计算、光子计算、纳米计算、生物计算和神经计算等,也都不可能使机脑具有人脑的所有功能,因为它们与量子计算一样,也都是以计算为基础功能,也都是以物理材料为主要质料,所以同样不能。同时说明,还原论的方法不能滥用,如果超过了一定的界限就会沦为荒谬,这也正是它被后现代主义诟病的原因所在。至于还原论的界限,简单说应该就是:高等级事物的问题,不能用低等级事物的道理来加以解释。
机脑不能具有人脑的创造力,除了以上解释之外,还可以从复杂性的维度得到说明。客观事实表明,创造力作为最高智慧,只是出现在最为复杂的人脑中,所以凡是达不到人脑复杂程度的脑,不管是物理性的机脑,还是生物性的动物之脑,包括灵长类动物的也已经非常复杂的脑,就都不可能具有创造力。
综上可知,机脑无论怎么构造,都不可能具有人脑的所有性能,尤其是不可能具有人脑的创造力。既然如此,未来的机器人无论怎么发展,也都永远超越不了人类,更谈不上对人类的取代。而且,这里还可以退一大步讲,就算未来的机器人可以具有创造力,甚至比人类的创造力更强,也不会取代人类。
机器人作为人造的机器,没有生物性的身体,而没有生物性的身体,就不会有任何自身的需要,也不用生长,没有自身的需求和生长,就不会有任何自发的行动。马克思说:“任何人如果不同时为了自己的某种需要和为了这种需要的器官而做事,他就什么都不能做”,这话也适用于所有的动物和机器人。同时,机器人没有自己的需求和生长,也就没有所有生物都有的自利本性,并且也不会有属于自己的真正的情感,因为诸如喜、怒、哀、乐、忧、悦之类的所有的情感,最终都属于对需要满足与否的心理反应,所以机器人即便被设计出了情感,也是虚拟情感。机器人既然没有自利本性和内涵好恶倾向的情感,也就不会像人一样具有自己的价值意识及价值观。因此,机器人为什么目的而出现、是否需要行动,在行动中需要遵循什么样的价值原则,就的确只能是听从人的安排。这就说明,未来的机器人其实也不会具有自主意识,更不会成为主体。
或许有人会说机器人有对能源如电能的需要,但由于没有能源时机器人不仅不会“死”,而且也不会对自身产生任何危害,而有能源时也还是没有生长,还是不用为自己做任何事,所以能源其实并不是机器人的需要。
或许有人设想可以通过制造有生物性身体的机器人来避免这些先天缺陷,可是一个物理性的机脑是不能长在生物性的身体上的,也无法与这个身体产生如同生物性之脑与生物性身体之间的相互作用,也就是说,前一种结合就算能实现,其结合效应也会与后一种结合存在差距。如果为了解决这些问题,再将机脑换成生物性之脑来与生物性身体匹配,那么这时它就不再是机器人了,而是一个动物。最好的情况,是和人一样的人。因此,机器人的那些先天缺陷是注定不可避免的,机器人注定不可能有自主意识和属于自己的价值观。
由于人是为了满足自己的需求来创造机器人的,机器人就是人用来满足自己需求的工具,所以由人赋予机器人的本性就一定是“利人性”,人让它遵循的价值观就一定是服务于人的价值观,让它做的事情包括假设它也能做到的创造,就一定都是有利于人的事情。这就是说,机器人定是纯粹的利人主义者,又怎么可能会取代人或毁灭人?所以,所有关于未来机器人会对人类如何如何不利的各种担忧,统统都是毫无必要的杞人忧天。
至于有人可能会利用机器人来干损害他人甚至消灭他人之事的情况,也不会成为取代论的凭据。因为任何人造的工具,都可能被心术不正的人用来损害他人。由于人类早已明白相互恶斗的结果只能是谁也过不好,所以人类社会在任何时候都不会让这种心术不正的人得逞,因而这种人也就只能是偷着干坏事的极少数人,而由他们所造所用的机器人,也就一定战胜不了由其他绝大多数人所造所用的机器人。
因此,无论在什么情况下,哪怕机器人也具有创造力,机器人也不会取代人类和毁灭人类。既然如此,我们就尽管让人工智能快速发展吧,它给人类社会带来的只会是福音,这就是可以加速将人类从必要劳动中解放出来,从而进入自由王国。由于实际上机器人永远无法具有创造力,所以人类进入自由王国之后,也自然不会如某些人担忧的那样,因无所事事的安逸而亡,而是可以尽情发展自己的各种潜能天赋,进行各种发明、创造。
既然如此,如果不能颠覆本文的结论,我们就无须再浪费精力,去讨论任何以“机器人将取代人类”的观点为前提的各种问题。如果能颠覆,那就请多加指正。
(本文原载《华中科技大学学报》2020年第5期)
原标题:《未来的机器人将取代人类吗?》
阅读原文
AI绘画可以取代人类画家吗
我们所处的时代,是一个智能化的时代。很多看上去专属于人类的领域,正在经受智能化大潮不间断的冲刷、侵蚀和淘洗,绘画也不例外。
2019年夏天,中央美术学院研究生毕业展上,展出了一套系列组画《历史的焦虑》,从表现手法和观念上来说,这些画并没有太多新奇之处,但绘画语言娴熟,格调不俗。当观众知道作者的身份后,纷纷驻足欣赏。原来,这组画的作者“夏语冰”,其实是人工智能机器人“微软小冰”,她是实验艺术系教授邱志杰的“研究生”,而这组作品则是她通过三年的深度学习后自动生成的画作。今年8月,在美国科罗拉多州博览会的美术比赛中,一位游戏设计师通过人工智能绘画工具生成的作品《太空歌剧院》,参加了数字艺术单元的竞赛,获得第一名,在插画圈引起热议,并漫溢到整个网络。
面对人工智能绘画创作能力日新月异的进展,有人感叹:“我们正在目睹艺术的死亡。如果创造性工作也会被机器淘汰,人类还拥有什么?”
这确实是一个需要每个绘画创作者思索和直面的问题。作为插画师,这几年我也在积极关注、使用人工智能绘画工具,同时在思考:人工智能绘画程序能代替人类绘画创作者吗?绘画创作者该如何应对扑面而来的人工智能浪潮?
人工智能绘画创作的内在机理
人工智能绘画工具不是近几年突然出现的,它已经有几十年的发展了。用人工智能进行绘画创作,可以追溯到上世纪50年代初,那时美国艺术家拉博斯基用示波器制作的数字作品,主要是曲线集合的有序变化,非常抽象。事实上,这一时期的人工智能绘画工具,还不能创作写实作品。这种情况随着人工智能绘画程序“亚伦”的出现而改变。“亚伦”不是在电脑上生成数字作品,而是通过控制机械臂去作画。经过不断迭代,到上世纪80年代,“亚伦”已经可以进行写实创作,其风格是程序开发者哈罗德·科恩创作的翻版。
近年来,深度学习神经网络的发展,推动了人工智能绘画程序创作水准的快速提升。今年非常热的人工智能绘画程序,如Disco Diffusion、DALL·E2、Midjourney、Stable Diffusion,都建立在深度学习神经网络的基础之上。
它们的主要工作原理是:收集大量前人创作的作品,通过算法对其进行分类和识别,然后生成新图像。2018年,《埃德蒙·贝拉米》在佳士得拍出43.2万美元的高价,这幅肖像画的创作者是巴黎艺术团队Obvious,2016至2017年间,他们收集了15000幅经典肖像画,涵盖14世纪到20世纪的作品,然后利用“生成式对抗网络”算法对它们进行处理,最终制作出一系列人工智能肖像画,其中就包括这幅拍出高价的作品。
可以看出,人工智能绘画程序的创作,本质上是计算。科学家把程序接入一个绘画数据库,再用算法对这些作品进行视觉风格的分析和学习,进行图像模式的识别和计算。现在,人工智能绘画已经进入“text-to-image”(文字生成图像)的新阶段,用户打开人工智能绘画程序,提供一个词群来描述所想要的内容、风格、材质,绘画程序就能进行解析,生成相应风格的画作。
人类独有的生命体验仍不可替代
这种需要人类进行数据投喂的智能程序,属于弱人工智能。在我们现在所处的弱人工智能时代,人工智能绘画程序,不论怎么精巧、强大,都没有自己的意识,只是从属于人类创作者的工具,这也是由艺术的本质决定。
马克思主义认为,艺术是审美的社会意识形态,是特殊的精神生产,它通过感性的形象来反映世界、表达感情,是人的本质力量的对象化。绘画创作是“有感而发”“感同身受”,是内心情感的升华或宣泄。法国艺术史家丹纳也指出,艺术作品的产生,取决于时代精神和周围的风俗。绘画创作者的创作,是创作者独特生命体验、审美和情感的表达,还或隐或现地传递着一个时代的精神情绪。
绘画创作中的这种“意向性”,是人工智能程序所不具备的。人工智能绘画创作,离不开科学家和艺术家的选择性输入和训练,它没有自己的情感、意志,没有绘画创作者在其所处的时代背景下,那种特有、复杂的生活体验和人生阅历。虽然人工智能程序能精准对笔触、颜色、构图、空间、形状、纹理等特征进行模仿,但它进行艺术创作时,更多的是“根据一个指令,深度学习数据库,叠加优化出方案”,暂时还无法主动地提炼出属于一个鲜活创作者的“生命故事”来注入作品、感动观众。
如今在视觉上,人工智能已经可以创作出别具一格的专业级绘画作品,但AI画作的价值,关系到艺术价值、功能等方面的界定,而我们的审美体系中的审美主体还是人,艺术价值的评判体系,还在由人所主导。正如邱志杰所言:“艺术的价值不单是美学的,也是社会的,更是一个政治经济学的问题。”对于绘画创作而言,创作者个人的思想、情感、审美和智慧,仍是绘画作品的最大生命气韵和价值所在。
由于人工智能绘画程序是基于“前人的数据库”去创作,其演化建立在当下这一刻往前所有艺术风格的数据库之上,其表现手法和风格,跟这个时代最前沿的风格相比,是有些滞后的。以笔者所在的插画领域为例,这个领域的活跃艺术家,还在一分、一月、一年的时间进程中,创造着属于当下这个时代的风格和“艺术史”。
即使有一天,人工智能真的发展到有自我意识了,传统绘画仍有其不可替代之处。人的艺术创作,是跟物质、跟真实世界的互动,画面从无到有的过程,是有触感、有味道、有人的精神参与的。只要人的肉身还存在,人类就会有对肉身感知、表达的持续渴望,其结果是,手工、手感、手绘会不断焕发生机,让传统作画方式回到艺术领域“收复失地”。
以开放的心态拥抱智能绘画
人工智能技术浪潮澎湃而至,作为绘画创作者,是不能无动于衷的。人工智能专家吴军说得好:“任何一次技术革命,最初受益的都是发展它、使用它的人,而远离它、拒绝接受它的人,在很长的时间里都将是迷茫的一代。”
人工智能绘画工具,像摄影术的发明一样,为艺术家提供了新的创作介质和可能。作为绘画创作者,应该以开放的心态去拥抱、利用这种创作工具。
我们可以把人工智能的绘画作为启发自己灵感创意的一把钥匙。由于其技术与工具特点,人工智能绘画程序在一定程度上可以超越人类创作者知识结构、想象力,以及所处文化环境的限制,迅速生成一些出人意料的图像,极大地提高创意过程的效率,带来一些新的可能性。
我们还可以用这种新的工具来展示自己的创意。随着人工智能绘画对算力和计算机硬件要求的降低,越来越多的人用人工智能画画,人们对它的接受与认知,会逐渐从猎奇转变为欣赏。人工智能作画,也可能会像摄影、电影那样,逐渐从一门技术变成了艺术门类中的一种。
现在的人工智能绘画程序,已经可以通过文字描述生成绘画,但正如有了相机并不等于就会摄影一样,要想用它创作理想的作品,创作者的审美素养仍非常关键。从笔者使用人工智能绘画软件的体会来看,文字描述虽然降低了绘画的门槛,但要想用人工智能绘画工具创作一幅好作品,创作者仍必须不断发挥想象,进行调试、补充、修改。插画师、设计师、画家有良好的绘画功底,他们熟悉不同派别的画作特点,不仅可以用精准的语言描述,还可以导入草图,帮助人工智能程序更好理解描述语言,以获得相应构图和配色,并通过后期修改、补绘调整细节,因此他们用人工智能绘画工具创作出来的作品,往往是常人无法企及的。
提升创意、审美能力,必须“外师造化,中得心源”。创作者要亲近自然、深入生活,在自然社会生活的实践中历练熏陶,保持敏锐的观察力和感受力,练就识美和懂美的眼睛。同时,要博览群艺、广泛撷取,从文学、戏剧、电影、音乐、舞蹈、雕塑、建筑等其他艺术门类中吸取营养,丰富自身的认知和扩充心灵的纬度。此外,还需要创作者具备工程师的思维,系统思考自己的创作脉络,并能运用新的技术和手法,将自己独特生命体验融入创作表达中。无论未来智能技术大潮如何汹涌,笔者认为,这些都将是绘画创作者安身立命的根基所在。
(作者:韩娴,系插画师、绘本作者)
(本文配图均为作者使用百度文心大模型ERNIE-ViLG文生图创作。)