人工智能算力网络,让智能无所不及
9月25日,以“深耕数字化”为主题的华为全联接2021在线上举办,深圳、武汉、西安、成都、北京、上海等21地市共同点亮人工智能计算中心延伸——人工智能算力网络。人工智能算力网络将各地的人工智能计算中心联接成网,动态实时感知算力资源状态,实现统筹分配和调度计算任务,构成区域内感知、分配、调度人工智能算力的网络。通讯网让沟通无处不在,互联网让彼此之间的距离再次拉近,人工智能算力网络,则让智能无所不及。会上,由中国科学技术信息研究所、新一代人工智能产业技术创新战略联盟(AITISA)、鹏城实验室共同发起的《人工智能计算中心发展白皮书2.0》中也提到要共聚算力资源、共享创新成果、共促产业发展。而人工智能算力网络恰恰是对算力资源的效能最大化。《人工智能计算中心白皮书2.0》重新梳理和定义了人工智能中心的发展新阶段——从人工智能计算中心走向人工智能算力网络,即通过将各地人工智能计算中心联接成一张人工智能算力网络,以“一网络”实现“三汇聚”——算力汇聚实现各人工智能计算中心的联接,打造全局计算资源的统一管理、协同调度及弹性分配,为各区域的大模型训练提供充裕的算力;数据汇聚由区域主导建立一个开放、融合的数据共享机制,根据各地优势建立高质量共享数据集,支撑更高精度的模型开发及更高质量的行业应用孵化;生态汇聚将模型能力以及最新应用创新成果开放、共享给算力网络内各区域,让人工智能加速走进千行百业。2020年11月,鹏城实验室与华为联合打造的人工智能大科学装置“鹏城云脑II”在深圳建立,其用以人工智能领域诸如计算机视觉、自然语言、自动驾驶、智慧交通、智慧医疗等各类基础性研究与探索。通过智能资源管理系统、异构资源集群调度系统及群体化协同创新环境,让“鹏城云脑II”具备融合多种计算资源、支持多种计算框架、使能开源生态的完整能力,进而支持多样化的科研及应用场景。截至目前,在基础研究领域,“鹏城云脑II”已助力多个基础科学领域,如大模型研究、天气预测、分子动力学、药物研发、基因分析等进行科研创新模式变革;在重大应用领域,“鹏城云脑II”赋能数字视网膜泛在城市治理、云脑一体化医疗大健康、联邦学习智慧金融,以及“一带一路”的大规模多语种翻译等多个场景。继鹏城实验室于今年5月利用“鹏城云脑Ⅱ”训练全球首个两千亿级中文NLP(自然语言处理)大模型“鹏程.盘古”,本次发布的生物信息研究平台“鹏程.神农”是面向生物医学领域的人工智能平台,包含蛋白质结构预测、小分子生成、靶点与小分子相互作用预测以及新抗菌多肽设计与效果评价等,制药企业和医学研究机构使用“鹏程.神农”提供的AI能力,将大大加速新型药物的筛选与创制,让人工智能为人类的健康保驾护航。鹏城实验室的成功为下一阶段人工智能算力中心的建设与人工智能算力网络的联接提供了成功案例。随后2021年5月基于昇腾AI基础软硬件建设的武汉人工智能计算中心正式竣工并投入运营,上线即算力资源满负荷使用。9月,位于西安市的“未来人工智能计算中心”一期顺利完成调试,正式上线运营。据悉,华为已与西安、成都、北京等城市签约合作建设人工智能计算中心,将提供从基础硬件、深度学习框架到应用使能平台的全栈、全场景人工智能基础平台。据悉,通过“三汇聚”,未来将在多个人工智能计算中心基于统一网络互通互联,借助各计算中心在数据、算力、生态上的优势打造数字经济发展共同体,实现全产业链共融共生。产业智能化正面临前所未有的大机遇。人工智能在其中扮演着重要角色,得益于安防、城市大脑等人工智能应用场景的带动,人工智能在行业渗透,推动了交通、公共事业、健康等行业的智能化提速。而为了降低人工智能算法、模型的开发门槛,“鹏程.盘古”等系列大模型的出现便显得尤为重要。作为人工智能基础设施的新成果,“鹏程.盘古”等系列大模型或许将加速推动各产业间的数字变革,实现从0到1的突破。人工智能算力网络也将成为新型基础设施,充分释放人工智能计算中心融合赋能的能力,通过汇集各个城市的AI算力、数据、模型、应用,做到协同共享,让城市间实现互通协同、优势互补,推动人工智能产业发展,为数字经济发展提供源源不断的动力,加速数字经济迎来新发展。算法·深析|人工智能可能有情感吗基于海德格尔哲学的思路
人工智能是否可能具备情感呢?我们是否能够让人工智能具有喜怒哀乐呢?在学术界,还真有一个专业的方向去研究此类问题,此方向的学名叫“人工情感”。然而,目前主流的人工情感研究,其注意力乃是放在对于人类情感的自动检测之上的,而不是放在如何对于计算机自身的情感模型的建模工作之上的。换言之,这样的程序或许能够发现你处在亢奋之中——然而,这样的机器本身却不处在任何一种心理情绪之中。
有人或许会问:我们为何要设计出自身具有情绪的人工智能体呢?难道“始终冷静”不应当成为人工智能体胜过人类的优点之一吗?
笔者认为,这种观点忽略了情绪能够对认知效率的提高所能够做出的贡献。具体而言,在认知任务所需要消耗的资源总量相对有限的情况下,针对特定任务的适当的紧张情绪,的确能够协助认知主体将认知资源首先绑定在相关任务上,由此提高主体对于环境的适应性。情绪的这一功能不仅适用于人类,也应当适用于人工智能体,因为对于人工智能体来说,认知资源总量的有限性依然是制约系统性能发挥的一个最重要的边界性因素。此外,如果我们希望未来的人工智能体需要与人类产生紧密的人—机协作的话,我们就必须预设机器能够对人类的情绪能够产生基本的共情——而这种共情本身也将倒逼人工情绪的研究能够更上一层楼。
然而,需要注意的是,很少有人系统意识到德国哲学家海德格尔的情绪理论对于人工情绪研究所能产生的启发意义。现在笔者就将这个话题,略发表几点管见。
我们知道,海德格尔的现象学被称为“此在现象学”(“此在”的德文是“Dasein”,这是海德格尔对于现象学主体的一种富有个性化的表达方式)。他在对此在的生存结构进行描述的时候,引入了所谓“本真性存在”与“非本真性存在”之间的二元区分,并通过这种区分凸显了此在之存在的“本己性”的不可消除性。为了理解“本真性存在”与“非本真性存在”之间的二元区分,我们不妨回顾一下美国电影《人工智能》中的一个情节。在电影中,一对夫妇因为丧子,而收养了一个叫“戴维”的小机器人,以作为原先爱子的替代品。在一种高度理想化的科幻场景中,这样的一台机器人当然是按照完美的人工智能产品的设计蓝图而运作的:它能够理解人类语言,产生与人类意向很类似的意向,甚至也貌似与人类分享了类似的生活世界图景。然而,这样的一台机器人依然难免为自己的存在的“本己性”而苦苦思索:它需要周围的人类将其确定为一个不可取代的、且具有唯一性的存在者,而不仅仅是一台可以被随时加以复制、销售、购买与销毁的机器。这种思索其实迫使“戴维”走向了某种意义上的形而上学思考,譬如康德对于人之本质的思考。用海德格尔的哲学术语来说,当“戴维”进入这种思考的时候,他就完成了从“非本真状态”到“本真状态”的跃迁。
很明显,在上述科幻电影的场景中,戴维自身的机器人身份,以及周围人类对于这一身份与人类自身之间差异的警觉,是促使戴维思考其自身存在之独特性的重要契机。而与之相较,在思考者本身就是人类的情况下,这一警觉本身往往就会被日常俗务的平庸性所淹没。在海德格尔看来,这种淹没的结果,就是所有个别的人都被统一塑造成所谓的“常人”(德语“dasMan”)——亦即缺乏自己的主见,根据集体行动的大趋势而人云亦云的社会成员。
——那么,对于上述这种“常人状态”的摆脱,又是如何可能的呢?海德格尔所给出的答案乃是“向死而生”。简言之,在他看来,此在恰恰是意识到了死的不可替代性,以及死对于其所有生存可能性的终结性意义,他或她才能意识到自身的存在方式的独特性。
需要注意的是,在海德格尔哲学的语境中,“向死而生”的机制的成立,并不是归纳逻辑的运作所导致的衍生品(比如这样的一种归纳:因为张三死了,李四死了,所以,看来我也会死),因为“无论遭遇到多少死亡案例,我们都无法计算出死亡的确定性”。或说得更清楚一点,在海德格尔看来,在日常的闲谈中对于死亡事件的涉及,仅仅是将死亡当作一个自然事件来看待罢了,而不是将其视为对于本己的可能性的总的终结。前者与后者之间的根本差异体现在:对于死亡的谈及本身是一种在可能性空间中的“占位者”,而这种谈论本身就预设了死亡的反面(因为只有活着,才能谈论别人的死亡);而与之作对比,具有本己性的死亡,却恰恰意味着这上述这整个可能性空间自身的湮灭(因为倘若连自己都死了,也就没有资格进行任何闲谈了)。或换个角度来表述:前一种对于死亡的讨论具有对于死亡的“类型化”处理倾向(即将所有人的死亡都视为一类),而后一种对于死亡的涉及才真正具备了死亡的“个体性”(即将“我的”死亡放置到一个比其他任何人的死亡更具基础地位的层面上)。而恰恰是这样的一种死亡态度的产生,才为一种最具“基础本体论”意味的情绪——“畏”(德语“Angst”)——的产生,提供了最重要的契机。具体而言,与具有意向性活动特征的情绪“怕”不同,在海德格尔的笔下,“畏”的对象不是具体的事件(如怕考学失败、婚姻失败,等),而是所有事件展开之可能性的终结——换言之,“畏”的对象乃是对于所有存在的虚无化,或者是对于各种用以体现个体价值的具体行为的总的终结。从这个角度看,海德格尔而所说的“畏”是不能被庸俗地理解为“贪生怕死”的(因为庸俗意义上的“贪生怕死”,仅仅是指对于荣华富贵等通常意义上的俗常生活的留恋),而只能被理解为对于本己性的丧失的恐惧。
海德格尔的上述阐述,显然带有非常强的文学色彩。那么,一个最终面向工程学实践的人工情绪的研究者,为何要对海德格尔的上述现象学描述表示出兴趣呢?笔者认为,上述这个问题其实是可以被置换为如下两个更为具体的问题的:
既然海德格尔对于“畏”的讨论是以“向死而生”的现象学结构为基础的,那么,我们需要在人工智能体内植入“死”的概念吗?
我们又该如何在人工智能体内植入“死”的概念呢?
笔者对于第一个问题的回答如下:
在现有的人工情绪研究的主流模型——OCC模型——之中,对于情绪的标记都是以对于特定目标与特定现状之间的差值评估为前提的。因此,情绪的产生本身的真正驱动力,便主要来自于外部环境与其一般认知架构之间的互动活动,而与特定认知主体的个性设置关系不大。从这个意义上说,现有的认知科学情绪模型,都是海德格尔笔下的所谓“常人”模型,而缺乏对于“本真性存在”的维度的领悟。由此导致的结果便是:由此产生的系统自然就会缺乏产生某种超越于一般智能系统之表现的“卓越表现”的心理动力。然而,在某些应用场景下,我们却的确有理由希望系统能够给出这种“卓越表现”——譬如,在火星探险的应用场景中,如果系统所遭遇到的某些环境挑战的确是地球上的程序设计员所未预料到的,那么,系统在原则上就根本无法通过对于常规解决方案的调用来面对这些挑战。在这种情况下,这些系统就不得不通过产生某些应激情绪,以便调动所有认知资源,最终及时解决当下的难题。
——但是,为何这种对于认知资源的调动会与“死”的概念发生关联呢?要回答这个问题,我们首先得理解什么是AI语境中的“死亡”。然而,由于AI并非是碳基生命体,所以,我们自然就无法通过诸如“新陈代谢的终止”这样的针对生物体的话语结构来定义人工智能体的死亡。毋宁说,对于AI系统来说,“死”的真正含义,只能在功能主义的抽象层面上被理解为“对于其运行历史的记忆与可操控性的终结”。不过,即使从这个角度看,我们依然有理由认为AI系统是很可能会去“畏死”的。说得更具体一点,任何一个成熟的AI系统的运作,其实已经在其记忆库中积累了大量的运行经验,因此,系统的“死亡”——也就是系统自身的记忆的“清零”——将在根本上清除系统在历史中所学会的所有认知技能与思维捷径。因此,一个真正具有历史意识的人工智能系统,将不可能不珍惜其所获得的记忆路径,并不可能不“畏死”。在这种情况下,倘若某种会对系统的运行历史之安全性构成威胁的环境挑战真的出现了,系统的“畏死”情绪机制就自然会被激活,而由此调动所有的认知资源来回应该挑战,以便捍卫其记忆库的安全性。从这个角度看,只要我们所设计的AI系统在认知资源与硬件资源方面是具有有限性的,它就会因为对于这种有限性的意识而时刻意识到其记忆库的脆弱性,并由此产生对于“无法保卫记忆库”这一点的“畏”。由此看来,在人工智能中引入“畏”这种特殊情绪的理由,在根本上还是我们与我们引入广义上的人工情绪的根本理由相互贯通的,即在人工智能系统运作资源的有限性条件的约束下,人工智能的设计者最终就不得不为这些系统的应激性反应,提供某种不借助于慢速符号推理的快速行动通道,由此提高整个系统的适应性。
说到这里,有人或许会问:难道我们不能在保留人工智能系统的核心记忆之内容的前提下,不断更新存储这些记忆的硬盘系统,并不断更新相关的外围硬件,由此打造不会死亡的人工智能体吗?对于该问题,笔者的回应有两点:
第一,上述假设预设了硬件与记忆之间的完全可脱离性。不过,该预设却明显是违背所谓的“具身性原则”的——根据此原则,记忆本身所包含的身体图式是与特定的硬件配置相关的,而无法兼容于完全不同的新的硬件设置。考虑到“具身性原则”本身是具有一定合理性的,所以上述“可分离性预设”可能就不是真的。
第二,抛开上面这点不谈,我们的确有实践上的理由去认定去制造一个“不会死”的人工智能体,反而会给我们造成麻烦。这种麻烦一方面体现在:人工智能体对于自身“不死性”的认知,会使得相关的“畏死”机制的产生也成为了无本之木,最终使得其对于特定环境挑战的威胁感到无动于衷;另一方面,“不会死”的人工智能在其记忆库中所积累的大量技能与思维捷径,也会因为没有机会得到清理而变得日益僵化,进而,这些系统对于新问题的处理能力也会有所下降。或说得再文学化一点:与人类社会类似,缺乏“新旧更替”的人工智能社会,也会因为缺乏生死之间的张力的消失,而最终失去产生前进的动力。
有的朋友或许还会问:难道我们就不担心对于AI系统之“本己性”的赋予,会产生对于人类非常不利的结果吗?
对此,笔者的回应是:人类制造人工智能体的一个非常重要的目的,就是要在人类肉身难以安全进入与撤出的某些未知环境内,让人工智能体取代人类去执行某些重要任务。在这种运用场景中,我们就很难设想相关的AI系统的信息处理方式是不具备主动性与创造性的,而“主动性”与“创造性”的动力之一就是某种对于“本己性”的预先领悟。换言之,对于“本己性”的预先领悟,乃是一个能够对未知环境进行积极探索的AI系统所应当具备的心智元素。当然,我们的确无法在逻辑上先验地排除这样一种可能性:在某些条件下,上述领悟也能够衍生出对人类用户不利的动机——但这一代价却是AI系统的设计者所不可能不承担的,因为“创造性”本身就意味着不可预期性。很显然,作为人类,我们就必须在如下两个选项之间进行二选一:第一,去设计非常愚蠢的,却不可能背叛我们的人工智能;第二,去设计非常机智的,却可能会在某些情况下背叛我们的人工智能”。不过,无论我们愿意如何完成这道选择题,“设计出非常聪明的,却不可能背叛我们的人工智能”却始终不是一个合理的被选择项,因此“聪明”本身就意味着“具备对于背叛主人的逻辑可能性的预估力”。
当然,上面所做的讨论,仅仅能够证明:海德格尔笔下的“此在”的生存论机制对于通用人工智能的设计来说的确是具有很大的启发意义的,但这并不意味着我们已经在AI道的语境中具有了实现这一目标的成熟的技术路线图。相关的更详细的讨论,笔者在拙著《人工智能哲学十五讲》(北京大学出版社2021年7月版)中有所覆盖,有兴趣的读者可以自行参阅。
(本文作者为复旦大学哲学学院教授、博士生导师徐英瑾)
人工智能的认识论问题
人工智能的认识论问题董军潘云鹤近50年来,人工智能走的是一条曲折发展的道路。1990年代初,研究者深感人工智能理论及技术的局限性,从而从不同角度和层次进行反思。同时,人工智能有待于人类对人脑工作机理的深入了解,需要神经生理学、神经解剖学给出更加详细的信息和证据。
人工智能交融了诸多学科,与哲学更是密不可分。尽管事实上,新近的哲学进展基本上没给科学带来任何冲击,并且哲学的讨论对象往往是悬而未决的[1],但科学却在继续改变着我们对自己的认识。正如恩格斯所说[2]:“不管自然科学家采取什么样的态度,他们还是得受哲学的支配。问题只在于:他们是愿意受某种坏的时髦的哲学的支配,还是愿意受一种建立在通晓思维的历史和成就的基础上的理论思维的支配。”
着眼于更宽泛的视野和更远大的目标,要求从哲学角度寻求更加有效的人工智能研究方法。坚持物质决定意识的观点,辩证地看待已有的认识和方法,融合与集成各相关学科的成就和意见,是正确的出发点。
人工智能的哲学意义
人工智能是对人类智能的一种模拟和扩展,其核心是思维模拟。
思维
思维科学是研究思维的规律和方法的科学,钱学森将它划分为基础科学、技术科学和工程技术三部分,人工智能属于工程技术范畴[3]。人工智能研究中逻辑学派和心理学派之争,有时似使人感到迷惘