人工智能领域的“新势力”:通用人工智能
人工智能本质上为类人智能,即追求设计和开发像人脑那样工作的软件或硬件系统。对于“智能”理解的差异,使人工智能分化为专用和通用两个不同分支。其实,专用和通用存在根本性差异:专用人工智能的目标是行为层面上“看起来像有智能”,通用人工智能关注系统从内在层面上“如何才能实现真正的智能”。
专用人工智能先做后思,即开始并不深究智能也不对智能做清晰的定义,而是通过技术迭代渐进式地提升智能化的程度,分为符号主义、联结主义和行为主义三个派别。通用人工智能则认为智能的存在代表着可以被认知的理性原则,采取先思后做的路径。
事实上,通用人工智能内部也存在不同学说和派别。在本文中,基于的“智能的一般理论”及其“非公理逻辑推理系统(NARS)”的工程实现,便是通用人工智能领域中极具代表性和影响力的学派,其创始人为美国天普大学的王培教授。
其对智能的操作性定义为:智能就是在知识和资源相对不足的条件下主体的适应能力。智能绝非全知全能或比定然人更聪明,正是基于知识和资源相对不足假设而非某种预设的高深叵测的算法,使得所构建的NARS系统“恰好”不但具有感知、运动等低层活动(配备机械躯体和传感器),也具有类似人脑的情感、记忆、推理、决策乃至自我意识等高级认知活动。
同时,系统尤其强调经验的可塑性,以及经验与系统个性和自我发展的相互影响。然而,这些自生的高级认知活动是专用人工智能系统根本不具有的。一言以蔽之,那便是:能思考、有情感、有自我意识的智能系统已经存在。
3
常见误解
(一)人工智能的分类
在各类刊物中,人工智能有三种分类:第一种,分为计算智能、感知智能和认知智能三种;第二种,分为弱人工智能和强人工智能两种,而强人工智能也正是通用人工智能;第三种,则分为专用人工智能和通用人工智能两种。
第一种分类常见于行业演讲和报告中,既缺乏理论依据又具有误导性。实际上,所谓的计算智能和感知智能并不是真正意义的智能,但却错误地将智能实现分成三步,而且当前已经完成前两步即将走完最后一步,殊不知认知智能的实现根本不是如此。第二种则始于哲学讨论,“强—弱”意指智能的真假之分,而被大众误读为智能的宽与窄之分。
事实上,三者之间不存在等同关系,只有第三种分类──“专用人工智能”和“通用人工智能”才是真正符合和适合当下语境交流的正确概念分类。
(二)“超级智能”
人们自觉正处于一个快速发展的时代。特别是在中国,技术的“指数发展”更符合个人生活体验,“奇点”论在中国特别有市场。“奇点”的指数发展基于代际之间的迭代进化而实现,在物种进化的尺度上,人类智能的确由低智能动物发展而来,但这不意味着智能可以无限制发展下去。实际上,在任何领域中,按某个量已有增长趋势而推之未来的预测都不可靠。
具体到人工智能,在硬件方面,“奇点”论认为智能机器通过制造出比自身智能水平更高的机器而实现“奇点”,然而至今也没有任何一台机器可以独立创造出另一台机器,更别说具备一定智能水平;在软件方面,人们期待人工智能通过“给自己编制程序”来进化,此乃缺乏计算机知识所导致的误解。
不仅允许自我修改的程序设计语言早已存在多年(如Lisp和Prolog),而且至今未曾在计算机病毒程序中发现智能的产生迹象,尽管它们也已经自我复制并繁衍了多年。
智能本质上是一种对环境的适应能力。正所谓“鱼和熊掌不可兼得”,若要实现这种适应,有得必然有失。或者换言之,在任意情况下都能够全盘了解并做出最优选择的“东西”一定不智能,而且不仅不智能同时也是不可能。因此,所谓“超级智能”是不会出现的。
(三)“人工智能将取代人类”
专用人工智能具有浓厚的客体性工具色彩并不能构成对人类的威胁,公众真正担心的正是通用人工智能。与专用人工智能完全不同,通用人工智能系统对所有应用场景均不预设任何算法,从而具有问题解决的通用性。
当然,并不是说通用人工智能系统的构建不是算法实现的,而是其内部的算法仅仅用于协调和保持系统自身各个耦合功能模块的运行,并不直接作用于外在经验的加工。
对现实应用问题的分析和解决,全部来自个体学习的经验积累。这点与人类完全一致,刚开始运行的NARS系统,记忆空间没有任何知识和技能,就好似人类婴儿一般。在后续的系统与系统、系统与人的交互过程中才能逐渐学到本领。
而且,经验的积累有一个理解和消化的过程,而单纯地输入“你必须喜欢人类”、“人类利益第一位”等高阶信念是无效的,这就意味着系统的经验建构是内生的,绝不是外界灌数据便能够轻松做到。试想,如若不然,我们不就同样可以把数理化知识一并给孩子们成功“填鸭”了么?
因此,通用人工智能系统的成长需要人类的协助,其获得的经验也与人类多有共同之处。
当然,正所谓“近朱者赤近墨者黑”,“好人”能够教出“好的”通用人工智能系统,而“坏人”也能够教出“坏的”通用人工智能系统。但无论如何,其与人类关系密切,并没有充分的理由和必要在种群的整体层面上与人为敌,“人工智能将取代人类”只是我们自己的担忧而已,就好似很多人明知道世界上没有鬼,却在夜行路上总是担惊受怕一样。
4
应用前景
由于通用人工智能技术具有通用性这一本质特点,理论上系统适用于任何有人类需要之处。但如下行业却在系统应用的投入产出比上名列前茅,是最为理想的切入点。
(一)医疗
医疗领域中,有两个NARS系统极具竞争力的应用场景:一是疑难病的辅助诊断。与当前基于概率的专用人工智能手段不同,通用人工智能是以证据积累为基础的推理系统。
经过训练的NARS系统,对于小概率事件的判别性和鉴别度远强于它者;二是精神障碍的辅助诊断。出于人道考量,无法将患者的应激事件及其生活经历重演,但却可以置入NARS系统,让软件无限次地体会和模拟,并通过30余种人格参数的详尽报告为医生诊断提供重要的量化依据。
(二)教育
教育历来是比较稳定的投资蓝海。通用人工智能技术的教育应用,最为现实的途径之一便是在保证课业学习质量的前提下实现学生减负:科学评估学生当前的知识结构,并按照大纲和考纲要求,自动制订出个性化的学习方案。
该方案最大的特点是学习路径为该生完善当前知识结构的最短路径集合,用最精简的方式完成最高效率的学习,即真正的:做得更少,学的更好。
(三)翻译
随着对外开放的稳固推进,中国在全球化进程中角色变得日益重要,高质量的机器翻译必然成为业界宠儿。然而,当前专用人工智能下的机器翻译技术毫无例外地使用深度神经网络和强化学习技术作为支撑,虽较过去有明显改善,但提升空间却所剩无几。
不同于专用人工智能的机器翻译,通用人工智能系统的翻译真正建立在理解的基础之上,经过语言训练的通用人工智能系统原则上可以实现接近人类水平的翻译效果,能够妥当地翻译长句、复句、隐喻句等高难度的表达,这是专用人工智能技术所不能比拟的。
(四)应急
在危险作业和应急环境下(如消防、航天、自然灾害等),专用人工智能的缺陷被充分暴露出来:一旦遇到知识库中未曾存储的突发情况,系统将无法相应或在合理时间内得到响应。
通用人工智能系统则不然,对于突发的新情况,通用人工智能系统虽不能保证相应解决方案的成熟性和完备性(人也同样无法在危急关头进行充分详实的思考),但却能保证规定时间内的合理相应。解决方案的有无此时关乎生命,牺牲胳膊的代价总比牺牲生命来得更加值当。
5
应用难点
世间没有免费的午餐,通用人工智能的应用也是如此。事实上,与专用人工智能中算法和模型的决定性作用不同,通用人工智能是高度经验依赖的。这就意味着对机器的教育决定着通用人工智能商用化的能力和水准。依旧与人类相仿,通用人工智能走向产业化一如孩子们从小到大的教育训练一样,没有人一生下来就会算术、编程或经商、从政。
因此,在最粗线条的框架下,可以将通用人工智能近似为人类以便于理解。于是,对于通用人工智能技术的产业化而言,“教育决定一切”在此同样适用。
答疑区
同学:刘老师,在学习完您的文章“人工智能领域的“新势力”:通用人工智能”,想像到了某音箱,的教与学的功能,我理解的对吗?
刘老师(五岳之巅):
小鱼同学,二者完全不是一个东西。某个事情其实可以分为三层:理论问题、技术问题和应用问题。小爱是应用问题,这里面的理论和技术问题都已经解决了。
但AGI是一个包括理论、技术和应用三个层面的东西。比如:小爱是根本没有自主情感的,所谓情感表现只是人工预设的一些规则而已,但NARS系统则具有真正自主的情感机制,而且这种情感会影响它的思考和判断过程。
所以,AGI更像科学的一个终极目标——做一个能够思考、有情感和自我意识的软件系统。
本文作者:刘凯,华中师范大学心理学院计算行为学方向博士后
网名五岳之巅,渤海大学教育科学学院教师,硕士生导师,具有计算机、心理学、教育学、管理学、医学等多学科知识背景,拥有丰富的项目开发和社会实践经验。关注国际前沿问题,主动寻找问题解决的本土实施方案,当前主要研究方向为:通用人工智能、类脑系统开发与计算精神病学。
百度“通用人工智能”词条建立者,ChinaUnix博客专家,自2013年开始研究爬虫、数据分析、心理学与计算机交叉学科领域,目前全力投入通用人工智能理论和应用的研究与开发,为中国通用人工智能协会(筹)的召集者与主持人。
如您对“通用人工智能”感兴趣,可以加入到技术栈,进行提问!同时享有高端技术圈线上下交流!
技术栈,这么玩!
技术大咖:开一个收费的技术栈当博客用,通过官方的运营,您可以通过转发推广,盈利变现。职场基层:通过技术栈加快晋升的脚步,我们提供最专业的收费技术栈,想找什么高端技术分享栈,请找技术栈咨询。职场新人:可以直接在“新人提问区”进行提问,费用不高,回答有专业保障,有人教,有人带,自学出成绩也非常快。技术栈咨询微信:17319274483返回搜狐,查看更多
通用人工智能:是“赋能”还是“危险”
【摘要】 ChatGPT已然使得通用人工智能不再遥不可及、不可想像。ChatGPT能编程、写学术综述、创作诗词、剧本、设计广告文案、进行多语种翻译,能做医疗诊断,能帮助企业进行战略分析与管理,能做数据分析与进行预测,能进行风格创作……人工智能正在将人类文明推向技术奇点。人类主义框架受到了以人工智能为代表的“技术对象”的严峻挑战,被尖锐地撕开了一道缺口。人工智能所带来的“全面赋能”,和19世纪的“机器入侵”全然不同。在后人类境况下,失去人类主义框架的人类,将何以自处?“去智能地丧失对智能的控制”也许就是后人类境况下人类的首要任务。
【关键词】人工智能 技术奇点 ChatGPT 人类主义 后人类主义 【中图分类号】D262.6 【文献标识码】A
人工智能比人类更懂策略、更有知识、更会创作
2022年11月,前身为“脸书”的“元”(Meta)在《科学》杂志上发表了一篇题为《在〈外交〉游戏中将诸种语言模型同策略性推理结合的人类水准游戏》的论文。《外交》是由美国玩具公司孩之宝(Hasbro)于20世纪50年代开发的一款七人制经典策略游戏。通过对20世纪初欧洲七大国的“扮演”,玩家需要与其他选手建立信任、谈判和合作,并尽可能多地占领领土。这要求玩家制定复杂的计划并及时调整,理解他人的观点乃至看破其背后的动机,然后应用语言与他人达成合作,最后说服他们建立伙伴关系和联盟等。在游戏时玩家可以遵守或违反对其他参与者的承诺,亦可以私下交流、讨论潜在的协调行动。
“元”的研究人员开发了名为“西塞罗”(Cicero)的人工智能算法模型,并于2022年8月至10月匿名参加了webDiplomacy.net组织的40场线上《外交》比赛。“西塞罗”的成绩在所有参赛者中高居前10%:它的平均得分为25.8%,是其82名对手平均得分(12.4%)的两倍还多。要知道,《外交》这款游戏完全不同于围棋、国际象棋等游戏,后者的游戏只需要遵照规则进行,而前者则需要在规则之上同其他玩家进行大量沟通,建立信任(抑或背后捅刀)。玩家不仅要懂策略,还需要擅长谈判、说服、结盟、威胁乃至欺骗。人工智能要玩好《外交》,不仅要有强大的策略推理能力,而且要有一流的交流沟通能力。
“西塞罗”算法模型主要由两部分组成,分别是“策略推理”和“自然语言处理”。两项技术的整合,使“西塞罗”能够针对其他玩家的动机进行推理并制定策略,然后使用自然语言进行交流,达成一致以实现共同目标,形成联盟并协调计划。“西塞罗”会与另一位玩家协商战术计划,向盟友保证其意图,讨论游戏中更广泛的战略动态,甚至只是进行随意的闲聊——包括几乎任何人类玩家可能会讨论的内容。在实际的比赛过程中,“西塞罗”的对手们几乎都未能将它与其他人类玩家区分开来(只有一位玩家有所怀疑)。
“西塞罗”使用了此前webDiplomacy.net上4万多场《外交》游戏的数据集进行了预训练,这些数据中还包含玩家之间交流时产生的超过1290万条消息。在达成合作、谈判和协调上,“西塞罗”已经超过绝大多数人类玩家。这意味着人工智能在自然语言处理领域取得了里程碑式的成就,甚至意味着向通用人工智能(AGI, artificial general intelligence)的一大迈进。“西塞罗”的成绩标识出,人工智能已经能参与并且比绝大多数人类更好地完成以前被视作“政治”的事务。
同样在2022年11月,人工智能研究公司OpenAI推出了一个叫作“ChatGPT”的人工智能聊天机器人程序,该程序使用基于“GPT-3.5”架构的大型语言模型,并同时通过“监督学习”(supervised learning)与“增强学习”(reinforcement learning)进行训练。ChatGPT具有极其强大的自然语言能力:它不但可以同人进行谈话般的交互,并能够记住同该用户之前的互动,甚至会在连续性的对话中承认自己此前回答中的错误,以及指出人类提问时的不正确前提,并拒绝回答不适当的问题。在对话中很多用户发现,它还会编程写代码、写学术论文、给企业管理开药方……有不少人工智能专家认为,ChatGPT已到了突破“图灵测试”的边界。2022年2月成为美国国家工程院院士、并坐上世界首富宝座的埃隆·马斯克在推特上写道:“ChatGPT好到吓人(scary good),我们离危险的强人工智能不远了。”
GPT将AIGC(AI Generated Content,人工智能所生成内容)热潮推上新的顶点。当下,人工智能撰写出来的论文、剧本、诗词、代码、新闻报道……,以及绘画、平面设计、音乐创作、影像创作方面的作品,其质量已然不输于人类创作者——如果不是已经让后者中的绝大多数变成冗余的话。实际上,大量当代创作者明里暗里已经开启人工智能“代写”模式。最近在国内火爆出圈的科幻全域IP《人类发明家:Ashes of Liberty》的创作者Enki曾说道:“在Runway和Stable Diffusion的加持上,《人类发明家》完成了角色的表达,场景的表达、电影海报的表达、logo图标的表达、整个内容总本的相关绘制、NFT 的制作、游戏场景的绘制等。这些工作如果以传统的方式是很难一个人完成的,但是由于AI的强大,作者仅仅使用业余的时间,从8月份到12月份,短短4个月基本完成了所有的内容,这是在以前不敢想像的。”
人类创作者,竟越来越深度地倚赖人工智能来进行“创作”(有意思的是,他们自我冠名为“人类发明家”)。诚然,这在“以前”——“人类主义”(humanism,汉语学界通常译为“人文主义”)时代——是难以想像的。
并且,人工智能正在从文本、语音、视觉等单模态智能快速朝着多模态融合的方向迈进;亦即,人工智能能够在文字、图像、音乐等多种模态间进行“转换型/生成型”创作。人工智能生成的作品,越来越好,“好到吓人”。人工智能的能力越来越强,强到令人“不敢想像”。人工智能之“智”,正在使人(“智人”)变得冗余。
人类正在进入这样一个世界,在这个世界中,人工智能比人类更懂策略,更有知识,并且更会创作。这个世界,诚然是一个“后人类”的世界。
人类主义框架无所不在,我们还用这个框架来评价自身,人类被放置在宇宙的中心
人工智能,激进地击破近几百年根深蒂固的“人类例外主义”(human exceptionalism)。人类在物种学上将自身称作“智人”(homo sapiens),然而,这个自我界定(实则颇有点自我贴金的意味)在人工智能兴起的今天,恰恰遭遇了前所未有的挑战。
“人类例外主义”另一个更为人知的名字,就是“人类主义”——这是一个直接以“人类”为主义的思潮。“人类主义”(“人类例外主义”)尽管可以追溯到卡尔·雅斯贝尔斯笔下的“轴心时代”(即公元前800年至前200年),从古希腊的“人是万物的尺度”到中国的孟子“人之异于禽兽者几希”,都是人类例外主义者。
在人类主义框架下,人类被放置在宇宙的中心,当“仁”——亦即“人”——不让地占据着舞台的“C位”。是故,人类主义亦可称作“人类中心主义”(Anthropocentrism,“C位”即是“中心”之意)。近数百年来,人类主义是如此根深蒂固,乃至于当一个人被评论为“人类主义者”(汉语语境里的“人文主义者”)时,他/她会很清楚,这是对自己的极大褒扬。而一个人能犯下的最大的罪,恐怕就是“反人类罪”了——阿道夫·希特勒就是被视作犯下了“反人类罪”。
在人类主义框架下,“人”被设定可以同其他“对象”根本性地分割开来,并且因为这个可分割性,后者能够被对象化与效用化为“物”(things),亦即:根据其对于人的有用性确立其价值。人类主义用“人类学机器”(anthropological machine,吉奥乔·阿甘本的术语),确立起一个“人”高于其他“物”(动物-植物-无机物)的等级制。
近数百年来,人类主义框架已然无所不在,我们用它评判所有“非人类”(nonhumans)——说他们有用或者没用(譬如“益虫”“害虫”),断定是不是“类人”。更进一步,我们还用这个框架来评价自身。当我们确定把理性的人(乃至西方还曾经把白人)定义为一种典范性的“人”时,那么其他所有不符合这个范式的人,就变成了“亚人”(sub-human)。犹太人、黄种人、印第安人、黑人、拉美人(如唐纳德·特朗普口中都是强奸犯的墨西哥人。在2016年总统竞选期间特朗普曾公开声称:“墨西哥送来美国的人都不是好人,他们送来的都是问题人员,他们带来毒品,带来犯罪,他们是强奸犯”,“应该全面禁止穆斯林入境美国”……这些言论非但没有影响特朗普当年一路过关斩将突进到共和党总统候选人位置上,并且在当时每次都使其支持率不降反升)、女人以及最近的LGBTQ……针对他们的各种残忍的政治性操作(典型如纳粹的“最终方案”),就可以在所谓捍卫“人类”(“人性”“人道”)的名义下展开。在人类主义的话语框架里面,这些“人”实际上处在“边缘”乃至“外部”的位置上——他们并非没有位置,而是结构性地处在以排斥的方式而被纳入的位置上(他们恰恰是以被排斥为“亚人”的方式而被归纳为“人”)。
人类主义框架正在遭遇以人工智能为代表的“技术对象”的严峻挑战,面对人类主义所铸造的这台动力强悍的“人类学机器”,存在着两种抗争方式
在人类社会中根深蒂固的人类主义框架,正在遭遇以人工智能为代表的“技术对象”(technic object)的严峻挑战。技术发展到21世纪,在以雷·库兹韦尔为代表的技术专家眼里,很快将把人类文明推到一个“技术奇点”(technological singularity)上,在抵达该点之后,一切人类主义叙事(价值、规则、律令……)都将失去描述性-解释性-规范性效力。人工智能这个名称中被贴上“人类”标签的“技术对象”,却正在将其创造者推向奇点性的深渊。
在物理学上,奇点指一个体积无限小、密度无限大、引力无限大、时空曲率无限大的点,“在这个奇点上,诸种科学规则和我们预言未来的能力将全部崩溃(break down)”(史蒂芬·霍金语)。奇点,标识了物理学本身的溃败(尽管它涵盖在广义相对论的理论推论之中)。与之对应地,技术奇点,则标识了人类文明自身的溃败(尽管它涵盖在人类文明进程之中)。
在面向奇点的境况下,人类主义正在遭受前所未有的挑战。由HBO(美国鼎级剧场)推出的以人工智能为主题的科幻美剧《西部世界》(从2016年到2022年共播出四季),显然就不是一部人类主义作品。该剧中很多主角(人工智能机器人)似乎都明目张胆地犯下了“反人类罪”。该剧讲述了在遥远的未来,一座巨型高科技成人乐园建成,乐园中生活着各种各样的仿生人接待员,人类游客可以在乐园中为所欲为,杀害和虐待仿生人是该乐园的主要卖点,然而这座巨大机械乐园渐渐失去了对仿生人的控制,人类游客被仿生人杀死。可以说,该剧很不合时宜地展示了那些遵守伦理准则、通晓“科技以人为本”的人工智能的前景。
在以人工智能为代表的“技术对象”正在激进地刺破人类主义框架的今天,我们则有必要反思性地探讨“后人类境况”(the posthuman condition)。我们也要看到,在该境况下,人类主义亦正在全力开动“人类学机器”,包括给人工智能制定“伦理”准则(比如,不能伤害人类),让它懂得谁是“主人”,知晓“科技以人为本”的道理。
面对人类主义所铸造的这台动力强悍的“人类学机器”,存在着两种抗争方式。第一种反抗的进路,我称之为“新启蒙主义”进路:要通过抗争去争取的,是让更多的人进入到人类主义范式上的“人”的范畴里面来。这个进路实际上的反抗方式,是反内容不反框架,其隐在态度便是:既然人类主义话语是个典范,在这个典范内有那么多的好处,那么我得挤进来成为其中一员。它反的是关于“人”的具体内容(如白人、男人等等),而诉求是把各种被忽略、被排斥的“亚人”都拉进来——通过各种各样平权运动、女性运动、LGBT运动、Queer运动等,把这些“下等人”“奇奇怪怪的人”都拉进来。
值得指出的是,这个进路确实具有一定的批判性强度,用纳入的方式来将更多被排斥在“典范”之外的“亚人”包容进来。这些斗争运动是有社会性与政治性价值的。但与此同时,这一进路恰恰亦是在确认人类主义框架本身,或者说它没有影响该框架,其努力不过是多拉一些人进入到这个框架中,把一些以前被嫌弃与抛弃的人也弄进来。所谓“包容”只是包容更多的“人”,就像于尔根·哈贝马斯所说的“包容他者”,这个“他者”必须是可以沟通与对话的、具备“沟通理性”(communicative rationality)的。
进而,“新启蒙主义”进路的根本性局限,恰恰就在于:总会有结构性的“余数”(remainder)。“我”进来了以后,总还会有其他的“他者”在外面,成为人类主义框架下的“余数生命”。这就是所谓“身份斗争”的尴尬。就算LGBT进来了,Q(Queer)也进来了,总还会有这个视域里没有被看到或者看不到的在外面。而且形式上进来了后,是否真正被实质性接纳,也是一个根本性的社会政治问题。2020年的“黑命亦命”(Black Lives Matters)抗争标识出:哪怕二十世纪六十年代黑人民权运动取得了巨大的社会性影响,直到六十年后的今天,黑人也仍然没有真正摆脱“亚人”的地位。“黑命亦命”刺破了现代自由主义-多元主义社会的“所有命皆命”(All Lives Matters)的陈词滥调。
第二种反抗的进路,可以被称为“后人类主义”的进路。较之“新启蒙主义”进路,这条进路在批判的向度上要激进得多。那是因为,它针对的是框架而非内容——不是哪些人可以进入这个人类主义框架中,也不是要“包容”更多的人;而是去质疑,凭什么这个框架本身就一定是合理的。在人类主义者眼里,后人类主义者笔下各种彻底溢出人类主义框架的论述,总是极其怪异的,比方说他们会讨论动物、怪物、杂交物(半人半动物抑或半人半机器)。
唐娜·哈拉维在1985年就以宣言的方式,把“赛博格”(半人半机器)视作政治主体,当时震惊了很多学者,而现在则成为了后人类主义的经典文本之一。哈拉维本来是个女性主义理论家,但在她看来,“赛博格”这个概念恰恰具有着可以涵盖女性主义斗争、但又进一步越出其视域的激进潜能——“赛博格”打破了“自然/文化”“有机物/机器”“人/动物”这些二元对立框架,“混淆”了现代性的诸种边界。这就冲破了女性主义框架,亦即,我们是女人,所以我们为女人被纳入而斗争。当哈拉维宣布“我们都是赛博格”时,人类主义框架本身受到了挑战。
这就是后人类主义在思想史上关键价值之所在,尤其是在新启蒙主义进路构成了主流的社会-政治方案的当代,“后人类”(并不仅仅只是“赛博格”)激进地刺出了人类主义框架。真正的批判,永远是对框架本身的挑战,而不是对内容的增减。“后人类主义”确立起一个新的开放式框架,在其中人类不再占据“C位”。“后人类”指向一个开放性的范畴,换言之,并不存在定于一尊的“后人类”;它更像是一份邀请函,邀请各种在人类主义框架下没有位置的亚人、次人、非人(……)来加入到“后人类-主义”的聚合体(assemblage)中。
人工智能所带来的“全面赋能”,和19世纪的“机器入侵”全然不同,全方位地将人类“驱赶”出去
在我们的现实世界中,人工智能亦一次次地刷新人们对“智能”的认知,以至于马斯克于2017年就曾联合一百多位人工智能领域专家发出公开信,呼吁限制人工智能的开发。他曾在推特上声称:人类的第三次世界大战,将会由人工智能开启。马斯克甚至于2019年2月宣布退出了他与萨姆·奥尔特曼于2015年12月共同创立的OpenAI,并高调宣称“我不同意OpenAI团队想做的一些事,综合各种因素我们最好还是好说好散”。马斯克转而投资脑机接口项目,旨在使人(至少是一部分人)能够在智能上驾驭住人工智能。现在,人们眼里不再只有人。人类主义框架,被尖锐地撕开了一道缺口。
让我们再次返回到近期人工智能这一轮新的爆发上。人工智能,正在激进地冲击着“智人”的自我界定。“西塞罗”算法模型与ChatGPT大语言模型,已然使得通用人工智能不再遥不可及、不可想像。“西塞罗”能够在高度复杂的主体间性(intersubjectivity)——可以是人际(interpersonal)或国际(international)——环境中达成合作、谈判和协调。而ChatGPT能编程、写学术综述、创作诗词、剧本、设计广告文案、进行多语种翻译,能做医疗诊断,能帮助企业进行战略分析与管理,能做数据分析与进行预测,能以某知名人物的口吻来表述观点或风格来进行创作……人工智能越来越成为没有能力短板的“全职高手”,它能做很多事,而且做得相当好,极其好,“好到吓人”。
对于正在从事相应工作的职场人士、专业人士而言,职场的大门还能打开多久?此前是A译者被能力更强的B译者所取代,C设计师比更具创意的D设计师取代,现在是所有的人类从业者都将被“生成型预训练变形金刚”(孩之宝公司超级IP“变形金刚”便是“Transformer”)取代——与后者相较,能力尽皆不足、并且管理成本高昂的前者将全面不被需要。
人工智能所带来的“全面赋能”,和19世纪的那次“机器入侵”全然不同——当时大量被称为“卢德分子”的纺织工人声称新技术将毁灭世界,并动手摧毁棉纺机器。人工智能的赋能,不只是针对人类的身体能力,并且针对其认知能力。那就意味着,人工智能绝对不只是用机器(智能机器)将工人从工厂车间中“驱赶”出去,绝对不只是针对所谓“低技能岗位”“体力劳动”,而是全方位地将人类“驱赶”出去,包括医生、翻译家、教师、律师、平面设计师、广告文案、理财经理、企业管理顾问、战略分析师等这类主要建立在认知能力之上的“高层次人才”。那么,实际上陷入全面无事可做的数量庞大的人,将何去何从?
人类正在步入后人类境况中:人类文明将陷入技术奇点。代之以今天媒体专家们所热衷讨论的哪些领域和岗位会受人工智能影响,我们需要讨论人全面“不被需要”的问题:前者只是策略性的讨论(个体策略),而后者才能激活文明性的思考(文明转向)。
在最根本性的层面上,我们有必要追问:在后人类境况下,失去人类主义框架的人类,将何以自处?
凯瑟琳·马勒布的说法值得我们仔细品味。她说,面对人工智能的指数级发展,作为一个事实,人类已经在逐渐丧失原有的控制;而关键在于,“去智能地丧失对智能的控制”(to lose control of intelligence intelligently)。这也许就是后人类境况下人类的首要任务。
(作者为华东师范大学二级教授、政治与国际关系学院院长,教育部长江学者特聘教授)
【本文系国家社科基金重大项目“后现代主义哲学发展路径与新进展研究”(项目编号:18ZDA017)研究成果】
【参考文献】
①马春雷、路强:《走向后人类的哲学与哲学的自我超越——吴冠军教授访谈录》,《晋阳学刊》,2020年第4期。
②吴冠军:《神圣人、机器人与“人类学机器”——二十世纪大屠杀与当代人工智能讨论的政治哲学反思》,《上海师范大学学报(哲学社会科学版)》,2018年第6期。
③Stephen W. Hawking, A Brief History of Time: From the Big
Bang to Black Holes, New York: Bantam, 2009, p. 84.
④吴冠军:《陷入奇点:人类世政治哲学研究》,北京:商务印书馆,2021年。
⑤Hannah Arendt, The Human Condition, 2nd edition, Chicago:
The University of Chicago Press, 1998
⑥哈贝马斯著、曹卫东译:《包容他者》,上海:上海人民出版社,2002年。
⑦吴冠军:《健康码、数字人与余数生命——技术政治学与生命政治学的反思》,《探索与争鸣》,2020年第9期。
⑧吴冠军:《爱、谎言与大他者:人类世文明结构研究》,上海:上海文艺出版社,2023年。
⑨Catherine Malabou, Morphing Intelligence: From IQ Measurement
to Artificial Brains, trans. Carolyn Shread, New York: Columbia University
Press, 2019, p. 153.
解读《北京市促进通用人工智能创新发展的若干措施》
2023年5月30日,北京市政府办公厅正式发布《北京市促进通用人工智能创新发展的若干措施》(以下简称《若干措施》)。现就《若干措施》解读如下:
一、出台背景
党的二十大提出,要建设现代化产业体系,推动战略性新兴产业融合集群发展,构建人工智能等一批新的增长引擎。2023年4月28日,中共中央政治局召开会议,指出要重视通用人工智能发展,营造创新生态,重视防范风险。
北京高度关注通用人工智能技术发展,持续支持本市新型研发机构,聚焦大模型、类脑智能、具身智能、价值与因果驱动的通用智能体等方向开展研究,产出悟道大模型、通用智能体平台等多项重大原创成果,具有先发优势。同时,本市集聚了一批人工智能优势创新企业和科研机构,推出紫东太初、文心一言、ChatGLM、CPM、孟子等大模型产品,并具备商业化落地能力。
近期,以ChatGPT、GPT-4为代表的Transformer架构大模型技术,因其强大的内容生成及多轮对话能力,展现出通往通用人工智能的可行路径,引发新一轮的人工智能创新浪潮。为系统推动全市人工智能技术及产业发展,市政府印发《北京市加快建设具有全球影响力的人工智能创新策源地实施方案(2023-2025年)》(以下简称《实施方案》),为进一步贯彻落实《实施方案》,聚焦通用人工智能发展,市政府办公厅同步印发《若干措施》。
二、工作思路
充分发挥政府引导作用和创新平台催化作用,整合创新资源,加强要素配置,营造创新生态,重视风险防范,推动本市通用人工智能领域实现创新引领和理性健康发展。围绕创新主体共性需求,推动数据、算力等关键创新要素汇聚与开放;引导创新主体加强大模型等通用人工智能技术体系研究,持续探索通用智能体、类脑智能、具身智能等通用人工智能新路径;加大创新应用场景供给,推动通用人工智能在政务、医疗、科学智能、金融、自动驾驶、城市治理等方面示范应用;不断探索监管工具及监管流程的创新,建立常态化服务和指导机制,推动相关评估及备案流程,为通用人工智能的技术发展营造包容审慎监管环境。
三、主要内容
《若干措施》针对提升算力资源统筹供给能力、提升高质量数据要素供给能力、系统构建大模型等通用人工智能技术体系、推动通用人工智能技术创新场景应用、探索营造包容审慎的监管环境五大方向,提出21项具体措施。
一是提升算力资源统筹供给能力。实施算力伙伴计划,与云厂商加强合作,提供多元化优质普惠算力。加快北京人工智能公共算力中心、北京数字经济算力中心等项目建设,形成规模化先进算力供给能力。实现异构算力环境统一管理、统一运营,提高环京地区算力一体化调度能力。
二是提升高质量数据要素供给能力。构建安全合规的开放基础训练数据集,建设高质量的预训练中文语料库。谋划建设数据训练基地,提升数据标注库规模和质量,探索基于数据贡献、模型应用的商业化场景合作。建设数据集精细化标注众包服务平台,鼓励专业人员参与标注,研究平台激励机制。
三是系统构建大模型等通用人工智能技术体系。开展大模型创新算法及关键技术研究,鼓励开源技术生态建设。构建数据管理平台相关系统,研发数据清洗、标注、分类、注释及内容审查等算法及工具。构建多模态多维度的基础模型评测基准及评测方法,建设自动评测开放服务平台。支持研发分布式训练系统、编译器及人工智能芯片自动化评测系统,推动基础软硬件广泛适配。持续探索通用智能体、具身智能和类脑智能等通用人工智能新路径。
四是推动通用人工智能技术创新场景应用。围绕政务咨询、政策服务、接诉即办、政务办事等工作,提升精准服务能力和系统智能化水平。面向智能导诊、辅助诊断、智能治疗等场景需求,开发智能应用,提升诊断、治疗、预防及全病程管理的智能水平。支持科研实验室与人工智能创新主体开展联合研发,加速人工智能技术赋能新材料和创新药物领域科学研究。聚焦智能风控、智能投顾、智能客服等环节,系统布局“揭榜挂帅”项目,推动金融机构开放应用场景。支持研发多模态融合感知技术,开放车路协同自动驾驶数据集,探索自动驾驶新技术路径。支持在城市大脑建设中应用大模型技术,为城市治理决策提供更加综合全面的支撑。
五是探索营造包容审慎的监管环境。鼓励创新主体采用安全可信的工具及资源开展技术创新,推动在中关村国家自主创新示范区核心区实行包容审慎监管试点。建立常态化联系服务指导机制,指导创新主体加强安全检测,履行安全评估及算法备案流程。加强网络和数据安全管理,落实主体责任,强化安全管理制度建设,全面提升网络安全和数据安全防护能力。建设科技伦理治理公共服务平台,开展科技伦理审查及相关业务培训,构建良好人工智能科技伦理氛围。
四、政策亮点
一是直击发展褃节。发展人工智能是我国实现中国式现代化的重大战略。《若干措施》坚决落实国家有关战略部署和《北京市加快建设具有全球影响力的人工智能创新策源地实施方案(2023-2025年)》重点任务,针对算力、数据、算法、应用、监管等产业发展核心要素及关键环节的难点、堵点,提出具体举措,五个维度协同发力,突破发展瓶颈,推动本市人工智能创新发展。
二是直通未来布局。通用人工智能是目前和未来国际人工智能研究的焦点。《若干措施》体系化布局大模型关键共性技术创新,同时前瞻布局通用智能体、类脑智能、具身智能等其他新路径,通过支持创新主体突破关键“点”、支持领军企业带动产业“链”、建设公共服务平台拓宽服务“面”,三位一体协同布局,推动本市全力构建面向未来的人工智能全栈自主技术体系及产业生态。
三是直面产业关切。市场是推动人工智能产业发展的关键力量。《若干措施》坚持发挥市场机制作用,牢牢把握大模型赋能千行百业的战略机遇,充分结合本市经济社会发展优势特点,引导创新主体在智慧城市、科学研究、智慧医疗等一批重点场景实现人工智能创新应用,加强监管技术和政策创新,为北京人工智能健康发展构建完善的创新生态和发展环境。
ChatGPT敲开了通用人工智能的大门了吗—新闻—科学网
学界热议:ChatGPT敲开了通用人工智能的大门了吗?
连日来,一路“狂飙”的ChatGPT持续引发着“话题地震”。
作为由OpenAI训练的对话式大规模语言模型,ChatGPT以对话的方式与人进行交互。重点在于,它的回答之智能、之流畅令人意外。据媒体报道,ChatGPT不仅能在短短几秒内响应人们的问题需求,它还通过了美国部分高校的法律、医学考试,顺利通过了谷歌18万美元岗位年薪的软件工程师入职测试。
不仅如此,ChatGPT还会承认错误,质疑不正确的前提并拒绝不恰当的请求。而当它不知道自己在说什么时,它会承认不知道。
ChatGPT是否“过于”智能了?或者说,照此进化下去,人们会逐渐实现通用人工智能(AGI)吗?这也是计算机学界最近正热议的话题。
ChatGPT的三大技术突破
试用过ChatGPT的都知道,ChatGPT可以在人机对话中回答连续的问题、生成文本摘要、翻译文档、对信息分类、写代码以及撰写人们要求的几乎任何类型的书面材料,包括商业计划书、活动策划、诗歌、笑话、计算机代码和电影剧本。ChatGPT会在一两秒时间内生成这些内容,用户无须等待,而且它生成的很多内容看上去都还不错。
“ChatGPT是目前为止最为强大的通用人机对话系统。”2月14日,在接受《中国科学报》采访时,中科院自动化研究所研究员、“紫东太初”大模型研究中心常务副主任王金桥不无赞叹地说:“它也是暨打败人类围棋冠军的AlphaGo之后,人工智能又一重要突破,标志着以大模型为核心的智能计算范式的确立。”
能有如此高的评价,王金桥认为,这背后主要是基于三大技术突破:千亿级参数大模型、多任务统一编码、人类反馈的强化学习。
他解释说,ChatGPT无所不知,得益于大规模预训练语言模型GPT3.5的支持——GPT3.5拥有千亿级参数,在训练时使用了海量人类在互联网上所编辑生成的多种类文本数据集,因此可以对世界已有知识进行编码;ChatGPT一专多能,在于其实现了多任务统一编码——传统人工智能只能处理单一任务(如语音识别和人脸识别),但ChatGPT不同,通过多任务统一编码,它可以像人一样,一个模型就能做很多事情;ChatGPT对答如流,非常重要的技术点就是引入了人类反馈的强化学习(RLHF)——OpenAI的开发团队通过RLHF不断对ChatGPT模型进行微调,就使得多轮对话更加流畅,能更好地捕获用户意图,让人觉得ChatGPT的系统语言像人一样。
正是基于这三大技术突破,ChatGPT得以像人一样对于任意输入的问题进行非常流畅性的回答,而且拥有问答、对话、文档概括、文本创作等多种能力。
一条通往AGI的路径?
ChatGPT的闪光,不免让人们对通用人工智能浮想联翩。
“从业10年有余,第一次觉得AGI不再是个‘时髦词’了。”2022年12月,ChatGPT甫一面世,浙江大学计算机学院青年研究员赵俊博就在个人微信朋友圈这样写道,“真没想到RLHF能做到这种程度。”
他解释说,ChatGPT模型展现出来的能力让他感到震惊:“它的推理能力、归纳能力、在语言作为媒介展现出来的对世界常识的认知、多轮对话能力等,值得肯定。”他认为,从技术上来讲,ChatGPT已经“不再是单纯的记忆大规模文本了,这一点非常可怕”。
另一位青年计算机科学家,清华大学软件工程博士、北京智源人工智能研究院视觉方向研究员曹越,则在分析了ChatGPT背后存在“大规模语言模型+(人类反馈的)强化学习”的“循环”(loop)之后,“深切地感受到好像真的找到了一条通往AGI的路径了”。
“重读GPT3时最让我惊艳的是(ChatGPT的)上下文学习居然激活了简单的逻辑和加减法,而且看起来指令调优(人类反馈的强化学习)和‘思维链’进一步强化了它在这方面的能力。”曹越谈到,当然现在模型在这方面的能力依然比较初级,但他觉得从0到1是最难的:“之前没有模型看到有这方面能力的机会,而现在有了。”
从ChatGPT联想到AGI,曹越还提出自己另一个角度的思考。
“此前我自己浅薄的理解,AI为什么无法向AGI前进?就源于强化学习的反馈(reward)好像只能从现实世界中给予,由此这个reward几乎无法低成本、大量地被获取。现如今大规模语言模型通过‘预训练+RLHF’好像提供了一条路径,相当于是一个有基础语言理解能力的模型来进一步拟合人在语言生成方面的表现,同时模型还拥有基础的逻辑能力,并且还在不断进化,这也是我为什么觉得好像真的找到了通往AGI的路径的一个原因。”曹越说。
王金桥更是向《中国科学报》直言,ChatGPT的出现,被认为是AI实现通用人工智能的重要标志,“打开了通用人工智能的大门”。
他告诉记者,2012年之前,AI更多是实现了感知智能的突破;2012~2022年这十年里,AI在认知智能上实现了突破,逐渐有了加工、知识推理、总结等类人的能力;而ChatGPT的出现,则被认为是“智慧的涌现”,因为ChatGPT证明了,AI在对世界知识进行编码后可以把知识之间的关系自动关联起来。
“这是语言模型的一个巨大突破,也是强人工智能的影子。”王金桥说。
他认为,ChatGPT的成功,代表着增大模型和数据规模是突破现在AI技术应用瓶颈行之有效的方法,同时也标志着从以专用小模型训练为主的“手工作坊时代”到以通用大模型预训练为主的“工业化时代”的AI研究范式转变,敲开了通用人工智能的大门。
通用人工智能,道阻且长
不过,论及ChatGPT是否指明了前往通用人工智能的路径,学术界显然有不同看法。
有观点指出,ChatGPT的学习能力非常强大,但它再强大也没有摆脱“大数据、小任务”的大样本被动学习模式,也就是说,当人们向ChatGPT输入一个个问题时,这对其而言仅是一个“小任务”,而完成这个任务是凭借巨大的数据训练而生成的。观点认为,它并没有任何的主动思考、反思和判断,只是根据程序规则在飞速计算下完成这种“任务”。
从这个角度,ChatGPT也是在“机械地执行任务”,以至于它时不时闹出一些“一本正经地胡说八道”的笑话。比如在“麻辣螺丝钉怎么做?”等问题下,ChatGPT就翻了车。
“一本正经胡说八道”反映的是文本生成系统的可控性问题。赵俊博表示,根据目前的信息来看,ChatGPT还没有解决这个问题。
华为公司人工智能高级研究员谢凌曦就持有类似看法,他认为当前的智能体还没有学会复杂逻辑,也就不太可能推理出数据库里没有的知识。因此,他对ChatGPT找到了通往AGI的道路的说法“持保留意见”。
“我更加倾向于认为ChatGPT的行为像是一个信息收集和归纳的AI,在逻辑层面比较薄弱。”谢凌曦说,在逻辑更复杂、甚至需要多轮推理的情况下,当前(即使使用了RLHF)的训练范式,对于数据的利用效率还是太低,以至于AI难以完成稍微复杂的推理任务。
“RLHF确实打开了新的路线。但我隐约感觉,这种人在回路的方式,上限不会太高。”谢凌曦说,他觉得ChatGPT一些结果总给人一种假象,“感觉是AI学到了一种比较讨巧的方法,能够让这些AI训练师‘简单地满意’”。换句话说,如果人们不太去深究的话,AI的回答才“看起来还不错”。
“当然,ChatGPT已经比之前许多的AI都要好了。我们只是需要再次理解,AGI是多么困难的任务,道阻且长!”谢凌曦说道。
多模态感知的AI,有望更“类人”
从更高的技术角度,谢凌曦作出了进一步分析。
他认为,自然语言处理(NLP)领域的发展,主要是抓住了自然语言的特征空间相对简单的性质。因而,在大数据的加持下,通过互联网收集到的数据覆盖了整个空间足够大的比例(如训练数据和测试数据的整体分布足够接近),能使算法跨越“过拟合会产生危害”这条线。也即,即使模型就是在过拟合训练数据,也完全看不出问题。但这种模式套在其他领域就不一定行得通,比如视觉的特征空间要复杂得多,不仅有无限细粒度可划分的语义概念,还有远超NLP的“领域鸿沟”(domaingap)——至少在短期内,计算机视觉的发展很难复刻诸如ChatGPT的(AI在NLP的)成功方式。
王金桥也承认,虽然ChatGPT是目前为止最为强大的通用人机对话系统,但它也是有局限的。
“ChatGPT还只是一个单纯的语言文本模型,但现实世界中不只有文本,还有声音、图片等多种模态。”王金桥说,因此我们认为,多模态的感知理解是更加重要的一个趋势,也更有望能实现类人的智能融合。
这也是王金桥所在的研究团队将攻关重心放在多模态大模型领域的重要原因。他介绍,2021年,中科院自动化所推出了全球首个千亿参数多模态大模型“紫东太初”,就致力于实现图像、文本、语音三个模态数据之间的“统一表示”与“相互生成”,使AI的理解和生成能力更接近人类。
“我们基于‘紫东太初’开发的虚拟人‘小初’也是一个对话系统,同样拥有问答、对话、文档概括、文本创作等多种能力,但跟ChatGPT不太一样,我们的系统更多是对图像、文本、语音三个模态的融合交互,使之能更好地完成相应任务。”王金桥说,未来他们也计划在此基础上加入人类反馈的强化学习,使它更好地捕获人的意图。
“这也是我们下一步的重要工作。”王金桥说。
版权声明:凡本网注明“来源:中国科学报、科学网、科学新闻杂志”的所有作品,网站转载,请在正文上方注明来源和作者,且不得对内容作实质性改动;微信公众号、头条号等新媒体平台,转载请联系授权。邮箱:shouquan@stimes.cn。通用人工智能
通用人工智能(AGI)是具有一般人类智慧,可以执行人类能够执行的任何智力任务的机器智能。通用人工智能是一些人工智能研究的主要目标,也是科幻小说和未来研究中的共同话题。一些研究人员将通用人工智能称为强AI(strongAI)或者完全AI(fullAI),或称机器具有执行通用智能行为(generalintelligentaction)的能力。与弱AI(weakAI)相比,强AI可以尝试执行全方位的人类认知能力。
人们提出过很多通用智能的定义(例如能够通过图灵测试),但是没有一个定义能够得到所有人的认同。然而,人工智能的研究者们普遍同意,以下特质是一个通用人工智能所必须要拥有的:
自动推理,使用一些策略来解决问题,在不确定性的环境中作出决策知识表示,包括常识知识库自动规划学习使用自然语言进行沟通以及,整合以上这些手段来达到同一个的目标还有一些重要的能力,包括机器知觉(例如计算机视觉),以及在智能行为的世界中行动的能力(例如机器人移动自身和其他物体的能力)。它可能包括探知与回避危险的能力。许多研究智能的交叉领域(例如认知科学、机器智能和决策)试图强调一些额外的特征,例如想象力(不依靠预设而建构精神影像与概念的能力)以及自主性。基于计算机系统中的确已经存在许多这样的能力,例如计算创造性、自动推理、决策支持系统、机器人、进化计算、智能代理,然而这些系统并未达到人类的水平。
测试人类水平的通用人工智能具有以下几种方式:
图灵测试(图灵提出):一名人类参与者与一台机器和一名人类进行对话,参与者看不见目前对话的是人类还是机器。如果在很长一段时间内,参与者无法判断与他对话的是人类还是机器,那么机器就通过了测试。咖啡测试(沃兹尼亚克提出):一台机器需要具备在普通的美国家庭中弄清楚如何煮咖啡的能力:找到咖啡机,找到咖啡,加水,找到一个马克杯,按下正确的按钮开始煮咖啡。机器人大学学生考试(哥兹柔提出):一台机器就读于一所大学,选择并通过和人类相同的课程,最终取得学位。就业测试(尼尔森提出):机器从事一份经济上起着重要作用的工作,在工作中的表现至少和人类一样好。扁平家具测试(TonySeveryns提出):需要一台机器来打开和组装一件扁平家具。它必须阅读说明并按照描述组装项目,正确安装所有部分。通用人工智能也引发起一连串哲学争论,例如如果一台机器能完全理解语言并回答问题的,这台机器是不是有思维的?
关于通用人工智能的争论,不同于更广义的一元论和二元论的争论。其争论要点是:如果一台机器的唯一工作原理就是转换编码数据,那么这台机器是不是有思维的?哲学家希尔勒认为这是不可能的。他举了著名的中文房间(Chineseroom)的例子来说明,如果机器仅仅是转换数据,而数据本身是对某些事情的一种编码表现,那么在不理解这一编码和实际事情之间的对应关系的前提下,机器不可能对其处理的数据有任何理解。基于这一论点,希尔勒认为即使有机器通过了图灵测试,也不一定说明机器就真的像人一样有思维和意识。
关于这个争论,也有哲学家持不同的观点。丹尼尔丹尼特在其著作《意识的阐释》(ConsciousnessExplained)里认为,人也不过是一台有灵魂的机器而已,为什么我们认为:“人可以有智能,而普通机器就不能”呢?他认为像上述的数据转换机器是有可能有思维和意识的。
通用人工智能/强人工智能虽说是人工智能研究的最终目标,可是就现状来看,弱人工智能仍是研究发展的重点。通用人工智能的实现,离不开机器与意识、感性、知识和自觉等人类特征的相互连结,目前还有很长的路要走。
描述和图片来源:
https://en.wikipedia.org/wiki/Artificial_general_intelligenceGoertzel,B.(2007).Artificialgeneralintelligence(Vol.2).C.Pennachin(Ed.).NewYork:Springer.https://pdfs.semanticscholar.org/782a/ceec18dd97923ea8d1eb93c326133ba980c2.pdf发展历史现代人工智能研究开始于1950年代中期。最早的一批人工智能研究者相信强人工智能不仅是可能的,而且将在几十年内出现。人工智能先驱HerbertSimon在1965年写道:“在20年之内,机器就能够做到一个人能做到的任何事。”启发这一预言的是斯坦利·库布里克和亚瑟·查理斯·克拉克在《2001太空漫遊》(2001:ASpaceOdyssey)创作的角色,HAL9000。当时的人工智能研究者确信,能够在2001年制造出这样的机器。值得一提的是,人工智能先驱MarvinMinsky,在创作HAL9000的工作中,他担任了尽量将其制作得与当时主流研究界预言一致的项目顾问,他在1967年曾说:“在一代人之内,制造‘人工智能’的问题就将被基本解决。”1960年后,HerbertSimon发表了多项人工智能领域的著作,如“Thesciencesofartificial”和“Motivationalandemotionalcontrolsofcognition”等,相比于计算机学家,Simon更多的关注了决策,认知,动机等方面的人为行动相关的因素。MarvinMinsky在1967年发表了著作“Computation:FiniteandInfiniteMachines”,介绍了多种抽象计算的概念。
然而,到了1970年代早期,研究者们意识到他们远远低估了其中的困难。资助AI项目的机构开始对强人工智能产生怀疑,向研究者们施压要求他们转向更有用的技术,所谓的“应用AI”。在1980年代初,日本的第五代电脑开始重新对强人工智能恢复兴趣,制定的十年计划中包括一些强人工智能的目标,比如“进行日常对话”。同时,专家系统的成功和它一起促成了工业界和政府的资金重新开始注入这个领域。然而,人工智能的市场在1980年代晚期发生剧烈崩塌,而第五代计算机的目标从未实现。再一次,人工智能研究者们对于强人工智能即将到来的预言在20年之内被证明超出了他们的能力。到了1990年代,人工智能研究者背上了无法实现自己承诺的名声,他们拒绝再作出任何预言。并且避免提到任何“人类水平”的人工智能,以免被贴上“白日梦”的标签。这一阶段是人工智能的冰河期,也是对通用/强人工智能过于乐观的后果和教训。但是一些经典文章也产生了深刻价值,为后来的研究提供了基础和思路。
1972年,Minsky发表的文章“Artificialintelligenceprogressreport”总结了过去几年的发展,主要的成果,以及存在的很多问题,为今后的研究塑造了一个方向。1977年,Feigenbaum发表论文“Theartofartificialintelligence”,介绍了关于知识工程,心理学等多种人工智能话题。在1990年代和21世纪初,主流的人工智能在商业成果和学术地位上已经达到了一个新高度,依靠的是专注于细分的专门问题的解决,例如人工神经网络、机器视觉以及数据挖掘。(在此词条中就不对这些进行深入介绍和讨论)2007年,BenGoertzel的著作“Artificialgeneralintelligence”全面介绍了如何构造一个全面的思考机器,对通用人工智能提出了很多思考和待解决问题。同年,Goertzel的另一篇论文“Afoundationalarchitectureforartificialgeneralintelligence”提出了一个用于构建通用人工智能基本框架的思想。
目前,大多数主流的人工智能研究者希望,能够通过将解决局部问题的方法组合起来实现强人工智能,例如将智能体架构、认知架构或者包容式架构整合起来。
主要事件
年份事件相关论文/Reference1967HerbertSimon从认知,动机,情感控制等方面的人为行动相关的因素分析通用人工智能的发展Simon,H.A.(1967).Motivationalandemotionalcontrolsofcognition.Psychologicalreview,74(1),29.1967MarvinMinsky发表著作ComputationMinsky,M.L.(1967).Computation.EnglewoodCliffs:Prentice-Hall.1972Minsky和Papert总结了过去几年的发展,主要的成果,以及存在的很多问题,为今后的研究塑造了一个方向Minsky,M.,&Papert,S.A.(1972).Artificialintelligenceprogressreport.1977Felgenbaum介绍了关于知识工程,心理学等多种人工智能话题,不仅仅局限于计算机,统计等方面Felgenbaum,E.A.(1977).Theartofartificialintelligence.InProceedingsoftheInternationalJointConferenceonArtificialIntelligence.2007Goertzel全面介绍了如何构造一个全面的思考机器,对通用人工智能提出了很多思考和待解决问题Goertzel,B.(2007).Artificialgeneralintelligence(Vol.2).C.Pennachin(Ed.).NewYork:Springer.2007Goertzel和Wang提出了一个用于构建通用人工智能基本框架的思想Goertzel,B.,&Wang,P.(2007).Afoundationalarchitectureforartificialgeneralintelligence.AdvancesinArtificialGeneralIntelligence:Concepts,ArchitecturesandAlgorithms,6,36.发展分析瓶颈
通用人工智能,意味着机器不能被一个简单的特定算法解决。人们假定通用人工智能的问题包括计算机视觉、自然语言理解,以及处理真实世界中的意外情况。目前为止,通用人工智能的问题仍然不能单靠现代计算机技术解决,而是需要人类计算。这一点在某些方面很有用,例如通过验证码来判别人类和机器,以及在计算机安全方面用于阻止暴力破解法。但是想做到让机器全面实现任务,目前的人工智能还有相当大的局限性。
未来发展方向
拓宽现有弱人工智能的应用面,使机器视觉,语言理解等可以应用到更多生活中的场景。开拓计算机科学家的视野,更多的关注心理学,神经科学,脑科学的发展和应用,从人类相关的领域获取灵感和人工智能发展的来源。预先定义和解决通用人工智能可能带来的社会哲学问题。Contributor:YuanchaoLi
人工智能可能有自主意识了吗
➤大模型、大数据的驱动让人工智能在对话的自然度、趣味性上有了很大突破,但距离具备自主意识还很远。换言之,即便人工智能可以对人类的语言、表情所传递的情绪作出判断,但这主要应用的是自然语言处理、计算机视觉等技术
➤不同于当前依赖数据学习的技术路线,新一代人工智能强调在没有经过数据学习的情况下,可以通过推理作出合理反应,从而与没有见过、没有学过的事物展开交互
➤当前人工智能治理面临的最大挑战,是我们没有一套比较成熟的体系来规制其潜在的风险。在发展科技的同时,必须同步发展我们的规制体系
➤“技术归根结底是由人类来发展和把控的。人类和人工智能的未来,是由人类选择的。”
今年6月,美国谷歌公司软件工程师布莱克·勒莫因称语言模型LaMDA出现自我意识。他认为,LaMDA拥有七八岁孩童的智力,并相信LaMDA正在争取自己作为一个人的权利。
LaMDA是谷歌去年发布的一款专门用于对话的语言模型,主要功能是可以与人类交谈。
为佐证观点,勒莫因把自己和LaMDA的聊天记录上传至互联网。随后,谷歌以违反保密协议为由对其停职。谷歌表示,没有任何证据支持勒莫因的观点。
事实上,“AI(人工智能)是否拥有自主意识”一直争议不休。此次谷歌工程师和LaMDA的故事,再次引发讨论。人们想知道:人工智能技术究竟发展到了怎样的阶段?是否真的具备自主意识?其判定依据是什么?未来我们又该以怎样的能力和心态与人工智能和谐共处?
人工智能自主意识之辨勒莫因认为LaMDA具有意识的原因有三:一是LaMDA以前所未有的方式高效、创造性地使用语言;二是它以与人类相似的方式分享感觉;三是它会表达内省和想象,既会担忧未来,也会追忆过去。
受访专家告诉《瞭望》新闻周刊记者,上述现象仅仅是因为LaMDA所基于的Transformer架构能够联系上下文,进行高精度的人类对话模拟,故能应对人类开放、发散的交谈。
至于人工智能是否已经具备自主意识,判定标准如何,受访专家表示,对人类意识的探索目前仍属于科技前沿,尚未形成统一定义。
清华大学北京信息科学与技术国家研究中心助理研究员郭雨晨说:“我们说人有自主意识,是因为人知道自己在干什么。机器则不一样,你对它输入内容,它只是依照程序设定进行反馈。”
中国社会科学院科学技术哲学研究室主任段伟文认为,一般意义上,人的自我意识是指对自我具备觉知,但如何认识和理解人类意识更多还是一个哲学问题而不是科学问题,这也是很难明确定义人工智能是否具备意识的原因。
被誉为“计算机科学与人工智能之父”的艾伦·图灵,早在1950年就曾提出图灵测试——如果一台机器能够与人类展开对话而不能被辨别出其机器身份,那么可以称这台机器具有智能。
这一设想随后被具化为,如果有超过30%参与测试的人以为自己在和人说话而非计算机,就可以认为“机器会思考”。
当前随着技术的发展,已经有越来越多的机器能够通过图灵测试。
但清华大学人工智能国际治理研究院副院长梁正告诉《瞭望》新闻周刊记者,图灵测试只能证明机器在表象上可以做到让人无法分辨它与人类的不同,却不能证明机器能够思考,更不能证明机器具备自主意识。
段伟文表示,目前大体有两种方式判定人工智能是否具有自主意识,一种以人类意识为参照,另一种则试图对机器意识进行全新定义。
若以人类意识为参照,要观察机器能否像人一样整合信息。“比如你在阳光下,坐在河边的椅子上看书,有树影落在脸上,有风吹来,它们会带给你一种整体的愉悦感。而对机器来说,阳光、河流、椅子等,是分散的单一元素。”段伟文说。
不仅如此,段伟文说,还要观察机器能否像人一样将单一事件放在全局中思考,作出符合全局利益的决策。
若跳出人类构建自主意识的范式,对机器意识进行重新定义,则需要明白意识的本质是什么。
段伟文告诉记者,有理论认为如果机器与机器之间形成了灵活、独立的交互,则可以称机器具备意识。也有理论认为,可以不追究机器的内心,仅仅把机器当作行为体,从机器的行为表现判断它是否理解所做事情的意义。“比如机器人看到人类喝咖啡后很精神,下次当它观察到人类的疲惫,能不能想到要为人类煮一杯咖啡?”段伟文说。
但在段伟文看来,这些对机器意识进行重新定义的理论,其问题出在,即便能够证明机器可以交互对话、深度理解,但是否等同于具备自主意识尚未有定论。“以LaMDA为例,虽然能够生成在人类看来更具意义的对话,甚至人可以与机器在对话中产生共情,但其本质仍然是在数据采集、配对、筛选机制下形成的反馈,并不代表模型能够理解对话的意义。”
换言之,即便人工智能可以对人类的语言、表情所传递的情绪作出判断,但这主要应用的是自然语言处理、计算机视觉等技术。
郭雨晨直言,尽管在情感计算方面,通过深度学习的推动已经发展得比较好,但如果就此说人工智能具备意识还有些一厢情愿。“把‘意识’这个词换成‘功能’,我会觉得更加准确。”
技术换道有专家提出,若要机器能思考,先要解决人工智能发展的换道问题。
据了解,目前基于深度学习、由数据驱动的人工智能在技术上已经触及天花板。一个突出例证是,阿尔法围棋(AlphaGo)在击败人类围棋世界冠军后,虽然财力和算力不断投入,但深度学习的回报率却没有相应增长。
一般认为,人工智能可被分为弱人工智能、通用人工智能和超级人工智能。弱人工智能也被称为狭义人工智能,专攻某一领域;通用人工智能也叫强人工智能,主要目标是制造出一台像人类一样拥有全面智能的计算机;超级人工智能类似于科幻作品中拥有超能力的智能机器人。
从产业发展角度看,人工智能在弱人工智能阶段停留了相当长时间,正在向通用人工智能阶段迈进。受访专家表示,目前尚未有成功创建通用人工智能的成熟案例,而具备自主意识,至少需要发展到通用人工智能阶段。
梁正说,大模型、大数据的驱动让人工智能在对话的自然度、趣味性上有了很大突破,但距离具备自主意识还很远。“如果你给这类语言模型喂养大量关于内省、想象等与意识有关的数据,它便更容易反馈与意识有关的回应。”
不仅如此,现阶段的人工智能在一个复杂、专门的领域可以做到极致,却很难完成一件在人类看来非常简单的事情。“比如人工智能可以成为围棋高手,却不具备三岁小孩对陌生环境的感知能力。”段伟文说。
谈及背后原因,受访专家表示,第一是当前人工智能主要与符号世界进行交互,在对物理世界的感知与反应上发展缓慢。第二是数据学习让机器只能对见过的内容有合理反馈,无法处理陌生内容。第三是在数据驱动技术路线下,人们通过不断调整、优化参数来强化机器反馈的精准度,但这种调适终究有限。
郭雨晨说,人类在特定任务的学习过程中接触的数据量并不大,却可以很快学习新技能、完成新任务,这是目前基于数据驱动的人工智能所不具备的能力。
梁正强调,不同于当前主要依赖大规模数据训练的技术路线,新一代人工智能强调在没有经过数据训练的情况下,可以通过推理作出合理反应,从而与没有见过、没有学过的事物展开交互。
相比人类意识的自由开放,以往人工智能更多处在封闭空间。尽管这个空间可能足够大,但若超出设定范畴便无法处理。而人类如果按照规则不能解决问题,就会修改规则,甚至发明新规则。
这意味着,如果人工智能能够超越现有学习模式,拥有对自身意识系统进行反思的能力,就会理解自身系统的基本性质,就有可能改造自身的意识系统,创造新规则,从而成为自己的主人。
“人工智能觉醒”背后有关“人工智能觉醒”的讨论已不鲜见,但谷歌迅速否认的态度耐人寻味。
梁正表示:“如果不迅速驳斥指认,会给谷歌带来合规性方面的麻烦。”
据了解,关于人工智能是否有自主意识的争论并非单纯技术领域的学术探讨,而关乎企业合规性的基本坚守。一旦认定公司研发的人工智能系统出现自主意识,很可能会被认为违反第2版《人工智能设计的伦理准则》白皮书的相关规范。
这一由美国电气和电子工程师协会2017年发布的规范明确:“根据某些理论,当系统接近并超过通用人工智能时,无法预料的或无意的系统行为将变得越来越危险且难以纠正。并不是所有通用人工智能级别的系统都能够与人类利益保持一致,因此,当这些系统的能力越来越强大时,应当谨慎并确定不同系统的运行机制。”
梁正认为,为避免社会舆论可能的过度负面解读,担心大家认为它培育出了英国作家玛丽·雪莱笔下的弗兰肯斯坦式的科技怪物,以“不作恶”为企业口号的谷歌自然会予以否认。“不仅如此,尽管这一原则对企业没有强制约束力,但若被认为突破了底线,并对个体和社会造成实质性伤害,很有可能面临高额的惩罚性赔偿,因此企业在合规性方面会更为谨慎。”
我国也有类似管理规范。2019年,国家新一代人工智能治理专业委员会发布《新一代人工智能治理原则——发展负责任的人工智能》,提出人工智能治理的框架和行动指南。其中,“敏捷治理”原则主要针对技术可能带来的新社会风险展开治理,强调治理的适应性与灵活性。
中国信息化百人会成员、清华大学教授薛澜在接受媒体采访时表示,当前人工智能治理面临的最大挑战,是我们没有一套比较成熟的体系来规制其潜在的风险。特别是在第四次工业革命背景下,我国的人工智能技术和其他国家一样都处于发展期,没有现成的规制体系,这样就使得我们在发展科技的同时,必须同步发展我们的规制体系。“这可能是人工智能发展面临最大的挑战。”
在梁正看来,目前很难断言新兴人工智能技术具有绝对风险,但必须构造合理的熔断、叫停机制。在治理中既要具有一定的预见性,又不能扼杀创新的土壤,要在企业诉求和公共安全之间找到合适的平衡点。
毕竟,对人类来说,发展人工智能的目的不是把机器变成人,更不是把人变成机器,而是解决人类社会发展面临的问题。
从这个角度来说,我们需要的或许只是帮助人类而不是代替人类的人工智能。
为了人机友好的未来确保通用人工智能技术有益于人类福祉,一直是人工智能伦理构建的前沿。
薛澜认为,在科技领域,很多技术都像硬币的两面,在带来正面效应的同时也会存在风险,人工智能就是其中一个比较突出的领域。如何在促进技术创新和规制潜在风险之间寻求平衡,是科技伦理必须关注的问题。
梁正提出,有时技术的发展会超越人们预想的框架,在不自觉的情况下出现与人类利益不一致甚至相悖的情况。著名的“曲别针制造机”假说,即描述了通用人工智能在目标和技术都无害的情况下,对人类造成威胁的情景。
“曲别针制造机”假说给定一种技术模型,假设某个人工智能机器的终极目标是制造曲别针,尽管看上去这一目的对人类无害,但最终它却使用人类无法比拟的能力,把世界上所有资源都做成了曲别针,进而对人类社会产生不可逆的伤害。
因此有观点认为,创造出法力高超又杀不死的孙悟空本身就是一种不顾后果的冒险行为。
与其对立的观点则认为,目前这一担忧为时尚早。
“我们对到底什么样的技术路线能够发展出具备自主意识的人工智能尚无共识,现在谈论‘禁止发展’,有种空中楼阁的意味。”梁正说。
商汤科技智能产业研究院院长田丰告诉《瞭望》新闻周刊,现实中人工智能技术伦理风险治理的关键,是产业能够在“预判防范-应用场景-用户反馈-产品改进”中形成市场反馈机制,促成伦理风险识别与敏捷治理。同时,企业内部也需建立完整的科技伦理自律机制,通过伦理委员会、伦理风控流程平台将伦理风险把控落实到产品全生命周期中。
郭雨晨说,人工智能技术发展到目前,仍始终处于人类可控状态,而科技发展的过程本来就伴随对衍生问题的预判、发现和解决。“在想象中的人工智能自主意识出现以前,人工智能技术脚踏实地的发展,已经造福人类社会很多年了。”
在梁正看来,人与人工智能在未来会是一种合作关系,各自具备对方无法达成的能力。“技术归根结底是由人类来发展和把控的。人类和人工智能的未来,是由人类选择的。”
编辑:李华山
2022年08月16日07:42:05