博舍

通用人工智能离我们还有多远 通用人工智能和专用人工智能的联系与区别

通用人工智能离我们还有多远

编辑导语:在以前,人工智能是一个科幻的话题,但在今天,人工智能已经不再那么遥远。当下的一些场景中,我们都能寻觅到人工智能的影子,但目前的人工智能还存在着很多问题,它并不能真正代替人,所以离真正意义上的通用人工智能还很远。本文对人工智能展开探讨,寻觅通用人工智能的未来。

人工智能曾经是一个颇为科幻的话题。有人担心人工智能会取代人类,甚至会反人类。然而几年下来,我们发现人工智能并没有我们想象的那样智能。

“问题”究竟出在哪儿?“什么是人?”“什么是智能?”一、认识不到现实和理想的差距就会导致“泡沫”

严格来说,人工智能的主流技术并不新,它经过对传统技术的反复迭代而来。

关于人工智能的发展现状,目前有“乐观论”“悲观论”“泡沫论”三种论调。

我经常会听到各种各样的误解,第一个误解就是认为人工智能是个新东西,是这几年冒出来的。事实上,人工智能(artificialintelligence)这个词正式变成公认的学科名词是在1956年美国的达特茅斯会议上。显然,这是距今已经挺久远的事情了。

至于现在被谈论很多的深度学习技能,前身就是人工神经网络(artificialneuralnetwork)。这个概念在上世纪60年代就被学界注意到了。

人工智能的奠基人之一阿兰·图灵生前也搞过一些粗浅的人工神经网络研究。这样算的话,这个技术至少可以追溯到上世纪40年代。

所以,严格来说,人工智能的主流技术并不新,它经过对传统技术的反复迭代而来。

1.乐观论

这种论调描绘出了一个乌托邦般的场景:当你回到家中,所有的设备都能够通过全新的网络技术和物联网与你心有灵犀;汽车是不用驾驶的,你上了车以后,什么事都不用干,就可以把你带到目的地;沿途,你还可以和你的汽车交谈,就好像它是你的人类司机那样。

2.悲观论

悲观论者更多是站在那些可能会丢掉工作的人的立场上,认为人工智能实在太厉害,会取代很多人的工作。到时,如果社会暂时又无法提供更多的新岗位,这怎么办?

3.泡沫论

我的观点是泡沫论。“泡沫”不是指人工智能的未来一片黯淡,而是说在短期内,这项技术的发展还无法支撑得起很多人的梦想。

理想很丰满,技术目前还很“骨感”。如果你意识不到理想和现实之间的差距,就会导致泡沫。假如因为对人工智能持有乐观态度而到市场上去融资,就更需审慎考虑。

历史上确实有成功案例,比如IBM360计算机项目。

它的成功使计算机从过去那种非常笨重、只有高级科研单位才能买得起的状态,慢慢地变成办公室可以用的计算机,为个人PC的出现打下了基础。但失败的案例也很多。如果关于人工智能的融资计划都把未来描述得很美好,把饼画得特别大,最后也很可能会有问题。

我个人对人工智能未来发展的基本判断是——

人工智能对我们生活的改变不是全局性的、颠覆性的,而是局部的改进。

比如,在在线教育、养老陪护等领域,人工智能能促进一些变化,带来一些商机。但有些项目,比如自动驾驶,就很可能存在一些应予以审慎对待的泡沫。

我主张的“泡沫论”是建立在一些基本概念的界定上,比如“专用人工智能”和“通用人工智能”。

二、使用传统方法解决问题的能力下降是危险的

李世石应该会泡面、会开车,在和AlphaGo下完棋以后他还能够接受媒体采访、谈谈自己的感受。但是,AlphaGo肯定不会开车,更不能在和李世石下完棋以后和人类、和媒体交流自己的所思所想。

现在的人工智能都是基于大数据的,它对小概率和偶然性事件缺乏应对机制。当它面对这个充满变动的世界时,就不知道该如何应对了。

如何区别“专用人工智能”和“通用人工智能”?

专用人工智能就是只能干一件事或两件事的人工智能,通用人工智能是指什么事都能干一些的人工智能。

举个例子来说,李世石是一位棋手,AlphaGo是一个围棋程序。如果我们把李世石看成一个智能系统的话,他就是通用智能系统。

因为他除了下棋,还能做许多其他事情,比如他应该会泡面、会开车,在和AlphaGo下完棋以后他还能够接受媒体采访、谈谈自己的感受。

但是,AlphaGo肯定不会开车,更不能在和李世石下完棋以后和人类、和媒体交流自己的所思所想。经过这样的对比,我们能明显看出专用人工智能的局限。

我们人类的特点是,在一件事上可能是专家,其他事也能干,只是干得没那么好。但是,专用人工智能就只能干专门的事情,其他的事情基本无法兼顾。仅从这一点来讲,专用人工智能和能力全面的通用人工智能之间的区别还是很大的。

我们现在看到的人工智能都是专用的,它们的制作思路都是按照专用人工智能的思路来做的,比如人脸识别和语音识别。

当前,人工智能通过卷积神经网络技术的进步,已经获得了一项重要能力,即可以同时通过人脸和声音来识别他人。但对于人工智能来说,基于神经网络的图像识别系统和语音识别系统是两回事。

现在很多人对人工智能的想象,是建立在“通用人工智能”之上的。

很多人喜欢看美剧,发现里面出现的一些机器人已经特别厉害。有的机器人不仅拥有人类的特征,还开始反抗人类。有人看了这样的故事以后就会展开联想:如果我们和这样的机器人一起生活,会受到怎样的威胁?

自然而然地,很多人对人工智能的思考就建立在了这类科幻影视作品的基础上。而科幻影视作品受众广、不需要具备太多科学素养就能看明白,很有传播力和影响力。

我有一个观点:软科幻看多了,要看一些硬科幻。硬科幻距离今天的科学比较近,对科学知识的运用更严谨。相比软科幻,硬科幻更适合起科普的作用,能够增强普通人对现实世界的思考能力和把握能力。

现在的人工智能都是基于大数据的,它对小概率和偶然性事件缺乏应对机制。当它面对这个充满变动的世界(比如新型病毒、未知规模的洪水等)时,就不知道该如何应对了。

所以,我担心的问题不是人工智能有了人的意识以后会与人对抗,而是人类过多依赖人工智能以后,头脑反而会变简单。

不要以为有了现代化的先进工具以后就可以放弃传统。举例来说。假设现在有两支军队对峙,双方都有能力使用最新的网络信息技术,但只要有一方攻破了对方的网络防线,另一方的信息基础设施就沦陷了。到时,只能转而采用最原始的办法(比如信鸽、鸡毛信等),来传递信息。

对人工智能充满合理想象本身并没有错,但如果我们将人工智能的能力想象得过于强大,同时又疏于保持用传统方法、传统智慧解决问题的能力,这就可能会将人类置于某种尴尬的境地。

三、为什么现在还发展不出通用人工智能

通用人工智能系统的特点就是通用,既然是通用,就要处理全局性的问题。什么是全局性?就是拥有在不同的理论体系之间进行抉择的能力。

深度学习基于的神经网络技术用强大的机器海量计算掩盖了方法本身的“笨”。对于深度学习来说,如果有现成的数据会非常好办,但如果没有优质数据,靠它自己搜集数据就很成问题。

现在的“深度学习”技术,有望在短期内,达到通用人工智能的程度吗?

人们曾经想象能够有一种机器,不需要任何外界输入能量或者只需要一个初始能量,就可以不停地自动运动。在哲学家看来,这个设想经不起严格推敲,无法从根本上立得住。在我看来,通用人工智能大概也只能停留在设想阶段。

通用人工智能系统的特点是通用,就是拥有在不同的理论体系之间进行抉择的能力。不同的诉求之间往往存在冲突,而人类有能力在各种冲突之间想办法,找到一个可以平衡各种矛盾的中庸点。

举个大家比较好理解的例子。有一位家政员到雇主家里做事。如果雇主是一位知识分子,家里书特别多,他就可能会要求家政员尽量把书房打扫干净,但不能干净到书都找不到了。

家里书多的人都知道,书的易取性和整洁性往往是相互矛盾的。书收起来,家里固然更干净整洁了,但如果几本书同时在看,堆起来以后再找、再取就很耗费时间。

这时,究竟是追求整洁还是易取?这里面就有个平衡点。这个平衡点的抵达需要家政员和雇主之间长时间的磨合,却很难通过程序来设置。

任何一个综合系统都要具备处理各种复杂甚至突发情况的能力。其中有些情况甚至是非常极端、偶发的。比如,一辆自动驾驶汽车在道路上行驶。道路的左侧有一个路人在行走,道路的右侧有五个路人在行走,万一出现车速太快来不及刹车的情况,到时该往哪边拐?假设这个程序突然得到消息,左边的路人是我们国家一位非常重要的专家,它该如何选择?

很多人第一直觉会觉得专家更重要,但转念一想,每个人类个体的生命都是平等的。遇到这样的问题,人类会痛苦抉择、反复取舍。

换作是机器,问题就麻烦了。我们都知道,人工智能是基于一系列规则设置的,规则背后就是各种逻辑原则。一旦情况过于特殊或复杂,机器内部基于不同逻辑规则设置的程序之间就会打架。

我再举个例子。假设现在有一位外国小伙子到少林寺学武术,语言不通,怎么办?有个办法,那就是师父做一个动作,小伙子跟着做;如果他做对了,师父就微笑,做错了,师父就棒喝。通过这种方式,小伙子被棒喝以后,就知道自己做错了。但具体到底哪一点做得不对,如果师父不明示、不详解,他就需要猜、需要不断试错。这时语言的好处就很明显。如果彼此能够通晓对方的语言,师傅就能把包括武术规则在内的一整套内容都传授给他,帮助他理解,然后再由学生自己转化为行动。深度学习基于神经元网络的运作产生。神经元网络的运作,就类似于前面所说的那种比较笨的教学方法。

人类犯错以后的反省是基于道理和规则的。但系统不是,它遇到障碍以后的应对办法是调整各种参数,试错以后发现不对就再猜。它是通过大量的猜,慢慢地把事情往对的方向引。它的优势在于,可以在很短的时间里完成人类不可能完成的巨量猜测。

深度学习基于的神经网络技术就是用强大的机器海量计算掩盖了方法本身的“笨”。但问题是,对于深度学习来说,如果有现成的数据会非常好办,如果没有优质数据,靠它自己搜集数据就很成问题。

通用人工智能如果要处理全局性问题,需要搜集的数据就更复杂了。

目前的深度学习机制,其根本问题就是缺乏跨领域学习的能力。这正是人工智能无法通用化、全局化的根本所在。

在我们的日常生活中,不同的系统有不同的运作方式。国际象棋有国际象棋的下法,围棋有围棋的下法。人可以适应变化,要人工智能去适应这一点却非常难。

很多人会问,可不可以把各种专用的人工智能整合为一套通用的人工智能?

其中又有一个问题——协同。这就和企业运筹帷幄一样,需要各个团队、板块的协同合作,需要有一个能力全面的人来领导,而人工智能并不具备总体的调度、配置能力。

为了研究人工智能和人类智能还差在哪儿,一些专家提出了所谓的“卡特尔—霍恩—卡罗尔”三层智力模型。他们把通用智能分解成很多部分,比如流体智力、晶体智力、量化推理、读写能力、短期记忆、长期记忆、视觉处理和听觉处理等。

量化推理无非就是算术,读写能力就是你能不能看懂文章、读懂要点。晶体智力就好比老师现在给你一道题目,告诉你解法以后,看你能不能把做题的思路迁移到新的题目上。流体智力要求更高,相当大程度上,它强调的是一个灵活调用各种智识能力的状态。

至少在目前,人工智能不是根据人类智识能力的发展方向来发展的。长此以往,它的“拟人性”就很成问题,它离真正意义上的通用人工智能就还很远。

 

本文由@KING原创发布于人人都是产品经理,未经作者许可,禁止转载。

题图来自Unsplash,基于CC0协议。

通用人工智能的时代已经来临

原创PatrickHammer等返朴

本文旨在向读者指出通用性AI发展面临的许多挑战和误解。短期应用成果应与长远蓝图相得益彰。我们需要渊思寂虑,精进系统研发,从而理解主体感知,并使之实时适应不断变化的环境。

撰文|PatrickHammer(TempleUniversity,USA),TonyLofthouse(EvolvingSolutionsLtd.,UK)

翻译|刘凯(渤海大学教育科学学院、渤海大学通用人工智能研究所)

能记忆和推理不同情境信息的个人AI助手总似“呼之欲出”,但直至鼠年年末,这样的AI助手竟仍未实现。同样,机器学习尽管进展斐然,可一旦离开“人工”协助,自主系统依旧难言“智能”——无法在不同学习中贯通数据并整合模型,以实现经验的跨领域迁移。

若将AI的目标设定为优化函数来解决领域问题,那么我们一直在与日俱进。很多曾被视作难如登天的特定问题(参考文献[1][6][11]),用最优化——尤其是深度神经元网络(DL)的反向传播来解决,已被证实立见成效,且远超人力之际。计算机视觉、机器翻译、语音识别、棋艺博弈、电子竞技等诸多领域焕然如新——人工智能正迅速被全面“驯化”。

正所谓“莫为风波羡平地,人间处处是危机”,此类“驯化”的共同缺陷是:学习仅发生在模型部署之前。可事实上,实时学习才是动物获得生存优势的智能展现。相较而言,支撑机器学习的脊檩则是狭隘的学习理念。更深入地看,所有的离线优化(OfflineOptimization)问题,本质上都是基于进化而非个体智慧。例如,假定被植入某种遗传密码,转基因萤火虫就能准确探测特定猎物并成功捕食。这种情况下,萤火虫无需实时学习便可拥有相应技能。类似地,只要预装导航、定位、目标检测(ObjectDetection)等预置功能的模块或经离线优化设定参数,自动驾驶汽车就应该能够即开即走。

时至今日,如何从离线优化转向快速可靠的实时学习,主流人工智能仍未给出令人信服的回答。但这既是对智能本质之叩问,也是人工智能的初心所向。与荒野生存的动物一样,通用人工智能(Artificialgeneralintelligence,AGI)能够在运行时应对无法预见的情况。快速和可靠的适应力不仅能够推动新一代机器人及个人助手的实践发展,也理应被视为智能理论的那块“核心拼图”。

对“智能”一词的理解万别千差、百口不一,王培为此专门撰写《人工智能定义专论》一文,并刊发于《通用人工智能》(JGAI,2019年第10卷)。这篇文章被认为是解决人工智能领域核心历史遗留争议最给力的尝试之一,受邀的同行评议专家多达110位,且广泛来自多所著名大学以及DeepMind、GoogleBrain等知名业界公司。文章标靶为智能的“非主流”定义,即“智能是知识和资源不足情况下,主体对环境的适应能力”。尽管该定义在另一项对567名人工智能专家的调研中高票获选,但对资源限制和实时适应必要性的质疑之声也同样存在。有些质疑源自人工系统与生物系统的差异,认为后者总是在知识和资源不足的条件下通过演化进行适应,但部署后的AI系统则无需再配备这种能力。

对智能本质的不少误解都为忽视实时学习所致。比如,遗传算法(GA,参考文献[5])有时被当做强化学习(RL,参考文献[12])的“替身”。诚然,根据前文所述,遗传算法之于强化学习,正如进化之于智能。但只有当学习发生在海量的代际实例模拟中,上述类比方才成立。而这对自主机器人或动物毫不适用,因为二者都能在单次生命周期内以最快速度适应未知环境。很显然,只要致命事件发生一次,个体学习也就戛然而止。这也正是高度模拟领域(如参考文献[11])取得了巨大成功却难以“变现”的主要原因。于是,与实时的适应性系统相比,离线优化这位“同学”着实有些志大材疏。

机器学习视角下,存在三项重要挑战:

一是,智能主体若想适应动态(非稳态)环境,“好用”的决策理论便不可或缺。对动物而言,这是通过进化实现的。但对机器而言,单独个体的一生中却无法学到。因此,尽管离不开先天预设,但其行为表现则是先天和后天的相互结合。

强化学习就是一个非常成功的决策理论(RL,参考文献[12])。虽在非稳态环境中难堪大用(主体的适应性需求与学习速率衰减是一对矛盾),不过至少能够用于实时学习。强化学习有一些主要概念的限制,基于行为主义的强化学习最为常见。通过对具有最高预期回报的“状态—行为”之间的响应映射(策略)进行学习,且无须对所在情境的其他因果关系进行建模,令此类主体具有奖励中心主义的世界观。这意味着,一旦效用函数发生变化,主体就必须重新习得一个新策略,既有知识也无法借助先天设计而迁移到新任务中。对于存在单一明确取胜标准的电脑游戏来说(如:赛车游戏中的圈速、象棋中的将军等),效用函数的变化不是问题。但对于生物系统而言,这却是日常的现实考量。

动物在饿与渴的时候行为完全不同,前者会寻找猎物或美味的枝叶,后者会寻觅水源。也就是说,个体行为不仅取决于外部因素,也取决于内部需求。当出现特定需求时,个体寻求“因果知识”,这一知识会自动迁移到解决下一次其他需求。如此,便能对不断变化的需求予以及时响应。但是,个体并不总能预先知道该如何满足特定需求。要解决这一问题,可将具体信念与动机系统解耦,令主体在不同的环境中学习到行为的不同结果,建立不同的因果模型。这是那些抱持AI初衷的AGI研究者所追求之路,但在专用人工智能(Special-purposeAI,SAI)领域中却常常无人问津。

二是测量。毋庸置疑,不测量便无从知晓是否有进步,但测量的对象也很重要。我们在每个领域下测试主体表现,如果允许对不同领域设定不同的超参数(译者注:在机器学习中,模型“自学”得到的是参数,无法“自学”必须由“上帝”赋予的是超参数。深度学习“炼丹师”的一项重要操作就是对超参数的调校),得到的将是不同主体的“专项成绩”。虽在应用层面上十分有用,却对了解个体的一般性顿口无言。另一方面,如果因领域各异而设定不同超参数不被允许,那么得到的则是主体“各科考试”的“总成绩”。

目前,最好的通用系统仍无法与专用系统(其超参数针可对特定目标领域进行调整)相媲美,但最好的专用系统其通用性得分却不会很高。类似情形在自然界比比皆是(如图1所示),尽管在特定静态环境,特定的专用方案往往是首选,但通用性却能使适应特殊环境条件变得更为容易。

图1:高专用性的昆虫与高通用性的昆虫

从上述讨论中可以窥见:

衡量AGI成功与否需要改变已有的评估方式。AGI亦非AI超集,特定领域内大发神威的专用化最优方案,很可能在其他领域百无一用。在通向AGI的道路上,尽管并非总是,但一般情况下确与专用能力交集寥寥。

写作此文正是想向读者指出通用性AI发展面临的许多挑战和误解。短期应用成果应与长远蓝图相得益彰。我们需要渊思寂虑,精进系统研发,从而理解主体感知,并使之实时适应不断变化的环境。

三是系统实现。非知之艰,行之惟艰。打造具有通用能力的系统实属不易,我们只是在漫漫前行路上迈出了一小步。王培提出的非公理逻辑推理系统NARS(Non-AxiomaticReasoningSystem)[9]便是其中重要一例。NARS项目历经30余年,在实时学习、推理和目标满足等关键领域成效斐然。系统能通过自身感知对环境进行建模,适应环境,通过推理来决定下一步行动,从而实现自我目标。近期的研究亮点是,将深度神经网络(YOLOv4,参考文献[1][6])的视觉感知与NARS实时学习和推理能力(OpenNARSforApplications,参考文献[4][13])进行整合,很好地完成机器人瓶子收集的任务(如视频所示)。

机器人寻找瓶子、机器人抓住瓶子

机器人举起瓶子、机器人运送瓶子

图2:体现NARS实时推理与学习能力的瓶子收集任务

图注:此例虽小,但意义重大。首先,再次印证同一个通用人工智能系统能够完成不同的专用任务,而无需再次开发或修改源码重新编译;其次,明确说明通用人工智能系统的多种感知与运动功能能够在“大脑”的指挥下被妥善协调,而对算力仅有“微弱”的要求;最后,尽管单项能力非其所长,但对开放世界里又“找”又“避”又“抓”又“举”的“多强全能”冠军而言,通用人工智能系统必定是最有力的竞争者,没有之一。

视频演示:[瓶子收集任务][抓、举动作更替]

在这一任务中,机器人不仅需要协调视觉搜索和机械操作等多种感知运动功能,同时还要学习探索如何避障。这让NARS实时学习和实用推理相得益彰,二者融合一目了然——既能够充分体现实时学习的能力(常被视为强化学习的优势),又不失目标规划及利用背景知识的认知灵活性。而且,通过集成最新的深度学习模型来处理其所擅长的目标检测任务,可将机器学习的离线优化特点与AGI系统的实时学习和推理优势相互结合,此为SAI与AGI系统的共生之道。我们的AGI方案有望实现智能系统自主性的极大提升,并用于:

救援机器人

探险机器人

基于智能手机或PC的个人助手

无论是某种新型自主代理还是其他项目,AGI的应用不拘形迹——“一切皆有可能”。一言以蔽之,实时学习乃AGI关键之法,离线优化的人工智能技术可以成为服务AGI“大脑”的其他延展“器官”,从而令多模态学习及跨域迁移的交结变为现实。这样的系统具备真正意义上的智能,能迅速适应多变的现实环境。

最后,总结本文要点如下:

AGI与SAI根本目标各异——通用VS专用

AGI与SAI评价方式完全不同

实时适应性是智能系统的必然要求

NARS所依据的通用推理系统是实现真正智能的一种方法

AGI时代的大幕正徐徐升起。2021,你好牛年,你好牛·年!

参考文献

[1]Bochkovskiy,A.,Wang,C.Y.,&Liao,H.Y.M.(2020).YOLOv4:OptimalSpeedandAccuracyofObjectDetection.arXivpreprintarXiv:2004.10934.

[2]Bratman,M.E.(1987).Intention,Plans,andPracticalReason.CSLIPublications.ISBN1-57586-192-5.

[3]Georgeff,M.,Pell,B.,Pollack,M.,Tambe,M.,&Wooldridge,M.(1998,July).Thebelief-desire-intentionmodelofagency.InInternationalworkshoponagenttheories,architectures,andlanguages(pp.1-10).Springer,Berlin,Heidelberg.

[4]Hammer,P.,&Lofthouse,T.(2020,September).‘OpenNARSforApplications’:ArchitectureandControl.InInternationalConferenceonArtificialGeneralIntelligence(pp.193-204).Springer,Cham.

[5]Holland,J.H.(1984).Geneticalgorithmsandadaptation.InAdaptiveControlofIll-DefinedSystems(pp.317-333).Springer,Boston,MA.

[6]Redmon,J.,Divvala,S.,Girshick,R.,&Farhadi,A.(2016).Youonlylookonce:Unified,real-timeobjectdetection.InProceedingsoftheIEEEconferenceoncomputervisionandpatternrecognition(pp.779-788).

[7]Wang,P.(2019).OnDefiningArtificialIntelligence.JournalofArtificialGeneralIntelligence,10(2),1-37.

[8]Monett,D.,Lewis,C.W.,&Thórisson,K.R.(2020).IntroductiontotheJAGISpecialIssue“OnDefiningArtificialIntelligence”—CommentariesandAuthor’sResponse.JournalofArtificialGeneralIntelligence,11(2),1-100.

[9]Wang,P.(2013).Non-axiomaticlogic:Amodelofintelligentreasoning.WorldScientific.

[10]Wang,P.(2009,October).InsufficientKnowledgeandResources-ABiologicalConstraintandItsFunctionalImplications.InAAAIFallSymposium:BiologicallyInspiredCognitiveArchitectures.

[11]Schrittwieser,J.,Antonoglou,I.,Hubert,T.,Simonyan,K.,Sifre,L.,Schmitt,S.,...&Lillicrap,T.(2020).Masteringatari,go,chessandshogibyplanningwithalearnedmodel.Nature,588(7839),604-609.

[12]Sutton,R.S.,&Barto,A.G.(2018).Reinforcementlearning:Anintroduction.MITpress.

[13]OpenNARSforApplications(ONA),lastaccessedJanuary3,2021

版权说明:欢迎个人转发,任何形式的媒体或机构未经授权,不得转载和摘编。转载授权请在「返朴」微信公众号内联系后台。

原标题:《通用人工智能的时代已经来临》

阅读原文

OpenAI发布通用人工智能路线图:AGI比想象中来得更快

机器之心报道

编辑:泽南、小舟

通用人工智能的出现可能只是技术发展历程中的一个小节点,因为AGI或许可以加速自身的进步,从而以指数方式扩展能力。

在ChatGPT引爆科技圈之后,人们对于先进技术产生了更多期待,但一直有专家警告AI可能造成的危害。我们知道,OpenAI的使命是确保通用人工智能——比人类更聪明的AI系统,能够造福全人类。本周五,这家公司发布了「AGI路线图」,详细解释了这家前沿研究机构对通用人工智能研究的态度。

在路线图中,OpenAI对新技术的发展有了更加谨慎的态度,这可能意味着以后用户和应用范围会受到更严密的监控和限制。让我们看看OpenAI是怎么说的:

如果通用人工智能(AGI)最终被成功构建起来,这项技术不仅可以带来更多可能性,推动全球经济发展,也能改变新兴科学知识的发现,会从各种角度帮助人类提升生活水平。

AGI有潜力赋予每个人不可思议的新能力。我们可以想象这样一个世界,在其中,所有人都可以获得几乎所有认知任务的帮助,它或许是人类才智和创造力的巨大力量倍增器。

但另一方面,正如一些人所担心的,通用人工智能也会带来严重的滥用、严重事故和社会混乱的风险。由于AGI的好处如此之大,我们不能认为让社会永远停止其发展是可取的方向,相反,社会和AGI的开发者必须要想办法把它做好。

与通用人工智能共同生活的未来图景难以预测,当前的AI进展可能会遭遇新的挑战,但在ChatGPT获得成功的当下,OpenAI列出了我们最关心的几项原则:

1.我们希望通用人工智能使人类能够在宇宙中实现最大程度的繁荣。我们不希望未来成为一个虚假的乌托邦,但我们希望将技术好的一面最大化,坏的一面最小化,让AGI成为人类善意的放大器。

2.我们希望AGI的益处、接入和治理能得到广泛和公平的分享。

3.我们要正确应对潜在风险。在面对这些风险时,理论上似乎正确的事情在实践中往往比预期更难以控制。我们必须通过部署功能较弱的技术版本来不断学习和适应,以最大程度地减少「无可挽回」的情况。

短期目标

OpenAI认为,若为通用人工智能的发展做准备,有几件事要先做好。

首先,随着我们不断构建出更为强大的AI系统,我们必然希望快速部署AGI并获得在现实世界中操作它们的经验。谨慎管理AGI存在的最佳方式应该是逐渐过渡到AGI的世界。我们期望强大的AI能够加快世界进步的速度,OpenAI认为最好是逐步适应这一点。

渐进的方式让人们、政策制定者和机构能有时间了解正在发生的事情,亲身体验这些系统的好处和缺点,调整我们的经济组织形式,并实施有效监管。渐进的方式还允许社会和AI共同进化,并允许人们在风险相对较低的情况下共同弄清楚自身所需。

OpenAI目前认为,成功应对AI部署挑战的最佳方法是采用快速学习和谨慎迭代的紧密反馈循环。在新技术的冲击下,社会将面临「人工智能系统被允许做什么、如何消除偏见、如何处理工作岗位流失」等重大问题。最佳决策将取决于技术所采用的路径,并且与任何新领域一样,到目前为止,大多数的专家预测都是存在偏差的。这使得在预期外进行规划会非常困难。

一般来说,我们认为在世界上更多地使用AI会带来好处,并希望推广它(通过将模型放入服务API中,将它们开源等等)。OpenAI相信,开放的访问也将导致更多更好的研究,吸引更多的人贡献新的想法。

OpenAI表示,随着其开发的系统越来越接近AGI,该机构在模型的创建和部署方面都变得越来越谨慎。

OpenAI需要权衡部署大模型的利弊。一方面,部署先进的大模型是重要的科技进展;另一方面,部署模型之后,公司和机构也需要考虑如何限制恶意行为者、避免对社会和经济造成不良影响等问题。在这种情况下,OpenAI表示将围绕持续部署来改进其规划。

其次,OpenAI正在努力创建更加一致和可控的模型。从GPT-3的第一个版本到InstructGPT和ChatGPT,这一步步的转变就是OpenAI在这个方向上努力的例子。

值得注意的是,OpenAI认为有一点非常重要,就是人类社会需要就如何使用人工智能达成极其广泛的界限,而在这些界限内,个人用户有很大的自由使用权。OpenAI希望最终世界能够就这些广泛的界限达成一致。

随着模型变得更强大,OpenAI将需要开发新的对齐技术。OpenAI的短期计划是使用AI来帮助人类评估更复杂模型的输出并监控复杂系统,而从长远来看,OpenAI将会使用AI来帮助其提出新的想法以获得更好的对齐技术。

重要的是,我们需要在人工智能安全和能力方面共同取得进展,这二者不应该分开谈论。OpenAI表示其最安全的工作来自于其最有能力的模型。也就是说,提高人工智能的安全性对AI研究进步非常重要。

第三,OpenAI希望就三个关键问题展开全球对话:如何治理这些系统,如何公平分配它们产生的收益,以及如何公平共享访问权限。

除了这些,OpenAI还提到在该公司的章程中有一个条款是关于协助其他组织提高安全性,而不是在后期AGI开发中与对手竞争。OpenAI投资规则中对股东可以获得的回报设定了上限,这样研究机构本身就不会被激励去尝试无限制地获取价值,也不会冒险部署具有潜在灾难性危险的东西。

OpenAI被一个非营利组织管理,以保证该机构是为人类的利益而运行(并且可以凌驾于任何营利利益之上)。

OpenAI认为在发布新系统之前进行独立审查是AGI研究非常重要的一步。关于AGI工作应何时停止训练、确定模型可以安全发布或从生产使用中撤出模型的公共标准是很重要的。最后,OpenAI认为世界主要政府应对超过一定规模的机器学习训练保持监管。

长远目标

OpenAI相信人类的未来应该由人类自己决定,与公众分享有关进步的信息至关重要。我们应该对所有试图建立AGI的努力进行严格审查,并在重大决策上面向公众进行咨询。

从某种意义上说,第一个AGI将只是人工智能持续发展中的一个小节点,然后从这个节点开始不断衍生出新的进展。AI的发展可能会在很长一段时间内保持我们在过去十年中看到的进展速度。

有一天,世界可能会变得与今天截然不同,但科技的进步也可能带给人类很大的风险。一个「错位的」超级智能AGI可能会对世界造成严重的伤害。

加速科学发展的人工智能将是一个值得思考的特例,这也许比其他任何事情都更有影响力。有足够能力加速自身进步的AGI可能会导致世界发生重大变化。也许AGI的发展在初期是比较缓慢的,但OpenAI预计给世界带来巨大变化的AGI在最后阶段一定会出现。

基于上述原因,OpenAI认为AGI领域较慢的启动速度更容易确保安全,并且AGI在关键时刻减速可能也很重要。即使技术的进展让我们可以迅速发展AGI,但减速的重要意义是要给社会足够的时间来适应。

成功过渡到一个拥有超级智能的世界可能是人类历史上最重要、最有希望,但也最可怕的项目。这种巨大进展的成功还远未得到保证,但我们已经可以预见的利害关系有望将所有人团结起来。

无论如何,那将是一个繁荣到我们还无法完全想象的世界。而OpenAI希望为世界贡献一个与这种繁荣相一致的通用人工智能。

参考内容:

https://openai.com/blog/planning-for-agi-and-beyond/

原标题:《OpenAI发布通用人工智能路线图:AGI比想象中来得更快》

阅读原文

专用和通用人工智能的区别

专用和通用人工智能的区别

随着当今社会科学技术的持续发展,和人们对编程技术的发展,近年来AI产业正在飞速发展,并且当今社会也有越来越多的人工智能产业实践,所以越来越多的人都开始关注人工智能方面,由此可见人工智能在当今社会中的热度,今天就来讲讲专用人工智能和通用人工智能的区别。

你知道,专用人工智能和通用人工智能的区别么?

打个比方,下属和领导下棋,阿尔法狗和领导下棋,下属即使是下棋高手,但是他不能赢领导,这是下棋的情商规则。而阿尔法狗,它下棋就是下棋,根本没有人类的思考能力和心理结构。这就是专用人工智能和通用人工智能的区别。

人类暧昧的规则,机器人是无法判断的。模拟人类的思考方式,才是机器人的最大挑战。

1、专用人工智能和通用人工智能的区别——专用人工智能

专用人工智能,是指只对某一方面有自动化专业能力。例如阿尔法狗(AlphaGo)在围棋比赛中战胜人类冠军,AI程序在大规模图像识别和人脸识别中达到了超越人类的水平,甚至助诊断皮肤癌达到专业医生水平等。

2、专用人工智能和通用人工智能的区别——通用人工智能

通用人工智能,是指具有像人一样的思维水平以及心理结构的全面性智能化。比如电影里的救世机器人,或是具有较高情商的机器人。目前为止,通用人工智能还未实现,专用人工智能发展势头较猛。

人工智能,于人们而言,有两种理论,一种是乌托邦论,一种灭世论。乌托邦论,是指人工智能将全方位改变人类世界的生活。灭世论,是指人工智能将在未来某一时刻推翻人类世界。

复旦大学一位教授提出了一种新看法,泡沫论。这是指人工智能被科幻片夸大了事实,人工智能的实际发展情况与电影不符,电影走在了人工智能发展前面,所以将会呈现出中空地带亦或是断层地带。人类对人工智能的积极态度还是悲观态度,都不是可取的,而应是平稳心态。

时代发展到一定程度,新科技自有它安身立命的基础,人类也有自己的前行方向。

强人工智能与通用人工智能本质区别

由于并未说清相似(或相同)的方面及程度,导致人工智能相关讨论的前提各异。近期,存在如下三种理解:第一种,认为人工智能包括计算智能、感知智能和认知智能三种(钟义信,2012);第二种,认为人工智能分为弱人工智能和强人工智能两种(曾毅,刘成林等,2016),而强人工智能也正是通用人工智能;第三种,认为人工智能分为专用人工智能和通用人工智能两种(刘凯,胡祥恩,王培,2018)。

常见于行业演讲和报告中,既缺乏理论依据,又具有误导性:逻辑上貌似完整无缺,又与“奇点”不谋而合。其中,计算智能(又称运算智能)指的是快速计算和记忆存储能力,感知智能指的是视觉、听觉、触觉等感知能力,认知智能则指抽象理解的能力。对于计算系统而言,计算智能对应于计算水平,感知智能对应于感知水平,而认知智能则对应于认知水平,三者由低至高逐级更加“智能”。现在计算智能和感知智能业已成熟,那么随着技术的发展,在给定这一框架的前提下,认知智能也应该可以实现,毕竟前两者已经做到了。然而,无关乎最后的认知智能是否最终必然实现,关键问题在于框架的前提就有问题。事实上,计算能力和感知能力只是实现智能的必要条件,而不是智能本身,所以将计算智能和感知智能也划入智能的分解只是一个玩弄逻辑概念的把戏而已,在不能够真正地解决任何实质性问题的同时却极大提升了“认知智能必定能够实现”的信念和预期。因此,如果不能详实检视这个前提,那么所得到的后续结论便经不起推敲。

因此,上述三种分类既有关联,又彼此不同,且三者不能简单等同:“计算智能+感知智能”既不能简单等同于“弱人工智能”,也不能简单等同于“专用人工智能”。同样地,“认知智能”既不能简单等同于“强人工智能”(强调“真正”智能的有无),也不能简单等同于“通用人工智能”(强调“真正”智能本身的特征)。事实上,也只有第三种分类适用于当前语境下的学术讨论,因此本文也将以第三种分类──“专用人工智能”和“通用人工智能”为讨论前提。责任编辑:YYX

版权声明:本文内容由互联网用户自发贡献,该文观点仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌抄袭侵权/违法违规的内容,一经查实,本站将立刻删除。

上一篇

下一篇