博舍

人工智能的符号主义纲领及其困境 人工智能的符号主义举例有哪些方面的问题

人工智能的符号主义纲领及其困境

摘要符号主义纲领是人工智能领域将符号学和人工智能结合起来的一个重要研究范式。在其发展过程中遭遇到了诸如组合爆炸、常识困境和翻译难题等棘手的问题。符号主义的窘境是其自身缺憾导致的,这种缺憾在西方科学哲学中的逻辑实证主义那里有着同质的表现,人工智能的终极目标也决定了符号主义必然无法完成类脑智能的目标而被连接主义和行为主义取代。

关键词人工智能;符号主义;数理逻辑;困境

2017年7月发布的国务院《新一代人工智能发展规划》中指出,“到2030年人工智能理论、技术与应用总体达到世界领先水平,成为世界主要人工智能创新中心,智能经济、智能社会取得明显成效,为跻身创新型国家前列和经济强国奠定重要基础”①。

人工智能的发展经历了若干个阶段,每个阶段均有其研究纲领。符号主义纲领可以说是人工智能领域中最早出现的,也是最重要的研究纲领,其基本原理与计算机的运行模式有着共通之处。梳理符号主义纲领的理论主张及其困境,有助于我们理解人工智能的发展路向和未来前景。

一符号主义与人工智能

符号学是由索绪尔、皮尔斯提出,经由莫里斯发展,乔姆斯基进一步完善的一种研究符号的本质、意义、变化规律的学说。因为强调符号的作用与本体论地位,符号学发展出了符号主义。

符号主义是人工智能领域的第一个研究纲领,其主旨在于以逻辑推理为工具来对人的行为进行智能模拟。符号主义纲领在很长的时间里主导着人工智能技术的研究方向。符号主义的理论基础是符号学理论。约翰·迪利认为,符号学是以某种约定俗成的前提为基础,具有本体论的意义。学界一般认为,符号主义纲领的最早倡导者是瑞士作家、语言学家索绪尔。在其名著《普通语言学教程》中,索绪尔提出了符号的概念。他认为世间的符号有多种,我们平时所说的符号主要指语言符号。

符号是一种有着特殊内涵和外延的概念,它只存在于人类独有的文化范围之内。在此,索绪尔赋予符号以本体论的地位,认为符号学的地位大大高于他之前所研究的语言学。因为不管我们使用的是哪种语言,均可以被理解为表达人类思想观念的某种符号系统,是我们的文化传统、社会生活和科学研究各个领域均不可或缺的重要内容。美国哲学家皮尔斯进一步发展了索绪尔的符号学理论。他指出,符号、对象和解释项是符号学研究的三个对象。

在这三者中,符号是第一位的,对象居其次,而解释项则是第三性的。对于三者的关系,首先是符号决定了解释项,其次是对象决定了符号,同时对象通过符号这个中介间接地决定了解释项。总的来说,符号相对于对象来说是被动的,但它对于解释项来说则是主动的。或者说,因为有了对象才可能有符号,而解释项则赋予了符号意义。对象是符号得以存在的前提,而解释项则是符号产生的结果,是符号的一种能力。将符号学理论与人工智能及其应用结合起来,便出现了人工智能领域的符号主义纲领。

按照符号学的主张,人类的所有知识都是某种形式的信息,都通过语言和非语言的符号来表示,而数理逻辑则是符号化知识的典型形式。人类的认知过程说到底就是一个处理符号的过程,因为对世界的认知离不开理性的推理过程,而理性的推理过程可以通过形式化的语言尤其是数理逻辑(归根结底是符号)来完成。西方历史上通过这种方式构建起来的知识体系充分说明了数理逻辑的有效性。

例如古希腊的数学家欧几里得就曾通过几条不证自明的预设性公理,用逻辑推理的方法得到了包括定律、定理、推论等在内的一个庞大而复杂的知识理论体系。他将数学知识通过逻辑推理的形式演绎出来,构建起一个体系完整、逻辑严谨的数学学科。这样一种自公理出发,通过逻辑方法进行演绎的学科发展方法成为西方文明中的一种标准范式。近现代西方物理学的发展如牛顿、爱因斯坦所建构的经典力学和相对论也是按照公理方法演绎出来的科学理论。

如前所述,人类的知识都是以某种形式表达出来的信息,基于数理逻辑推理的人类认知实际上是一种符号处理过程。符号主义的代表人物西蒙、纽厄尔、尼尔逊等人进一步指出,人类认知过程和思维过程的本质都是某种符号运算过程,人和计算机从某种意义来说都是一个物理符号系统,由此可以推测,我们完全有可能将人类智能与机器智能两者结合起来。

为了做到这一点,首先,我们要弄清楚人类自身的智能系统运行所遵循的功能原理;然后就可以通过形式化的符号来描述人类智能的认知过程。最后,将这些经过形式化处理的符号输入到能够处理这些符号的高级计算机中,能够局部甚至全部模仿人类智能的智能机器系统就建立起来了。这个智能机器系统可以代替人类完成一些复杂的计算和推理工作。实际上17世纪德国著名的数学家、哲学家莱布尼茨曾经尝试做过这种人工智能的设想。著名的人工智能专家西蒙(H.A.Simon)将符号主义和物理主义结合起来,建立了物理符号系统,人工智能领域中的符号主义纲领就正式形成了。他跟纽厄尔一起指出,一个物理符号系统经过处理之后可能“具有一般智能行为的必要和充分的手段”①。

他们视能执行Lisp变种表处理程序的智能计算机为物理符号系统的经典代表。按照理性方法实现对符号运算的操控是符号主义纲领的硬核,其主要的学科支撑是数理逻辑。霍格兰德指出,符号主义纲领认定,以往的逻辑和可计算性的工作已经表明,存在着对语义敏感符号结构的纯粹句法转换。这样,我们就可以像演绎证明那样,仅仅基于句法属性的公式而通过操作来提取其他逻辑也可以遵循的公式。因此,句法可以反映语义。也就是说:“如果你‘照顾好’句法,那么语义就会‘照顾好’它自己”②。

在符号主义者看来,心理过程是表达相应思想之命题内容的一系列心理表征印记,每个心理表征中的原因和结果均由其句法来决定。福多对此的描述就是:“就像一把钥匙的几何形状决定了它将要打开哪一把锁那样”①。著名语言学家乔姆斯基在此基础上提出了“机器语言”的概念,他认为,人类的语言包含深层结构和浅层结构两种,浅层结构代表的是语法,它有效地体现了语句的形式,是“机器语言”的最合适形式;深层结构代表着语言的语义,体现了语句的内涵,它在“机器语言”中较难实现。乔姆斯基致力于探索语言的深层结构,他认为研究语言的深层结构非常重要,因为它是一种“先天语言”②。符号主义纲领不断地发展与完善之后,人工智能作为一个学科得到了突飞猛进的发展。但是随着符号主义纲领自身弊端的不断显现,人工智能的发展势头受到了严重的影响。

二符号主义纲领的困境

如前所述,由于符号主义纲领的基础是数理逻辑,而形式化与确定性是数理逻辑的重要特点,因此符号主义的人工智能研究纲领具有较强的可行性和明显的简单性等特征。为了实现对人类智能的模拟,他们的主要策略有两种,一是尽可能地完善逻辑规则,根据逻辑原则从不证自明的公理开始进行符号演算;二是尽可能地完善数据库,提供各种可能的问题及其解决方法,通过穷举规则来提供可能的答案。事实证明,由符号主义纲领发展出的人工智能系统在很多领域的运用是非常有效的,因此长期以来,符号主义纲领发挥了广泛而深远的影响。但是,人工智能的最终目标是使机器具有与人类类似的情感、意识和能力,符号主义纲领没法实现这一目标。

(一)组合爆炸问题

组合爆炸是指有限个数的元素组合形成的组合数,会随着元素数目的不断增加而出现急剧增长的现象。人工智能的符号主义纲领是以符号系统为基础,通过逻辑运算而建构起来的,而这就意味着计算量将会无比巨大。更为棘手的是,符号主义人工智能越是发展,其所面对的数据量就越大。虽然计算机的计算能力越来越强,但也无法应对不断扩张的组合爆炸问题。正因为符号主义纲领将人工智能的发展奠基于逻辑运算,符号系统的逻辑运算不可避免地随着人工智能模型的进步和完善而越来越呈现爆炸趋势,而现有的计算机不可能适应这样的增长速度。

(二)机器翻译出现巨大困难

机器翻译已成为符号主义人工智能领域中最成熟的也最重要的应用领域之一。机器翻译需要对翻译的原文进行语法、语义和词性方面的提炼,然后再结合数据库中的上下文进行分析和整理,生成目标语言。机器翻译的基本原理实际上就是实施图灵测试的关键步骤,即实现计算机系统在自然语言和其他类型的语言之间进行相互转换的功能。

在翻译时通常将需要翻译的原文如自然语言输入计算机,计算机将按照语言符号的语汇规则和语法规则进行分析和处理,将原文语句进行转化,使之形式化,按照一种严密的符号形式表示出来。这种严密的符号形式实际上是一种逻辑算法,计算机工程师将这种逻辑算法编写成计算机程序,输入的原文语句经过算法程序而转换成目标语言输出。翻译速度快、语库词汇多、费用成本低等是人工智能翻译相对其他翻译方式的优点,因此深受广大用户欢迎。

然而这种翻译理念在其实际操作的过程中却遭遇到了不少棘手的现实问题。首先是不同国家不同民族的人有不同的习俗和文化传统,不同的人在输入原文时也不可避免地受语境、语气和文化背景等非客观因素的影响。因此,对于同一份原文,不同的人将它输入计算机,通过程序运行之后结果不可能完全一致。因为计算机不可能十分准确地根据这些外在不确定因素来动态地调整翻译的结果。为了尽可能地提高机器翻译结果的准确性,人们只能在输入各种相对确定的语言规则和语言材料之外,把不同种类语言的各种语境、民族文化和语气语态等因素尽可能多地存入到计算机数据库。

但是,即便人们殚精竭虑,也不可能穷尽这些主观性因素,而且计算机也不可能掌握各种语言变化多端的符号规则和语境因素。因此,目前的机器翻译系统不可能完美地应对自然语言中复杂多样的各种不确定的主观因素。也正因为如此,美国科学院的语言符号自动处理委员会对机器翻译系统的研究明确地表示了不支持态度。他们认为,“在目前给机器翻译以大力支持还没有多少理由”①。

在他们看来,虽然智能机器翻译目前已经取得了相当不错的成绩,但是依然存在着诸如“语义障碍”之类的困难。其中最困难的问题是歧义,歧义的类型主要包括一词多义、语境歧义、语义歧义、语构歧义等,还包括同一语句在不同时间、不同人群、不同环境下的歧义。理解与掌握这些歧义对于人类来说是相对容易的,但如果要求计算机考虑这些因素而准确地把原文自动地翻译出来则是不太可能的事,甚至适得其反,“对低质量机译结果进行译后编辑,会造成比人工翻译更多的精力损耗”②。

例如我国著名诗人李白的诗句:“床前明月光,疑是地上霜”,描述了诗人他乡独处时浓烈的乡愁,这是一种难以言表的思乡之情,通过智能机器翻译成英语后就是这样:“SeeingtheMoonbeforemycouchsobright,Ithoughthoarfrosthadfallenfromthenight”③。虽然英译基本上与原文符合,但是诗中独特的意境、伤感的画面、浓浓的乡愁以及中国古诗中特有的韵律,都已经荡然无存了。

因此,要使机器真正达到人工翻译一样的效果几乎是不可能的。其根源在于计算机的数据库总是有限的,而它面对的语言则是无比复杂的,以有限性的语言处理系统去应对无限性的世界语言的无穷多的具体情况,最后的结果只能是在无限的世界中抽取一个子集作为答案。所以人工智能的研究者们基本上达成了一个共识,即无论智能机器的自动翻译系统怎么完善,其翻译结果都不可能完全与原文相符合。

(三)“常识”是符号主义人工智能绕不过去的难题

所谓常识,是指人们日常生产生活当中普遍使用的、一般有效的、无须证明的知识。人类对于常识往往知其然但不知其所以然,符号主义要处理这些常识是无比困难的事情。比如,要让符号主义人工智能系统识别一只猫,我们必须输入大量的数据,进行多次的实验才可能最终得以实现;而要让一个两岁左右的孩童识别其父亲或母亲却是轻而易举的事,即便只让他看到其父母的背影或者侧影他都能辨认出来。

具体来说,符号主义人工智能在面对常识问题时会有以下困难:其一,常识具有与语境密切相关的特征,计算机无法识别它。符号主义纲领建构起来的所有人工智能的模型都是按照逻辑运算的形式来进行的。在形式化的符号系统之外,我们无法另外建构一套符号体系与之兼容,以便使常识实现形式化而得以在计算机中正确表征它。换言之,当我们把常识按照非逻辑符号的形式输入智能计算机后,机器中的符号系统并不能有效地识别它,从而得不到令人类满意的处理结果。据了解,到目前为止,人类尚未能设计出成功、高效地处理常识的智能程序,更不用说广泛应用了。其二,常识数据过于庞大,符号主义纲领的人工智能的所有模型都无法应对。

三符号主义困境的哲学本质

对于符号主义人工智能纲领在发展过程中的出现的各种困境,计算机专家、逻辑学家、语言学家等各自从不同的领域和视角进行了分析和解释。当代西方的很多哲学家也对这些困境进行了哲学上的阐释。

(一)人工智能的符号主义纲领面临的困境

在科学哲学中的体现数理逻辑自19世纪末得到了迅猛的发展与应用,并在各个领域产生了重大影响。20世纪30年代,人们开始通过数理逻辑来解释和描述人类的智能行为。计算机研制成功后,逻辑演绎系统成功地与计算机结合了起来,完成了诸多数学定理的证明。正因为如此,符号主义人工智能亦被称为逻辑主义人工智能。与数理逻辑在人工智能领域的影响与应用相对应,数理逻辑的学术影响在科学哲学上的体现就是逻辑实证主义学派的兴起。换言之,20世纪20年代出现的逻辑实证主义是当时自然科学尊崇数学、物理学为典范,推崇符号化、逻辑化、形式化特征等倾向在哲学上的反映。

因此,从某种意义上来说,逻辑实证主义的缺憾与人工智能的符号主义纲领的困难是同质的。或者说,逻辑实证主义所受的批判正是符号主义纲领的困境在哲学上的体现。在逻辑实证主义者看来,科学哲学有义务为诸种知识提供某种通用的评价标准,以确保其成为有效的知识或者说通过了辩护的知识。而对于这些知识得以发现的过程,则不是科学哲学的研究对象,因为任何知识的发现都具有偶然性、随机性甚至主观性和神秘性等特征。科学发现的过程中当然有逻辑推理、观察实验等理性的因素,但是天赋、个性、机遇、社会环境等则是其更为重要的因素。关于科学发现的问题应该交给社会学家、心理学家、历史学家等去研究。

逻辑实证主义主张,哲学研究的对象只能是逻辑句法,哲学研究的问题就是语言符号分析的问题,而哲学研究的方法说到底就是逻辑句法的分析方法。因此物理学、数学等学科的语言就是科学的标准语言,数理逻辑的演绎方法是科学通用的研究手段,科学哲学自然也就成了一种真正“科学的”哲学。正如吉登斯所说的那样,逻辑实证主义“发展一种科学观,以承认逻辑和数学在作为符号表征系统的科学思想中的极端重要性。”①逻辑实证主义自产生以来,对科学哲学的形成、发展、成熟、传播和繁荣等各方面都作出了难以磨灭的贡献,但同时它也受到了来自学界的各种批判,比如其“证实原则”的不可实现性(逻辑实证主义因此而被波普尔的证伪主义取代),对形而上学的彻底拒斥,理论与观察的二分等主张所面临的理论困难等,其中最受人诟病的是发现的语境与辩护的语境的严格区分与对立。

(二)人工智能的终极目标决定了符号主义

纲领内在缺憾的必然性符号主义人工智能业已对人类经济社会的发展和进步带来了巨大的变化,但因其自身的局限性而使得人工智能的进一步发展存在着瓶颈。根据符号主义纲领,人工智能的最终目标不是要通过智能机器来代替人类完成一些重复性的高难度工作,而是要发展真正接近人类智能的通用机器智能系统,使之具有在陌生环境下对新生事物的自主学习能力,即发展类脑智能。霍格兰德认为,人工智能研究的根本目标绝不仅仅是模仿智能或者生产一些“冰雪聪明”的仿品,“人工智能只需要货真价实、名副其实的物品:在全部和字面意义上有智慧的机器。这并不是什么科幻小说,而是建立于某种深刻的理论概念基础之上的真正科学:即从根本上来说,我们本身就是计算机”②。

他认为人工智能最终目标就是使智能系统与人类智能之间几乎没有区别。查理亚克和麦克德莫特也指出:“人工智能的最终目标是打造一个‘人’,或者更谦虚地说是打造一只动物———虽然我们离达成这一目标还很遥远。”③也就是说,人工智能的最终目标是要制造出与人类毫无区别的完美的智能机器,虽然这一目标很遥远,但人类一直在努力,并一取得了一些进展。

显然,人工智能的符号主义纲领离这个目标有着非常大的差距。对此,中国科学院的谭铁牛院士作出了自己的总结,他认为这种人工智能系统有较强的智能但没有智慧,有较高的智商但没有情商,有较强的计算能力但不会进行“算计”,这也是导致连接主义、行为主义纲领相继取代它的原因。如前所述,对符号主义人工智能纲领而言,人们在对符号进行操作时总是存在着一些基本的限制。我们要把思维蜕变为脱离语境的片段最终是不可能的,而且必然会产生误导。

德雷福斯等人也提出了类似的批评。他们认为,符号操作并不能解释直觉、猜测、判断和想象等人类所特有的基本的思维形式,而所有这些思维方式都可在一般意义上的推理和问题解决方面发挥着关键的作用。进一步说,人类的推理决不会与任何脱离语境的、非具体化的系统相匹配。这种系统通过某种形式来表现和操作符号信息而发挥作用。

四结语

虽然符号主义人工智能取得了长足的发展并广泛应用于生产和生活的几乎每个方面,促进了社会的发展和进步。但是因为人工智能的符号主义纲领所依赖的理论基础和自身的工作原理存在着不可克服的缺憾,而逐渐为连接主义、行为主义等纲领取代。人工智能的符号主义纲领面临的困境在科学哲学中有其理论上的表现。在逻辑实证主义学派受到众多学者的批判之后,库恩、汉森、拉卡托斯等开拓科学哲学新的研究领域,他们分别从科学史、数学史领域重新探讨科学知识发现过程。

人工智能研究人员也试图从科学史和数学史的角度按计算的模型来建立发现过程的模型。如果人工智能要成为真正的类脑智能,就需要智能机器系统具有自主学习的功能,通过学习而具备“直觉”“猜测”等特性。当然这里所说的“直觉”与“猜测”和人类智能是不一样的。人类的“直觉”和“猜测”往往是模糊的、笼统的,而机器智能的“直觉”和“猜测”则是基于坚实的数学模型和大量的计算而找出概率最高的一种方案。

这是一种基于科学理性的具有较高确定性的判断过程,其效率和准确性是人脑无法比拟的。比如“阿法狗”通过学习数十万个高水平的棋谱而获得了围棋对弈过程中的“直觉”,接连战胜了李胜石和柯洁。但人类的直觉与智能机器的这种直觉有着本质的区别,人类的直觉是天生的,是不需要也不可能通过学习获得的。人工智能深度学习的实现和不断发展,使得很多人工智能研究者满怀信心。

约翰逊就提出了关于人工智能的“程序语义学”以应对符号主义的问题。他认为“用于向计算机传达指令程序的人工语言既有语法又有语义。其语法包括针对编写计算机可以解释和执行的有良好模式的各种程序的规则。其语义包括计算机按指令所执行的程序”①。但是约翰逊的这一倡导遭到了批判,福多就直接质问道:“如果你所说的语义理论是对语言和这个世界之间关系的解释的话,你的计算机模型根本就没有提供语义理论。特别是,程序语义学并未取代古典语义学,它只是引出了古典语义学所要回答的问题。”②在福多看来,程度语义学并不能解决符号主义人工智能纲领的困境。

因此,德雷福斯等人认为,从哲学上来看,人工智能的符号主义纲领只是一个考虑不周的、试图实施理性主义的方案。人类生而具有的身体和感受能力以及诸如想象力、模糊认知和隐喻等能力和诸如边缘意识和完形感知等现象的存在,是符号主义纲领之后的连结主义和行为主义亦难以逾越的障碍,无论是强人工智能还是弱人工智能都势必面临着这些方面因素的挑战。

符号主义是人工智能技术发展的第一个纲领,为人工智能的发展奠定了坚实的基础,在历史上也为人工智能的后续研究做出了巨大的理论上和方法论上的贡献,具有里程碑性质的意义。同时,符号主义纲领也因为其自身不可克服的缺憾而逐渐被连结主义、行为主义所取代。

人工智能是新科技革命与产业革命中具有战略性意义的关键技术,其理论研究与实践应用的发展速度非常迅猛。在新的历史时期我们要研究人工智能发展不同时期的纲领,加强研判,增强创新能力,统筹谋划,主攻核心技术,实现人工智能与产业变革的融合。智能机器的发展在为人类带来极大的生产效率和生活便利的同时,也会给我们带来很多法律上、伦理学上的难题,我们应当努力加强对人工智能的伦理学研究和法律法规的建设,克服人工智能自身的缺憾,解决人类的生存困境,推动我国人工智能技术走上健康发展的道路,使人工智能技术服务于新时代社会主义国家的经济发展。

人工智能方向评职知识:人工智能深度学习类论文容易发表吗

首先征收人工智能论文的刊物有很多,而且这些刊物对稿件也有一些特殊的要求,比如稿件应采取什么格式,投稿要提供什么材料等。掌握了这些要求,并且让自己的论文尽可能的满足这些要求,期刊接收论文的几率才会提升。

具身智能:人工智能的下一个浪潮

0分享至从符号主义到联结主义,智能体与真实世界的交互得到日益重视。上世纪五十年代的达特茅斯会议之后的一段时期内,对人工智能的研究主要限于符号处理范式(符号主义)。符号主义的局限性很快在实际应用中暴露出来,并催动了联接主义的发展,形成了包括多层感知机、前向神经网络、循环神经网络,直至今日风靡学术界与产业界的深度神经网络等多种方法。这种用人工神经网络模拟认知过程的方法在适应、泛化与学习方面的确取得了很大的进展,但并未真正解决智能体与真实物理世界交互的难题。该难题“莫拉维克悖论”可以通俗地表述为:要让电脑如成人般地下棋是相对容易的,但是要让电脑有如一岁小孩般的感知和行动能力却是相当困难甚至是不可能的。

针对以上问题,“具身智能”(EmbodiedAI)概念应运而生。针对智能体的交互问题,明斯基从行为学习的角度提出了“强化学习”的概念。1986年,布鲁克斯从控制论角度出发,强调智能是具身化(Embodied)和情境化(Contextlized)的,传统以表征为核心的经典AI进化路径是错误的,而清除表征的方式就是制造基于行为的机器人。RolfPfeifer在其著作《HowtheBodyShapestheWayWeThink》中通过分析“身体是如何影响智能的”对“智能的具身化”做了清晰的描述,阐明了“具身性”对理解智能本质与研究人工智能系统的深远影响。以上这些工作为人工智能的第三个流派——以具身智能为代表的行为主义方法奠定了坚实基础。

“具身智能”的基本假设是,智能行为可以被具有对应形态的智能体通过适应环境的方式学习到。可以简单理解为各种不同形态的机器人,让它们在真实的物理环境下执行各种各样的任务,来完成人工智能的进化过程。拆分来理解,“具身”的基本含义是认知对身体的依赖性,即身体对于认知具有影响,换句话说,身体参与了认知,影响了思维、判断等心智过程。“具身”意味着认知不能脱离身体单独存在。此外,“具身”相对的概念是“离身”(Disembodiment),指的是认知与身体解耦(ChatGPT为代表的大模型就仅仅实现了离身智能);“智能”代表智能体(生物或机械)通过与环境产生交互后,通过自身学习,产生对于客观世界的理解和改造能力。此外,一些通过强化学习训练的机器人,也可以被认为是具身智能的一种形式,如OpenAI的单手还原魔方机器人等。因此,具身智能旨在基于机器与物理世界的交互,创建软硬件结合、可自主学习进化的智能体。

具身的概念是可检验、可测量的。人所理解的世界概念,其中既包括人类独有的责任心、荣誉、感情、欲望等非具身的概念,也包括了杯子、车等实体以及相应行为的具身概念。而具身概念是具备可达性、可检验性以及可解释性的,即具身的概念对应的实体和行为是可以被测量,可以通过任务的完成来验证以及通过具身学习来实现概念的推断。相比之下,非具身概念基本要素不能实现可测量及可检验。

“知行合一”是具身智能的科学立场。根据具身智能的技术实现逻辑,“知”是建立在“行”之上的,也就是说只有通过“具身”才能理解某个场景。比如有个卧室,其具有睡觉、休息、放衣服等行为特征,这类行为是基于人的身体设计的,因此真正理解卧室的场景,就是要能够直接通过坐上椅子、躺在床上等行为任务去验证。同理,机器人通过理解场景,能够实现以上行为才能代表它真正理解了该场景。因为从本质上,物体和场景的类别大多是由功能和任务来定义的,“我能用来干什么,那它是什么”,比如锤子不能叫木棍,锤子有它独特的行为属性。

具身知识在中国古老汉字中都占据较高比例。甲骨文等古老汉字,绝大多数就是通过行为的表征来刻画一个概念,比如“争”的古老写法中,代表两个人的手拔一根绳子,因此,理解行为才是理解概念及场景的关键。

所以,计算机视觉和NLP更多是具身智能的工具,而通用人工智能才是具身智能的终极目标。具身智能要能够实现使用身体(各个部位)完成物理任务的一些现象,比如外国人不会用筷子,但仍能叉起来吃东西,因此具身智能也要通过物理环境完成任务的过程中,表现出完成之前没有覆盖的场景。所以,根据具身智能的特点可以研判,如同经典力学领域的速度、动量、弹性等概念奠基了物理学领域,驱动了后续科学的发展,同理,具身智能因其实现了知识、概念、可解释以及行为因果关系,其有望成为通用人工智能的驱动力。

具身智能首先要具备可供性。可供性意味着要让机器知道物体和场景能够提供的是什么,比如整个身体、部件怎么和场景进行有效拟合。根据《Gendexgrasp:Generalizabledexterousgrasping》论文中的案例,用两、三、五根手指去握一个柱子,倘若不同的手都能够产生无误的握杆效果,就代表有了可供性,而物理学正是机器理解可供性的关键。

具身智能还要具有功能性。具身智能在把物体作为工具使用的过程中,要能够以任务执行为导向去理解功能。从智能体来理解世界,核心就在于任务——改变实体状态,是任务实现来驱动智能体的。例如,在解决“铲土”任务过程中,需要实现用不同的工具去铲土,比如杯子、铲子、平底锅等,都要能够让智能体实现“铲土”这个任务。因此,具身智能的功能性就是赋予了物体一个功能,用来解决某个特定任务。

具身智能需要实现因果链。就以上提到的“铲土”例子,智能体能否顺利铲起土来是有因果关系的,例如控制挥动锤子的方式、动量、冲量等指标的改变程度和改变过程,需要用数学和物理的因果链来控制。人工智能研究院朱松纯教授团队介绍了一种学习和规划框架,并证明了所提出的学习和规划框架能够识别对任务成功有重要意义的基本物理量,使智能体能够自主规划有效的工具使用策略,模仿人类使用工具的基本特性。

智能体学习如何使用工具涉及到多个认知和智能过程,这个过程即使对人类来说也并不容易。让机器人掌握工具使用所涵盖的所有技能是一项有挑战性的难题,这项工作包括三个层面:其一是底层的运动控制。很多研究基于阻抗控制(Impedancecontrol)来跟踪工具使用的运动轨迹,或在不同阶段改变力和运动约束,或使用基于学习的方法来控制机器人运动轨迹。在底层控制中,鲁棒地执行运动轨迹是关注的核心。其二是中间层表征。各种利于下游任务的中间表征被提出,以便更好地理解工具的使用。尽管引入这些表征有利于学习更多不同的工具使用技能,但它们目前仍然局限于工具的形状和任务之间的几何关联。其三是理解在工具使用中的涉及的高层概念,比如物体的功能性(Functionality)和可供性(Affordance),以及工具使用中涉及的因果关系与常识,从而实现更好的泛化能力。

现有的具身智能工作大多集中在以上三种基本特性中的某一层面。要么主要关注于机器人的动作轨迹而不去理解任务本身,要么旨在高层次概念理解而过度简化运动规划,都不能够较全面的涵盖所有层面。因此,机器人还远远没有办法基于特定的情境去制定工具使用的策略,并且由于运动学结构的显著差异,机器人观察到的人类使用工具的策略对其来说可能并不是最理想的方式。例如给定一组物体(典型的工具或其他物体),机器人如何判断哪一个会是完成任务的最佳选择?一旦选择了一个物体作为工具,根据机器人和工具特定的运动学结构和动力学限制,机器人该如何有效地使用它?这些问题也正是行业的前沿研究领域。

要机器理解实体与行为,就得回答三个核心的科学问题。首先,从机器认知角度,如何让机器看懂行为?其次,从神经认知角度,机器认知语义与神经认知的内在关联如何?再者,从具身认知的角度,如何将行为理解知识迁移到机器人系统?

要实现具身智能,就必须先回答机器能否克隆人类的行为这个问题。行为认知是智能科学中的重要和核心问题,要让机器理解世界代表着:理解实体+理解行为,因为不确定性的世界空间就可以归类为实体与行为两者。

深度学习框架在行为认知中遇到了瓶颈。因为深度学习得到长足发展,计算机视觉领域有两个要素,一个是以物体为中心的感知,一个是以人为中心的感知。配合不断进化的深度学习算法,复杂物体识别可以十分成功,但是要机器明白从人类视角的这个行为的真实语义,却十分困难。市场表现来看也是如此,很多商用产品都是基于物体检测,行为理解的产品都是很少的。之所以人为中心的感知十分困难,是因为深度学习本身达到了瓶颈。根据卢策吾教授的研究结果,行为识别的SOTA要远低于物体识别。

行为理解的关键是要在极大语义噪声中提取行为理解要素。行为是一个抽象概念,因而需要在图像中捕抓行为相关要素。要衡量图像的语义判断区间,可以用语噪比(语噪比=支撑语义判断区间/全图像区间)来刻画,即抹去图像上的某个区域使得其他人无法识别出行为类型的最小区域。卢策吾教授团队通过计算发现,物体识别的语噪比要远大于行为识别,这意味着遮住较大区域仍可以识别物体,但哪怕遮住一小块区域就无法识别行为。因此,可以得出结论,行为理解的关键是要在极大语义噪声中提取行为理解要素,也就是需要在很大干扰情况下,真正挖掘图像的真实语义。而这个工作是无法通过增加深度学习的工作量来达到的。

将行为认知问题分解为感知到知识、知识到推理融合的两个较为简单的阶段,是一个较优的科学路径。离散语义符号是被不同行为所共享的,比如吃饭、读书和打扫都有着“手-握-某物”的标签,通过对这些共享标签的迁移、复用和组合,可以形成行为原语,从而构造“中间层知识”,这种组合可以有着一定的泛化能力,即通过原语组合,机器可以做出没见过的行为。

因此,构建海量原语知识以及逻辑规则库是首当其冲的工作。人类理解行为的基本原因,约等于人类各个部件在干什么事情,因此首先得构建大量的基于人类局部状态的原语知识,并能识别它们。其次,有了好的原语检测,之后就需要对它们进行编程,实现逻辑规则引导下的数据驱动学习,但这里容易出的问题是,规则是人类自己认为的,如果规则库错了就会有很大的影响,因此规则学习是解决该问题的办法。具体流程是,在行为原语知识库中随机采样,形成对该行为的判断,然后基于人类给的先验起始点去搜索,规则空间采样,若准确率提高就加上规则,不然就删掉该规则,通过调整后的规则分布形成新规则。卢策吾教授发现,以“人骑车”图像为例,经过以上技术流程,机器可以在未见过的“骑车规则”中自动识别出“骑车”这个行为,所以该技术路线可以有效逼近行为识别的人类性能。

机器能够理解人类行为需要有科学依据的支撑。因此,科学家需要进一步确定机器视觉行为分类特征跟神经特征之间是否存在稳定映射关系。如果有稳定关系,视觉定义行为就是有客观依据的。

实验发现行为从模式到脑信号存在映射,且模型稳定。卢策吾教授联合生物医学团队,搭建了首套大规模视觉理解-神经信号闭环系统,对小鼠的行为模式和神经信号进行了相关性分析。通过实验发现机器学习得出行为从模式到脑信号存在映射,并可以建立一个稳定模型。另外,通过构建一套基于机器学习的行为相关的神经回路发现系统,成功发现解析了“小鼠社会等级”行为的神经回路。综上可以得出结论,通过视觉定义行为是有科学依据的。

不仅仅理解行为,更需要能执行行为,机器能够执行行为才是真正理解行为。通过计算机视觉以及行为认知识别,让机器能够确认和分辨一个行为仅仅只是第一步,这也只是传统旁观式AI学习所达到的功能水平,例如,传统AI学习可以让机器学习“盒子”概念并在新的场景中说出“盒子”这个标签,但在具身智能学习模式中,机器通过感知环境实体,通过亲身体验完成具身学习,最终理解场景并形成“打开”这个概念。因此,当机器可以执行该行为才是具身智能的落脚点。

执行行为需要涉及到形态、行为和学习的体系化交互。在基于形态的具身智能中,形态、行为与学习之间的关系密切。首先,需要利用形态产生行为,该过程重点强调利用具身智能体的形态特性巧妙地实现特定的行为,从而达到部分取代“计算”的目的。其次,需要利用行为实现学习,重点强调利用具身智能体的探索、操作等行为能力主动获取学习样本、标注信息,从而达到自主学习的目的,此领域当前属于研究前沿。再者,需要强调利用学习提升行为以及利用行为控制形态,后者有多种实现方法,但当前利用学习手段来提升行为,并进而控制形态的工作是现代人工智能技术发展起来后涌现出来的新型智能控制方法,特别是基于强化学习的技术已成为当前的热点手段。最后,具身智能需要利用学习来优化形态,强调利用先进的学习优化技术实现对具身智能体的形态优化设计。

“具身感知”是以执行动作为导向的全概念的交互感知。具身智能首先第一步就得解决具身概念学习的问题,即如何定义、获取、表达可以被机器人使用的物理概念。具身感知和传统计算机视觉不同,计算机视觉没有解析全部的知识,而具身感知包含了“全概念感知”和“交互感知”,从而保证机器看到的不是标签,而是怎么利用它。例如,可以从人类认知的角度,构建大规模关节体知识库,该知识库涵盖外形、结构、语义、物理属性,同时标注关节体每个部件的质量、体积、惯性等,记录真实世界物体操作力反馈与仿真操作力反馈,在物理属性知识加持下,物体力反馈曲线可以完全拟合出来,这时候仿真物体操作的时候,不再是去检测标签,而是所有知识全部检测出来,检测出来后,可以通过机器执行的准确率,判断感知的准确率。

通过行为的反馈和模式学习的空间压缩,可以实现“具身执行”的一定泛化性。在交互感知下,机器如果只是看物体,信息量没有增加,但如果交互它,就能迅速减少误差。机器面对物体,初步检测它的知识,但肯定存在知识结构不准的情况,但可以在猜测它是怎么做出这个行为的基础上,指导机械去做,倘若做完之后跟真实不一样,就证明猜测有问题,再反过来优化问题。并且,可以把抓取到的所有特征模式,压缩到可以被学习的空间范围内,通过这种机制,机器在面对没见过的物体时,也能进行相关的行为,因而具备了一定的通用性。

TeslaBot功能进展迅速,商业化前景可期。2021年,在“特斯拉AI日”上,马斯克发布了特斯拉的通用机器人计划,并用图片展示了人形机器人TeslaBot的大致形态。但当时的TeslaBot只是个概念。一年后在2022特斯拉AI日上,人形机器人擎天柱(Optimus)实体亮相。2023年5月中旬的特斯拉股东大会上,马斯克又展示了TeslaBot的最新进展,现在TeslaBot已经可以流畅行走,并还能灵活抓取放下物体。马斯克在会上表示“人形机器人将会是今后特斯拉主要的长期价值来源。如果人形机器人和人的比例是2比1,则人们对机器人的需求量可能是100亿乃至200亿个,远超电动车数量”。

最近的TeslaBot功能突破来源于特斯拉改进的电机扭矩控制以及环境建模等技术。特斯拉利用一些技术方法改进了人形机器人的动作和控制,包括电机扭矩控制、环境发现与记忆、基于人类演示训练机器人。首先,研究团队使用电机扭矩控制(motortorquecontrol)操纵人形机器人腿部的运动,让机器人落脚力度保持轻缓。对于一个机器人来说,观察或感知周围环境是非常重要的,因此特斯拉为人形机器人添加了环境发现与记忆的能力。现在该人形机器人已经可以对周围环境进行大致建模。特斯拉的人形机器人具备与人类相似的身体结构,特斯拉的研究团队使用大量人类演示训练了机器人,特别是在手部动作方面,旨在让其具备与人类似的物体抓取能力。

具身智能带来的AI价值远比人形机器人更大。具身智能最大的特质就是能够以主人公的视角去自主感知物理世界,用拟人化的思维路径去学习,从而做出人类期待的行为反馈,而不是被动的等待数据投喂。人形机器人提供了各种基于人类行为的学习和反馈系统,为实现更复杂行为语义提供了迭代的基础和试验场,因此,人形机器人的逐步完善也为具身智能的落地提供了方向。而面向工业等场景的具身智能应用并非一定要是人形机器人,因此具身智能背后的技术和方法论才是核心,也意味着具身智能所带来的价值要远远高于人形机器人本身。换句话说,人形机器人是具身智能的重要应用场景,也将为具身智能的迭代优化提供方向和空间。

强化学习兴起之后,具身智能受到了更广泛的关注。之前随着AlphaGo的成功,学术界对于强化学习的兴趣大增,随之很多人开始用RL来打通智能体的感知-决策-执行,希望实现具身智能。训练RL是一个不断试错的过程,所以从2017、18年开始,出现了很多仿真训练平台,能把一个智能体以具身的形式放进去,然后通过与环境的交互中获得reward,进而学习一个policy。但是因为仿真环境和现实环境总是有差距的(叫sim2realgap),习得的policy不一定能迁移到现实里。当前能实现技能policy从仿真迁移到现实环境中的,主要还是像移动导航、单步骤的抓取或者操作这类较为单一的技能,而且很难泛化。

最近大语言模型的风头又压过了强化学习。最近业界希望通过大规模sequencetosequence,用一个模型整合视觉、语言、机器人,也取得了一定效果。但是机器人的执行需要的是4D数据(三维环境和机器人运动的时序轨迹),它的数据量和丰富度都远不如图片和文本,采集成本也高的多,因此迭代演化的难度相比于大模型高得多。

而多模态大模型为具身智能的技术瓶颈突破提供了重要驱动力。具身智能是人工智能、机器人等各技术分支融合发展的必然结果,因为计算机视觉为图像的采集和处理打开了窗口,图形学也为物理仿真提供了工具支撑,NLP也为人类-机器交互提供了便捷性,也为机器从文本中学习知识提供了有效途径,认知科学也为具身智能的行为认知原理提供了科学研究途径。各类机器人构件也为智能体与物理环境交互提供了桥梁。因此,人工智能的技术分支以及机器人功能性的提升,为具身智能的进一步发展带来了可能,而当前AIGC时代的大模型可以将之前的技术分支更优地集成和创新,已有不少研究者尝试将多模态的大语言模型作为人类与机器人沟通的桥梁,即通过将图像、文字、具身数据联合训练,并引入多模态输入,增强模型对现实中对象的理解,从而更高效地帮助机器人处理具身推理任务,一定程度提升了具身智能的泛化水平。所以,GPT等AI大模型为具身智能的自我感知和任务处理的优化升级提供了新的研究手段。

“算力霸主”英伟达高调布局具身智能。在ITFWorld2023半导体大会上,黄仁勋表示人工智能的下一个浪潮将是具身智能,即能理解、推理、并与物理世界互动的智能系统。同时,他也介绍了英伟达的多模态具身智能系统NvidiaVIMA,其能在视觉文本提示的指导下,执行复杂任务、获取概念、理解边界、甚至模拟物理学,这也标志着AI能力的一大显著进步。

融合传感器模态与语言模型,谷歌推出的视觉语言模型相较于ChatGPT新增了视觉功能。2023年3月,谷歌和柏林工业大学AI研究团队推出了当时最大视觉语言模型——PaLM-E多模态视觉语言模型(VLM),该模型具有5620亿个参数,集成了可控制机器人的视觉和语言能力,将真实世界的连续传感器模态直接纳入语言模型,从而建立单词和感知之间的联系,且该模型能够执行各种任务且无需重新训练,其相较于ChatGPT新增了视觉功能。PaLM-E的主要架构思想是将连续的、具体化的观察(如图像、状态估计或其他传感器模态)注入预先训练的语言模型的语言嵌入空间,因此实现了以类似于语言标记的方式将连续信息注入到语言模型中。

谷歌实现视觉语言与机器人高水平实时互联,且观察到了类似多模态思维链推理与多图像推理等涌现能力的出现。基于语言模型,PaLM-E会进行连续观察,例如接收图像或传感器数据,并将其编码为一系列与语言令牌大小相同的向量。因此,模型就能继续以处理语言的方式“理解”感官信息。而且,同一套PaLM-E模型能够达到实时控制机器人的水准。PaLM-E还展现出随机应变的能力,例如尽管只接受过单图像提示训练,仍可实现多模态思维链推理(允许模型对包含语言和视觉信息在内的一系列输入进行分析)和多图像推理(同时使用多张输入图像进行推理或预测)。但谷歌展示的Demo中的空间范围、物品种类、任务规划复杂度等条件还比较有限,随着深度学习模型愈发复杂,PaLM-E也将打开更多可行性应用空间。

微软正计划将ChatGPT的能力扩展到机器人领域,使得能用语言文字控制机器人。目前实验已经能够通过给ChatGPT的对话框输入指令,让其控制机器人在房间中找到“健康饮料”、“有糖和红色标志的东西”等。微软研究人员表示,“研究的目标是看ChatGPT是否能超越生成文本的范畴,对现实世界状况进行推理,从而帮助机器人完成任务”。微软希望帮助人们更轻松地与机器人互动,而无需学习复杂的编程语言或有关机器人系统的详细信息。

阿里采用和微软相似的路径,正在实验将千问大模型接入工业机器人。在近日举行的第六届数字中国建设峰会上,阿里云发布一个演示视频中展示了千问大模型的实际应用场景。其中,千问大模型接入了工业机器人,工程师通过钉钉对话框向机器人发出指令后,千问大模型在后台自动编写了一组代码发给机器人,机器人开始识别周边环境,从附近的桌上找到一瓶水,并自动完成移动、抓取、配送等一系列动作,递送给工程师。在钉钉对话框输入一句人类语言即可指挥机器人工作,这将为工业机器人的开发和应用带来革命性的变化,其背后意味着大模型为工业机器人的开发打开了新的大门。因为千问等大模型为机器人提供了推理决策的能力,从而有望让机器人的灵活性和智能性大幅提升。

本文源自券商研报精选

特别声明:以上内容(如有图片或视频亦包括在内)为自媒体平台“网易号”用户上传并发布,本平台仅提供信息存储服务。

Notice:Thecontentabove(includingthepicturesandvideosifany)isuploadedandpostedbyauserofNetEaseHao,whichisasocialmediaplatformandonlyprovidesinformationstorageservices.

/阅读下一篇/返回网易首页下载网易新闻客户端

人工智能的三次浪潮与三种模式

■史爱武

谈到人工智能,人工智能的定义到底是什么?

达特茅斯会议上对人工智能的定义是:使一部机器的反应方式就像是一个人在行动时所依据的智能。

百度百科上对人工智能的定义是:它是研究、开发用于模拟、延伸和扩展人的智能的理论、方法、技术及应用系统的一门新的技术科学。人工智能是计算机科学的一个分支,它企图了解智能的实质,并生产出一种新的能以人类智能相似的方式做出反应的智能机器,该领域的研究包括机器人、语言识别、图像识别、自然语言处理和专家系统等。

尽管人工智能现在还没有非常严格准确或者所有人都接受的定义,但是有一些约定俗成的说法。通常人工智能是指机器智能,让机器达到人智能所实现的一些功能。人工智能既然是机器智能,就不是机械智能,那么这个机器是指什么呢?是指计算机,用计算机仿真出来的人的智能行为就可以叫作人工智能。

2017年7月,国务院印发了《新一代人工智能发展规划》。2017年12月,人工智能入选“2017年度中国媒体十大流行语”。这一国家级战略和社会流行趋势标志着,人工智能发展进入了新阶段,我国要抢抓人工智能发展的重大战略机遇,构筑人工智能发展的先发优势,加快建设创新型国家和世界科技强国。

人工智能的三次浪潮

自1956年开始,人工智能经历了三起三落,出现了几次浪潮,现在人工智能已经是处于第三次浪潮了。

第一次浪潮(1956-1976年,20年),最核心的是逻辑主义

逻辑主义主要是用机器证明的办法去证明和推理一些知识,比如用机器证明一个数学定理。要想证明这些问题,需要把原来的条件和定义从形式化变成逻辑表达,然后用逻辑的方法去证明最后的结论是对的还是错的,也叫做逻辑证明。

早期的计算机人工智能实际上都是沿着这条路在走。当时很多专家系统,比如医学专家系统,用语言文字输入一些症状,在机器里面变换成逻辑表达,用符号演算的办法推理出大概得了什么病。所以当时的主要研究都集中在逻辑抽象、逻辑运算和逻辑表达等方面。

在第一次浪潮中,数学定理证明实际上是实现效果最好的,当时有很多数学家用定理思路证明了数学定理。为了更好地完成定理证明工作,当时出了很多和逻辑证明相关的逻辑程序语言,比如很有名的Prolog。

虽然当时的成果已经能够解开拼图或实现简单的游戏,却几乎无法解决任何实用的问题。

第二次浪潮(1976—2006年,30年),联结主义盛行

在第一次浪潮期间,逻辑主义和以人工神经网络为代表的联结主义相比,逻辑主义是完全占上风的,联结主义那时候不太吃香。然而逻辑主义最后无法解决实用的问题,达不到人们对它的期望,引起了大家的反思,这时候人工神经网络(也就是联结主义)就慢慢占了上风。

在70年代末,整个神经元联结网络、模型都有突飞猛进的进步,最重要的是BP前馈神经网络。1986年BP前馈神经网络刚出来的时候解决了不少问题,后来大家往更大的领域应用,实现了比较大的成果。在很多模式识别的领域、手写文字的识别、字符识别、简单的人脸识别也开始用起来,这个领域一下子就热起来,一时之间,人们感觉人工智能大有可为。随后十几年人们发现神经网络可以解决一些单一问题,解决复杂问题却有些力不从心。训练学习的时候,数据量太大,有很多结果到一定程度就不再往上升了。

这时期所进行的研究,是以灌输“专家知识”作为规则,来协助解决特定问题的“专家系统”为主。虽然有一些实际的商业应用案例,应用范畴却很有限,第二次热潮也就慢慢趋于消退。

第三次浪潮(2006—现在),基于互联网大数据的深度学习的突破

如果按照技术分类来讲,第二次和第三次浪潮都是神经网络技术的发展,不同的是,第三次浪潮是多层神经网络的成功,也就是深度学习取得突破。这里既有硬件的进步,也有卷积神经网络模型与参数训练技巧的进步。

若观察脑的内部,会发现有大量称为“神经元”的神经细胞彼此相连。一个神经元从其他神经元那里接收的电气信号量达某一定值以上,就会兴奋(神经冲动);在某一定值以下,就不会兴奋。兴奋起来的神经元,会将电气信号传送给下一个相连的神经元。下一个神经元同样会因此兴奋或不兴奋。简单来说,彼此相连的神经元,会形成联合传递行为。我们透过将这种相连的结构来数学模型化,便形成了人工神经网络。

经模型化的人工神经网络,是由“输入层”“隐藏层”及“输出层”等三层构成。深度学习往往意味着有多个隐藏层,也就是多层神经网络。另外,学习数据则是由输入数据以及相对应的正确解答来组成。

为了让输出层的值跟各个输入数据所对应的正解数据相等,会对各个神经元的输入计算出适当的“权重”值。通过神经网络,深度学习便成为了“只要将数据输入神经网络,它就能自行抽出特征”的人工智能。

伴随着高性能计算机、云计算、大数据、传感器的普及,以及计算成本的下降,“深度学习”随之兴起。它通过模仿人脑的“神经网络”来学习大量数据的方法,使它可以像人类一样辨识声音及影像,或是针对问题做出合适的判断。在第三次浪潮中,人工智能技术及应用有了很大的提高,深度学习算法的突破居功至伟。

深度学习最擅长的是能辨识图像数据或波形数据这类无法符号化的数据。自2010年以来,Apple、Microsoft及Google等国际知名IT企业,都投入大量人力物力财力开展深度学习的研究。例如AppleSiri的语音识别,Microsoft搜索引擎Bing的影像搜寻等等,而Google的深度学习项目也已超过1500项。

深度学习如此快速的成长和应用,也要归功于硬件设备的提升。图形处理器(GPU)大厂英伟达(NVIDIA)利用该公司的图形适配器、连接库(Library)和框架(Frame⁃work)产品来提升深度学习的性能,并积极开设研讨课程。另外,Google也公开了框架TensorFlow,可以将深度学习应用于大数据分析。

人工智能的3种模式

人工智能的概念很宽泛,根据人工智能的实力可以分成3大类,也称为3种模式。

(1)弱人工智能:擅长于单个方面的人工智能,也叫专业人工智能。比如战胜世界围棋冠军的人工智能AlphaGo,它只会下围棋,如果让它下国际象棋或分辨一下人脸,它可能就会犯迷糊,就不知道怎么做了。当前我们实现的几乎全是弱人工智能。

(2)强人工智能:是指在各方面都能和人类比肩的人工智能,这是类似人类级别的人工智能,也叫通用人工智能。人类能干的脑力活,它都能干,创造强人工智能比创造弱人工智能难得多,目前我们还做不到。

(3)超人工智能:知名人工智能思想家NickBostrom把超级智能定义为“在几乎所有领域都比最聪明的人类大脑都聪明很多,包括科学创新、通识和社交技能”。超人工智能可以是各方面都比人类强点,也可以是各方面都比人类强很多倍。超人工智能现在还不存在,很多人也希望它永远不要存在。否则,可能像好莱坞大片里面的超级智能机器一样,对人类也会带来一些威胁或者颠覆。

我们现在处于一个充满弱人工智能的世界。比如,垃圾邮件分类系统是个帮助我们筛选垃圾邮件的弱人工智能;Google翻译是可以帮助我们翻译英文的弱人工智能等等。这些弱人工智能算法不断地加强创新,每一个弱人工智能的创新,都是迈向强人工智能和超人工智能的进步。正如人工智能科学家AaronSaenz所说,现在的弱人工智能就像地球早期软泥中的氨基酸,可能突然之间就形成了生命。如世界发展的规律看来,超人工智能也是未来可期的!

版权声明:本文内容由互联网用户自发贡献,该文观点仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌抄袭侵权/违法违规的内容,一经查实,本站将立刻删除。

上一篇

下一篇