博舍

第三次人工智能浪潮来袭,认知AI兴起 三次人工智能浪潮的代表技术

第三次人工智能浪潮来袭,认知AI兴起

自1956年AI的概念首次被提出,至今已有60多年的发展史。如今,随着相关理论和技术的不断革新,AI在数据、算力和算法“三要素”的支撑下越来越多地走进我们的日常生活。

但是,这一系列惊喜的背后,却是大多数AI在语言理解、视觉场景理解、决策分析等方面的举步维艰:这些技术依然主要集中在感知层面,即用AI模拟人类的听觉、视觉等感知能力,却无法解决推理、规划、联想、创作等复杂的认知智能化任务。

当前的AI缺少信息进入“大脑”后的加工、理解和思考等,做的只是相对简单的比对和识别,仅仅停留在“感知”阶段,而非“认知”,以感知智能技术为主的AI还与人类智能相差甚远。

究其原因在于,AI正面临着制约其向前发展的瓶颈问题:大规模常识知识库与基于认知的逻辑推理。而基于知识图谱、认知推理、逻辑表达的认知图谱,则被越来越多的国内外学者和产业领袖认为是“目前可以突破这一技术瓶颈的可行解决方案之一”。

近日,英特尔实验室副总裁、被评为AI领域50位全球思想领袖和影响者之一的GadiSinger发表了一篇题为TheRiseofCognitiveAI的文章,探讨了人工智能的第三次浪潮:认知人工智能的兴起。在不改变原文大意的情况下,学术头条对文章进行了精心的编译,内容如下:

深度学习(DL)正取得巨大的进步,并在我们生活的各个方面革新整个行业,包括医疗保健、零售、制造业、自动驾驶汽车、安全和防诈骗以及数据分析。但是,为了构建人工智能(AI)的未来,推动新一代技术进一步发展,我们要对其设定一组目标和期望——到2025年,人工智能将会发生质的飞跃,机器也将明显变得更加智能。

目前,基于深度学习算法的很多应用都解决了相关的感知任务,如对象识别、自然语言处理(NLP)、翻译以及其他涉及数据广泛关联处理的任务(比如推荐系统)。深度学习系统依靠微分编程和复杂的基于数据的相关性做出了出色的成果,并有望在未来几年内推动整个行业的转型。但与此同时,我们必须克服深度学习本身固有的限制,以进一步帮助机器学习或者更广泛地说是人工智能实现其潜力。要实现非增量创新,需要在以下三个方面共同努力:

✮实质性地提高模型效率;

✮大大增强模型的稳健性、可扩展性和可伸缩性;

✮全面提高机器的认知能力。

基于深度学习的语言模型中参数数量呈指数级增长(来源:microsoft)

虽然剪枝、稀疏性、压缩、蒸馏和图神经网络(GNN)等技术可以提高模型效率,但最终也同时产生了增量改进。在不影响结果的前提下,将模型大小降低几个数量级,可能需要对捕获和表示信息本身的方法以及深度学习模型中的学习能力方面进行更根本的改变。此外,持续性进步也需要更具计算效率的深度学习方法或者转向其他机器学习方法。现在,一类具有前景的人工智能系统正通过在辅助信息库中进行检索来代替大量事实和数据的嵌入,从而迅速受到人们的青睐。

与此同时,统计机器学习方法基于这样的假设——训练样本的分布代表了推理过程中必须处理的内容,在现实生活的使用中存在重大缺陷。尤其在遇到训练数据集采样稀疏,甚至缺乏样本的情况时,深度学习模型就会受到挑战。

除此之外,迁移学习和小样本/零样本推理方面取得的结果也不尽人意。模型的低效扩展性使得人工智能无法扩展到数据集和数据科学家缺乏的许多领域。此外,深度学习还非常容易受到数据变化的影响,从而产生低信度分类,但这一问题可以通过提高模型的稳健性和可扩展性得到解决。

最后,在大多数情况下,神经网络无法正确提供认知,推理和可解释性。深度学习缺乏认知机制,无法进行抽象、上下文语境、因果关系、可解释性和可理解性的推理。

下一阶段:认知人工智能

人工智能有望达到人类理解水平。依靠DanielKahneman在《快思慢想》一书中定义的范式,YoshuaBengio将当代深度学习的功能等同于他所描述的“系统1”的特点——直觉的、快速的、无意识的、习惯性并完全处于自主控制状态。与此相反,他指出,人工智能系统的下一个挑战在于实现“系统2”的功能——缓慢的、有逻辑的、有序列的、有意识和算法化,例如实现计划和推理所需的功能。

FrancoisChollet以类似的方式在广泛概括的基础上描述了人工智能发展中的新兴阶段(“FlexibleAI”),它能够适应广泛领域内的未知事件。这两个特征都与DARPA(美国国防部高级研究计划局)的“人工智能的第三次浪潮”的内容一致,其特征是语境顺应(contextualadaptation)、抽象、推理和可解释性。实现这些功能的一种可能途径是将深度学习与符号推理和深度知识结合起来。下面,我将使用术语“认知人工智能”(CognitiveAI)来指代人工智能的这一新阶段。

尽管我们无望实现开放式通用人工智能(AGI),但具有较高认知能力的人工智能也能在技术和商业领域中发挥更大的作用。一旦人工智能可以在不可预测的环境中做出可靠的决策,它最终将获得更高的自主权,并在机器人技术、自动运输以及物流、工业和金融体系的控制点等领域中发挥重要作用。

结构化知识在认知人工智能中的作用

在人工智能领域,有些人认为可以通过进一步发展深度学习来实现更高级别的机器智能,而另一些人则认为这需要合并其他基本机制。对此,我赞同后者的观点,原因如下:

深度学习掌握了从嵌入空间中的多维结构的输入到预测输出的基于统计的映射。这让它在区分宽数据和浅数据(例如,图像中的单词或像素/体元序列)方面表现出色。此外,深度学习在索引资源(如维基百科)和从语料库中最匹配的地方检索答案方面同样有效——正如在NaturalQA或EffiicentQA等基准测试中所表现的那样。根据Bengio的定义,系统1的任务依赖于训练期间创建的统计映射功能。而深度学习可以为完成这些任务提供帮助。

相比之下,结构化、显性和可理解的知识可以为实现更高级机器智能或系统2的功能提供途径。一种基本的知识构建就是能够捕获有关元素和概念的声明性知识并编码抽象概念(例如,类之间的分层属性遗传)。例如,有关鸟类的知识,加上有关雀形目鸟类的信息,再加上有关麻雀的详细信息,即使没有特别的说明,也能提供大量有关栗麻雀的隐含信息。除此之外,其他知识构建还包括因果模型和预测模型。

这样的构建依赖于显性的概念和定义明确的关系,而不是潜在空间中的嵌入式机器,并且因此所得模型将具有更广泛的解释和预测潜力,远远超过了统计映射的功能。

人类大脑有“想象”、模拟和评估潜在未来事件的能力,这些能力是经验或观察都无法企及的。同时,这些功能为人类智能提供了进化优势。在不受明确规则限制的环境中,对未来可能发生事件进行心理模拟是基于世界动力的基本模型,这在计划和解决问题方面具有很大的适应性价值。

过程建模机制基于隐式的数学、物理或心理原理,而不是从输入到输出的可观察的统计相关性,这对于实现更高的认知能力至关重要。例如,物理模型可以捕获滑水现象,并对各种条件下汽车的运动进行简单预测。这样的过程模型可以与基于深度学习的方法结合使用以扩展当前人工智能的功能。

知识库可以捕获(或隐式)常识性假设和底层逻辑,这些假设和逻辑并不总是公开地呈现在深度学习系统的训练数据中。这表明,对世界及其动力的理解有助于解决更高级机器智能的任务。最后,合理的结构化知识可以在上下文语境和聚合内容方面消歧(将“俱乐部”的属性分为棒球类,武器类,纸牌类或聚会场所)。

认知人工智能与知识时代

在未来的几年中,随着浅层映射功能变得更加丰富,计算处理变得更加经济和快捷,基于深度学习的系统1有望取得重大进展。认知人工智能也将带来更多更高级的功能。

总而言之,我相信,到2025年,将出现一批新的认知人工智能,它们不仅具有更强的解释力,而且比当前基于深度学习的系统更接近人类的自主推理水平。

我们已经在英特尔实验室建立了认知计算研究部门,来推动英特尔在机器智能和认知交叉点上的创新,并不断提高新兴认知人工智能的能力。我们努力将深度学习的最新成果与知识构建和神经符号人工智能的集成结合起来,来构建能在复杂情景中做出明智决策的自主学习人工智能。

深度学习使人工智能系统在识别、感知、翻译和推荐系统任务方面成果卓越。下一波机器学习和人工智能技术的兴起,将创造出一种拥有更强理解力和认知力的新型人工智能,从而为我们的生活带来更大便利。

特别声明:以上文章内容仅代表作者本人观点,不代表新浪网观点或立场。如有关于作品内容、版权或其它问题请于作品发表后的30日内与新浪网联系。

人工智能的三次沉浮,和可能的寒冬

 [[437677]]

如果将眼光放长远一点,历史上已经经历了三次发展浪潮,也经历了两次低谷。换言之,人工智能的泡沫已经破灭两次了。让我们先来回顾一下人工智能这三起两落的历史,从历史中来找寻现在的意义,推导出我们可能面临的未来。

 

 

 

 

第一次浪潮和第一次低谷:

达特茅斯会议推动了全球第一次人工智能浪潮的出现,这次浪潮从1956年一直持续到1974年。当时乐观的气氛弥漫着整个学界,在算法方面出现了很多世界级的发明,其中包括一种叫做增强学习的雏形(即贝尔曼公式),增强学习就是谷歌AlphaGo算法核心思想内容。

70年代初,AI遭遇了瓶颈。人们发现逻辑证明器、感知器、增强学习等等只能做很简单、非常专门且很窄的任务,稍微超出范围就无法应对。当时的计算机有限的内存和处理速度不足以解决任何实际的AI问题。研究者们很快发现,要求程序对这个世界具有儿童水平的认识这个要求都太高了——1970年没人能够做出人工智能需要的巨大数据库,也没人知道一个程序怎样才能学到如此丰富的信息。另一方面,有很多计算复杂度以指数程度增加,这成为了不可能完成的计算任务。

第二次浪潮和第二次低谷:

在80年代,一类名为“专家系统”的AI程序开始为全世界的公司所采纳,而“知识处理”成为了主流AI研究的焦点。专家系统的能力来自于它们存储的专业知识,知识库系统和知识工程成为了80年代AI研究的主要方向。但是专家系统的实用性仅仅局限于某些特定情景,不久后人们对专家系统的狂热追捧转向巨大的失望。另一方面,1987年到1993年现代PC的出现,其费用远远低于专家系统所使用的Symbolics和Lisp等机器。相比于现代PC,专家系统被认为古老陈旧而非常难以维护。于是,政府经费开始下降,寒冬又一次来临。

第三次浪潮:

1993年后,出现了新的数学工具、新的理论和摩尔定律。人工智能也在确定自己的方向,其中一个选择就是要做实用性、功能性的人工智能,这导致了一个新的人工智能路径。深度学习为核心的机器学习算法获得发展,积累的数据量极大丰富,新型芯片和云计算的发展使得可用的计算能力获得飞跃式发展,现代AI的曙光又再次出现了。一个标志性事件发生在2016年3月,谷歌DeepMind研发的AlphaGo在围棋人机大战中击败韩国职业九段棋手李世乭。随后,大众开始熟知人工智能,各个领域的热情都被调动起来了。

深度学习的发展,让人工智能进入新的发展高潮。技术尤其是算法层面的局限,决定了这次人工智能浪潮的“天花板”。深度学习算法带来的“技术红利”,将支撑我们再发展5~10年时间,随后就会遇到瓶颈。在人工智能领域,技术的进步不是线性的,而是线性积累和间断式突破交替进行的。我们必须要达到一个“技术奇点”,才能实现根本上的突破,达到通用人工智能甚至是超级人工智能的水平。大概率的可能性,未来几年人们对人工智能怀有巨大的热情和非理性的期待,但同时会渐渐发觉推进起来越来越费劲,仿佛有个无形的“天花板”挡在那里,迟迟不能获得突破,人们的耐心被渐渐耗尽,人工智能的下一个冬天也就来临了。

就一般产业而言,线性发展的成分更重一些,即使产业不能再往前推进了,依然能够保持比较高的产业成熟度。人工智能产业则不同,如果以百分制来衡量一个产业的发展程度,人工智能不是从1慢慢发展到100,而是要么是90分以上,要么是10以下。试想一下,你有一个智能助手,如果他的智力水平一直在10岁以下,你能接受么?那样的智能助手更多的是个玩具,不能委以重任,毕竟谁也不会将重要的事情交给一个小孩子来做。再比如翻译领域,一旦智能系统能够达到人类水平的翻译能力,那将是一次彻底的颠覆,人类翻译员将彻底消失;但是,在没达到那种水平之前,翻译系统基本就是个摆设,你不能通过那套系统来与外国人顺畅的交流,也不能将看到的整段材料马上转换成另一种语言。

人工智能的泡沫,更多的是产业化和商业应用层面的。很多做人工智能应用的企业,如果发现将方案落地的期待落空,那他整个商业价值存在的根基就不存在了,整个产业将会消失,大量企业也会倒闭。

如果真的要面对那样一个未来,我们应该怎么应对呢?我提出几点参考建议:

第一,适度降低对人工智能的技术期待,理性设定商业模式。企业要仔细评估技术的发展潜力,不要抱有不切实际的幻想。寻找并设计一些智能水平不是太高就能具有商业价值的应用模式,并基于此来构建竞争壁垒。比如在自动驾驶领域,我们要做好L4在10年内无法实现的心理准备,寻找一些L3级别就能具有商业价值的应用领域。

第二,现在就开始准备“过冬的粮草”。泡沫破灭之后,融资会变得越来越难,依据公司本身的造血能力维持基本没戏。所以,现在尽可能的多融资吧,并且在未来几年省着点花,争取能挨过寒冬。

第三,实行曲线救国策略,发展一些“伪智能”业务,拓展业务领域。如果哪天发现“纯人工智能”这条路走不通,可以考虑发展一些周边产业,只要能带来现金流就行。虽然挂羊头卖狗肉有点缺德,但能保存“革命的火种”,也算一件好事。

版权声明:本文内容由互联网用户自发贡献,该文观点仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌抄袭侵权/违法违规的内容,一经查实,本站将立刻删除。

上一篇

下一篇