博舍

在人工智能的发展历史中,第三次神经网络兴起的标志性事件包括 人工智能发展的第三次热潮的事件

在人工智能的发展历史中,第三次神经网络兴起的标志性事件包括

题目

在人工智能的发展历史中,第三次神经网络兴起的标志性事件包括()

A.Hinton提出深度信仰网络/波兹曼机

B.Hinton小组在ImageNet竞赛中夺冠

C.AlphaGo战胜李世石

D.Hinton等人提出反向传播算法

优质答案答案

ABC

解析

1943年,心理学家W·Mcculloch和数理逻辑学家W·Pitts在分析、总结神经元基本特性的基础上首先提出神经元的数学模型。此模型沿用至今,并且直接影响着这一领域研究的进展。因而,他们两人可称为人工神经网络研究的先驱。

1945年冯·诺依曼领导的设计小组试制成功存储程序式电子计算机,标志着电子计算机时代的开始。1948年,他在研究工作中比较了人脑结构与存储程序式计算机的根本区别,提出了以简单神经元构成的再生自动机网络结构。但是,由于指令存储式计算机技术的发展非常迅速,迫使他放弃了神经网络研究的新途径,继续投身于指令存储式计算机技术的研究,并在此领域作出了巨大贡献。虽然,冯·诺依曼的名字是与普通计算机联系在一起的,但他也是人工神经网络研究的先驱之一。

50年代末,F·Rosenblatt设计制作了“感知机”,它是一种多层的神经网络。这项工作首次把人工神经网络的研究从理论探讨付诸工程实践。当时,世界上许多实验室仿效制作感知机,分别应用于文字识别、声音识别、声纳信号识别以及学习记忆问题的研究。然而,这次人工神经网络的研究高潮未能持续很久,许多人陆续放弃了这方面的研究工作,这是因为当时数字计算机的发展处于全盛时期,许多人误以为数字计算机可以解决人工智能、模式识别、专家系统等方面的一切问题,使感知机的工作得不到重视;其次,当时的电子技术工艺水平比较落后,主要的元件是电子管或晶体管,利用它们制作的神经网络体积庞大,价格昂贵,要制作在规模上与真实的神经网络相似是完全不可能的;另外,在1968年一本名为《感知机》的著作中指出线性感知机功能是有限的,它不能解决如异或这样的基本问题,而且多层网络还不能找到有效的计算方法,这些论点促使大批研究人员对于人工神经网络的前景失去信心。60年代末期,人工神经网络的研究进入了低潮。

另外,在60年代初期,Widrow提出了自适应线性元件网络,这是一种连续取值的线性加权求和阈值网络。后来,在此基础上发展了非线性多层自适应网络。当时,这些工作虽未标出神经网络的名称,而实际上就是一种人工神经网络模型。

随着人们对感知机兴趣的衰退,神经网络的研究沉寂了相当长的时间。80年代初期,模拟与数字混合的超大规模集成电路制作技术提高到新的水平,完全付诸实用化,此外,数字计算机的发展在若干应用领域遇到困难。这一背景预示,向人工神经网络寻求出路的时机已经成熟。美国的物理学家Hopfield于1982年和1984年在美国科学院院刊上发表了两篇关于人工神经网络研究的论文,引起了巨大的反响。人们重新认识到神经网络的威力以及付诸应用的现实性。随即,一大批学者和研究人员围绕着Hopfield提出的方法展开了进一步的工作,形成了80年代中期以来人工神经网络的研究热潮。

以上是关于在人工智能的发展历史中,第三次神经网络兴起的标志性事件包括的参考答案及解析。详细信息你可以登陆茂名公务员考试网。如有疑问,欢迎向华图教育企业知道提问。点击咨询>>>

特别说明:华图题库系统旨在为考生提供高效的智能备考服务,全面覆盖公务员考试、事业单位、教师招聘、职业资格、医卫类、计算机类等领域。拥有优质丰富的学习资料和备考全阶段的高效服务,助您不断前行!关注广东华图教育微信gdhtgwy,政策问题实时答,考试信息不漏看。

华图题库平台所收集的试题内容来源于互联网,仅供学习交流使用,不构成商业目的。版权归原作者所有,如涉及作品内容、版权和其它问题,请与我们取得联系,我们将在第一时间处理,维护您的合法权益。

(编辑:茂名华图)

两次低谷三次崛起,人工智能发展「真相」

如今,人工智能在各行业都开始得到应用,已然成为”香饽饽”。

然而大家可能不知道,人工智能并非近些年才兴起的,它经历了两次低谷和三次崛起,才发展成当下的热门技术。播妞认为,人工智能简史可以看做一段励志的崛起史。 

人工智能的起源:

人工智能在五六十年代时正式提出,1950年,一位名叫马文·明斯基(后被人称为“人工智能之父”)的大四学生与他的同学邓恩·埃德蒙一起,建造了世界上第一台神经网络计算机,这也被看做是人工智能的一个起点。

巧合的是,同样是在1950年,被称为“计算机之父”的阿兰·图灵提出了一个举世瞩目的想法——图灵测试。按照图灵的设想:如果一台机器能够与人类开展对话而不被辨别出机器身份,那么这台机器就具有智能。就在这一年,图灵还大胆预言了真正具备智能机器的可行性。1956年,在由达特茅斯学院举办的一次会议上,计算机专家约翰·麦卡锡提出了“人工智能”一词。后来,这被人们看做是人工智能正式诞生的标志。

 

就在这次会议后不久,麦卡锡从达特茅斯搬到了MIT。同年,明斯基也搬到了这里,之后两人共同创建了世界上第一座人工智能实验室——MITAILAB实验室。值得注意的是,茅斯会议正式确立了AI这一术语,并且开始从学术角度对AI展开了严肃而精专的研究。在那之后不久,最早的一批人工智能学者和技术开始涌现。达特茅斯会议被广泛认为是人工智能诞生的标志,从此人工智能走上了快速发展的道路。

人工智能的第一次高峰:

在1956年的这次会议之后,人工智能迎来了属于它的第一段HappyTime。在这段长达十余年的时间里,计算机被广泛应用于数学和自然语言领域,用来解决代数、几何和英语问题。这让很多研究学者看到了机器向人工智能发展的信心。甚至在当时,有很多学者认为:“二十年内,机器将能完成人能做到的一切。”

人工智能第一次低谷:

70年代,人工智能进入了一段痛苦而艰难岁月。由于科研人员在人工智能的研究中对项目难度预估不足,不仅导致与美国国防高级研究计划署的合作计划失败,还让大家对人工智能的前景蒙上了一层阴影。与此同时,社会舆论的压力也开始慢慢压向人工智能这边,导致很多研究经费被转移到了其他项目上。

在当时,人工智能面临的技术瓶颈主要是三个方面:

第一,计算机性能不足,导致早期很多程序无法在人工智能领域得到应用;

第二,问题的复杂性,早期人工智能程序主要是解决特定的问题,因为特定的问题对象少,复杂性低,可一旦问题上升维度,程序立马就不堪重负了;

第三,数据量严重缺失,在当时不可能找到足够大的数据库来支撑程序进行深度学习,这很容易导致机器无法读取足够量的数据进行智能化。

因此,人工智能项目停滞不前,但却让一些人有机可乘,1973年Lighthill针对英国AI研究状况的报告。批评了AI在实现“宏伟目标”上的失败。由此,人工智能遭遇了长达6年的科研深渊。

人工智能的崛起:

1980年,卡内基梅隆大学为数字设备公司设计了一套名为XCON的“专家系统”。这是一种,采用人工智能程序的系统,可以简单的理解为“知识库+推理机”的组合,XCON是一套具有完整专业知识和经验的计算机智能系统。这套系统在1986年之前能为公司每年节省下来超过四千美元经费。

有了这种商业模式后,衍生出了像Symbolics、LispMachines等和IntelliCorp、Aion等这样的硬件,软件公司。在这个时期,仅专家系统产业的价值就高达5亿美元。

人工智能第二次低谷: 

可怜的是,命运的车轮再一次碾过人工智能,让其回到原点。仅仅在维持了7年之后,这个曾经轰动一时的人工智能系统就宣告结束历史进程。到1987年时,苹果和IBM公司生产的台式机性能都超过了Symbolics等厂商生产的通用计算机。从此,专家系统风光不再。

人工智能再次崛起:

上世纪九十年代中期开始,随着AI技术尤其是神经网络技术的逐步发展,以及人们对AI开始抱有客观理性的认知,人工智能技术开始进入平稳发展时期。

1997年5月11日,IBM的计算机系统“深蓝”战胜了国际象棋世界冠军卡斯帕罗夫,又一次在公众领域引发了现象级的AI话题讨论。这是人工智能发展的一个重要里程。

2006年,Hinton在神经网络的深度学习领域取得突破,人类又一次看到机器赶超人类的希望,也是标志性的技术进步。

2016年,Google的AlphaGo赢了韩国棋手李世石,再度引发AI热潮。

AI不断爆发热潮,是与基础设施的进步和科技的更新分不开的,从70年代personal计算机的兴起到2010年GPU、异构计算等硬件设施的发展,都为人工智能复兴奠定了基础。同时,互联网及移动互联网的发展也带来了一系列数据能力,使人工智能能力得以提高。

而且,运算能力也从传统的以CPU为主导到以GPU为主导,这对AI有很大变革。算法技术的更新助力于人工智能的兴起,最早期的算法一般是传统的统计算法,如80年代的神经网络,90年代的浅层,2000年左右的SBM、Boosting、convex的methods等等。

随着数据量增大,计算能力变强,深度学习的影响也越来越大。2011年之后,深度学习的兴起,带动了现今人工智能发展的高潮。

人工智能从两次低谷到三次崛起充分证明了,是金子总会发光。也许当时的技术还不足以支撑人工智能这个想法的实现,但是通过历代IT人的努力,属于人工智能的时代终究是来了。

这次,人工智能的浪潮终将把你我卷入其中,让我们张开双手,去拥抱这一天吧!

人工智能课程火热开班中

598元 基础班课程

免费领学费抵扣券

现只需28元立刻学习

END

人工智能——发展史

人工智能的发展史

1.人工智能的诞生(1943-1956年)1943-1946年,冯.诺依曼提出计算机原理1950年,图灵发表了一篇跨时代的论文,并提出了著名的“图灵测试”1956年,达特茅斯会议:AI诞生2.早期发展热潮(1950-1970年)符号主义早期推理系统早期神经网络(联结主义)专家系统智能计算机程序系统,其包含有大量的某个领域专家水平的知识与经验,能够利用人类专家的知识的解决问题的方法来处理该领域的问题。3.第二次发展热潮(1980-2000年)统计学派“AI之冬”之后,语音识别领域,统计学派取代专家系统机器学习专门研究计算机如何模拟或实现人类的学习行为以获取新的知识或技能,重新组织已有的知识结构使之不断改善自身的性能。神经网络(联结主义重获新生)神经网络用于模式识别等任务4.第三次发展热潮(2006年之后)大数据广泛应用指无法在一定时间范围内,用常规软件工具进行捕捉,管理和处理的数据集合,是需要新处理模式才能具有更强的决策力,洞察发现力和流程优化能力的海量、高增长率和多样化的信息资产。深度学习通过组合低层特征,形成更加抽象的高层,表示属性类别或特征,以发现数据的分布式特征表示机器视觉、语音识别、机器翻译等领域深度学习的普遍应用强化学习,迁移学习,生成对抗网络等新技术的发展(非深度)机器学习AlphaGo为标注的大众传播人工智能——发展史.png

人工智能定义及三次热潮

定义:有关“智能主题的研究与设计”的学问,而“智能主题是指一个可以观察周遭环境并做出行动以达致目标的系统”

深度学习+大数据=人工智能

目前人工智能正处于第三次热潮之中,且三次热潮都是从人机进行棋类比拼掀起,前两次热潮在持续一段时间后都进入了低谷期

关于第三次热潮:

前两次由学术研究主导,这次是现实商业需求主导前两次主要是市场宣传层面,这次是商业模式层面的前两次主要是通过劝说、游说获得投资,这次是企业主动投资前两次更多的是提出问题,这次更多的是解决问题前两次技术还不成熟,计算机计算能力弱,这次无论是在技术上还是在计算能力上都已经有了跨越性的提高随着人工智能技术的提高和应用,会使生活更加便利、丰富

 

人工智能发展史:第一次热潮和第二次热潮,螺旋式向前发展

【东音社按】本文摘自日经BP的《完全读懂AI应用最前线》,经东方出版社授权发布。人工智能的历史是“热潮”与“低谷”交替出现的历史。发展热潮中充满了无限的期望,但是事与愿违,它迅速走向了衰败。热潮与低谷的发展史,为人工智能的实用化提供了积极性的参考。

本文,我们将讲述人工智能第1次热潮和低谷以及第2次热潮初始阶段的历史。

一、初级阶段:聊天机器人

1956年的达特茅斯会议上,“人工智能”一词登上了历史的舞台。之后,各种人工智能程序陆续登场,人工智能迎来了第1次发展热潮。在这个时期,人工智能软件“Eliza(伊莉莎)”引起了很大的反响。Eliza,是最早的与人对话程序,从1964年开始,由德国科学家约瑟夫•魏泽堡主持编写。当时,使用了专门的编目处理语言“SLIP”进行程序开发,之后的程序开发则是由LISP主导进行的。

Eliza有各种各样的对话例子,其中最著名的例子就是模仿心理医生的心理辅导。被测试者都认为与自己对话的是心理医生,丝毫没有怀疑网络对面的是一台机器。

Eliza通过模式匹配与概念词典技术模仿与人对话的程序。它就是之后被称为“聊天机器人(chatterbot)”程序的原型。聊天机器人,虽然是可以模仿人类对话的程序,但是却没有融入人工智能的技术,只是表面上看起来像是双方的对话是成立的。从这种并无才能的角度出发,它也经常被称为“人工无能”。聊天机器人多是利用简单的词汇识别和概念词典编程的。

当然,也有人主张“像Eliza这样的聊天机器人(人工无能)并不是人工智能”。它既没有对智能进行定义,也没有依据智能进行推理,因此至少不能称之为研究并模仿人的智能的“强人工智能”。另外,聊天机器人是利用简单的模式匹配和概念词典编程的,它的行动模式是能够被人推断出来的,它看起来就像以if句式区别意思的决定论式的程序。

但是,以Eliza为代表的聊天机器人(人工无能),让世人开始了解人工智能,并促进了自然语言处理的迅猛发展,这也体现了它们的巨大贡献。我们至少可以称它们为初级阶段的人工智能。

二、第一次热潮:弱人工智能阶段

在人工智能发展的第1次热潮里,有一个需要介绍的程序,那就是通过符号处理获得更加严密的计算结果的“计算机代数系统”。比起简单的数值计算程序,该系统可以得到更加严密的计算结果。

“Macsyma”,是人工智能发展初期的具有代表性的计算机代数系统之一,该程序能够处理多项式以及不定积分。

Macsyma是在1968年以WilliamA.Martin为首的科学家研发的一套系统,是以LISP语言编写,并融入了启发法的问题解决方法。启发法,是通过探索最接近最优解的近似最优解的方法来得出问题的答案,而不是搜索所有可能的答案,从而得出最优解。

另外,“Reduce”也是该时期具有代表性的计算机代数系统,是由AnthonyC.Hearn于20世纪60年代开发编写的。现在,已经开放源代码,研发活动仍在进行中。Reduce程序利用LISP编写,可以处理不定积分。

Macsyma问世之后,计算机代数系统取得了很大的发展,美国沃尔夫勒姆研究的“Mathematica”、日本莎益博工程系统的“Maple”等都是之后研发出来的系统。

如前所述,Macsyma和Reduce都是利用LISP编写的,因此我们也可以说LISP作为人工智能的汇编语言发挥了巨大作用。反过来也可以说,计算机代数系统就像一个LISP的巨大的应用程序,LISP处理系统需要将这些程序成功运转起来。

其公式处理方法用的是启发法,完全不同于只是基于if句式的决定论式的程序。它至少可以称得上是一个模仿专家思考行为的“弱人工智能”。

继聊天机器人和计算机代数系统之后,在人工智能发展的第一次热潮期间诞生的还有专家系统这套程序。

专家系统,正如其名,它是一套将人类专家的知识和经验变成数据形式,然后通过数据进行推理的系统。初期的专家系统中比较有名的是“Mycin”系统,它是由以美国科学家EdwardShortliife为首的团队在1970年初期研发的。Mycin系统是通过与患者进行人机对话的形式来诊断病情,也是利用LISP来编写的。它拥有500多条规则,可以进行较为简单的推理。

它的特点是,导入了被称为“确信度”的系数这一概念来判断诊断的准确度。但是也有人主张,导入这一概念容易给推理过程造成一定的干扰。

专家系统,不仅在第1次人工智能热潮中得到发展,在第2次人工智能热潮中也继续流行。

三、人工智能的瓶颈初现端倪

在第1次人工智能发展热潮中诞生的各种人工智能程序,只是进行简单推理的程序较多,在发展过程中,瓶颈也就逐渐地显现出来了。

早在第1次发展热潮之前,马文•明斯基和西摩尔•派普特着手的人工神经网络研究就指出了人工智能发展可能出现的瓶颈问题。具体来说,由输入系统和输出系统组成的简单感知器,作为人工神经网络的一种形式,无法解决“不可分的问题”。

在这里我们不做详细说明,但是线性不可分问题的确在很多地方都存在,它也显示出只是导入了简单感知器的人工智能的弊端,这也导致了世人对人工神经网络的期待急速地降低。

最近流行的多层人工神经网络(深度学习模型),随着学习运算法则的不断进化,线性不可分的问题也逐渐被解决。这一点我们将在后面的篇章里做详细解释。

四、经历“低谷时代”,进入第2次发展热潮

人工智能发展的第1次热潮,从1956年一直持续到70年代前期。这一时期研发的专家系统等人工智能系统,因受到计算机处理性能的制约,只能处理一定数量的规则,并且是在特定的领域、特定的环境下才能够发挥作用。

人们在对人工智能充满期待的同时,对研发出来的缺乏实用性的系统也充满了失望,因此,国家以及企业在人工智能方面的预算也越来越少。这一时期,也就是20世纪70年代后期被称为人工智能发展的“第1次低谷”。

但是,进入20世纪80年代后,人工智能很快再次迎来了新的发展热潮。

本次发展热潮的主角是在第1次发展热潮时诞生的专家系统。因处理美国迪吉多公司(DEC)的VAX系统的各种订单并取得非常成功的专家系统受到广泛关注,各IT供应商迅速导入专家系统。

人工智能发展迎来第2次热潮,最大的一个原因在于计算机性能的大幅提高。进入20世纪80年代,基于复杂规则的专家系统也可以在计算机上运行。由此,逐渐实现了专家系统的商业性使用。

随着专家系统的兴盛,制定专家系统运行规则的工程师也被称为“知识工程师”,并且一时间成为炙手可热的职业,就像在今天,数据科学家这个职业相当流行,受到人们的追捧。

知识工程师的主要工作是听取用户的业务内容并对其进行分析,从中抽出明显的规则与隐藏的规则,然后进行分类。

当时,科学家们研发出了各种专家系统。初期的各种专用专家系统大都是利用LISP编程,随着技术的革新,慢慢地发生了变化,通用的引擎部分依然利用LISP编程,规则部分则是知识工程师利用外部数据进行编程。并且,用LISP编程的引擎部分,利用C语言进行编程的开发研究也已经展开了。

专家系统的编程由专用LISP语言向普通的C语言过渡,该系统也变成了一般的程序员编写的一般系统,其新意也就逐渐淡化了。

由此,专家系统也就从人工智能程序变成了决定论式的普通程序。随着这一变化,专家系统的作用效果也变得非常明确,但是其发展瓶颈也开始显现出来。

五、人工神经网络的发展

在人工智能发展的第2次热潮中,人工神经网络也发生了很大的变化。第1次发展热潮时,马文•明斯基等就已经指出,仅凭简单的人工神经网络还有很多无法解决的问题。为了解决这一大难题,多层化的人工神经网络开始受到关注。但是,如何实现多层人工神经网络的自我学习,还没有一个固定的模式。

之后,被称为反向传播(Backpropagation)的算法问世,打破了这种僵局的持续。反向传播是人工神经网络的一种自我学习算法,基于这种算法,多层人工神经网络的机器学习实现了定式化。该算法通过在输入层和输出层之间设定一个中间层(隐藏层),以反向传播的方式实现机器的自我学习。

基于反向传播的形式逐渐形成固定的模式,人工神经网络的发展也进入了兴盛期。线性不可分的问题也开始得到解决,人工智能也实现了进一步的发展。

在人工智能的第2次发展热潮时,笔者有幸参与了作为人工智能机的LISP专用机的研发工作。LISP专用机,也就是一种被称为“AI工作站”的新型计算机。当时,各企业都争相研发各种人工智能专用机,一时间,形成了一股热潮。

人工智能专用机诞生之初的价格大约在1000万日元,之后价格急速下降,使得人工智能专用机在一定程度上得到了普及。在人工智能专用机上运行的程序就有专家系统。可以在人工智能专用机上直接编写专家系统,也可以先编写通用的专家系统,然后再将各种规则编入系统中。

版权声明:本文内容由互联网用户自发贡献,该文观点仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌抄袭侵权/违法违规的内容,一经查实,本站将立刻删除。

上一篇

下一篇