博舍

人工智能发展史(二) 人工智能的发展历程中第二次低谷期在什么时候

人工智能发展史(二)

1. 引言

 

上一篇文章中,我们介绍了史上第一代人工智能与人工智能发展史上的第一次低谷:

 

人工智能发展史(一)--第一代人工智能及第一次AI低谷

 

经历了人工智能发展史上的第一次低谷,人工智能领域的研究真的就这样一蹶不振了吗?是什么让 AI 研究重回人们的视野呢?

 

 

 

2. 人工智能并非要模拟人脑

 

2.1 机器模拟人脑的困境

 

20世纪50年代到70年代,是人工智能领域的黄金时代,无数投资者和研究者投入了巨额的经费与精力,为后世人工智能发展奠定了最为关键性的基础,寻找到了人工智能领域发展的方向。然而,盲目的乐观精神很快遭遇了现实的冷水,想要用机器来模拟人的智力,这背后所需要的存储和算力是无法想象的。

 

在心理学上,阿摩司·特沃斯基、彼得沃森等心理学家纷纷证明,人类在解决问题时,大多时候并没有使用逻辑运算,从而证明,一台以逻辑运算为基础的机器是无法模拟人类思考的。

 

在残酷的现实面前,曾经声称可以用机器模拟人脑的论调渐渐沉寂了下去,以神经网络为基础的“感知器”研究失去了市场,而有另外两个学派的思想则得到了重视。

 

2.2 芜杂派

 

1975 年,被称为“人工智能之父”的马文·明斯基在其著作《表示知识的框架》中提出了框架理论,从而为用机器来解决人类的常识问题这一难题提供了可行的出路。

 

框架理论认为,人们对于事物的认知是通过将其归类于一个已知的范畴来实现的,这意味着,如同当时已诞生的面向对象编程思想一样,人在理解一件事物是什么这种计算机难以解决的常识性问题时,人脑会在自己已经掌握的若干范畴中进行比对,来实现对已有概念的继承,例如,当一个人首次见到了天鹅,他会在大脑中找到“鸟”这个范畴,从而能够快速掌握到未知的“天鹅”这个概念,知道天鹅如同其他鸟一样,是生物、具有翅膀、会飞等。

 

只要让计算机模拟这一过程,计算机完全有可能在既有的范畴中,找到它所面对的从未接触的新概念的含义,从而实现对既有框架概念的继承。

 

2.3 简约派

 

与芜杂派相对,简约派认为,既然机器想要模仿人类进行思考可谓是困难重重,那么,我们完全可以去大力发展机器的逻辑运算能力,让机器成为专门解决逻辑问题的解题机器。

 

于是,顺着这个思路,人们厘清了人工智能当前能够做到的边界,从而为下一阶段人工智能发展指明了一条新的道路:专家系统。

 

3. 第二代人工智能:专家系统

 

实际上,在第一代人工智能发展的过程中,始终有专家系统这一派观点,尽管没有得到重视,但仍然在当时产生了值得瞩目的成就。

 

1965年,卡内基梅隆大学教授爱德华·费根鲍姆就和他的学生们一起设计并开发了一款名为 Dendral 的人工智能软件,用来分辨化学混合物,1972年,他带领的团队又研发了名为 MYCIN 的通过血液样本分析来诊断传染病的程序。

 

1980 年,卡内基梅隆大学的研发团队为美国数字设备公司设计开发了一个名为 XCON 的专家系统,产生了巨大的影响力,它拥有 2500 条规则,可以代替销售人员,为客户提供专业的订购问答和售后服务,据称该软件每年为美国数字设备公司省下了四千万美元。

 

在这次巨大的成功之下,美国各大公司纷纷成立 AI 部门,研发适应自身使用的人工智能软件来提供专业性的使用。专家系统的一炮而红,引领了人工智能领域的再度升温,潘蜜拉.麦可杜克在他的著作《会思考的机器》中写道:“不情愿的AI研究者们开始怀疑,因为它违背了科学研究中对最简化的追求。智能可能需要建立在对分门别类的大量知识的多种处理方法之上。”

 

1981 年,日本经济产业省决定拨款八亿五千万美元用来支持第五代计算机的研发项目,目标是能够实现人机对话、语言翻译、图像识别等专业功能,英国也投入3.5亿英镑,开启名为 Alvey 的第二代人工智能工程的研究。

 

除了在专家系统领域的亮眼表现,在上述巨额投入下,以模拟人脑为目标的联结主义思想也得到了崭新的发展,1982年,物理学家约翰·霍普菲尔德在神经网络算法的基础上,发明了以他的名字命名的 Hopfield 神经网络算法,实现神经网络的递归与反馈传播,而几乎与此同时,戴维·鲁姆哈特发明了反向传播神经网络算法。让已经被人们遗弃了十年之久的联结主义思想重获新生。

 

4. 第二次 AI 低谷

 

几乎是历史的重演,随着商业机构对 AI 领域的追捧,巨额的投入再次以经济泡沫的破裂而告终。

 

20世纪80年代中期,苹果与 IBM 两家公司异军突起,成立了性能强劲的台式机生产线,量产的机器竟然比投资者巨额投资下所生产的 AI 机器的性能还要高,这无异于直接宣布价值 5 亿美元的 AI 产业不过是一个巨大的泡沫,AI 的硬件市场需求随之突然暴跌,而预期中的能够实现人机对话的人工智能也并没有能够出现。

 

而对于人工智能的研究方向,也出现了许多认知科学家反对的声音,1990年,罗德尼·布鲁克斯在论文《大象不玩象棋》批评了人工智能研究企图用符号化的方法来代替机器对世界的感知,这与实现真正的人工智能无疑是南辕北辙的,他认为,机器必须具有足够多的感知元件,并且能够足够频繁地感知世界,才有可能诞生真正的人工智能。

 

5. 结语

 

自 1987 年开始,随着资本的撤出,各国的 AI 研究再度面临了新的困境,一方面,PC 量产机的性能超过了昂贵的专业 AI 硬件,同时,第五代计算机也并没有什么新的能够实用的成果问世,无论是商业发展还是研究者们,都无法在这样的时代背景下找到新的出路。

 

那么,和 AI 发展的第一次低谷一样,谁能够打破 AI 发展的新的低谷呢?人工智能发展的未来又在哪里?让我们下一篇文章中,再做讲解。

 

附录:参考资料

 

https://zh.wikipedia.org/wiki/%E4%BA%BA%E5%B7%A5%E6%99%BA%E8%83%BD%E5%8F%B2#cite_note-106

 

https://en.wikipedia.org/wiki/Xcon

 

https://web.archive.org/web/20171116060857/http://aaai.org/Papers/AAAI/1980/AAAI80-076.pdf

 

 

 

 

微信公众号

欢迎关注微信公众号,以技术为主,涉及历史、人文等多领域的学习与感悟,每周三到七篇推文,只有全部原创,只有干货没有鸡汤

 

附录 -- 系列目录

居士的创作

标签技术贴     人工智能     ai     技术乱炖     

人工智能的三次沉浮,和可能的寒冬

 [[437677]]

如果将眼光放长远一点,历史上已经经历了三次发展浪潮,也经历了两次低谷。换言之,人工智能的泡沫已经破灭两次了。让我们先来回顾一下人工智能这三起两落的历史,从历史中来找寻现在的意义,推导出我们可能面临的未来。

 

 

 

 

第一次浪潮和第一次低谷:

达特茅斯会议推动了全球第一次人工智能浪潮的出现,这次浪潮从1956年一直持续到1974年。当时乐观的气氛弥漫着整个学界,在算法方面出现了很多世界级的发明,其中包括一种叫做增强学习的雏形(即贝尔曼公式),增强学习就是谷歌AlphaGo算法核心思想内容。

70年代初,AI遭遇了瓶颈。人们发现逻辑证明器、感知器、增强学习等等只能做很简单、非常专门且很窄的任务,稍微超出范围就无法应对。当时的计算机有限的内存和处理速度不足以解决任何实际的AI问题。研究者们很快发现,要求程序对这个世界具有儿童水平的认识这个要求都太高了——1970年没人能够做出人工智能需要的巨大数据库,也没人知道一个程序怎样才能学到如此丰富的信息。另一方面,有很多计算复杂度以指数程度增加,这成为了不可能完成的计算任务。

第二次浪潮和第二次低谷:

在80年代,一类名为“专家系统”的AI程序开始为全世界的公司所采纳,而“知识处理”成为了主流AI研究的焦点。专家系统的能力来自于它们存储的专业知识,知识库系统和知识工程成为了80年代AI研究的主要方向。但是专家系统的实用性仅仅局限于某些特定情景,不久后人们对专家系统的狂热追捧转向巨大的失望。另一方面,1987年到1993年现代PC的出现,其费用远远低于专家系统所使用的Symbolics和Lisp等机器。相比于现代PC,专家系统被认为古老陈旧而非常难以维护。于是,政府经费开始下降,寒冬又一次来临。

第三次浪潮:

1993年后,出现了新的数学工具、新的理论和摩尔定律。人工智能也在确定自己的方向,其中一个选择就是要做实用性、功能性的人工智能,这导致了一个新的人工智能路径。深度学习为核心的机器学习算法获得发展,积累的数据量极大丰富,新型芯片和云计算的发展使得可用的计算能力获得飞跃式发展,现代AI的曙光又再次出现了。一个标志性事件发生在2016年3月,谷歌DeepMind研发的AlphaGo在围棋人机大战中击败韩国职业九段棋手李世乭。随后,大众开始熟知人工智能,各个领域的热情都被调动起来了。

深度学习的发展,让人工智能进入新的发展高潮。技术尤其是算法层面的局限,决定了这次人工智能浪潮的“天花板”。深度学习算法带来的“技术红利”,将支撑我们再发展5~10年时间,随后就会遇到瓶颈。在人工智能领域,技术的进步不是线性的,而是线性积累和间断式突破交替进行的。我们必须要达到一个“技术奇点”,才能实现根本上的突破,达到通用人工智能甚至是超级人工智能的水平。大概率的可能性,未来几年人们对人工智能怀有巨大的热情和非理性的期待,但同时会渐渐发觉推进起来越来越费劲,仿佛有个无形的“天花板”挡在那里,迟迟不能获得突破,人们的耐心被渐渐耗尽,人工智能的下一个冬天也就来临了。

就一般产业而言,线性发展的成分更重一些,即使产业不能再往前推进了,依然能够保持比较高的产业成熟度。人工智能产业则不同,如果以百分制来衡量一个产业的发展程度,人工智能不是从1慢慢发展到100,而是要么是90分以上,要么是10以下。试想一下,你有一个智能助手,如果他的智力水平一直在10岁以下,你能接受么?那样的智能助手更多的是个玩具,不能委以重任,毕竟谁也不会将重要的事情交给一个小孩子来做。再比如翻译领域,一旦智能系统能够达到人类水平的翻译能力,那将是一次彻底的颠覆,人类翻译员将彻底消失;但是,在没达到那种水平之前,翻译系统基本就是个摆设,你不能通过那套系统来与外国人顺畅的交流,也不能将看到的整段材料马上转换成另一种语言。

人工智能的泡沫,更多的是产业化和商业应用层面的。很多做人工智能应用的企业,如果发现将方案落地的期待落空,那他整个商业价值存在的根基就不存在了,整个产业将会消失,大量企业也会倒闭。

如果真的要面对那样一个未来,我们应该怎么应对呢?我提出几点参考建议:

第一,适度降低对人工智能的技术期待,理性设定商业模式。企业要仔细评估技术的发展潜力,不要抱有不切实际的幻想。寻找并设计一些智能水平不是太高就能具有商业价值的应用模式,并基于此来构建竞争壁垒。比如在自动驾驶领域,我们要做好L4在10年内无法实现的心理准备,寻找一些L3级别就能具有商业价值的应用领域。

第二,现在就开始准备“过冬的粮草”。泡沫破灭之后,融资会变得越来越难,依据公司本身的造血能力维持基本没戏。所以,现在尽可能的多融资吧,并且在未来几年省着点花,争取能挨过寒冬。

第三,实行曲线救国策略,发展一些“伪智能”业务,拓展业务领域。如果哪天发现“纯人工智能”这条路走不通,可以考虑发展一些周边产业,只要能带来现金流就行。虽然挂羊头卖狗肉有点缺德,但能保存“革命的火种”,也算一件好事。

人工智能的发展史,人工智能曾两次进入低谷,差点被人类放弃

一九五六年那一年被认为是人工智能的开端,在前六十多年中,人工智能的发展取得各种重大的成就,尤其是语言语音、图像等方面,都已经进入到成熟期,现在主要向让人工智能深度学习发展,让人工智能能够自动学习各种技术并且能够自动根据情况进行一些生成动作。

机器人如果能够代替人类进行一些工作,那么将会又更多的人能够从工作当中解放出来,如果智能机器人能够自己去认知这个世界,就如人类一样,那么未来将会有无数种的可能性存在,而人类的生活是否也会因此而变得更加的精彩呢?

如何判断机器是属于智能型的呢?在一九五九年又一篇论文提到,又一个人类提出问题,如果机器能够在五分钟以内给出正确回答,并且有超过百分之三十的人类认为这种回答是人说出的,那么就可以说这个机器拥有智能性,而判断智能的大小就是看他反映的时间和有多少人认为这时人类的回答了。

一九六六年,第一台能够和热恩累简单对话的机器出生,这也让人们更加坚信人工智能的可能性,在依旧七四年到八零年,人工智能进入低谷,当时的研究者发现人工智能只能过进行一些非常简单的任务,一旦超出某个范围就无法做回反映了,在这个瓶颈期,人工智能方面所获得的资助也被大量的减少甚至取消掉。

等到八零年一个名叫专家系统的人工智能诞生,能够帮助其公司每年节省四千万美金左右的费用,一些国家看到之后,又开始向人工智能方向投入资金力量,等到两年之后,被人们称之为第五代计算机也被当时人们称之为人工智能计算机诞生。

等到八六年期间,神经网络还有反向传播也出现,在八九年的时候就有了能够和人对弈象棋的人工智能出现,并且在邮政编码方面也得到了一些简单的应用,人们看到种种的成果,便感觉到人工智能可能真的能够实现,但是等到八七年,又一次的低谷出现,并且持续到了九三年期间。

当时的台式机出现,并且开始进入个人家庭当中,而专家系统也变得跟不上时代的脚步,各种维护也比较艰难,所以各方面对其的投入也又一次降低,在当时,从事人工智能研发的人员甚至都不好意思对外说自己是做这一方面的,并且也开始认真思考人工智能的研究方向。

人工智能发展到现在,人工智能也在不断的确认着方向,也在不断的完成各种挑战,现在人工智能也应用到了各种机器人上面,并且已经能够让一些机器人能够自己作出机器并且进行执行,到那时还是不够完美,一些人工智能机器人还是对突发情况作出良好的反映。

人工智能的发展就像是在不停的登一座山一样,中间我们也曾怀疑过,并且也发生过一些错误,但是并没有停止前进,过程中我们也在不停的选择路线,通过不断的探索找出方法,在不断的攀登中也有各种新的发现,并且也为我们的生活带来了很多的改变。

人工智能的三次浪潮与三种模式

■史爱武

谈到人工智能,人工智能的定义到底是什么?

达特茅斯会议上对人工智能的定义是:使一部机器的反应方式就像是一个人在行动时所依据的智能。

百度百科上对人工智能的定义是:它是研究、开发用于模拟、延伸和扩展人的智能的理论、方法、技术及应用系统的一门新的技术科学。人工智能是计算机科学的一个分支,它企图了解智能的实质,并生产出一种新的能以人类智能相似的方式做出反应的智能机器,该领域的研究包括机器人、语言识别、图像识别、自然语言处理和专家系统等。

尽管人工智能现在还没有非常严格准确或者所有人都接受的定义,但是有一些约定俗成的说法。通常人工智能是指机器智能,让机器达到人智能所实现的一些功能。人工智能既然是机器智能,就不是机械智能,那么这个机器是指什么呢?是指计算机,用计算机仿真出来的人的智能行为就可以叫作人工智能。

2017年7月,国务院印发了《新一代人工智能发展规划》。2017年12月,人工智能入选“2017年度中国媒体十大流行语”。这一国家级战略和社会流行趋势标志着,人工智能发展进入了新阶段,我国要抢抓人工智能发展的重大战略机遇,构筑人工智能发展的先发优势,加快建设创新型国家和世界科技强国。

人工智能的三次浪潮

自1956年开始,人工智能经历了三起三落,出现了几次浪潮,现在人工智能已经是处于第三次浪潮了。

第一次浪潮(1956-1976年,20年),最核心的是逻辑主义

逻辑主义主要是用机器证明的办法去证明和推理一些知识,比如用机器证明一个数学定理。要想证明这些问题,需要把原来的条件和定义从形式化变成逻辑表达,然后用逻辑的方法去证明最后的结论是对的还是错的,也叫做逻辑证明。

早期的计算机人工智能实际上都是沿着这条路在走。当时很多专家系统,比如医学专家系统,用语言文字输入一些症状,在机器里面变换成逻辑表达,用符号演算的办法推理出大概得了什么病。所以当时的主要研究都集中在逻辑抽象、逻辑运算和逻辑表达等方面。

在第一次浪潮中,数学定理证明实际上是实现效果最好的,当时有很多数学家用定理思路证明了数学定理。为了更好地完成定理证明工作,当时出了很多和逻辑证明相关的逻辑程序语言,比如很有名的Prolog。

虽然当时的成果已经能够解开拼图或实现简单的游戏,却几乎无法解决任何实用的问题。

第二次浪潮(1976—2006年,30年),联结主义盛行

在第一次浪潮期间,逻辑主义和以人工神经网络为代表的联结主义相比,逻辑主义是完全占上风的,联结主义那时候不太吃香。然而逻辑主义最后无法解决实用的问题,达不到人们对它的期望,引起了大家的反思,这时候人工神经网络(也就是联结主义)就慢慢占了上风。

在70年代末,整个神经元联结网络、模型都有突飞猛进的进步,最重要的是BP前馈神经网络。1986年BP前馈神经网络刚出来的时候解决了不少问题,后来大家往更大的领域应用,实现了比较大的成果。在很多模式识别的领域、手写文字的识别、字符识别、简单的人脸识别也开始用起来,这个领域一下子就热起来,一时之间,人们感觉人工智能大有可为。随后十几年人们发现神经网络可以解决一些单一问题,解决复杂问题却有些力不从心。训练学习的时候,数据量太大,有很多结果到一定程度就不再往上升了。

这时期所进行的研究,是以灌输“专家知识”作为规则,来协助解决特定问题的“专家系统”为主。虽然有一些实际的商业应用案例,应用范畴却很有限,第二次热潮也就慢慢趋于消退。

第三次浪潮(2006—现在),基于互联网大数据的深度学习的突破

如果按照技术分类来讲,第二次和第三次浪潮都是神经网络技术的发展,不同的是,第三次浪潮是多层神经网络的成功,也就是深度学习取得突破。这里既有硬件的进步,也有卷积神经网络模型与参数训练技巧的进步。

若观察脑的内部,会发现有大量称为“神经元”的神经细胞彼此相连。一个神经元从其他神经元那里接收的电气信号量达某一定值以上,就会兴奋(神经冲动);在某一定值以下,就不会兴奋。兴奋起来的神经元,会将电气信号传送给下一个相连的神经元。下一个神经元同样会因此兴奋或不兴奋。简单来说,彼此相连的神经元,会形成联合传递行为。我们透过将这种相连的结构来数学模型化,便形成了人工神经网络。

经模型化的人工神经网络,是由“输入层”“隐藏层”及“输出层”等三层构成。深度学习往往意味着有多个隐藏层,也就是多层神经网络。另外,学习数据则是由输入数据以及相对应的正确解答来组成。

为了让输出层的值跟各个输入数据所对应的正解数据相等,会对各个神经元的输入计算出适当的“权重”值。通过神经网络,深度学习便成为了“只要将数据输入神经网络,它就能自行抽出特征”的人工智能。

伴随着高性能计算机、云计算、大数据、传感器的普及,以及计算成本的下降,“深度学习”随之兴起。它通过模仿人脑的“神经网络”来学习大量数据的方法,使它可以像人类一样辨识声音及影像,或是针对问题做出合适的判断。在第三次浪潮中,人工智能技术及应用有了很大的提高,深度学习算法的突破居功至伟。

深度学习最擅长的是能辨识图像数据或波形数据这类无法符号化的数据。自2010年以来,Apple、Microsoft及Google等国际知名IT企业,都投入大量人力物力财力开展深度学习的研究。例如AppleSiri的语音识别,Microsoft搜索引擎Bing的影像搜寻等等,而Google的深度学习项目也已超过1500项。

深度学习如此快速的成长和应用,也要归功于硬件设备的提升。图形处理器(GPU)大厂英伟达(NVIDIA)利用该公司的图形适配器、连接库(Library)和框架(Frame⁃work)产品来提升深度学习的性能,并积极开设研讨课程。另外,Google也公开了框架TensorFlow,可以将深度学习应用于大数据分析。

人工智能的3种模式

人工智能的概念很宽泛,根据人工智能的实力可以分成3大类,也称为3种模式。

(1)弱人工智能:擅长于单个方面的人工智能,也叫专业人工智能。比如战胜世界围棋冠军的人工智能AlphaGo,它只会下围棋,如果让它下国际象棋或分辨一下人脸,它可能就会犯迷糊,就不知道怎么做了。当前我们实现的几乎全是弱人工智能。

(2)强人工智能:是指在各方面都能和人类比肩的人工智能,这是类似人类级别的人工智能,也叫通用人工智能。人类能干的脑力活,它都能干,创造强人工智能比创造弱人工智能难得多,目前我们还做不到。

(3)超人工智能:知名人工智能思想家NickBostrom把超级智能定义为“在几乎所有领域都比最聪明的人类大脑都聪明很多,包括科学创新、通识和社交技能”。超人工智能可以是各方面都比人类强点,也可以是各方面都比人类强很多倍。超人工智能现在还不存在,很多人也希望它永远不要存在。否则,可能像好莱坞大片里面的超级智能机器一样,对人类也会带来一些威胁或者颠覆。

我们现在处于一个充满弱人工智能的世界。比如,垃圾邮件分类系统是个帮助我们筛选垃圾邮件的弱人工智能;Google翻译是可以帮助我们翻译英文的弱人工智能等等。这些弱人工智能算法不断地加强创新,每一个弱人工智能的创新,都是迈向强人工智能和超人工智能的进步。正如人工智能科学家AaronSaenz所说,现在的弱人工智能就像地球早期软泥中的氨基酸,可能突然之间就形成了生命。如世界发展的规律看来,超人工智能也是未来可期的!

版权声明:本文内容由互联网用户自发贡献,该文观点仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌抄袭侵权/违法违规的内容,一经查实,本站将立刻删除。

上一篇

下一篇