人工智能的三次沉浮,和可能的寒冬
[[437677]]
如果将眼光放长远一点,历史上已经经历了三次发展浪潮,也经历了两次低谷。换言之,人工智能的泡沫已经破灭两次了。让我们先来回顾一下人工智能这三起两落的历史,从历史中来找寻现在的意义,推导出我们可能面临的未来。
第一次浪潮和第一次低谷:
达特茅斯会议推动了全球第一次人工智能浪潮的出现,这次浪潮从1956年一直持续到1974年。当时乐观的气氛弥漫着整个学界,在算法方面出现了很多世界级的发明,其中包括一种叫做增强学习的雏形(即贝尔曼公式),增强学习就是谷歌AlphaGo算法核心思想内容。
70年代初,AI遭遇了瓶颈。人们发现逻辑证明器、感知器、增强学习等等只能做很简单、非常专门且很窄的任务,稍微超出范围就无法应对。当时的计算机有限的内存和处理速度不足以解决任何实际的AI问题。研究者们很快发现,要求程序对这个世界具有儿童水平的认识这个要求都太高了——1970年没人能够做出人工智能需要的巨大数据库,也没人知道一个程序怎样才能学到如此丰富的信息。另一方面,有很多计算复杂度以指数程度增加,这成为了不可能完成的计算任务。
第二次浪潮和第二次低谷:在80年代,一类名为“专家系统”的AI程序开始为全世界的公司所采纳,而“知识处理”成为了主流AI研究的焦点。专家系统的能力来自于它们存储的专业知识,知识库系统和知识工程成为了80年代AI研究的主要方向。但是专家系统的实用性仅仅局限于某些特定情景,不久后人们对专家系统的狂热追捧转向巨大的失望。另一方面,1987年到1993年现代PC的出现,其费用远远低于专家系统所使用的Symbolics和Lisp等机器。相比于现代PC,专家系统被认为古老陈旧而非常难以维护。于是,政府经费开始下降,寒冬又一次来临。
第三次浪潮:1993年后,出现了新的数学工具、新的理论和摩尔定律。人工智能也在确定自己的方向,其中一个选择就是要做实用性、功能性的人工智能,这导致了一个新的人工智能路径。深度学习为核心的机器学习算法获得发展,积累的数据量极大丰富,新型芯片和云计算的发展使得可用的计算能力获得飞跃式发展,现代AI的曙光又再次出现了。一个标志性事件发生在2016年3月,谷歌DeepMind研发的AlphaGo在围棋人机大战中击败韩国职业九段棋手李世乭。随后,大众开始熟知人工智能,各个领域的热情都被调动起来了。
深度学习的发展,让人工智能进入新的发展高潮。技术尤其是算法层面的局限,决定了这次人工智能浪潮的“天花板”。深度学习算法带来的“技术红利”,将支撑我们再发展5~10年时间,随后就会遇到瓶颈。在人工智能领域,技术的进步不是线性的,而是线性积累和间断式突破交替进行的。我们必须要达到一个“技术奇点”,才能实现根本上的突破,达到通用人工智能甚至是超级人工智能的水平。大概率的可能性,未来几年人们对人工智能怀有巨大的热情和非理性的期待,但同时会渐渐发觉推进起来越来越费劲,仿佛有个无形的“天花板”挡在那里,迟迟不能获得突破,人们的耐心被渐渐耗尽,人工智能的下一个冬天也就来临了。
就一般产业而言,线性发展的成分更重一些,即使产业不能再往前推进了,依然能够保持比较高的产业成熟度。人工智能产业则不同,如果以百分制来衡量一个产业的发展程度,人工智能不是从1慢慢发展到100,而是要么是90分以上,要么是10以下。试想一下,你有一个智能助手,如果他的智力水平一直在10岁以下,你能接受么?那样的智能助手更多的是个玩具,不能委以重任,毕竟谁也不会将重要的事情交给一个小孩子来做。再比如翻译领域,一旦智能系统能够达到人类水平的翻译能力,那将是一次彻底的颠覆,人类翻译员将彻底消失;但是,在没达到那种水平之前,翻译系统基本就是个摆设,你不能通过那套系统来与外国人顺畅的交流,也不能将看到的整段材料马上转换成另一种语言。
人工智能的泡沫,更多的是产业化和商业应用层面的。很多做人工智能应用的企业,如果发现将方案落地的期待落空,那他整个商业价值存在的根基就不存在了,整个产业将会消失,大量企业也会倒闭。
如果真的要面对那样一个未来,我们应该怎么应对呢?我提出几点参考建议:
第一,适度降低对人工智能的技术期待,理性设定商业模式。企业要仔细评估技术的发展潜力,不要抱有不切实际的幻想。寻找并设计一些智能水平不是太高就能具有商业价值的应用模式,并基于此来构建竞争壁垒。比如在自动驾驶领域,我们要做好L4在10年内无法实现的心理准备,寻找一些L3级别就能具有商业价值的应用领域。
第二,现在就开始准备“过冬的粮草”。泡沫破灭之后,融资会变得越来越难,依据公司本身的造血能力维持基本没戏。所以,现在尽可能的多融资吧,并且在未来几年省着点花,争取能挨过寒冬。
第三,实行曲线救国策略,发展一些“伪智能”业务,拓展业务领域。如果哪天发现“纯人工智能”这条路走不通,可以考虑发展一些周边产业,只要能带来现金流就行。虽然挂羊头卖狗肉有点缺德,但能保存“革命的火种”,也算一件好事。
人工智能简史,从两次低谷到三次崛起
原创人工智能简史,从两次低谷到三次崛起发布时间:2019-07-2613:26:30浏览29221来源:博学谷资讯作者:照照如今人工智能已然成为香饽饽,在各行业都开始得到应用。然而大家可能不知道的是,人工智能并非近些年才兴起的,它经历了两次低谷和三次崛起,才发展成当下热门的技术。因此人工智能简史其实也是看做一段励志的崛起史。
人工智能的起源:人工智能在五六十年代时正式提出,1950年,一位名叫马文·明斯基(后被人称为“人工智能之父”)的大四学生与他的同学邓恩·埃德蒙一起,建造了世界上第一台神经网络计算机。这也被看做是人工智能的一个起点。巧合的是,同样是在1950年,被称为“计算机之父”的阿兰·图灵提出了一个举世瞩目的想法——图灵测试。按照图灵的设想:如果一台机器能够与人类开展对话而不能被辨别出机器身份,那么这台机器就具有智能。而就在这一年,图灵还大胆预言了真正具备智能机器的可行性。1956年,在由达特茅斯学院举办的一次会议上,计算机专家约翰·麦卡锡提出了“人工智能”一词。后来,这被人们看做是人工智能正式诞生的标志。就在这次会议后不久,麦卡锡从达特茅斯搬到了MIT。同年,明斯基也搬到了这里,之后两人共同创建了世界上第一座人工智能实验室——MITAILAB实验室。值得追的是,茅斯会议正式确立了AI这一术语,并且开始从学术角度对AI展开了严肃而精专的研究。在那之后不久,最早的一批人工智能学者和技术开始涌现。达特茅斯会议被广泛认为是人工智能诞生的标志,从此人工智能走上了快速发展的道路。
人工智能的第一次高峰在1956年的这次会议之后,人工智能迎来了属于它的第一段HappyTime。在这段长达十余年的时间里,计算机被广泛应用于数学和自然语言领域,用来解决代数、几何和英语问题。这让很多研究学者看到了机器向人工智能发展的信心。甚至在当时,有很多学者认为:“二十年内,机器将能完成人能做到的一切。”人工智能第一次低谷:70年代,人工智能进入了一段痛苦而艰难岁月。由于科研人员在人工智能的研究中对项目难度预估不足,不仅导致与美国国防高级研究计划署的合作计划失败,还让大家对人工智能的前景蒙上了一层阴影。与此同时,社会舆论的压力也开始慢慢压向人工智能这边,导致很多研究经费被转移到了其他项目上。
在当时,人工智能面临的技术瓶颈主要是三个方面,第一,计算机性能不足,导致早期很多程序无法在人工智能领域得到应用;第二,问题的复杂性,早期人工智能程序主要是解决特定的问题,因为特定的问题对象少,复杂性低,可一旦问题上升维度,程序立马就不堪重负了;第三,数据量严重缺失,在当时不可能找到足够大的数据库来支撑程序进行深度学习,这很容易导致机器无法读取足够量的数据进行智能化。
因此,人工智能项目停滞不前,但却让一些人有机可乘,1973年Lighthill针对英国AI研究状况的报告。批评了AI在实现“宏伟目标”上的失败。由此,人工智能遭遇了长达6年的科研深渊。
人工智能的崛起1980年,卡内基梅隆大学为数字设备公司设计了一套名为XCON的“专家系统”。这是一种,采用人工智能程序的系统,可以简单的理解为“知识库+推理机”的组合,XCON是一套具有完整专业知识和经验的计算机智能系统。这套系统在1986年之前能为公司每年节省下来超过四千美元经费。有了这种商业模式后,衍生出了像Symbolics、LispMachines等和IntelliCorp、Aion等这样的硬件,软件公司。在这个时期,仅专家系统产业的价值就高达5亿美元。
人工智能第二次低谷:可怜的是,命运的车轮再一次碾过人工智能,让其回到原点。仅仅在维持了7年之后,这个曾经轰动一时的人工智能系统就宣告结束历史进程。到1987年时,苹果和IBM公司生产的台式机性能都超过了Symbolics等厂商生产的通用计算机。从此,专家系统风光不再。
人工智能再次崛起:上世纪九十年代中期开始,随着AI技术尤其是神经网络技术的逐步发展,以及人们对AI开始抱有客观理性的认知,人工智能技术开始进入平稳发展时期。1997年5月11日,IBM的计算机系统“深蓝”战胜了国际象棋世界冠军卡斯帕罗夫,又一次在公众领域引发了现象级的AI话题讨论。这是人工智能发展的一个重要里程。
2006年,Hinton在神经网络的深度学习领域取得突破,人类又一次看到机器赶超人类的希望,也是标志性的技术进步。
2016年,Google的AlphaGo赢了韩国棋手李世石,再度引发AI热潮。
AI不断爆发热潮,是与基础设施的进步和科技的更新分不开的,从70年代personal计算机的兴起到2010年GPU、异构计算等硬件设施的发展,都为人工智能复兴奠定了基础。
同时,互联网及移动互联网的发展也带来了一系列数据能力,使人工智能能力得以提高。而且,运算能力也从传统的以CPU为主导到以GPU为主导,这对AI有很大变革。算法技术的更新助力于人工智能的兴起,最早期的算法一般是传统的统计算法,如80年代的神经网络,90年代的浅层,2000年左右的SBM、Boosting、convex的methods等等。随着数据量增大,计算能力变强,深度学习的影响也越来越大。2011年之后,深度学习的兴起,带动了现今人工智能发展的高潮。
人工智能从两次低谷到三次崛起充分证明了,是金子总会发光。也许当时的技术还不足以支撑人工智能这个想法的实现,但是通过历代IT人的努力,属于人工智能的时代终究是来了。这次,人工智能的浪潮终将把你我卷入其中,让我们张开双手,去拥抱这一天吧!
就业前景人工智能— 申请免费试学名额 —在职想转行提升,担心学不会?根据个人情况规划学习路线,闯关式自适应学习模式保证学习效果讲师一对一辅导,在线答疑解惑,指导就业!觉得不错,顺手分享一下上一篇:人工智能之人脸识别技术下一篇:现在参加Python人工智能培训能找到工作吗?相关推荐更多人工智能与智能控制是什么关系?随着人工智能的爆发式崛起,智能控制也被频繁地提及,许多人常常分不清人工智能和智能控制的定义,两者的概念似乎差不太多,真的是这样吗?人工智能与智能控制到底是什么关系?其实人工智能与智能控制既相互区别又彼此联系,简单来说,智能控制是人工智能的关键技术和具体应用。121362019-10-3011:01:57人工智能人工智能开发专业技能小白学习神经网络入门讲解当下大热的人工智能技术的核心技术,其实就是机器学习,而神经网络就是模仿人脑处理方式的一种机器学习算法。因此想要了解人工智能,首要条件就是理解什么是神经网络。它是人工智能的底层模型,许多复杂的应用和高级模型都基于此。本文将用小白都能理解的话,为大家深入浅出的讲解神经网络的运作过程,让大家都能轻松入门神经网络的学习。43712019-12-0916:43:46机器学习零基础入门人工智能AI工程师面试技巧有哪些?AI工程师面试技巧有哪些?当大多数人都在想着如何成为一名年薪10~15万的软件工程师时,人工智能工程师职位正以惊人的速度成倍增长。虽然目前国内已有几万名AI领域的毕业生,但还远远不能满足市场百万级的人才需求,可谓是得AI者得天下。39792020-08-2410:12:20机器学习就业前景AI技术互联网行业未来十年紧缺职业众所周知互联网行业是大家普遍认可的高薪行业,吸引了大量的优秀人才加入。但是互联网技术迭代更新的频率非常高,导致了很多刚刚入行的同学学到的技术很快就失去了核心竞争力。因此我们在学习某一项技术的时候,肯定要了解市场的需求以及发展趋势。互联网行业未来十年紧缺职业是什么?你是否能够抓住机遇呢?32592020-09-2314:38:08就业前景人工智能人工智能前景人工智能技术发展之下的数字化转型是什么?人工智能技术发展之下的数字化转型是什么?人工智能为代表的技术变革更是助力人类在智力层面实现跃升,在人工智能技术推动经济社会数字化转型过程中需要探索和衡量今天的技术变革为改造世界和推动经济发展带来的“利”与“弊”,在面向“兴业”、“惠民”和“善治”的数字化赋能之路上才能行之有道、为之有法、用之有度。17062022-03-3114:40:25人工智能转行/转型人工智能史上的二次低谷——第一次低谷
2019-02-0611:05:58
人工智能的诞生:1943–1956在20世纪40年代和50年代,来自不同领域(数学,心理学,工程学,经济学和政治学)的一批科学家开始探讨制造人工大脑的可能性。1956年,人工智能被确立为一门学科。
控制论与早期神经网络
最初的人工智能研究是30年代末到50年代初的一系列科学进展交汇的产物。神经学研究发现大脑是由神经元组成的电子网络,其激励电平只存在“有”和“无”两种状态,不存在中间状态。维纳的控制论描述了电子网络的控制和稳定性。克劳德•香农提出的信息论则描述了数字信号(即高低电平代表的二进制信号)。图灵的计算理论证明数字信号足以描述任何形式的计算。这些密切相关的想法暗示了构建电子大脑的可能性。
IBM702:第一代AI研究者使用的电脑
这一阶段的工作包括一些机器人的研发,例如W。GreyWalter的“乌龟(turtles)”,还有“约翰霍普金斯兽”(JohnsHopkinsBeast)。这些机器并未使用计算机,数字电路和符号推理;控制它们的是纯粹的模拟电路。
WalterPitts和WarrenMcCulloch分析了理想化的人工神经元网络,并且指出了它们进行简单逻辑运算的机制。他们是最早描述所谓“神经网络”的学者。马文•闵斯基是他们的学生,当时是一名24岁的研究生。1951年他与DeanEdmonds一道建造了第一台神经网络机,称为SNARC。在接下来的五十年中,闵斯基是AI领域最重要的领导者和创新者之一。
游戏AI
1951年,ChristopherStrachey使用曼彻斯特大学的FerrantiMark1机器写出了一个西洋跳棋(checkers)程序;DietrichPrinz则写出了一个国际象棋程序。ArthurSamuel在五十年代中期和六十年代初开发的国际象棋程序的棋力已经可以挑战具有相当水平的业余爱好者。游戏AI一直被认为是评价AI进展的一种标准。
图灵测试
1950年,图灵发表了一篇划时代的论文,文中预言了创造出具有真正智能的机器的可能性。由于注意到“智能”这一概念难以确切定义,他提出了著名的图灵测试:如果一台机器能够与人类展开对话(通过电传设备)而不能被辨别出其机器身份,那么称这台机器具有智能。这一简化使得图灵能够令人信服地说明“思考的机器”是可能的。论文中还回答了对这一假说的各种常见质疑。图灵测试是人工智能哲学方面第一个严肃的提案。
图灵测试
符号推理与“逻辑理论家”程序
50年代中期,随着数字计算机的兴起,一些科学家直觉地感到可以进行数字操作的机器也应当可以进行符号操作,而符号操作可能是人类思维的本质。这是创造智能机器的一条新路。
1955年,Newell和(后来荣获诺贝尔奖的)Simon在J.C.Shaw的协助下开发了“逻辑理论家(LogicTheorist)”。这个程序能够证明《数学原理》中前52个定理中的38个,其中某些证明比原著更加新颖和精巧。Simon认为他们已经“解决了神秘的心/身问题,解释了物质构成的系统如何获得心灵的性质。”(这一断言的哲学立场后来被JohnSearle称为“强人工智能”,即机器可以像人一样具有思想。)
1956年达特茅斯会议:AI的诞生
1956年达特矛斯会议的组织者是MarvinMinsky,约翰•麦卡锡和另两位资深科学家ClaudeShannon以及NathanRochester,后者来自IBM。会议提出的断言之一是“学习或者智能的任何其他特性的每一个方面都应能被精确地加以描述,使得机器可以对其进行模拟。”与会者包括RaySolomonoff,OliverSelfridge,TrenchardMore,ArthurSamuel,Newell和Simon,他们中的每一位都将在AI研究的第一个十年中作出重要贡献。会上纽厄尔和西蒙讨论了“逻辑理论家”,而麦卡锡则说服与会者接受“人工智能”一词作为本领域的名称。1956年达特矛斯会议上AI的名称和任务得以确定,同时出现了最初的成就和最早的一批研究者,因此这一事件被广泛承认为AI诞生的标志。
黄金年代:1956–1974达特茅斯会议之后的数年是大发现的时代。对许多人而言,这一阶段开发出的程序堪称神奇:计算机可以解决代数应用题,证明几何定理,学习和使用英语。当时大多数人几乎无法相信机器能够如此“智能”。研究者们在私下的交流和公开发表的论文中表达出相当乐观的情绪,认为具有完全智能的机器将在二十年内出现。ARPA(国防高等研究计划署)等政府机构向这一新兴领域投入了大笔资金。从50年代后期到60年代涌现了大批成功的AI程序和新的研究方向。下面列举其中最具影响的几个。
搜索式推理
许多AI程序使用相同的基本算法。为实现一个目标(例如赢得游戏或证明定理),它们一步步地前进,就像在迷宫中寻找出路一般;如果遇到了死胡同则进行回溯。这就是“搜索式推理”。
这一思想遇到的主要困难是,在很多问题中,“迷宫”里可能的线路总数是一个天文数字(所谓“指数爆炸”)。研究者使用启发式算法去掉那些不太可能导出正确答案的支路,从而缩小搜索范围。Newell和Simon试图通过其“通用解题器(GeneralProblemSolver)”程序,将这一算法推广到一般情形。另一些基于搜索算法证明几何与代数问题的程序也给人们留下了深刻印象,例如HerbertGelernter的几何定理证明机(1958)和Minsky的学生JamesSlagle开发的SAINT(1961)。还有一些程序通过搜索目标和子目标作出决策,如斯坦福大学为控制机器人Shakey而开发的STRIPS系统。
自然语言
AI研究的一个重要目标是使计算机能够通过自然语言(例如英语)进行交流。早期的一个成功范例是DanielBobrow的程序STUDENT,它能够解决高中程度的代数应用题。如果用节点表示语义概念(例如“房子”,“门”),用节点间的连线表示语义关系(例如“有—一个”),就可以构造出“语义网(semanticnet)”。第一个使用语义网的AI程序由RossQuillian开发;[54]而最为成功(也是最有争议)的一个则是RogerSchank的“概念关联(ConceptualDependency)”。JosephWeizenbaum的ELIZA是第一个聊天机器人,可能也是最有趣的会说英语的程序。与ELIZA“聊天”的用户有时会误以为自己是在和人类,而不是和一个程序,交谈。但是实际上ELIZA根本不知道自己在说什么。它只是按固定套路作答,或者用符合语法的方式将问题复述一遍。
自然语言
微世界
60年代后期,麻省理工大学AI实验室的MarvinMinsky和SeymourPapert建议AI研究者们专注于被称为“微世界”的简单场景。他们指出在成熟的学科中往往使用简化模型帮助基本原则的理解,例如物理学中的光滑平面和完美刚体。许多这类研究的场景是“积木世界”,其中包括一个平面,上面摆放着一些不同形状,尺寸和颜色的积木。在这一指导思想下,GeraldSussman(研究组长),AdolfoGuzman,DavidWaltz(“约束传播(constraintpropagation)”的提出者),特别是PatrickWinston等人在机器视觉领域作出了创造性贡献。同时,Minsky和Papert制作了一个会搭积木的机器臂,从而将“积木世界”变为现实。微世界程序的最高成就是TerryWinograd的SHRDLU,它能用普通的英语句子与人交流,还能作出决策并执行操作。
乐观思潮
第一代AI研究者们曾作出了如下预言:
1958年,H.A.Simon,AllenNewell:“十年之内,数字计算机将成为国际象棋世界冠军。”“十年之内,数字计算机将发现并证明一个重要的数学定理。”
1965年,H.A.Simon:“二十年内,机器将能完成人能做到的一切工作。”
1967年,MarvinMinsky:“一代之内……创造‘人工智能’的问题将获得实质上的解决。”
1970年,MarvinMinsky:“在三到八年的时间里我们将得到一台具有人类平均智能的机器。”
经费
1963年6月,MIT从新建立的ARPA(即后来的DARPA,国防高等研究计划局)获得了二百二十万美元经费,用于资助MAC工程,其中包括Minsky和McCarthy五年前建立的AI研究组。此后ARPA每年提供三百万美元,直到七十年代为止。ARPA还对Newell和Simon在卡内基梅隆大学的工作组以及斯坦福大学AI项目(由JohnMcCarthy于1963年创建)进行类似的资助。另一个重要的AI实验室于1965年由DonaldMichie在爱丁堡大学建立。[65]在接下来的许多年间,这四个研究机构一直是AI学术界的研究(和经费)中心。经费几乎是无条件地提供的:时任ARPA主任的J.C.R.Licklider相信他的组织应该“资助人,而不是项目”,并且允许研究者去做任何感兴趣的方向。这导致了MIT无约无束的研究氛围及其hacker文化的形成,但是好景不长。
第一次AI低谷:1974–1980到了70年代,AI开始遭遇批评,随之而来的还有资金上的困难。AI研究者们对其课题的难度未能作出正确判断:此前的过于乐观使人们期望过高,当承诺无法兑现时,对AI的资助就缩减或取消了。同时,由于MarvinMinsky对感知器的激烈批评,联结主义(即神经网络)销声匿迹了十年。70年代后期,尽管遭遇了公众的误解,AI在逻辑编程,常识推理等一些领域还是有所进展。
问题
70年代初,AI遭遇了瓶颈。即使是最杰出的AI程序也只能解决它们尝试解决的问题中最简单的一部分,也就是说所有的AI程序都只是“玩具”。AI研究者们遭遇了无法克服的基础性障碍。尽管某些局限后来被成功突破,但许多至今仍无法满意地解决。
计算机的运算能力
当时的计算机有限的内存和处理速度不足以解决任何实际的AI问题。例如,RossQuillian在自然语言方面的研究结果只能用一个含二十个单词的词汇表进行演示,因为内存只能容纳这么多。1976年HansMoravec指出,计算机离智能的要求还差上百万倍。他做了个类比:人工智能需要强大的计算能力,就像飞机需要大功率动力一样,低于一个门限时是无法实现的;但是随着能力的提升,问题逐渐会变得简单。
计算复杂性和指数爆炸
1972年RichardKarp根据StephenCook于1971年提出的Cook-Levin理论证明,许多问题只可能在指数时间内获解(即,计算时间与输入规模的幂成正比)。除了那些最简单的情况,这些问题的解决需要近乎无限长的时间。这就意味着AI中的许多玩具程序恐怕永远也不会发展为实用的系统。
常识与推理。许多重要的AI应用,例如机器视觉和自然语言,都需要大量对世界的认识信息。程序应该知道它在看什么,或者在说些什么。这要求程序对这个世界具有儿童水平的认识。研究者们很快发现这个要求太高了:1970年没人能够做出如此巨大的数据库,也没人知道一个程序怎样才能学到如此丰富的信息。
莫拉维克悖论
证明定理和解决几何问题对计算机而言相对容易,而一些看似简单的任务,如人脸识别或穿过屋子,实现起来却极端困难。这也是70年代中期机器视觉和机器人方面进展缓慢的原因。
框架和资格问题
采取逻辑观点的AI研究者们(例如JohnMcCarthy)发现,如果不对逻辑的结构进行调整,他们就无法对常见的涉及自动规划(planningordefaultreasoning)的推理进行表达。为解决这一问题,他们发展了新逻辑学(如非单调逻辑(non-monotoniclogics)和模态逻辑(modallogics))。
停止拨款
由于缺乏进展,对AI提供资助的机构(如英国政府,DARPA和NRC)对无方向的AI研究逐渐停止了资助。早在1966年ALPAC(AutomaticLanguageProcessingAdvisoryCommittee,自动语言处理顾问委员会)的报告中就有批评机器翻译进展的意味,预示了这一局面的来临。NRC(NationalResearchCouncil,美国国家科学委员会)在拨款二千万美元后停止资助。1973年Lighthill针对英国AI研究状况的报告批评了AI在实现其“宏伟目标”上的完全失败,并导致了英国AI研究的低潮(该报告特别提到了指数爆炸问题,以此作为AI失败的一个原因)。DARPA则对CMU的语音理解研究项目深感失望,从而取消了每年三百万美元的资助。到了1974年已经很难再找到对AI项目的资助。
HansMoravec将批评归咎于他的同行们不切实际的预言:“许多研究者落进了一张日益浮夸的网中”。还有一点,自从1969年Mansfield修正案通过后,DARPA被迫只资助“具有明确任务方向的研究,而不是无方向的基础研究”。60年代那种对自由探索的资助一去不复返;此后资金只提供给目标明确的特定项目,比如自动坦克,或者战役管理系统。
来自大学的批评
一些哲学家强烈反对AI研究者的主张。其中最早的一个是JohnLucas,他认为哥德尔不完备定理已经证明形式系统(例如计算机程序)不可能判断某些陈述的真理性,但是人类可以。HubertDreyfus讽刺六十年代AI界那些未实现的预言,并且批评AI的基础假设,认为人类推理实际上仅涉及少量“符号处理”,而大多是具体的,直觉的,下意识的“窍门(knowhow)”。JohnSearle于1980年提出“中文房间”实验,试图证明程序并不“理解”它所使用的符号,即所谓的“意向性(intentionality)”问题。Searle认为,如果符号对于机器而言没有意义,那么就不能认为机器是在“思考”。
AI研究者们并不太把这些批评当回事,因为它们似乎有些离题,而计算复杂性和“让程序具有常识”等问题则显得更加紧迫和严重。对于实际的计算机程序而言,“常识”和“意向性”的区别并不明显。Minsky提到Dreyfus和Searle时说,“他们误解了,所以应该忽略”。在MIT任教的Dreyfus遭到了AI阵营的冷遇:他后来说,AI研究者们“生怕被人看到在和我一起吃中饭”。ELIZA程序的作者JosephWeizenbaum感到他的同事们对待Dreyfus的态度不太专业,而且有些孩子气。虽然他直言不讳地反对Dreyfus的论点,但他“清楚地表明了他们待人的方式不对”。
Weizenbaum后来开始思考AI相关的伦理问题,起因是KennethColby开发了一个模仿医师的聊天机器人DOCTOR,并用它当作真正的医疗工具。二人发生争执;虽然Colby认为Weizenbaum对他的程序没有贡献,但这于事无补。1976年Weizenbaum出版著作《计算机的力量与人类的推理》,书中表示人工智能的滥用可能损害人类生命的价值。
人工智能的三次浪潮与三种模式
■史爱武
谈到人工智能,人工智能的定义到底是什么?
达特茅斯会议上对人工智能的定义是:使一部机器的反应方式就像是一个人在行动时所依据的智能。
百度百科上对人工智能的定义是:它是研究、开发用于模拟、延伸和扩展人的智能的理论、方法、技术及应用系统的一门新的技术科学。人工智能是计算机科学的一个分支,它企图了解智能的实质,并生产出一种新的能以人类智能相似的方式做出反应的智能机器,该领域的研究包括机器人、语言识别、图像识别、自然语言处理和专家系统等。
尽管人工智能现在还没有非常严格准确或者所有人都接受的定义,但是有一些约定俗成的说法。通常人工智能是指机器智能,让机器达到人智能所实现的一些功能。人工智能既然是机器智能,就不是机械智能,那么这个机器是指什么呢?是指计算机,用计算机仿真出来的人的智能行为就可以叫作人工智能。
2017年7月,国务院印发了《新一代人工智能发展规划》。2017年12月,人工智能入选“2017年度中国媒体十大流行语”。这一国家级战略和社会流行趋势标志着,人工智能发展进入了新阶段,我国要抢抓人工智能发展的重大战略机遇,构筑人工智能发展的先发优势,加快建设创新型国家和世界科技强国。
人工智能的三次浪潮
自1956年开始,人工智能经历了三起三落,出现了几次浪潮,现在人工智能已经是处于第三次浪潮了。
第一次浪潮(1956-1976年,20年),最核心的是逻辑主义
逻辑主义主要是用机器证明的办法去证明和推理一些知识,比如用机器证明一个数学定理。要想证明这些问题,需要把原来的条件和定义从形式化变成逻辑表达,然后用逻辑的方法去证明最后的结论是对的还是错的,也叫做逻辑证明。
早期的计算机人工智能实际上都是沿着这条路在走。当时很多专家系统,比如医学专家系统,用语言文字输入一些症状,在机器里面变换成逻辑表达,用符号演算的办法推理出大概得了什么病。所以当时的主要研究都集中在逻辑抽象、逻辑运算和逻辑表达等方面。
在第一次浪潮中,数学定理证明实际上是实现效果最好的,当时有很多数学家用定理思路证明了数学定理。为了更好地完成定理证明工作,当时出了很多和逻辑证明相关的逻辑程序语言,比如很有名的Prolog。
虽然当时的成果已经能够解开拼图或实现简单的游戏,却几乎无法解决任何实用的问题。
第二次浪潮(1976—2006年,30年),联结主义盛行
在第一次浪潮期间,逻辑主义和以人工神经网络为代表的联结主义相比,逻辑主义是完全占上风的,联结主义那时候不太吃香。然而逻辑主义最后无法解决实用的问题,达不到人们对它的期望,引起了大家的反思,这时候人工神经网络(也就是联结主义)就慢慢占了上风。
在70年代末,整个神经元联结网络、模型都有突飞猛进的进步,最重要的是BP前馈神经网络。1986年BP前馈神经网络刚出来的时候解决了不少问题,后来大家往更大的领域应用,实现了比较大的成果。在很多模式识别的领域、手写文字的识别、字符识别、简单的人脸识别也开始用起来,这个领域一下子就热起来,一时之间,人们感觉人工智能大有可为。随后十几年人们发现神经网络可以解决一些单一问题,解决复杂问题却有些力不从心。训练学习的时候,数据量太大,有很多结果到一定程度就不再往上升了。
这时期所进行的研究,是以灌输“专家知识”作为规则,来协助解决特定问题的“专家系统”为主。虽然有一些实际的商业应用案例,应用范畴却很有限,第二次热潮也就慢慢趋于消退。
第三次浪潮(2006—现在),基于互联网大数据的深度学习的突破
如果按照技术分类来讲,第二次和第三次浪潮都是神经网络技术的发展,不同的是,第三次浪潮是多层神经网络的成功,也就是深度学习取得突破。这里既有硬件的进步,也有卷积神经网络模型与参数训练技巧的进步。
若观察脑的内部,会发现有大量称为“神经元”的神经细胞彼此相连。一个神经元从其他神经元那里接收的电气信号量达某一定值以上,就会兴奋(神经冲动);在某一定值以下,就不会兴奋。兴奋起来的神经元,会将电气信号传送给下一个相连的神经元。下一个神经元同样会因此兴奋或不兴奋。简单来说,彼此相连的神经元,会形成联合传递行为。我们透过将这种相连的结构来数学模型化,便形成了人工神经网络。
经模型化的人工神经网络,是由“输入层”“隐藏层”及“输出层”等三层构成。深度学习往往意味着有多个隐藏层,也就是多层神经网络。另外,学习数据则是由输入数据以及相对应的正确解答来组成。
为了让输出层的值跟各个输入数据所对应的正解数据相等,会对各个神经元的输入计算出适当的“权重”值。通过神经网络,深度学习便成为了“只要将数据输入神经网络,它就能自行抽出特征”的人工智能。
伴随着高性能计算机、云计算、大数据、传感器的普及,以及计算成本的下降,“深度学习”随之兴起。它通过模仿人脑的“神经网络”来学习大量数据的方法,使它可以像人类一样辨识声音及影像,或是针对问题做出合适的判断。在第三次浪潮中,人工智能技术及应用有了很大的提高,深度学习算法的突破居功至伟。
深度学习最擅长的是能辨识图像数据或波形数据这类无法符号化的数据。自2010年以来,Apple、Microsoft及Google等国际知名IT企业,都投入大量人力物力财力开展深度学习的研究。例如AppleSiri的语音识别,Microsoft搜索引擎Bing的影像搜寻等等,而Google的深度学习项目也已超过1500项。
深度学习如此快速的成长和应用,也要归功于硬件设备的提升。图形处理器(GPU)大厂英伟达(NVIDIA)利用该公司的图形适配器、连接库(Library)和框架(Frame⁃work)产品来提升深度学习的性能,并积极开设研讨课程。另外,Google也公开了框架TensorFlow,可以将深度学习应用于大数据分析。
人工智能的3种模式
人工智能的概念很宽泛,根据人工智能的实力可以分成3大类,也称为3种模式。
(1)弱人工智能:擅长于单个方面的人工智能,也叫专业人工智能。比如战胜世界围棋冠军的人工智能AlphaGo,它只会下围棋,如果让它下国际象棋或分辨一下人脸,它可能就会犯迷糊,就不知道怎么做了。当前我们实现的几乎全是弱人工智能。
(2)强人工智能:是指在各方面都能和人类比肩的人工智能,这是类似人类级别的人工智能,也叫通用人工智能。人类能干的脑力活,它都能干,创造强人工智能比创造弱人工智能难得多,目前我们还做不到。
(3)超人工智能:知名人工智能思想家NickBostrom把超级智能定义为“在几乎所有领域都比最聪明的人类大脑都聪明很多,包括科学创新、通识和社交技能”。超人工智能可以是各方面都比人类强点,也可以是各方面都比人类强很多倍。超人工智能现在还不存在,很多人也希望它永远不要存在。否则,可能像好莱坞大片里面的超级智能机器一样,对人类也会带来一些威胁或者颠覆。
我们现在处于一个充满弱人工智能的世界。比如,垃圾邮件分类系统是个帮助我们筛选垃圾邮件的弱人工智能;Google翻译是可以帮助我们翻译英文的弱人工智能等等。这些弱人工智能算法不断地加强创新,每一个弱人工智能的创新,都是迈向强人工智能和超人工智能的进步。正如人工智能科学家AaronSaenz所说,现在的弱人工智能就像地球早期软泥中的氨基酸,可能突然之间就形成了生命。如世界发展的规律看来,超人工智能也是未来可期的!
人工智能泡沫已经破了两次,这次还会破吗
第一次浪潮和第一次低谷:
达特茅斯会议推动了全球第一次人工智能浪潮的出现,这次浪潮从1956年一直持续到1974年。当时乐观的气氛弥漫着整个学界,在算法方面出现了很多世界级的发明,其中包括一种叫做增强学习的雏形(即贝尔曼公式),增强学习就是谷歌AlphaGo算法核心思想内容。
70年代初,AI遭遇了瓶颈。人们发现逻辑证明器、感知器、增强学习等等只能做很简单、非常专门且很窄的任务,稍微超出范围就无法应对。当时的计算机有限的内存和处理速度不足以解决任何实际的AI问题。
研究者们很快发现,要求程序对这个世界具有儿童水平的认识这个要求都太高了——1970年没人能够做出人工智能需要的巨大数据库,也没人知道一个程序怎样才能学到如此丰富的信息。另一方面,有很多计算复杂度以指数程度增加,这成为了不可能完成的计算任务。
第二次浪潮和第二次低谷:
在80年代,一类名为“专家系统”的AI程序开始为全世界的公司所采纳,而“知识处理”成为了主流AI研究的焦点。专家系统的能力来自于它们存储的专业知识,知识库系统和知识工程成为了80年代AI研究的主要方向。
但是专家系统的实用性仅仅局限于某些特定情景,不久后人们对专家系统的狂热追捧转向巨大的失望。另一方面,1987年到1993年现代PC的出现,其费用远远低于专家系统所使用的Symbolics和Lisp等机器。
相比于现代PC,专家系统被认为古老陈旧而非常难以维护。于是,政府经费开始下降,寒冬又一次来临。
第三次浪潮:
1993年后,出现了新的数学工具、新的理论和摩尔定律。人工智能也在确定自己的方向,其中一个选择就是要做实用性、功能性的人工智能,这导致了一个新的人工智能路径。
深度学习为核心的机器学习算法获得发展,积累的数据量极大丰富,新型芯片和云计算的发展使得可用的计算能力获得飞跃式发展,现代AI的曙光又再次出现了。一个标志性事件发生在2016年3月,谷歌DeepMind研发的AlphaGo在围棋人机大战中击败韩国职业九段棋手李世石。随后,大众开始熟知人工智能,各个领域的热情都被调动起来了。
深度学习算法,这次人工智能崛起的技术根基
可以看到,每次技术的突破,都会迎来一波人工智能的发展浪潮。这次人工智能浪潮的基石有三个,分别是算法、数据和计算能力。尤其是算法,直接决定了人工智能的发展水平。
人工智能的三大根基
首先,我们来看看这次人工智能的技术根基。1943年,美国心理学家McCulloch和数学家Pitts在论文《神经活动中所蕴含思想的逻辑活动》中首次提出神经元的M-P模型,该模型从逻辑功能器件的角度来描述神经元。M-P模型将生物神经信息处理模式简化为数学模型,为神经网络的理论研究开辟了道路。
M-P模型
在M-P模型中,Xi(i=1,2,...,n)表示来自于与当前神经元j相连的其他神经元传递的输入信号,Wij表示从神经元i到j的连接强度,F为转移函数。那么神经元的输出用向量表示就是Yj=F(XW)。
2006年,加拿大多伦多教授Hinton和他的学生发表了《Reducingthedimensionalityofdatawithneuralnetworks》,提出了一种面向复杂通用学习任务的深度神经网络,指出具有大量隐层的网络具有优异的特征学习能力,而网络的训练可以采用“逐层初始化”与“反向微调”技术解决。
自此,人类借助神经网络找到了处理“抽象”概念的方法,人工智能进入了一个崭新的时代。
深度神经网络
另一方面,由于互联网、移动互联网以及物联网的发展,企业尤其是互联网巨头积累了大量的数据。再加上云计算的发展,让计算能力像电力一样变得更加便宜,可获得性更高。
芯片性能的提高,GPU、FPGA等人工智能芯片的出现和发展,进一步提高了人类可利用的计算水平。一些互联网巨头开始利用大量数据,来训练其深度学习算法,不断提升系统的智能水平。
纯粹理性批判,我们离冬天还有几年?
介绍完了人工智能的“沉浮史”,以及支撑这次浪潮的基础。现在让我们回到刚开始的那个问题:这次人工智能的泡沫会破么?分析这个问题的角度有两个:
从历史上人工智能两次低谷的原因来分析这次面临同样困境的可能性;从这次人工智能浪潮的支撑基石角度,看目前的技术水平能支撑人工智能走多远。
从上两次人工智能泡沫破灭的原因来看,最重要的限制来自算法层面。人们对人工智能的最大期待是不断提升系统的智能水平,让智能系统逐步拓展能够处理的问题范围,最终实现通用人工智能系统,解决几乎所有领域问题。
每次人工智能浪潮中,人们都或多或少的怀有“一劳永逸”的期待。泡沫破灭的主要原因,也是现实的系统远远无法达到人们所想象的智能水平。
第一次泡沫破灭是因为人们发现当时的智能系统如逻辑证明器、感知器、增强学习等,只能做很简单、非常专门且很窄的任务,稍微超出范围就无法应对,这让智能系统不足以解决任何实际的问题。
第二次泡沫破灭也是因为专家系统所能解决的问题非常局限,远远无法达到人们的期待。
那么,算法的局限性也会是埋葬这次人工智能浪潮的掘墓人么?——很可能是!这次技术革新最大的成就无疑是深度学习技术,人工智能浪潮能走多远很大程度上取决于深度学习技术到底有多强。
深度学习是比以前的统计学和机器学习方法更为强大的模式识别方法,但具有很多的内在缺陷:
深度学习系统缺乏推理能力。深度学习技术缺乏表达因果关系的手段,缺乏进行逻辑推理的方法,而逻辑推理毫无疑问是人类智能的核心之一。
深度学习系统缺乏短时记忆能力。人类的大脑有着惊人的记忆功能,我们不仅能够识别个体案例,更能分析输入信息之间的整体逻辑序列。这些信息序列富含有大量的内容,信息彼此间有着复杂的时间关联性。
目前的深度学习系统,都不能很好地存储多个时间序列上的记忆,也就是说缺乏记忆能力。这在目前主流的人机对话系统中可以很明显的感觉出来。
人类的交流,都会基于前面的交谈内容来构建语境,后面的交流都会基于前面的语境来进行,目前的人机对话系统还远远达不到这种水平。比如苹果的Siri系统,你问它3乘以3等于多少,它可以很好的回答,但是你再问“刚才的结果再乘以3呢?”或者说“我刚刚问你什么来自?”,估计Siri得一脸懵逼。
缺乏执行无监督学习的能力。无监督学习在人类和动物的学习中占据主导地位,我们通过观察能够发现世界的内在结构,而不是被告知每一个客观事物的名称。
目前几乎所有由人工智能创造的经济价值都来自监督学习技术,也就是基于系统曾经接受过的其他实例的输入,来学习对结果进行预测或对东西进行分类。
在可预见的未来,深度学习系统还无法具备无监督学习的能力。目前来看,虽然无监督学习可以帮助特定的深度网络进行“预训练”,但最终绝大部分能够应用于实践的深度学习方法都是使用纯粹的有监督学习。
另一个方面,建立在语言之上的知识系统在人类智能方面扮演至关重要的作用。语言是知识的钥匙,而知识正是AI的终极目标。人类社会的知识,正是通过语言来代代相传的。
仅靠观察他人,人类是无法获取到广泛的可复用知识的。对于下一代智能系统所需的知识,人工智能必须能同时进行“阅读”和“聆听”才能获取到。而此等程度的机器学习,其关键技术正是NLP,可以说NLP是实现人与AI之间成功沟通的技术关键。但当前的深度学习方法还不足以解决NLP领域的核心问题。
仅仅通过扩大今天的深度学习技术,我们无法实现通用智能。虽然神经网络在大样本量上可以达到统计学上令人惊讶成果,但它们“对个例不可靠”,并且经常会导致人类永远不会出现的错误。
输入不准确或不完整数据的神经网络将产生错误的结果,这其中有两个著名的例子:
Google图像错误地将非洲裔美国人分类为大猩猩;微软的Tay在Twitter上学习了几个小时后,就出现了种族主义以及歧视女性的言论。
算法的突破无疑是制约人工智能发展的关键,这次人工智能浪潮的核心——深度学习算法的局限,直接决定了目前的人工智能系统不可能实现人们所预想的通用人工智能那种状态。
除了算法层面,就人工智能的另外两个关键因素数据和算力来看,虽然取得了很大的进步,但也存在诸多问题。
首先,数据层面。积累的海量数据就是人工智能系统的“粮食”,可以说是足够多的数据将人工智能“养大的”。
一方面,随着互联网、移动互联网的发展,数据积累的速度在不断加快,5G网络建成之后,物联网体系将会贡献更大量、类型更丰富、对人类更有价值的数据;
另一方面,不是积累的数据都可用,目前机器系统能够“理解”的基本都是结构化数据,像语音、图像、社交数据这些非结构化数据的“理解”还存在很大问题,在10年之内是否能够解决非结构化数据的“理解”问题尚未可知。
算力层面。目前的GPU、FPGA等人工智能芯片,虽然比CPU计算能力更强,但局限性依然很大。我们最终的目标是实现人类一样的通用智能,继而实现超级智能,那从系统的物理结构上就必须支持这一设想。
目前来看,我们对大脑的思维过程还知之甚少,其整个处理和决策过程对于人类来说还是个“黑箱”。就当前的处理芯片跟人脑在物理结构上的差距非常大,甚至可以说根本就不是一回事。对人脑神经系统的研究还任重道远,近10年内基本也看不到获得根本突破性进展的可能。
综上所述,技术尤其是算法层面的局限,决定了这次人工智能浪潮的“天花板”。深度学习算法带来的“技术红利”,将支撑我们再发展5~10年时间,随后就会遇到瓶颈。
在人工智能领域,技术的进步不是线性的,而是线性积累和间断式突破交替进行的。我们必须要达到一个“技术奇点”,才能实现根本上的突破,达到通用人工智能甚至是超级人工智能的水平。
大概率的可能性,未来几年人们对人工智能怀有巨大的热情和非理性的期待,但同时会渐渐发觉推进起来越来越费劲,仿佛有个无形的“天花板”挡在那里,迟迟不能获得突破,人们的耐心被渐渐耗尽,人工智能的下一个冬天也就来临了。
人工智能发展阶段
泡沫会以什么姿势破灭,怎么过冬?
人工智能技术和产业特性决定了,在没能实现高水平的智能之前,现在势头正猛的应用领域,在未来几年很可能会进入寒冬,乃至退出人们的视线,就像第二次浪潮中的专家系统一样。
人工智能的产业化应用,更多的是基于人们对于未来技术发展水平更高的预期,而不是当下已经达到的水平。比如自动驾驶领域,未来商用是基于能够达到L4级别的预期,但如果预期落空了呢?很可能自动驾驶就会被彻底抛弃。
就一般产业而言,线性发展的成分更重一些,即使产业不能再往前推进了,依然能够保持比较高的产业成熟度。人工智能产业则不同,如果以百分制来衡量一个产业的发展程度,人工智能不是从1慢慢发展到100,而是要么是90分以上,要么是10以下。
试想一下,你有一个智能助手,如果他的智力水平一直在10岁以下,你能接受么?那样的智能助手更多的是个玩具,不能委以重任,毕竟谁也不会将重要的事情交给一个小孩子来做。
再比如翻译领域,一旦智能系统能够达到人类水平的翻译能力,那将是一次彻底的颠覆,人类翻译员将彻底消失;但是,在没达到那种水平之前,翻译系统基本就是个摆设,你不能通过那套系统来与外国人顺畅的交流,也不能将看到的整段材料马上转换成另一种语言。
人工智能的泡沫,更多的是产业化和商业应用层面的。很多做人工智能应用的企业,如果发现将方案落地的期待落空,那他整个商业价值存在的根基就不存在了,整个产业将会消失,大量企业也会倒闭。
面对那样一个未来,我们应该怎么应对呢?我提出几点参考建议:
适度降低对人工智能的技术预判,理性设定商业模式。企业要仔细评估技术的发展潜力,不要抱有不切实际的幻想。寻找并设计一些智能水平不是太高就能具有商业价值的应用模式,并基于此来构建竞争壁垒。比如在自动驾驶领域,我们要做好L4在10年内无法实现的心理准备,寻找一些L3级别就能具有商业价值的应用领域。
现在就开始准备“过冬的粮草”。泡沫破灭之后,融资会变得越来越难,依据公司本身的造血能力维持基本没戏。所以,现在尽可能的多融资吧,并且在未来几年省着点花,争取能挨过寒冬。
实行曲线救国策略,发展一些“伪智能”业务,拓展业务领域。如果哪天发现“纯人工智能”这条路走不通,可以考虑发展一些周边产业,只要能带来现金流就行。虽然挂羊头卖狗肉有点缺德,但能保存“革命的火种”,也算一件好事。
我对人工智能事业怀有深切的热情,但目前的技术水平还无法满足我们内心最深切的期待,这一波人工智能浪潮很可能在几年内遭遇低谷。
比较坏的情况是:大多数人会由于失望而对人工智能事业不信任,媒体会由吹捧转而嘲讽冷落,大量企业可能倒闭,目前炙手可热的人工智能人才会遭遇职业危机,流入人工智能领域的资金会越来越少,到处都是一副萧条的景象。
怀有最美好的期待,做最坏的打算,这是干事业应有的理智和态度。希望这次人工智能浪潮不是行将破灭的泡沫,但如果是,请做好准备。(来自中国软件网,作者欧应刚)
免责声明:本文系网络转载,版权归原作者所有。如涉及作品版权问题,请与我们联系,我们将根据您提供的版权证明材料确认版权并支付稿酬或者删除内容。返回搜狐,查看更多