史爱武:人工智能的三次浪潮与三种模式
人工智能的三次浪潮自1956年开始,人工智能经历了三起三落,出现了几次浪潮,现在人工智能已经是处于第三次浪潮了。
第一次浪潮(1956-1976年,20年),最核心的是逻辑主义
逻辑主义主要是用机器证明的办法去证明和推理一些知识,比如用机器证明一个数学定理。要想证明这些问题,需要把原来的条件和定义从形式化变成逻辑表达,然后用逻辑的方法去证明最后的结论是对的还是错的,也叫做逻辑证明。
早期的计算机人工智能实际上都是沿着这条路在走。当时很多专家系统,比如医学专家系统,用语言文字输入一些症状,在机器里面变换成逻辑表达,用符号演算的办法推理出大概得了什么病。所以当时的主要研究都集中在逻辑抽象、逻辑运算和逻辑表达等方面。
在第一次浪潮中,数学定理证明实际上是实现效果最好的,当时有很多数学家用定理思路证明了数学定理。为了更好的完成定理证明工作,当时出了很多和逻辑证明相关的逻辑程序语言,比如很有名的Prolog。
虽然当时的成果已经能够解开拼图或实现简单的游戏,却几乎无法解决任何实用的问题。
第二次浪潮(1976—2006年,30年),联结主义盛行
在第一次浪潮期间,逻辑主义和以人工神经网络为代表的联结主义都在,逻辑主义是完全占上风的,联结主义那时候不太吃香。然而逻辑主义最后无法解决实用的问题,达不到人们对它的期望,引起了大家的反思,这时候人工神经网络(也就是联结主义)就慢慢占了上风。
在70年代末,整个神经元联结网络、模型都有突飞猛进的进步,最重要的是BP前馈神经网络。1986年BP前馈神经网络刚出来的时候解决了不少问题,后来大家往更大的领域应用,实现了比较大的成果。在很多模式识别的领域、手写文字的识别、字符识别、简单的人脸识别也开始用起来,这个领域一下子就热起来,一时之间,人们感觉人工智能大有可为。随后十几年人们发现神经网络可以解决一些单一问题,解决复杂问题却有些力不从心。训练学习的时候,数据量太大,有很多结果到一定程度就不再往上升了。
这时期所进行的研究,是以灌输“专家知识”作为规则,来协助解决特定问题的“专家系统”为主。虽然有一些实际的商业应用案例,应用范畴却很有限,第二次热潮也就慢慢趋于消退。
第三次浪潮(2006—现在),基于互联网大数据的深度学习的突破
如果按照技术分类来讲,第二次和第三次浪潮都是神经网络技术的发展,不同的是,第三次浪潮是多层神经网络的成功,也就是深度学习取得突破。这里既有硬件的进步,也有卷积神经网络模型与参数训练技巧的进步。
若观察脑的内部,会发现有大量称为“神经元”的神经细胞彼此相连。一个神经元从其他神经元那里接收的电气信号量达某一定值以上,就会兴奋(神经冲动);在某一定值以下,就不会兴奋。兴奋起来的神经元,会将电气信号传送给下一个相连的神经元。下一个神经元同样会因此兴奋或不兴奋。简单来说,彼此相连的神经元,会形成联合传递行为。我们透过将这种相连的结构来数学模型化,便形成了人工神经网络。
经模型化的人工神经网络,是由“输入层”、“隐藏层”及“输出层”等三层构成。深度学习往往意味着有多个隐藏层,也就是多层神经网络。另外,学习数据则是由输入数据以及相对应的正确解答来组成。
为了让输出层的值跟各个输入数据所对应的正解数据相等,会对各个神经元的输入计算出适当的“权重”值。通过神经网络,深度学习便成为了“只要将数据输入神经网络,它就能自行抽出特征”的人工智能。
伴随着高性能计算机、云计算、大数据、传感器的普及,以及计算成本的下降,“深度学习”随之兴起。它通过模仿人脑的“神经网络”来学习大量数据的方法,使它可以像人类一样辨识声音及影像,或是针对问题做出合适的判断。在第三次浪潮中,人工智能技术及应用有了很大的提高,深度学习算法的突破居功至伟。
深度学习最擅长的是能辨识图像数据或波形数据这类无法符号化的数据。自2010年以来,Apple、Microsoft及Google等国际知名IT企业,都投入大量人力物力财力开展深度学习的研究。例如AppleSiri的语音识别,Microsoft搜索引擎Bing的影像搜寻等等,而Google的深度学习项目也已超过1500项。
深度学习如此快速的成长和应用,也要归功于硬件设备的提升。图形处理器(GPU)大厂英伟达(NVIDIA)利用该公司的图形适配器、连接库(Library)和框架(Framework)产品来提升深度学习的性能,并积极开设研讨课程。另外,Google也公开了框架TensorFlow,可以将深度学习应用于大数据分析。
人工智能的三种模式人工智能的概念很宽泛,根据人工智能的实力可以分成3大类,也称为3种模式。
弱人工智能
长于单个方面的人工智能,也叫专业人工智能。比如战胜世界围棋冠军的人工智能AlphaGo,它只会下围棋,如果让它下国际象棋或分辨一下人脸,它可能就会犯迷糊,就不知道怎么做了。当前我们实现的几乎全是弱人工智能。
强人工智能
是指在各方面都能和人类比肩的人工智能,这是类似人类级别的人工智能,也叫通用人工智能。人类能干的脑力活,它都能干,创造强人工智能比创造弱人工智能难得多,目前我们还做不到。
超人工智能
知名人工智能思想家NickBostrom把超级智能定义为“在几乎所有领域都比最聪明的人类大脑都聪明很多,包括科学创新、通识和社交技能”。超人工智能可以是各方面都比人类强点,也可以是各方面都比人类强很多倍。超人工智能现在还不存在,很多人也希望它永远不要存在。否则,可能像好莱坞大片里面的超级智能机器一样,对人类也会带来一些威胁或者颠覆。
我们现在处于一个充满弱人工智能的世界。比如,垃圾邮件分类系统是个帮助我们筛选垃圾邮件的弱人工智能;Google翻译是可以帮助我们翻译英文的弱人工智能等等。这些弱人工智能算法不断地加强创新,每一个弱人工智能的创新,都是迈向强人工智能和超人工智能的进步。正如人工智能科学家AaronSaenz所说,现在的弱人工智能就像地球早期软泥中的氨基酸,可能突然之间就形成了生命。如世界发展的规律看来,超人工智能也是未来可期的!返回搜狐,查看更多
人工智能史上的二次低谷——第一次低谷
https://www.toutiao.com/a6654718358287548932/
2019-02-0611:05:58
人工智能的诞生:1943–1956在20世纪40年代和50年代,来自不同领域(数学,心理学,工程学,经济学和政治学)的一批科学家开始探讨制造人工大脑的可能性。1956年,人工智能被确立为一门学科。
控制论与早期神经网络
最初的人工智能研究是30年代末到50年代初的一系列科学进展交汇的产物。神经学研究发现大脑是由神经元组成的电子网络,其激励电平只存在“有”和“无”两种状态,不存在中间状态。维纳的控制论描述了电子网络的控制和稳定性。克劳德•香农提出的信息论则描述了数字信号(即高低电平代表的二进制信号)。图灵的计算理论证明数字信号足以描述任何形式的计算。这些密切相关的想法暗示了构建电子大脑的可能性。
IBM702:第一代AI研究者使用的电脑
这一阶段的工作包括一些机器人的研发,例如W。GreyWalter的“乌龟(turtles)”,还有“约翰霍普金斯兽”(JohnsHopkinsBeast)。这些机器并未使用计算机,数字电路和符号推理;控制它们的是纯粹的模拟电路。
WalterPitts和WarrenMcCulloch分析了理想化的人工神经元网络,并且指出了它们进行简单逻辑运算的机制。他们是最早描述所谓“神经网络”的学者。马文•闵斯基是他们的学生,当时是一名24岁的研究生。1951年他与DeanEdmonds一道建造了第一台神经网络机,称为SNARC。在接下来的五十年中,闵斯基是AI领域最重要的领导者和创新者之一。
游戏AI
1951年,ChristopherStrachey使用曼彻斯特大学的FerrantiMark1机器写出了一个西洋跳棋(checkers)程序;DietrichPrinz则写出了一个国际象棋程序。ArthurSamuel在五十年代中期和六十年代初开发的国际象棋程序的棋力已经可以挑战具有相当水平的业余爱好者。游戏AI一直被认为是评价AI进展的一种标准。
图灵测试
1950年,图灵发表了一篇划时代的论文,文中预言了创造出具有真正智能的机器的可能性。由于注意到“智能”这一概念难以确切定义,他提出了著名的图灵测试:如果一台机器能够与人类展开对话(通过电传设备)而不能被辨别出其机器身份,那么称这台机器具有智能。这一简化使得图灵能够令人信服地说明“思考的机器”是可能的。论文中还回答了对这一假说的各种常见质疑。图灵测试是人工智能哲学方面第一个严肃的提案。
图灵测试
符号推理与“逻辑理论家”程序
50年代中期,随着数字计算机的兴起,一些科学家直觉地感到可以进行数字操作的机器也应当可以进行符号操作,而符号操作可能是人类思维的本质。这是创造智能机器的一条新路。
1955年,Newell和(后来荣获诺贝尔奖的)Simon在J.C.Shaw的协助下开发了“逻辑理论家(LogicTheorist)”。这个程序能够证明《数学原理》中前52个定理中的38个,其中某些证明比原著更加新颖和精巧。Simon认为他们已经“解决了神秘的心/身问题,解释了物质构成的系统如何获得心灵的性质。”(这一断言的哲学立场后来被JohnSearle称为“强人工智能”,即机器可以像人一样具有思想。)
1956年达特茅斯会议:AI的诞生
1956年达特矛斯会议的组织者是MarvinMinsky,约翰•麦卡锡和另两位资深科学家ClaudeShannon以及NathanRochester,后者来自IBM。会议提出的断言之一是“学习或者智能的任何其他特性的每一个方面都应能被精确地加以描述,使得机器可以对其进行模拟。”与会者包括RaySolomonoff,OliverSelfridge,TrenchardMore,ArthurSamuel,Newell和Simon,他们中的每一位都将在AI研究的第一个十年中作出重要贡献。会上纽厄尔和西蒙讨论了“逻辑理论家”,而麦卡锡则说服与会者接受“人工智能”一词作为本领域的名称。1956年达特矛斯会议上AI的名称和任务得以确定,同时出现了最初的成就和最早的一批研究者,因此这一事件被广泛承认为AI诞生的标志。
黄金年代:1956–1974达特茅斯会议之后的数年是大发现的时代。对许多人而言,这一阶段开发出的程序堪称神奇:计算机可以解决代数应用题,证明几何定理,学习和使用英语。当时大多数人几乎无法相信机器能够如此“智能”。研究者们在私下的交流和公开发表的论文中表达出相当乐观的情绪,认为具有完全智能的机器将在二十年内出现。ARPA(国防高等研究计划署)等政府机构向这一新兴领域投入了大笔资金。从50年代后期到60年代涌现了大批成功的AI程序和新的研究方向。下面列举其中最具影响的几个。
搜索式推理
许多AI程序使用相同的基本算法。为实现一个目标(例如赢得游戏或证明定理),它们一步步地前进,就像在迷宫中寻找出路一般;如果遇到了死胡同则进行回溯。这就是“搜索式推理”。
这一思想遇到的主要困难是,在很多问题中,“迷宫”里可能的线路总数是一个天文数字(所谓“指数爆炸”)。研究者使用启发式算法去掉那些不太可能导出正确答案的支路,从而缩小搜索范围。Newell和Simon试图通过其“通用解题器(GeneralProblemSolver)”程序,将这一算法推广到一般情形。另一些基于搜索算法证明几何与代数问题的程序也给人们留下了深刻印象,例如HerbertGelernter的几何定理证明机(1958)和Minsky的学生JamesSlagle开发的SAINT(1961)。还有一些程序通过搜索目标和子目标作出决策,如斯坦福大学为控制机器人Shakey而开发的STRIPS系统。
自然语言
AI研究的一个重要目标是使计算机能够通过自然语言(例如英语)进行交流。早期的一个成功范例是DanielBobrow的程序STUDENT,它能够解决高中程度的代数应用题。如果用节点表示语义概念(例如“房子”,“门”),用节点间的连线表示语义关系(例如“有—一个”),就可以构造出“语义网(semanticnet)”。第一个使用语义网的AI程序由RossQuillian开发;[54]而最为成功(也是最有争议)的一个则是RogerSchank的“概念关联(ConceptualDependency)”。JosephWeizenbaum的ELIZA是第一个聊天机器人,可能也是最有趣的会说英语的程序。与ELIZA“聊天”的用户有时会误以为自己是在和人类,而不是和一个程序,交谈。但是实际上ELIZA根本不知道自己在说什么。它只是按固定套路作答,或者用符合语法的方式将问题复述一遍。
自然语言
微世界
60年代后期,麻省理工大学AI实验室的MarvinMinsky和SeymourPapert建议AI研究者们专注于被称为“微世界”的简单场景。他们指出在成熟的学科中往往使用简化模型帮助基本原则的理解,例如物理学中的光滑平面和完美刚体。许多这类研究的场景是“积木世界”,其中包括一个平面,上面摆放着一些不同形状,尺寸和颜色的积木。在这一指导思想下,GeraldSussman(研究组长),AdolfoGuzman,DavidWaltz(“约束传播(constraintpropagation)”的提出者),特别是PatrickWinston等人在机器视觉领域作出了创造性贡献。同时,Minsky和Papert制作了一个会搭积木的机器臂,从而将“积木世界”变为现实。微世界程序的最高成就是TerryWinograd的SHRDLU,它能用普通的英语句子与人交流,还能作出决策并执行操作。
乐观思潮
第一代AI研究者们曾作出了如下预言:
1958年,H.A.Simon,AllenNewell:“十年之内,数字计算机将成为国际象棋世界冠军。”“十年之内,数字计算机将发现并证明一个重要的数学定理。”
1965年,H.A.Simon:“二十年内,机器将能完成人能做到的一切工作。”
1967年,MarvinMinsky:“一代之内……创造‘人工智能’的问题将获得实质上的解决。”
1970年,MarvinMinsky:“在三到八年的时间里我们将得到一台具有人类平均智能的机器。”
经费
1963年6月,MIT从新建立的ARPA(即后来的DARPA,国防高等研究计划局)获得了二百二十万美元经费,用于资助MAC工程,其中包括Minsky和McCarthy五年前建立的AI研究组。此后ARPA每年提供三百万美元,直到七十年代为止。ARPA还对Newell和Simon在卡内基梅隆大学的工作组以及斯坦福大学AI项目(由JohnMcCarthy于1963年创建)进行类似的资助。另一个重要的AI实验室于1965年由DonaldMichie在爱丁堡大学建立。[65]在接下来的许多年间,这四个研究机构一直是AI学术界的研究(和经费)中心。经费几乎是无条件地提供的:时任ARPA主任的J.C.R.Licklider相信他的组织应该“资助人,而不是项目”,并且允许研究者去做任何感兴趣的方向。这导致了MIT无约无束的研究氛围及其hacker文化的形成,但是好景不长。
第一次AI低谷:1974–1980到了70年代,AI开始遭遇批评,随之而来的还有资金上的困难。AI研究者们对其课题的难度未能作出正确判断:此前的过于乐观使人们期望过高,当承诺无法兑现时,对AI的资助就缩减或取消了。同时,由于MarvinMinsky对感知器的激烈批评,联结主义(即神经网络)销声匿迹了十年。70年代后期,尽管遭遇了公众的误解,AI在逻辑编程,常识推理等一些领域还是有所进展。
问题
70年代初,AI遭遇了瓶颈。即使是最杰出的AI程序也只能解决它们尝试解决的问题中最简单的一部分,也就是说所有的AI程序都只是“玩具”。AI研究者们遭遇了无法克服的基础性障碍。尽管某些局限后来被成功突破,但许多至今仍无法满意地解决。
计算机的运算能力
当时的计算机有限的内存和处理速度不足以解决任何实际的AI问题。例如,RossQuillian在自然语言方面的研究结果只能用一个含二十个单词的词汇表进行演示,因为内存只能容纳这么多。1976年HansMoravec指出,计算机离智能的要求还差上百万倍。他做了个类比:人工智能需要强大的计算能力,就像飞机需要大功率动力一样,低于一个门限时是无法实现的;但是随着能力的提升,问题逐渐会变得简单。
计算复杂性和指数爆炸
1972年RichardKarp根据StephenCook于1971年提出的Cook-Levin理论证明,许多问题只可能在指数时间内获解(即,计算时间与输入规模的幂成正比)。除了那些最简单的情况,这些问题的解决需要近乎无限长的时间。这就意味着AI中的许多玩具程序恐怕永远也不会发展为实用的系统。
常识与推理。许多重要的AI应用,例如机器视觉和自然语言,都需要大量对世界的认识信息。程序应该知道它在看什么,或者在说些什么。这要求程序对这个世界具有儿童水平的认识。研究者们很快发现这个要求太高了:1970年没人能够做出如此巨大的数据库,也没人知道一个程序怎样才能学到如此丰富的信息。
莫拉维克悖论
证明定理和解决几何问题对计算机而言相对容易,而一些看似简单的任务,如人脸识别或穿过屋子,实现起来却极端困难。这也是70年代中期机器视觉和机器人方面进展缓慢的原因。
框架和资格问题
采取逻辑观点的AI研究者们(例如JohnMcCarthy)发现,如果不对逻辑的结构进行调整,他们就无法对常见的涉及自动规划(planningordefaultreasoning)的推理进行表达。为解决这一问题,他们发展了新逻辑学(如非单调逻辑(non-monotoniclogics)和模态逻辑(modallogics))。
停止拨款
由于缺乏进展,对AI提供资助的机构(如英国政府,DARPA和NRC)对无方向的AI研究逐渐停止了资助。早在1966年ALPAC(AutomaticLanguageProcessingAdvisoryCommittee,自动语言处理顾问委员会)的报告中就有批评机器翻译进展的意味,预示了这一局面的来临。NRC(NationalResearchCouncil,美国国家科学委员会)在拨款二千万美元后停止资助。1973年Lighthill针对英国AI研究状况的报告批评了AI在实现其“宏伟目标”上的完全失败,并导致了英国AI研究的低潮(该报告特别提到了指数爆炸问题,以此作为AI失败的一个原因)。DARPA则对CMU的语音理解研究项目深感失望,从而取消了每年三百万美元的资助。到了1974年已经很难再找到对AI项目的资助。
HansMoravec将批评归咎于他的同行们不切实际的预言:“许多研究者落进了一张日益浮夸的网中”。还有一点,自从1969年Mansfield修正案通过后,DARPA被迫只资助“具有明确任务方向的研究,而不是无方向的基础研究”。60年代那种对自由探索的资助一去不复返;此后资金只提供给目标明确的特定项目,比如自动坦克,或者战役管理系统。
来自大学的批评
一些哲学家强烈反对AI研究者的主张。其中最早的一个是JohnLucas,他认为哥德尔不完备定理已经证明形式系统(例如计算机程序)不可能判断某些陈述的真理性,但是人类可以。HubertDreyfus讽刺六十年代AI界那些未实现的预言,并且批评AI的基础假设,认为人类推理实际上仅涉及少量“符号处理”,而大多是具体的,直觉的,下意识的“窍门(knowhow)”。JohnSearle于1980年提出“中文房间”实验,试图证明程序并不“理解”它所使用的符号,即所谓的“意向性(intentionality)”问题。Searle认为,如果符号对于机器而言没有意义,那么就不能认为机器是在“思考”。
AI研究者们并不太把这些批评当回事,因为它们似乎有些离题,而计算复杂性和“让程序具有常识”等问题则显得更加紧迫和严重。对于实际的计算机程序而言,“常识”和“意向性”的区别并不明显。Minsky提到Dreyfus和Searle时说,“他们误解了,所以应该忽略”。在MIT任教的Dreyfus遭到了AI阵营的冷遇:他后来说,AI研究者们“生怕被人看到在和我一起吃中饭”。ELIZA程序的作者JosephWeizenbaum感到他的同事们对待Dreyfus的态度不太专业,而且有些孩子气。虽然他直言不讳地反对Dreyfus的论点,但他“清楚地表明了他们待人的方式不对”。
Weizenbaum后来开始思考AI相关的伦理问题,起因是KennethColby开发了一个模仿医师的聊天机器人DOCTOR,并用它当作真正的医疗工具。二人发生争执;虽然Colby认为Weizenbaum对他的程序没有贡献,但这于事无补。1976年Weizenbaum出版著作《计算机的力量与人类的推理》,书中表示人工智能的滥用可能损害人类生命的价值。
人工智能的六个发展阶段,一起来看看吧
原标题:人工智能的六个发展阶段,一起来看看吧人工智能是研究、开发用于模拟、延伸和扩展人的智能的理论、方法、技术及应用系统的一门新的技术科学。人工智能从诞生以来,理论和技术日益成熟,应用领域不断扩大,可以设想,未来人工智能带来的科技产品,将会是人类智慧的“容器”。人工智能充满未知的探索道路曲折起伏,人工智能的发展历程基本划分为以下6个阶段:
1、起步发展期:1956年—20世纪60年代初人工智能概念提出后,相继取得了一批令人瞩目的研究成果,如机器定理证明、跳棋程序等,掀起人工智能发展的第一个高潮。
2、反思发展期:20世纪60年代—70年代初人工智能发展初期的突破性进展大大提升了人们对人工智能期望,人们开始尝试更具挑战性的任务,并提出了一些不切实际的研发目标。然而,接二连三的失败和预期目标落空使人工智能发展走入低谷。
3、应用发展期:20世纪70年代初—80年代中20世纪70年代出现的专家系统模拟人类专家的知识和经验解决特定领域的问题,实现了人工智能从理论研究走向实际应用、从一般推理策略探讨转向运用专门知识的重大突破。专家系统在医疗、化学、地质等领域取得成功,推动人工智能走入应用发展的新高潮。
4、低迷发展期:20世纪80年代中—90年代中随着人工智能的应用规模不断扩大,专家系统存在的应用领域狭窄、缺乏常识性知识、知识获取困难、推理方法单一、缺乏分布式功能、难以与现有数据库兼容等问题逐渐暴露出来。
5、稳步发展期:20世纪90年代中—2010年由于网络技术特别是互联网技术的发展,加速了人工智能的创新研究,促使人工智能技术进一步走向实用化。
6、蓬勃发展期:2011年至今随着大数据、云计算、互联网、物联网等信息技术的发展,泛在感知数据和图形处理器等计算平台推动以深度神经网络为代表的人工智能技术飞速发展,大幅跨越了科学与应用之间的“技术鸿沟”,诸如图像分类、语音识别、知识问答、人机对弈、无人驾驶等人工智能技术实现了从“不能用、不好用”到“可以用”的技术突破,迎来爆发式增长新高潮。
展开全文想学习云计算、大数据、新媒体的同学注意啦,博雅环球教育针对此次疫情特推出线上免费直播课程,同学们可以趁这个时期,好好充实一下自己,待到春暖花开时,学以致用,大展身手。想报名的同学快来联系我们吧!
北京|内蒙古|呼和浩特|IT计算机培训|云计算|大数据|新媒体|线上培训|免费课程|高薪就业
返回搜狐,查看更多
责任编辑:人工智能发展的三个热潮
随着AlphaGo和Master横扫棋坛,人工智能再次进入公众的视野。但追根溯源,人工智能并不是新鲜事物,早在1956年的达特茅斯会议被公认为是人工智能的起源。而50年后当年的会议者们重聚,看着照片中白发苍苍的人工智能开拓者与奠基者,不禁感慨万千。
20世纪50年代到60年代第一次热潮:理论的革新这是电子计算机刚刚诞生的时代,当时的计算机更多的被视为运算速度特别快的数学计算工具,图灵在思想上走到了所有研究者的最前沿,琢磨计算机是否能像人一样思考,即开始在理论高度思考“人工智能”的存在。1950年10月,艾伦图灵发表了一篇名为《计算机械和智能》的论文,提出了著名的图灵测试,影响深远,直到今天仍被计算机科学家乃至普罗大众所重视。以图灵测试为标志,数学证明系统,知识推理系统,专家系统等里程碑式的技术和应用在研究者中掀起了第一次热潮。在当时,人们对人工智能普遍持过分乐观的态度,人们认为看到了几年内计算机通过图灵测试的希望曙光。然而受到计算机性能和算法理论的局限,接踵而来的失败似乎渐渐消灭了人们的热情,人工智能的热度迅速消退。至2017年的今天,仍未有计算机真正意义上通过图灵测试。
20世纪80年代到90年代第二次热潮:思维的转变在第二次AI热潮中,语音识别是最具代表性的突破性进展之一,而这个突破依赖的是思维的转变。过去的语音识别更多的是专家系统,即根据的是语言学的知识,总结出语音和英文音素,再把每个字打开成音节与音素,让计算机用人类学习语言的方式来学习语言。在研发过程中,计算机工程师与科学家围绕着语言学家进行工作。而新的方法是基于数据的统计建模,抛弃了模仿人类思维方式总结思维规则的老路,研发过程中没有或极少语言学家的参与,更多的是计算机科学家与数学家的合作。这其中的转变看似容易,其实面临着人类既有观念和经验的极大阻力。最终,专家系统寿终正寝,基于数据统计模型的思想开始广泛传播。
事实证明,计算机的“思维”方法与人类的思维方法之间,似乎存在着非常微妙的差异,以至于在计算机科学的实践中,越是抛弃人类既有的经验知识,依赖于问题本身的数据特征,越是容易得到更好的结果。——李开复
2006年至今第三次热潮:技术的融合今天的人工智能研究中,深度学习无人不谈,无人不识。从知名的AlphaGo,到不那么知名但在2014年ImageNet竞赛中第一次超越人眼的图像识别算法,都是深度学习的产物。从根本上说,深度学习是一种用数学模型对真实世界中的特定问题进行建模,以解决该领域内相似问题的过程。但不为人所知的是,深度学习的历史几乎和人工智能一样长,只是一直默默无闻,直到它等到了时代的机遇。首先,计算机的计算性能和处理能力大幅提高。符合摩尔定律而指数级增长的计算机性能最终跨过了门槛。其次,互联网的蓬勃发展为搜索引擎等公司带来了高质量的大数据。并且正是因计算机性能的提高人们得以储存和利用这些数据。可以说在第三次热潮中,深度学习+大规模计算+大数据=人工智能
看到这里,似乎三次热潮只是如同下图所示:在一次又一次的震荡中往复。
然而事实或许并非如此,可能我们已经走到了从量变到质变的风口。
这条曲线概括了绝大多数高新技术的发展历程。我们很可能正处于第四个阶段。第三次热潮仍未结束。
第三次热潮有何不同?对比:前两次:学术研究主导市场宣传层面学术界在劝说和游说政府和投资人投钱更多的是提出问题第三次:商业需求主导商业模式层面投资人主动向热点领域的学术和创业项目投钱更多的是解决问题
如今的人工智能可以说真正和产业相结合,走进了人们的日常生活当中。搜索引擎的背后是以深度学习为基础的算法;美图秀秀的背后是机器视觉和AI艺术的结合;网络地图的背后是AI对大数据的挖掘和处理;……
今天的人工智能,是有用的人工智能。——李开复《人工智能》
最后以维基百科使用的综合定义作结:AI就是根据对环境的感知,做出合理的行动,并获得最大收益的计算机程序。
人工智能——专家系统从诞生到发展
文/陈根
自从1965 年世界上第一个专家系统 DENDRAL问世以来,专家系统的技术和应用,就在短短的30 年间获得了长足的进步和发展。尤其是在80年代中期以后,随着知识工程技术的日渐丰富和成熟,各种各样的实用专家系统推动着人工智能日益精进。
专家是指在学术、技艺等方面有专门技能或专业知识全面的人;特别精通某一学科或某项技艺的有较高造诣的专业人士。通常来说,专家拥有丰富的专业知识和实践经验,或者说专家们拥有丰富的理论知识和经验知识。专家还应该具有独特的思维方式,即独特的分析问题和解决问题的方法和策略。
专家系统,就是从“专家”而来,专家系统(ExpertSystem)也称专家咨询系统,是一种智能计算机(软件)系统。顾名思义,专家系统就是能像人类专家一样解决困难、复杂的实际问题的计算机(软件)系统。可以说,专家系统是一类特殊的知识系统。
作为基于知识的系统,建造专家系统就需要知识获取,即从人类专家那里或从实际问题那里搜集、整理、归纳专家级知识;知识表示,即以某种结构形式表达所获取的知识,并将其存储于计算机之中;知识的组织与管理,即知识库;建立与维护等和知识的利用,即使用知识进行推理等一系列关于知识处理的技术和方法。
DENDRAL作为世界第一个专家系统,由美国斯坦福大学的费根鲍姆教授于 1965年开发的。DENDRAL是一个化学专家系统,能根据化合物的分子式和质谱数据推断化合物的分子结构。
20世纪 70 年代,专家系统趋于成熟,专家系统的观点也开始广泛的被人们接受。70年代中期先后出现了一批卓有成效的专家系统,在医疗领域尤为突出。MYCIN就是其中最具代表性的专家系统。
MYCIN 系统是由EdwardH.Shortliffe等人于1972 年开始研制的用于诊断和治疗感染性疾病的医疗专家系统,其不仅能对传染性疾病作出专家水平的诊断和治疗选择,而且便于使用、理解、修改和扩充。此外,它可以使用自然语言同用户对话,并回答用户提出的问题,还可以在专家的指导下学习新的医疗知识。
MYCIN 第一次使用了知识库的概念,并使用了似然推理技术。可以说,MYCIN 是一个对专家系统的理论和实践都有较大贡献的专家系统,后来的许多专家系统都是在 MYCIN 的基础上研制的。
进入20世纪80年代,随着专家系统技术的逐渐成熟,其应用领域迅速扩大。20世纪70年代中期以前,专家系统多属于数据解释型(DENDRAL、PROSPECTOR、 HEARSAY 等)和故障诊断型( MYCIN、CASNET、INTERNIST 等)。它们所处理的问题基本上是可分解的问题。
20世纪70年代后期,专家系统开始出现其他的类型,包括超大规模集成电路设计系统KBVLSI、自动程序设计系统 PSI 等设计型专家系统;遗传学实验设计系统MOLGEN、安排机器人行动步骤的NOAH等规划型专家系统;感染病诊断治疗教学系统 GUIDON、蒸气动力设备操作教学系统 STEAMER 等教育型专家系统;军事冲突预测系统 IW 和暴雨预报系统 STEAMER 等预测型专家系统。
与此同时,这一时期专家系统在理论和方法上也进行了较深入的探讨。适于专家系统开发的程序语言和高级工具也相继问世。尤其是专家系统工具的出现又大大加快了专家系统的开发速度,进一步普及了专家系统的应用。
20世纪80年代,专家系统在生产制造领域中的应用已非常广泛,比如CAD/CAM和工程设计、机器故障诊断及维护、生产过程控制、调度和生产管理等。这些应用在提高产品质量和产生巨大经济效益方面带来了巨大成效,从而极大地推动了生产力的发展。