博舍

人工智能的三大学派 简述人工智能的三大学派

人工智能的三大学派

前言

本文隶属于专栏《人工智能》,该专栏为笔者原创,引用请注明来源,不足和错误之处请在评论区帮忙指出,谢谢!

本专栏目录结构和参考文献请见人工智能

人工智能是关于知识的科学

请参考我的这篇博客——人工智能是什么?

人工智能的研究主要是知识的表示、知识的获取和知识的应用。

理解人工智能就要研究如何在一般的意义上定义知识。

可惜的是,准确定义知识也是一个十分复杂的事情,严格来说,人们最早使用的知识定义是柏拉图在《泰阿泰德篇》中给出的,即“被证实的、真的和被相信的陈述”,简称知识的JTB条件。

然而,这个延续了两千多年的定义在1963年被哲学家盖梯尔否定了。盖梯尔提出了一个著名的悖论(简称“盖梯尔悖论”),该悖论说明柏拉图给出的知识定义存在严重缺陷。

虽然后来人们给出了很多知识的替代定义,但直到现在仍然没有定论。

概念

关于知识,至少有一点是明确的,那就是知识的基本单位是概念。

精通掌握任何一门知识,必须从这门知识的基本概念开始学习。

而知识自身也是一个概念。

因此,如何定义一个概念,对于人工智能具有非常重要的意义。

据此,人工智能的问题就变成了如下三个问题

如何定义(或者表示)一个概念如何学习一个概念如何应用一个概念。

因此对概念进行深入研究就非常必要了。

如何定义一个概念呢?

简单起见,这里先讨论最为简单的经典概念。

经典概念的定义由三部分组成:

第一部分是概念的符号表示,即概念的名称,说明这个概念叫什么,简称概念名;第二部分是概念的内涵表示,由命题来表示,命题就是能判断真假的陈述句第三部分是概念的外延表示,由经典集合来表示,用来说明与概念对应的实际对象是哪些。举例说明一素数其概念名在汉语中为“素数”,在英语中称为primenumber其内涵表示是一个命题,即只能够被1和自身整除的自然数其外延表示是一个经典集合,就是{1,2,3,5,7,11,13,17,…}概念有什么作用呢?或者说概念定义的各个组成部分有什么作用呢?

很容易发现,经典概念定义的三部分各有其作用,且彼此不能互相代替。

具体来说,概念有三个作用或功能,要掌握一个概念,必须清楚其三个功能。

第一个功能是概念的指物功能,即指向客观世界的对象,表示客观世界的对象的可观测性。对象的可观测性是指对象对于人或者仪器的知觉感知特性,不依赖于人的主观感受。但概念的指物功能有时不一定能够实现,有些概念其设想存在的对象在现实世界并不存在,例如“鬼”。第二个功能是指心功能,即指向人心智世界里的对象,代表心智世界里的对象表示。概念的指心功能一定存在。如果对于某一个人,一个概念的指心功能没有实现,则该词对于该人不可见,简单地说,该人不理解该概念。最后一个功能是指名功能,即指向认知世界或者符号世界表示对象的符号名称,这些符号名称组成各种语言。一般情形下,概念的指名功能依赖于不同的语言系统或者符号系统,由人类所创造,属于认知世界。同一个概念在不同的符号系统里,概念名不一定相同,如汉语称“雨”,英语称“rain”。三大学派

知道了概念的三个功能之后,就可以理解人工智能的三个流派以及各流派之间的关系。

人工智能也是一个概念,而要使一个概念成为现实,自然要实现概念的三个功能。

人工智能的三个流派关注于如何才能让机器具有人工智能,并根据概念的不同功能给出了不同的研究路线。

专注于实现AI指名功能的人工智能流派称为符号主义(Symbolism);专注于实现AI指心功能的人工智能流派称为连接主义(Connectionism);专注于实现AI指物功能的人工智能流派称为行为主义(Actionism)。符号主义学派符号主义-类人的行为方式

人工智能是关于如何制造智能机器,特别是智能的计算机程序的科学和工程。

它与使用机器来理解人类智能密切相关,但人工智能的研究并不需要局限于生物学上可观察到的那些方法。–约翰麦卡锡

需要智能的行为:

下象棋定理证明诊断疾病能通过图灵测试的机器符号主义的实现基础-物理符号系统假设

什么叫物理符号系统呢?

符号,就是模式(Pattern)

物理符号系统:一组称为符号的实体所组成的系统,且具备处理符号的六种功能如:输入、输出、存储、复制、建立符号结构、条件性迁移。

物理符号系统假设

任一物理符号系统如果是有智能的,则必能执行六种功能。

反之,能执行这六种操作的任何系统,也就一定能够表现出智能–纽威尔和西蒙。

推论:人是一个物理符号系统,计算机也是一个物理符号系统,因此能够用计算机来模拟人的智能行为。

符号主义

符号主义是一种基于逻辑推理的智能模拟方法,源于数学逻辑。

符号主义的代表人物有纽威尔、西蒙、尼尔森,符号主义是早期的主流学派。

符号主义成果有:

机器定理程序(LT、GTM、GPS…)启发式算法专家系统连接主义学派

连接主义又称:仿生学派或生理学派。源于仿生学,特别是人脑模型的研究。

连接主义核心思想是:认为人的智能归结为人脑的高层活动的结果,强调智能活动是由大量简单的单元通过复杂链接后并行运行的结果,其原理是神经网络及神经网络间的连接机制与学习算法。

连接主义学派代表:麦克洛奇、皮茨等。代表成果:人工神经网络,深度神经网络。发展史的大事件1943年,第一个神经元的数学模型-MP模型。1958年,感知机模型(Perceptron)。1982年,递归型人工神经网络提出,连接主义的复兴。1986年,反向传播算法2006年,提出的深度神经网络突破了以往的瓶颈,迎来了神经网络学习的高潮。2012年,第一个深度神经网络算法-Alexnet2016年,AlphaGo行为主义学派控制学论派关注:低级生物智能起源:控制论。布鲁克斯的机器昆虫:借鉴自然界中昆虫不需要大脑的干预,仅凭四肢和关节的协调,就能很好地适应环境观点:认为智能取决于感知和行为,取决于对外界复杂环境的适应,而不是表示和推理。成果:六足虫,日本的阿西莫,大狗进化主义关注:群体的进化起源:达尔文学说,孟德尔遗传学说。观点:人的智能归根结底是从生物进化中得到代表成果:遗传算法,进化策略,进化规划、遗传规划。其他关注:低等生物的群体智能行为的模拟其代表成果:蚁群算法,粒子群算法,鱼群算法

人工智能的三大学派

 符号主义

 符号主义又称逻辑主义、心理学派或计算机学派,其基本原理基于两点:物理符号系统和有限合理性原理。

符号主义人工智能研究在自动推理、定理证明、机器博弈、自然语言处理、知识工程、专家系统等方面取得了显著成果。符号主义主张从功能上对人脑进行模拟,将问题和知识以及逻辑形式表示,采用符号推演的方式实现推理、学习、搜索等功能。然而,由于符号主义的核心是知识表示、知识推理和知识应用,对于“常识”问题以及不确定事物的表示和处理问题成为符号主义需要解决的巨大难题。

连接主义

连接主义又被称为仿生学派或生理学派,是基于神经元及神经元之间的网络联结机制来模拟和实现人工智能。人工智能的物质基础是神经系统,基本单位是神经元。这也就是说,连接主义用人工神经网络来研究人工智能。

行为主义

行为主义又称为进化主义和控制论学派,是基于控制论和“感知-动作”控制系统的人工智能学派。其观点是:智能取决于,对外界复杂环境的适应。人类智是经历漫长的演化形成的,真正的智能器也应该沿着进化的步骤走。

行为主义的基本观点可以概括为:1.知识的形式化表达和模型化方法是人工智能的重要障碍之一。2.智能取决于感知和行为,在直接利用机器对环境作用后,以环境对环境作用的影响为原型。3.智能行为体现在现实世界中,通过与周围环境的交互表现出来。4.人工智能可以像人类智能一样逐步进化,分阶段发展和增强。

 

人工智能导论——人工智能的主要学派及主张

目前对人工智能研究影响较大的的学派主要有符号主义、联结主义和行为主义这三大学派。

(1)符号主义(symbolicism),又称为逻辑主义(logicism)、心理学派(psychologism)或计算机学派(computerism),其原理主要为物理符号系统(即符号操作系统)假设和有限合理性原理。

主张:该学派认为人工智能源于数理逻辑。数理逻辑从19世纪末起得以迅速发展,到20世纪30年代开始用于描述智能行为。计算机出现后,又再计算机上实现了逻辑演绎系统。其有代表性的成果为启发式程序LT逻辑理论家,证明了38条数学定理,表了可以应用计算机研究人的思维多成,模拟人类智能活动。该学派认为人类认知和思维的基本单元是符号,而认知过程就是在符号表示上的一种运算。符号主义致力于用计算机的符号操作来模拟人的认知过程其,实质就是模拟人的左脑抽象逻辑思维,通过研究人类认知系统的功能机理,用某种符号来描述人类的认知过程,并把这种符号输入到能处理符号的计算机中,从而模拟人类的认知过程,实现人工智能。

(2)联结主义(connectionism),又称为仿生学派(bionicsism)或生理学派(physiologism),其主要原理为神经网络及神经网络间的连接机制与学习算法。

主张:其原理主要为神经网络和神经网络间的连接机制和学习算法。这一学派认为人工智能源于仿生学,特别是人脑模型的研究。联结主义学派从神经生理学和认知科学的研究成果出发,把人的智能归结为人脑的高层活动的结果,强调智能活动是由大量简单的单元通过复杂的相互连接后并行运行的结果。其中人工神经网络就是其典型代表性技术。 它的代表性成果是1943年由生理学家麦卡洛克(McCulloch)和数理逻辑学家皮茨(Pitts)创立的脑模型,即MP模型,开创了用电子装置模仿人脑结构和功能的新途径。它从神经元开始进而研究神经网络模型和脑模型,开辟了人工智能的又一发展道路。

(3)行为主义(actionism),又称为进化主义(evolutionism)或控制论学派(cyberneticsism),其原理为控制论及感知-动作型控制系统。

主张:认为人工智能源于控制论。控制论思想早在20世纪40~50年代就成为时代思潮的重要部分,影响了早期的人工智能工作者。维纳(Wiener)和麦克洛克(McCulloch)等人提出的控制论和自组织系统以及钱学森等人提出的工程控制论和生物控制论,影响了许多领域。控制论把神经系统的工作原理与信息理论、控制理论、逻辑以及计算机联系起来。早期的研究工作重点是模拟人在控制过程中的智能行为和作用,如对自寻优、自适应、自镇定、自组织和自学习等控制论系统的研究,并进行“控制论动物”的研制。到20世纪60~70年代,上述这些控制论系统的研究取得一定进展,播下智能控制和智能机器人的种子,并在20世纪80年代诞生了智能控制和智能机器人系统。行为主义是20世纪末才以人工智能新学派的面孔出现的,引起许多人的兴趣。这一学派的代表作者首推布鲁克斯(Brooks)的六足行走机器人,它被看作是新一代的“控制论动物”,是一个基于感知-动作模式模拟昆虫行为的控制系统。

就人工智能三大学派的历史发展来看,符号主义认为认知过程在本体上就是一种符号处理过程,人类思维过程总可以用某种符号来进行描述,其研究是以静态、顺序、串行的数字计算模型来处理智能,寻求知识的符号表征和计算,它的特点是自上而下。而联结主义则是模拟发生在人类神经系统中的认知过程,提供一种完全不同于符号处理模型的认知神经研究范式。主张认知是相互连接的神经元的相互作用。行为主义与前两者均不相同。认为智能是系统与环境的交互行为,是对外界复杂环境的一种适应。

 

 

 

内容主要来自于《人工智能及其应用》

 

简述人工智能,及其三大学派:符号主义、连接主义、行为主义

人工智能是什么

人工智能是一个很大的圈子,但是基础必然是机器学习

什么是机器学习呢?

说白了就是你告诉机器你想做什么?并且给它一堆数据让它去模仿着做

(比如,咱们上高中,老师会告诉我们一个目标就是考高分,然后给我们一堆练习册和答案,我们的目的就是让我们做的题的解和答案一致)

机器学习需要什么?算法,数据,程序,评估,应用

机器学习能做什么?

机器学习在数据挖掘,图像识别,语音和自然语言处理中有着广泛应用

人工智能哪些领域

回到本文的正题。全面认识人工智能之所以困难,是有客观原因的。

其一、人工智能是一个非常广泛的领域。当前人工智能涵盖很多大的学科,我把它们归纳为六个:

(1)计算机视觉(暂且把模式识别,图像处理等问题归入其中)、(2)自然语言理解与交流(暂且把语音识别、合成归入其中,包括对话)、(3)认知与推理(包含各种物理和社会常识)、(4)机器人学(机械、控制、设计、运动规划、任务规划等)、(5)博弈与伦理(多代理人agents的交互、对抗与合作,机器人与社会融合等议题)。(6)机器学习(各种统计的建模、分析工具和计算的方法),

这些领域目前还比较散,目前它们正在交叉发展,走向统一的过程中。

由于学科比较分散,从事相关研究的大多数博士、教授等专业人员,往往也只是涉及以上某个学科,甚至长期专注于某个学科中的具体问题。比如**,人脸识别**是计算机视觉这个学科里面的一个很小的问题;深度学习属于机器学习这个学科的一个当红的流派。很多人现在把深度学习就等同于人工智能,就相当于把一个地级市说成全国,肯定不合适。

三大学派

为更充分认识人工智能,我们从他的派系来了解人工智能的发展

人工智能符号主义

早在上个世纪五十年代,人们基于”让机器产生像人类一样的智能“这样的美好愿望,提出了人工智能的概念,所以一切试图做到这一点的都可以看作”人工智能“的技术,比如在人工智能早期曾十分流行的人工智能三大流派之一的符号主义,人们自己总结规则,然后通过if-else的方法堆砌成一个专家系统,这也属于人工智能领域,而且是人工智能领域非常重要的一部分。

正是这些符号主义者,早在1956年首先采用“人工智能”这个术语。后来又发展了启发式算法>专家系统>知识工程理论与技术,并在20世纪80年代取得很大发展。符号主义曾长期一枝独秀,为人工智能的发展作出重要贡献,尤其是专家系统的成功开发与应用,为人工智能走向工程应用和实现理论联系实际具有特别重要的意义。在人工智能的其他学派出现之后,符号主义仍然是人工智能的主流派别。这个学派的代表人物有纽厄尔(Newell)、西蒙(Simon)和尼尔逊(Nilsson)等。

近些年来符号主义中的知识图谱在很多智能问答应用中还发挥着很重要的作用,但这种符号主义的手段对于人工消耗极大,每一个规则都需要人手工录入,机器无法自主学习,所以为了解决这个问题,人们提出了机器学习的想法,这时候我们不再需要给机器逐个录入规则本身,而是让机器自己在数据中学习到规则,所以一切试图做到这一点的,都可以看作是机器学习的技术。

对于商用QA系统生成的答案,即使并没有很人性化的回答到问题,但表述的准确性和正确性往往比所谓的智能更重要,所以业内普遍还是偏向于使用符号主义中的知识图谱技术,而不是深度学习让机器学习规则。

人工智能连接主义

认为人工智能源于仿生学,特别是对人脑模型的研究。它的代表性成果是1943年由生理学家麦卡洛克(McCulloch)和数理逻辑学家皮茨(Pitts)创立的脑模型,即MP模型,开创了用电子装置模仿人脑结构和功能的新途径。它从神经元开始进而研究神经网络模型和脑模型,开辟了人工智能的又一发展道路。

其中最具代表的神经网络,和深层次神经网络(深度学习)。所以在深度学习领域中,就是不断的增加一个神经网络的隐藏层神经元,让输入的数据被这些神经元不断的抽象和理解,最后得到一个具有泛化能力的预测网络模型

而我们一般把隐藏层超过三层的网络,称之为:深度神经网络

至于网络中每个节点到底在理解什么,很难用精确的数学手段去分析。我们唯一能做的就是:收集数据,送入数据,进行训练,然后期待结果

当然也不是说我们对一个深度神经网络完全不可把控,起码我们能在比如学习率,激活函数,神经元层数和数量等等方面调节神经网络的大致工作行为,俗称——调参

深度学习的训练可以来这里进行体验:​​​Tensorflow游乐场:http://playground.tensorflow.org/​​

近些年来,人工智能,机器学习领域随着算力,数据和从业者的不断增加,正在不断的涌现着一些十分有趣的想法,等待着探索和发现。

人工智能行为主义

行为主义认为人工智能源于控制论。除了深度学习以外,目前机器学习领域中还有另外一项振奋人心的技术,强化学习。

强化学习的灵感来自于人工智能三大流派之一的行为主义,让一个智能体(Agent)不断的采取不同的行动(Action),改变自己的状态(State),和环境(Enviroment)进行交互,从而获得不同的奖励(Reward),我们只需要设计出合适的奖励(Reward)规则,智能体就能在不断的试错中习得合适的策略,

强化学习近些年来也得到了很多的应用,从alphago开始,到近期腾讯的”觉悟“,通过强化学习训练的游戏AI,已经让人类选手开始在MOBA游戏中深感绝望,当然像觉悟这样的AI,在强化学习中也加入了深度学习部分,也就是所谓的深度强化学习。

机器学习该怎么学?

-机器学习本质包含了数学原理推导与实际应用技巧

机器学习中有很多经典算法,既然要学习,那就需要清楚一个算法是怎么来的(推导)以及该如何应用

数学重要吗?非常重要的,大学的数学基础即可,如果你都忘了,大致的印象还是有的吧,我觉得与其从头过一遍数学,不如边学边查,一个合适的做法就是哪里不会点哪里,我每天也在查很多知识点

一定要学数学,学推导吗?我知道会用不就可以了吗?有句老话,不光要知其然还要知其所以然,这对我们的应用具有很大的帮助

推导肯定是重中之重了,因为对于我们来说学习的目的就是转换成自身的资本让我们更有竞争力,面试与笔试的时候,这些推导全来了

程序员兄弟如果要转行,让你看数学你肯定要疯的,重点应在于如何应用(库的使用,完整项目如何构建,从头到尾的流程)

底层实现和上层应用

像很多技术领域一样,往往可以把这个领域的知识体系简单的分为两层:底层实现和上层应用。

而上层应用中往往随着该领域的发展又会出现很多经过验证的行之有效的经典方法

比如编程语言中Java这个体系,jvm虚拟机,字节码技术构成了Java体系的底层实现,并通过Java语言向上提供应用的接口,而像Spring、Mybatis等框架,以及各种常用的库,则是人们在多年实践中总结而成,能高效的用于生产的经典上层实现,那在实现一个经典任务的时候,Java程序员往往会直接使用这些框架和库,而他们往往也能应对绝大多数问题。

同样,在深度学习领域,我们学习过的像梯度下降,反向传播,CNN,RNN,以及未详细说明的其他的一些基本原理,则构成了现代神经网络的底层实现,而像LeNet-5网络,LSTM,GRU以及AlexNet,VGG,ResNet,Yolo等等,则是在神经网络发展的过程中经过检验而行之有效的模型,

同样,这些经典的网络模型在很多常见的场景,比如语音识别,自然语言处理,图像识别等领域中都能有不错的效果,所以想要用神经网络实现一个具体任务,那么应该首先考虑这些已有的经典网络模型,就像我们使用spring开发Java项目一样,是很自然的选择,

而我们为了提高自己Java项目的开发水平,可能需要去熟悉框架的实现,好消息是我们可以阅读他们的源码,只要你想,就能知道所有细节,而坏消息是这些代码往往非常的庞杂,配合文档和资料也需要很长时间的学习和研究。

同样为了提高对神经网络应用水平,我们需要去熟悉这些经典网络模型,最好的方法就是阅读他们的论文,好消息是这些论文一般都不会特别的长,内容也相对单一,很快就可以看一遍,但坏消息是这些论文一般不会附带源码,一般都是数学公式和图表,阅读他们的门槛可能更高,

但另外一个好消息就是,对于这些经典的网络结构,目前网络上已经有很多人写博客做了更通俗易懂的解读,比如一篇关于LSTM的著名博客,《UnderstandingLSTMNetwork》,这要比看LSTM的原论文要轻松许多,有些文章甚至会逐步的贴出相应的代码,比如对于LeNet5和AlexNet,随便一搜就能找到一大批关于他们论文的解读和用keras实现的代码,所以对于这些经典网络的学习并不是一件特别困难事情。

当然,人工智能作为一门正处于高速发展的学科,每段社区都会有新的idea被提出,有些可能是变革性的,有些可能只是一个小的修补,不论怎样,如果你希望了解这些新的想法,那么唯一的方法就是去看原始的论文,这可能会比较艰难,因为很多论文都是对想法进行简单的描述,然后给出一些公式,而且一般不会详细的说明这些公式每一步推导的细节,最后贴出测试效果的图表,而且并不会附赠源代码,所以为了提高阅读的效率,只能是多看,排除那些写的特别晦涩的论文,一般来说一个领域内的论文,看的多了也就能慢慢的培养出一点感觉,

当然这里还有个很重要的问题,那就是要对机器学习神经网络的底层实现有足够的了解,不仅仅是概念上的,还有数学上的。当然,如果你并不是想做机器学习,神经网络相关的研究工作,而只是想把它应用到自己实际的问题上,那倒是不必研究的如此深刻,在理解了大致工作原理之后,去学习使用那些经典的模型就好,正如我们在学习编程语言的时候,即使不是特别深入的了解计算机的底层实现,也可以写出不错的程序,但是如果是从事像操作系统这样的计算机的方面的研究工作,那么深入的学习则是不可避免的。

版权声明:本文内容由互联网用户自发贡献,该文观点仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌抄袭侵权/违法违规的内容,一经查实,本站将立刻删除。

上一篇

下一篇