博舍

人工智能的三大学派有哪些看过你就明白了 人工智能三大学派包括哪些学派

人工智能的三大学派有哪些看过你就明白了

原标题:人工智能的三大学派有哪些?看过你就明白了

人工智能从阿兰·图灵(AlanTuring)提出概念,发展至今,已有60余年的时间。通过人工智能的发展历史,我们会发现它主要由3个方面相互交织发展:符号主义、连接主义和行为主义。

符号主义

符号主义认为人工智能源于数理逻辑,旨在用数学和物理学中的逻辑符号来表达思维的形成,通过大量的“如果-就”规则定义,产生像人一样的智能。符号主义曾长期一枝独秀,为人工智能的发展作出重要贡献,即便是在人工智能的其他学派出现之后,符号主义仍是人工智能的主流派别。

连接主义

连接主义认为人工智能源于仿生学,其主张智能来自神经元之间的连接,它让计算机模拟人类大脑中的神经网络及其连接机制。从目前来看,人工神经网络的研究热度仍然较高,但研究成果并没有像预想的那样好。

展开全文

行为主义

行为主义认为人工智能源于控制论,指的是基于感知行为的控制系统,使每个基本单元实现自我优化和适应,这也是一个自下而上的过程,典型的代表有进化算法、多智能体等。

综合来看,人工智能研究进程中的这三种主义都推动了人工智能的发展,它们既可以相互融合,又能求同存异。返回搜狐,查看更多

责任编辑:

一文了解人工智能——学科介绍、发展史、三大学派

何为智能

在介绍人工智能之前,我们要先了解智能到底是什么?智能,其实就是智力和能力的总称。世界著名教育心理学家霍华德·加德纳提出了著名的“多元智能理论”,他认为人类个体都独立存在着八种智能,分别如下:

视觉—空间智能,指对线条、形状、结构、色彩和空间关系的敏感以及通过平面图形和立体造型将它们表现出来的能力。语言—言语智能,指听说读写能力,利用语言描述事件、表达思想并与人交流的能力。交往—交流智能,指与人相处交往的能力,表现为察觉、体验他人情绪、情感和意图并据此作出适宜反应的能力。自知—自省智能,指认识、洞察和反省自身的能力,表现为正确地意识和评价自身的情绪、动机、欲望、个性、意志,并在正确的自我意识我自我评价的基础上形成自尊、自律和自制的能力。逻辑—数理智能,指运算和推理能力,表现为对事物间各种关系如类比、对比、因果和逻辑等关系的敏感以及通过数理运算和逻辑推理等进行思维的能力。音乐—节奏智能,指感受、辨别、记忆、改变和表达音乐的能力,表现为个人对音乐包括节奏、音调、音色和旋律的敏感以及通过作曲、演奏和歌唱等表达音乐的能力。身体—动觉智能,指运用四肢和躯干的能力,表现为能够较好地控制自己的身体、对事件能够做出恰当的身体反应以及善于利用身体语言来表达自己的思想和情感的能力。自然观察智能,指个体辨别环境的特征并加以分类和利用的能力。何为人工智能

人工智能,即是人工的智能,是人造出来的像人类一样思考和行动的机器,使得机器也拥有“多元智能理论”中的八种智能。多数人对人工智能的了解主要是通过科幻片,里面的机器人拥有着人类的思维意识、情感和超凡的能力。

然而现实中的人工智能却与科幻片的相去甚远,甚至让人大失所望,现实中的人工智能只能向我们推荐感兴趣的文章,只能帮我们过滤垃圾邮件,只能幼稚地跟我们聊天,只能生硬地帮我们翻译,也许还能在简单的环境中完成自动驾驶。现实中的人工智能只能完成单一且较简单的任务,而且还不一定能完成地很好,这就是理想与现实的差距。

弱人工智能

人工智能的终极目标是要赋予机器思维意识,使其能够像人脑一样工作思考。总体而言,以是否具有自我意识及独立思考能力为界,可将人工智能分为强人工智能和弱人工智能。其中强人工智能指更方面的能力都达到人类的水平,能模仿人类的思维、意识和学习能力。而弱人工智能则只专注于完成某个特定任务,模拟人类的某方面智能,比如人脸识别、语音识别等。

目前我们经常听到的人工智能其实属于弱人工智能范畴,它只能解决某个特定领域的问题,更多的是充当一种工具来使用。弱人工智能建立在大数据和机器学习(包括目前较火的深度学习)的基础上,也就是通过大量的标定的数据和算法来学习事物的模式规律。通过对数据训练得到一个模型参数,然后根据该模型实现决策和预测。

而强人工智能则是指具有人类的各种能力,比如独立思考、自我意识、七情六欲、推理归纳等等。目前来看,强人工智能领域几乎没有实质性进展,完全不具备理论工程基础,更像是一种美好幻想。

人工智能发展史

从人工智能正式被提出到如今已经六十多年过去了,在此期间人工智能的发展经历了几度繁荣和衰落。目前虽然已取得不错的进展,然而现实与理想的差距还是很大,前进道路依旧曲折。

在1900年国际数学家大会上,数学家希尔伯特提出《未来的数学问题》,其中就有一些与人工智能相关的问题。人工智能的孕育期其实可以追溯到公元前的哲学界亚里士多德,他提出了著名的三段论,在演绎推理方面甚至影响至今;后来数学家莱布尼茨提出了万能符合和推理计算,为数理逻辑奠定了基础;之后逻辑学家布尔创立了布尔代数,并首次用符号描述了基本的推理法则。

1943年,神经物理学家麦克洛奇与匹兹建成了第一个神经网络模型,M-P模型。此外,数学家艾伦图灵做了一件非常重要的事情,就是设计出了图灵机,这也是现代计算机的理论原型。并在1950年发表了《计算机器与智能》论文,这篇论文给出了机器和思考的定义,并且制定了“图灵测试”标准,如果能通过该测试则认为该机器具有智能。

1956年的达特茅斯会议被称为是人工智能元年,同时也是人工智能诞生的标志。这一年,在美国汉诺斯小镇宁静的达特茅斯学院中,人工智能之父约翰·麦卡锡、人工智能奠基者马文·闵斯基、信息论创始人克劳德·香农、计算机科学家艾伦·纽厄尔、诺贝尔经济学奖得主赫伯特·西蒙等科学家聚到了一起,讨论如何用机器来模仿人类的智能。会议足足开了两个月的时间,虽然没有达成普遍的共识,却起了一个名字:人工智能。

达特茅斯会议过后人工智能开始井喷式发展,1957年罗森布拉特发明了感知机,1959年科学家亚瑟·塞缪尔创造了“机器学习”这个术语,并且给出了机器学习的定义。1966年和1972年分别诞生了第一个聊天机器人和智能机器人,而后随着人们对人工智能的兴趣下降并且资金枯竭,在1974年,人工智能开始进入第一个寒冬。经历过寒冬后,1980年人工智能以专家系统的身份重出江湖,专家系统能在特定领域提供决策能力。但很快,在1987年人工智能在耗尽了政府和投资人的资金后,开始进入第二次寒冬。

1997年,IBM的深蓝击败了国际象棋世界冠军加里·卡斯帕罗夫,成为第一台击败国际象棋世界冠军的电脑。2002年人工智能开始以清洁机器人的身份走进人类家庭,直到2006年,Facebook、Twitter、Netflix等公司开始将人工智能技术引入商业系统中。到2011年时,IBM的沃森系统已经能够在智力竞赛节目中与人类PK并赢得冠军了。

最重要的是在2006年以后,大数据和深度学习爆发并得到了高速的发展,结合两者实现的人工智能在某些方面已经能够与人类相提并论。所以在新一轮技术浪潮的驱动下,人工智能在很多领域不断落地应用,其中包括人脸识别、语音识别、自动驾驶、精准营销、个性化推荐、智能客服、安防系统等等。

三大学派

在人工智能的整个发展过程中,不同学科背景的研究人员对人工智能有不同的理解,因此也产生了三大人工智能学派。传统的人工智能被称为符号主义学派,符号主义主要研究的是基于逻辑推理的智能模拟方法;而一些人则认为可通过模拟大脑的神经网络结构来实现,即连接主义学派;此外还有人认为可以从生物体与环境互动的模式中寻找答案,被称为行为行为主义学派。

符号主义学派

符号学派认为任何能够将某些模式或符号进行操作并转化成另外一些模式或符号的系统就可能产生智能行为,它致力于用计算机的符号操作来模拟人的认知过程,其实质就是模拟人的大脑的抽象逻辑思维,并通过某种符号来描述人类的认知过程,从而实现人工智能。符号主义主要集中在人类智能的高级行为,比如推理、规划、知识表示等。

连接主义学派

每个人的大脑都有万亿个神经元细胞,它们错综复杂的互相连接,也被认为是人类的智慧的来源。所以人们很自然想到能否通过大量神经元来模拟大脑的智力。连接主义学派认为神经网络和神经网络间的连接机制和学习算法能够产生智能。

行为主义学派

行为学派出发点与其他两个学派完全不同,它是一种基于感知—行动的行为智能模拟方法。该学派认为行为是个体用于适应环境变化的各种身体反应的组合,它的理论目标在于预见和控制行为。

回顾

这篇文章从整体介绍了什么是人工智能、人工智能的发展以及人工智能的三大学派,从整体上了解了人工智能这门学科的情况,并且知道了目前的人工智能并非是科幻片里面的人工智能,现实与理想之间的差距还是很大的。

了解了人工智能的这些情况后,是不是勾起了你对人工智能的兴趣呢?接下来作者会准备《人工智能原理科普》专栏,欢迎关注!

欢迎关注:人工智能、读书与感想、聊聊数学、分布式、机器学习、深度学习、自然语言处理、算法与数据结构、Java深度、Tomcat内核等相关文章

人工智能研究三大学派

符号主义曾长期一枝独秀,为人工智能的发展做出重要贡献,为人工智能走向工程应用具有特别重要的意义。在人工智能的其他学派出现之后,符号主义仍然是人工智能的主流派别。

联结主义:受脑科学的启发

联结主义学派把人的智能归结为人脑的高层活动,强调智能的产生是由大量简单的单元通过复杂的相互联结和并行运行的结果。

它的代表性成果是1943年由生理学家麦卡洛克和数理逻辑学家皮茨创立的脑模型,即MP模型,开创了用电子装置模仿人脑结构和功能的新途径。它从神经元开始进而研究神经网络模型和脑模型,开辟了人工智能的又一发展道路。

20世纪60~70年代,联结主义,尤其是对以感知机为代表的脑模型的研究出现过热潮,由于受到当时的理论模型、生物原型和技术条件的限制,脑模型研究在20世纪70年代后期至80年代初期落入低潮。直到20世纪80年代提出用硬件模拟神经网络以后,联结主义才又重新抬头。

中科院自动化所副研究员王威表示:“联结主义更多受到脑科学的启发。我们现在所说的深度的神经网络,就是一类典型的联结主义的算法,或者说是工具。”

行为主义:基于“感知——行动”

行为主义,是一种基于“感知——行动”的行为智能模拟方法。

行为主义学派认为人工智能源于控制论。早期的研究工作重点是模拟人在控制过程中的智能行为和作用,并进行“控制论动物”的研制。到20世纪60~70年代,播下智能控制和智能机器人的种子,并在20世纪80年代诞生了智能控制和智能机器人系统。行为主义是20世纪末才以人工智能新学派的面孔出现的,引起了许多人的兴趣。这一学派的代表作首推布鲁克斯的六足行走机器人,它被看作是新一代的“控制论动物”,是一个基于感知-动作模式模拟昆虫行为的控制系统。

☟返回搜狐,查看更多

人工智能各学派认知观

人工智能人工智能各学派认知观

目前人工智能的主要学派有下列3家:

符号主义(symbolicism),又称为逻辑主义(logicism)、心理学派(psychlogism)或计算机学派(computerism),其原理主要为物理符号系统假设和有限合理性原理。连接主义(connectionism),又称为仿生学派(bionicsism)或生理学派(physiologism),其原理主要为神经网络及神经网络之间的连接机制与学习算法。行为主义(actionism),又称进化主义(evolutionism)或控制论学派(cyberneticsism),其原理为控制论及感知-动作型控制系统。 

人工智能各学派的认知观

符号主义

符号主义认为人工智能源于数理逻辑。数理逻辑从19世纪末起就获迅速发展;到20世纪30年代开始用于描述智能行为。计算机出现后,又在计算机上实现了逻辑演绎系统。其有代表性的成果为启发式程序LT(逻辑理论家),证明了38条数学定理,表明了可以应用计算机研究人的思维过程,模拟人类智能活动。

连接主义

连接主义认为人工智能源于仿生学,特别是人脑模型的研究。它的代表性成果是1943年由生理学家麦卡洛克和数理逻辑学家皮茨创立的脑模型,即MP模型,开创了用电子装置模拟人脑结构和功能的新途径。它从神经元开始进而研究神经网络模型和脑模型,开辟了人工智能的又一发展道路。

行为主义

行为主义认为人工智能源于控制论。控制论思想早在20世纪40-50年代就成为时代思潮的重要部分,影响了早期的人工智能工作者。维纳和麦克洛(McCloe)等人提出的控制论和自组织系统以及钱学森等人提出的工程控制论和生物控制论,影响了许多领域。控制论把神经系统的工作原理与信息理论、控制理论、逻辑以及计算机联系起来。

简述人工智能,及其三大学派:符号主义、连接主义、行为主义

人工智能是什么

人工智能是一个很大的圈子,但是基础必然是机器学习

什么是机器学习呢?

说白了就是你告诉机器你想做什么?并且给它一堆数据让它去模仿着做

(比如,咱们上高中,老师会告诉我们一个目标就是考高分,然后给我们一堆练习册和答案,我们的目的就是让我们做的题的解和答案一致)

机器学习需要什么?算法,数据,程序,评估,应用

机器学习能做什么?

机器学习在数据挖掘,图像识别,语音和自然语言处理中有着广泛应用

人工智能哪些领域

回到本文的正题。全面认识人工智能之所以困难,是有客观原因的。

其一、人工智能是一个非常广泛的领域。当前人工智能涵盖很多大的学科,我把它们归纳为六个:

(1)计算机视觉(暂且把模式识别,图像处理等问题归入其中)、(2)自然语言理解与交流(暂且把语音识别、合成归入其中,包括对话)、(3)认知与推理(包含各种物理和社会常识)、(4)机器人学(机械、控制、设计、运动规划、任务规划等)、(5)博弈与伦理(多代理人agents的交互、对抗与合作,机器人与社会融合等议题)。(6)机器学习(各种统计的建模、分析工具和计算的方法),

这些领域目前还比较散,目前它们正在交叉发展,走向统一的过程中。

由于学科比较分散,从事相关研究的大多数博士、教授等专业人员,往往也只是涉及以上某个学科,甚至长期专注于某个学科中的具体问题。比如**,人脸识别**是计算机视觉这个学科里面的一个很小的问题;深度学习属于机器学习这个学科的一个当红的流派。很多人现在把深度学习就等同于人工智能,就相当于把一个地级市说成全国,肯定不合适。

三大学派

为更充分认识人工智能,我们从他的派系来了解人工智能的发展

人工智能符号主义

早在上个世纪五十年代,人们基于”让机器产生像人类一样的智能“这样的美好愿望,提出了人工智能的概念,所以一切试图做到这一点的都可以看作”人工智能“的技术,比如在人工智能早期曾十分流行的人工智能三大流派之一的符号主义,人们自己总结规则,然后通过if-else的方法堆砌成一个专家系统,这也属于人工智能领域,而且是人工智能领域非常重要的一部分。

正是这些符号主义者,早在1956年首先采用“人工智能”这个术语。后来又发展了启发式算法>专家系统>知识工程理论与技术,并在20世纪80年代取得很大发展。符号主义曾长期一枝独秀,为人工智能的发展作出重要贡献,尤其是专家系统的成功开发与应用,为人工智能走向工程应用和实现理论联系实际具有特别重要的意义。在人工智能的其他学派出现之后,符号主义仍然是人工智能的主流派别。这个学派的代表人物有纽厄尔(Newell)、西蒙(Simon)和尼尔逊(Nilsson)等。

近些年来符号主义中的知识图谱在很多智能问答应用中还发挥着很重要的作用,但这种符号主义的手段对于人工消耗极大,每一个规则都需要人手工录入,机器无法自主学习,所以为了解决这个问题,人们提出了机器学习的想法,这时候我们不再需要给机器逐个录入规则本身,而是让机器自己在数据中学习到规则,所以一切试图做到这一点的,都可以看作是机器学习的技术。

对于商用QA系统生成的答案,即使并没有很人性化的回答到问题,但表述的准确性和正确性往往比所谓的智能更重要,所以业内普遍还是偏向于使用符号主义中的知识图谱技术,而不是深度学习让机器学习规则。

人工智能连接主义

认为人工智能源于仿生学,特别是对人脑模型的研究。它的代表性成果是1943年由生理学家麦卡洛克(McCulloch)和数理逻辑学家皮茨(Pitts)创立的脑模型,即MP模型,开创了用电子装置模仿人脑结构和功能的新途径。它从神经元开始进而研究神经网络模型和脑模型,开辟了人工智能的又一发展道路。

其中最具代表的神经网络,和深层次神经网络(深度学习)。所以在深度学习领域中,就是不断的增加一个神经网络的隐藏层神经元,让输入的数据被这些神经元不断的抽象和理解,最后得到一个具有泛化能力的预测网络模型

而我们一般把隐藏层超过三层的网络,称之为:深度神经网络

至于网络中每个节点到底在理解什么,很难用精确的数学手段去分析。我们唯一能做的就是:收集数据,送入数据,进行训练,然后期待结果

当然也不是说我们对一个深度神经网络完全不可把控,起码我们能在比如学习率,激活函数,神经元层数和数量等等方面调节神经网络的大致工作行为,俗称——调参

深度学习的训练可以来这里进行体验:​​​Tensorflow游乐场:http://playground.tensorflow.org/​​

近些年来,人工智能,机器学习领域随着算力,数据和从业者的不断增加,正在不断的涌现着一些十分有趣的想法,等待着探索和发现。

人工智能行为主义

行为主义认为人工智能源于控制论。除了深度学习以外,目前机器学习领域中还有另外一项振奋人心的技术,强化学习。

强化学习的灵感来自于人工智能三大流派之一的行为主义,让一个智能体(Agent)不断的采取不同的行动(Action),改变自己的状态(State),和环境(Enviroment)进行交互,从而获得不同的奖励(Reward),我们只需要设计出合适的奖励(Reward)规则,智能体就能在不断的试错中习得合适的策略,

强化学习近些年来也得到了很多的应用,从alphago开始,到近期腾讯的”觉悟“,通过强化学习训练的游戏AI,已经让人类选手开始在MOBA游戏中深感绝望,当然像觉悟这样的AI,在强化学习中也加入了深度学习部分,也就是所谓的深度强化学习。

机器学习该怎么学?

-机器学习本质包含了数学原理推导与实际应用技巧

机器学习中有很多经典算法,既然要学习,那就需要清楚一个算法是怎么来的(推导)以及该如何应用

数学重要吗?非常重要的,大学的数学基础即可,如果你都忘了,大致的印象还是有的吧,我觉得与其从头过一遍数学,不如边学边查,一个合适的做法就是哪里不会点哪里,我每天也在查很多知识点

一定要学数学,学推导吗?我知道会用不就可以了吗?有句老话,不光要知其然还要知其所以然,这对我们的应用具有很大的帮助

推导肯定是重中之重了,因为对于我们来说学习的目的就是转换成自身的资本让我们更有竞争力,面试与笔试的时候,这些推导全来了

程序员兄弟如果要转行,让你看数学你肯定要疯的,重点应在于如何应用(库的使用,完整项目如何构建,从头到尾的流程)

底层实现和上层应用

像很多技术领域一样,往往可以把这个领域的知识体系简单的分为两层:底层实现和上层应用。

而上层应用中往往随着该领域的发展又会出现很多经过验证的行之有效的经典方法

比如编程语言中Java这个体系,jvm虚拟机,字节码技术构成了Java体系的底层实现,并通过Java语言向上提供应用的接口,而像Spring、Mybatis等框架,以及各种常用的库,则是人们在多年实践中总结而成,能高效的用于生产的经典上层实现,那在实现一个经典任务的时候,Java程序员往往会直接使用这些框架和库,而他们往往也能应对绝大多数问题。

同样,在深度学习领域,我们学习过的像梯度下降,反向传播,CNN,RNN,以及未详细说明的其他的一些基本原理,则构成了现代神经网络的底层实现,而像LeNet-5网络,LSTM,GRU以及AlexNet,VGG,ResNet,Yolo等等,则是在神经网络发展的过程中经过检验而行之有效的模型,

同样,这些经典的网络模型在很多常见的场景,比如语音识别,自然语言处理,图像识别等领域中都能有不错的效果,所以想要用神经网络实现一个具体任务,那么应该首先考虑这些已有的经典网络模型,就像我们使用spring开发Java项目一样,是很自然的选择,

而我们为了提高自己Java项目的开发水平,可能需要去熟悉框架的实现,好消息是我们可以阅读他们的源码,只要你想,就能知道所有细节,而坏消息是这些代码往往非常的庞杂,配合文档和资料也需要很长时间的学习和研究。

同样为了提高对神经网络应用水平,我们需要去熟悉这些经典网络模型,最好的方法就是阅读他们的论文,好消息是这些论文一般都不会特别的长,内容也相对单一,很快就可以看一遍,但坏消息是这些论文一般不会附带源码,一般都是数学公式和图表,阅读他们的门槛可能更高,

但另外一个好消息就是,对于这些经典的网络结构,目前网络上已经有很多人写博客做了更通俗易懂的解读,比如一篇关于LSTM的著名博客,《UnderstandingLSTMNetwork》,这要比看LSTM的原论文要轻松许多,有些文章甚至会逐步的贴出相应的代码,比如对于LeNet5和AlexNet,随便一搜就能找到一大批关于他们论文的解读和用keras实现的代码,所以对于这些经典网络的学习并不是一件特别困难事情。

当然,人工智能作为一门正处于高速发展的学科,每段社区都会有新的idea被提出,有些可能是变革性的,有些可能只是一个小的修补,不论怎样,如果你希望了解这些新的想法,那么唯一的方法就是去看原始的论文,这可能会比较艰难,因为很多论文都是对想法进行简单的描述,然后给出一些公式,而且一般不会详细的说明这些公式每一步推导的细节,最后贴出测试效果的图表,而且并不会附赠源代码,所以为了提高阅读的效率,只能是多看,排除那些写的特别晦涩的论文,一般来说一个领域内的论文,看的多了也就能慢慢的培养出一点感觉,

当然这里还有个很重要的问题,那就是要对机器学习神经网络的底层实现有足够的了解,不仅仅是概念上的,还有数学上的。当然,如果你并不是想做机器学习,神经网络相关的研究工作,而只是想把它应用到自己实际的问题上,那倒是不必研究的如此深刻,在理解了大致工作原理之后,去学习使用那些经典的模型就好,正如我们在学习编程语言的时候,即使不是特别深入的了解计算机的底层实现,也可以写出不错的程序,但是如果是从事像操作系统这样的计算机的方面的研究工作,那么深入的学习则是不可避免的。

版权声明:本文内容由互联网用户自发贡献,该文观点仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌抄袭侵权/违法违规的内容,一经查实,本站将立刻删除。

上一篇

下一篇