博舍

史爱武:人工智能的三次浪潮与三种模式 人工智能的三大流派是

史爱武:人工智能的三次浪潮与三种模式

人工智能的三次浪潮

自1956年开始,人工智能经历了三起三落,出现了几次浪潮,现在人工智能已经是处于第三次浪潮了。

第一次浪潮(1956-1976年,20年),最核心的是逻辑主义

逻辑主义主要是用机器证明的办法去证明和推理一些知识,比如用机器证明一个数学定理。要想证明这些问题,需要把原来的条件和定义从形式化变成逻辑表达,然后用逻辑的方法去证明最后的结论是对的还是错的,也叫做逻辑证明。

早期的计算机人工智能实际上都是沿着这条路在走。当时很多专家系统,比如医学专家系统,用语言文字输入一些症状,在机器里面变换成逻辑表达,用符号演算的办法推理出大概得了什么病。所以当时的主要研究都集中在逻辑抽象、逻辑运算和逻辑表达等方面。

在第一次浪潮中,数学定理证明实际上是实现效果最好的,当时有很多数学家用定理思路证明了数学定理。为了更好的完成定理证明工作,当时出了很多和逻辑证明相关的逻辑程序语言,比如很有名的Prolog。

虽然当时的成果已经能够解开拼图或实现简单的游戏,却几乎无法解决任何实用的问题。

第二次浪潮(1976—2006年,30年),联结主义盛行

在第一次浪潮期间,逻辑主义和以人工神经网络为代表的联结主义都在,逻辑主义是完全占上风的,联结主义那时候不太吃香。然而逻辑主义最后无法解决实用的问题,达不到人们对它的期望,引起了大家的反思,这时候人工神经网络(也就是联结主义)就慢慢占了上风。

在70年代末,整个神经元联结网络、模型都有突飞猛进的进步,最重要的是BP前馈神经网络。1986年BP前馈神经网络刚出来的时候解决了不少问题,后来大家往更大的领域应用,实现了比较大的成果。在很多模式识别的领域、手写文字的识别、字符识别、简单的人脸识别也开始用起来,这个领域一下子就热起来,一时之间,人们感觉人工智能大有可为。随后十几年人们发现神经网络可以解决一些单一问题,解决复杂问题却有些力不从心。训练学习的时候,数据量太大,有很多结果到一定程度就不再往上升了。

这时期所进行的研究,是以灌输“专家知识”作为规则,来协助解决特定问题的“专家系统”为主。虽然有一些实际的商业应用案例,应用范畴却很有限,第二次热潮也就慢慢趋于消退。

第三次浪潮(2006—现在),基于互联网大数据的深度学习的突破

如果按照技术分类来讲,第二次和第三次浪潮都是神经网络技术的发展,不同的是,第三次浪潮是多层神经网络的成功,也就是深度学习取得突破。这里既有硬件的进步,也有卷积神经网络模型与参数训练技巧的进步。

若观察脑的内部,会发现有大量称为“神经元”的神经细胞彼此相连。一个神经元从其他神经元那里接收的电气信号量达某一定值以上,就会兴奋(神经冲动);在某一定值以下,就不会兴奋。兴奋起来的神经元,会将电气信号传送给下一个相连的神经元。下一个神经元同样会因此兴奋或不兴奋。简单来说,彼此相连的神经元,会形成联合传递行为。我们透过将这种相连的结构来数学模型化,便形成了人工神经网络。

经模型化的人工神经网络,是由“输入层”、“隐藏层”及“输出层”等三层构成。深度学习往往意味着有多个隐藏层,也就是多层神经网络。另外,学习数据则是由输入数据以及相对应的正确解答来组成。

为了让输出层的值跟各个输入数据所对应的正解数据相等,会对各个神经元的输入计算出适当的“权重”值。通过神经网络,深度学习便成为了“只要将数据输入神经网络,它就能自行抽出特征”的人工智能。

伴随着高性能计算机、云计算、大数据、传感器的普及,以及计算成本的下降,“深度学习”随之兴起。它通过模仿人脑的“神经网络”来学习大量数据的方法,使它可以像人类一样辨识声音及影像,或是针对问题做出合适的判断。在第三次浪潮中,人工智能技术及应用有了很大的提高,深度学习算法的突破居功至伟。

深度学习最擅长的是能辨识图像数据或波形数据这类无法符号化的数据。自2010年以来,Apple、Microsoft及Google等国际知名IT企业,都投入大量人力物力财力开展深度学习的研究。例如AppleSiri的语音识别,Microsoft搜索引擎Bing的影像搜寻等等,而Google的深度学习项目也已超过1500项。

深度学习如此快速的成长和应用,也要归功于硬件设备的提升。图形处理器(GPU)大厂英伟达(NVIDIA)利用该公司的图形适配器、连接库(Library)和框架(Framework)产品来提升深度学习的性能,并积极开设研讨课程。另外,Google也公开了框架TensorFlow,可以将深度学习应用于大数据分析。

人工智能的三种模式

人工智能的概念很宽泛,根据人工智能的实力可以分成3大类,也称为3种模式。

弱人工智能

长于单个方面的人工智能,也叫专业人工智能。比如战胜世界围棋冠军的人工智能AlphaGo,它只会下围棋,如果让它下国际象棋或分辨一下人脸,它可能就会犯迷糊,就不知道怎么做了。当前我们实现的几乎全是弱人工智能。

强人工智能

是指在各方面都能和人类比肩的人工智能,这是类似人类级别的人工智能,也叫通用人工智能。人类能干的脑力活,它都能干,创造强人工智能比创造弱人工智能难得多,目前我们还做不到。

超人工智能

知名人工智能思想家NickBostrom把超级智能定义为“在几乎所有领域都比最聪明的人类大脑都聪明很多,包括科学创新、通识和社交技能”。超人工智能可以是各方面都比人类强点,也可以是各方面都比人类强很多倍。超人工智能现在还不存在,很多人也希望它永远不要存在。否则,可能像好莱坞大片里面的超级智能机器一样,对人类也会带来一些威胁或者颠覆。

我们现在处于一个充满弱人工智能的世界。比如,垃圾邮件分类系统是个帮助我们筛选垃圾邮件的弱人工智能;Google翻译是可以帮助我们翻译英文的弱人工智能等等。这些弱人工智能算法不断地加强创新,每一个弱人工智能的创新,都是迈向强人工智能和超人工智能的进步。正如人工智能科学家AaronSaenz所说,现在的弱人工智能就像地球早期软泥中的氨基酸,可能突然之间就形成了生命。如世界发展的规律看来,超人工智能也是未来可期的!返回搜狐,查看更多

与AI共生:从人工智能的三大流派到What

连接学派

智力活动在符号学派看来是一款软件,这款软件的运作需要从外界获得大量的知识输入,这样的输入在20世纪80年代相当的费时费力,成为了制约符号学派发展的瓶颈。另外一群人认为,把智力看成是一款软件是远远不够的。

人类智力是在大脑的活动下产生的,而大脑是由上百亿个神经元细胞通过错综复杂的连接构成的。所以人们很自然的想到,我们是不是可以模拟大量神经元的信号传输方式来模拟大脑的智力呢?

连接学派通过算法模拟神经元,并把这样一个单元叫做感知机,将多个感知机组成一层网络,多层这样的网络互相连接最终得到神经网络。我们可以根据要解决的实际问题来构建神经网络,进而用数据不断训练这一网络,调整连接权重来模拟智能。

现在炙手可热的深度学习,可以看做是连接学派的延伸,已经在语音识别、图片处理、模式识别等领域取得突破性进展。

行为学派

与上面两个学派不同的是,行为学派把目标聚焦在相对低等的生物身上,他们发现即便是昆虫这种比人类简单得多的生物,也表现出了非凡的智能,比如可以灵活地行走并躲避障碍物,快速精准地捕食猎物。从这点出发,行为学派模仿动物的身体,在不需要大脑干预的情况下,仅凭四肢和关节的协调来适应环境。

另一方面,生命体在演化的过程中会不断变异,而环境会对这些变异进行选择,让更适应环境的变异繁衍下去,同时淘汰不适应环境的变异。在这一变异和选择的过程中生物逐渐从简单走向复杂,从低级走向高级。

基于此,霍兰(JohnHolland)提出了遗传算法:在计算机中,用一堆二进制串来模拟自然界的生物体,改变这些二进制串来模拟基因突变,用适应度函数来模拟大自然的优胜劣汰,最终找到最优解。

这一学派在机器人领域成果卓著,例如美国波士顿动力公司研发的“bigdog”,“开门机器人”

What-How-Why:“是什么”、“该怎么”、“为什么”举一个医疗诊断的例子

有一种癌症,叫黑色素瘤,这是皮肤肿瘤中恶性程度最高的瘤种,容易出现远处转移,可以致死,所以早期的诊断非常重要。但是,它的初期表现,跟皮肤上长了一个普通的“色素痣”一样。想要在早期诊断黑色素瘤,最稳妥的方式是做活组织切片检查,可你总不能每长一个痣就去动刀。

好在黑色素瘤和普通色素痣的外观还是有区别的,总结说来,有以下四个特征:

一般都非对称边缘不规则颜色可能不统一,更富于变化直径通常大于6毫米

一个皮肤科医生,要学习上面四个规则,来给患者进行诊断。那计算机不是也可以学习这些规则,然后取代人类吗?

“是什么”和“该怎么”

1945年,英国心理学家吉尔伯特·赖尔(GilbertRyle)在演讲中提到了这两种知识:

一个孩子知道自行车有两个轮子,轮子里面都是空气,转动把手就可以拐弯……他只是知道了“是什么”,但还是不会骑车;如果一个孩子在几次摔倒之后学会了骑车,这时候,他就知道了“该怎么”。知道“是什么”是基于事实和概念;而知道“该怎么”是基于技能和经验。知道“该怎么”,可不一定知道“是什么”,你让一个会骑车的人讲解一下他是怎么骑车的,可能他根本说不清楚。

一个孩子知道自行车有两个轮子,轮子里面都是空气,转动把手就可以拐弯……他只是知道了“是什么”,但还是不会骑车;如果一个孩子在几次摔倒之后学会了骑车,这时候,他就知道了“该怎么”。知道“是什么”是基于事实和概念;而知道“该怎么”是基于技能和经验。知道“该怎么”,可不一定知道“是什么”,你让一个会骑车的人讲解一下他是怎么骑车的,可能他根本说不清楚。

我们要把一件事物“是什么”告诉计算机,一种方法是把这个事物方方面面的描述都告诉计算机,它就知道了“是什么”,至少理论上是这样的。比如,你要让计算机来判断这是一个色素痣还是一个黑色素瘤,你只要把那几个特征告诉计算机就可以了。

可事实远比这复杂得多,因为把上面的四个特征翻译成算法语言,本身就不太容易——到底多不对称才叫“不对称”?怎么不规则才算“不规则”?而且符合那四个特征的也未必是黑色素瘤,不符合的也可能是。所以最后算下来,计算机的准确度还是不如人类专家。

还有第二种方法,就是深度学习。通过深度学习,我们甚至不用去制定规则,只要找出一套合适的模型,然后用大量的数据进行训练,模型自己就能学会判断。事实上,这种方式训练出的神经网络,已经在黑色素瘤的识别准确率上远高于人类专家。

这样说来,在“是什么”这一块,计算机已经可以超越人类了;而像骑自行车这类“该怎么”就是行为学派擅长的东西,可能未来也会超越人类。但人工智能有个致命的问题,就是不知道“为什么”。

“为什么”

神经网络可以在黑色素瘤的识别这件事上做得比人类好,但只不过是依靠算法给出输入和输出之间的对应关系,它本身根本不理解病变。人类医生不仅仅会告诉你这里有一个病变,他还会告诉你用药的时候要注意周围的危险区域,他还会发现没有症状、但是已经产生的肿瘤……因为人类能理解病变。

人类比计算机更厉害的地方在于,我们不仅能理解,我们还会问“为什么”。

为什么会有这些病变?为什么黑色素瘤边缘是不规则的?为什么会变颜色?为什么容易出现远处转移?正是因为我们能问出为什么,我们才能不断深入研究,不断获得新的知识,不断找到新的治疗方法,不断地知道新的“是什么”和“该怎么”。

人工智能只能解决一个问题,但是不能创造一个问题。

共生

尽管AlphaGoZero可以在自我对弈的前提下战胜所有人类,但AlphaGoZero还是在有限的棋盘上,在有限的规则下计算。它只知道“该怎么”,而不知道围棋“是什么”,更不知道“为什么”。

更何况真实的世界有无限多的自由度,没有明确规则,你沿着任何一个方向深入下去都会碰到各种各样新的可能性。这些新的东西,才更有价值。

我们目前并不需要过多担心被人工智能抢走饭碗,更应该考虑的是:如何运用人工智能帮助我们更高效的工作?我们是否需要更多的人工智能训练师,而不是医生、工程师?如果人工智能预测错误,谁来承担责任……

我们需要人工智能,但拓展知识的边界,还得靠我们自己。

参考文献:

[1]《科学的极致:漫谈人工智能》.集智俱乐部.

[2]Thealgorithmwillseeyounow.SiddharthaMurherjee.TheNewYorker.April3,2017.(https://www.newyorker.com/magazine/2017/04/03/ai-versus-md)

本文由@吹个大气球原创发布于人人都是产品经理,未经作者许可,禁止转载。

题图来自网络返回搜狐,查看更多

版权声明:本文内容由互联网用户自发贡献,该文观点仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌抄袭侵权/违法违规的内容,一经查实,本站将立刻删除。

上一篇

下一篇