李德毅:新一代人工智能如何从传统人工智能中脱颖而出
来源:图灵人工智能
作者:李德毅 中国工程院院士、CAAI名誉理事长、主线科技首席科学家
2021年4月10日,“吴文俊人工智能科学技术奖”十周年颁奖盛典在北京举办。颁奖典礼上,中国工程院院士、中国人工智能学会名誉理事长李德毅荣获“吴文俊人工智能最高成就奖”,成为这一最高荣誉的第三位获得者。李德毅院士在认知模型、智能控制、不确定性推理、数据挖掘、无人驾驶等方面取得多项国际领先成果,是我国不确定性人工智能领域的主要开拓者、无人驾驶的积极引领者和人工智能产学研发展的重要推动者。
在大会举办期间,李德毅院士也分享了自己对于“新一代人工智能的看法”。以下是演讲全文。
我今天报告的题目是“探索什么叫新一代人工智能”。传统的人工智能怎么讲?新一代的内核是什么?能做到什么样子?
副标题为“人工智能100年”,也就是到2056年全世界新一代人工智能在我们眼里是什么样子。
1956年达特茅斯会议上讨论了七个话题,现在拿来看哪一个都不落后,那到本世纪中叶应该是什么样子呢?传统人工智能有什么技术表征呢?新一代有什么表征呢?中间的分界点在哪里?如果我们对这四个问题不认真地思考,整体用信息化代替人工智能,那我们就太粗放了,尤其是科技工作者必须坐下来仔细想一想,不要整天云计算、大数据、人工智能。
我们要沉下心讲一讲这四个问号怎么回答。
新一代人工智能
如何从传统人工智能中脱颖而出?
我个人认为这个分界点可以定在机器学习之后的深度学习事件上,由于人类的围棋高手都被一个机器打败,全世界一片哗然。2016年这个事件震动了政治家、心理学家、老百姓,当然也鼓舞了人工智能学者。它是由早期的机器学习,尤其由深度学习爆发而来。
但深度学习是不是就是新一代人工智能?我把它作为分界点,传统人工智能是什么?为了方便我发明了一个词——计算机智能,凡是在计算机上玩智能的(算法、大数据等等),那都是玩的计算机,不算新一代,而是传统智能。
算力就是搞计算机,那是计算机本来就应该干的事情,算法是人力工程师应该干的事情,数据就是应用。我们不能满足于算力、算法、数据起到的最大作用,要探索新一代人工智能。
新一代人工智能起名很难,有人说叫类脑智能,这个人类最喜欢了,因为人类之所以成为身份链的最高端就是我们有一个聪明的大脑。但脑科学不是一两年的事情,在脑科学没有搞清楚之前我们能不能做类脑智能呢?
现在作为人工智能最顶端的就是GPD3,因为大量算力、算法来做预训练、预编程,我们清华大学在花很多力量做汉语的预训练和编程,将来自然语言处理,比如生成报告、小说、诗歌,这些都可以在机器上看得到。这些预编程、预训练难道就是我们要的智能吗?我觉得我们要的是会学习、智编程的人工智能。
什么叫会学习?智编程,我们要把软件工程师、算法工程师用智能表现出代码,让机器自己写出来,类似人脑的智能。为了说清楚这个问题,我愿意讲讲三次认知革命,第一次是五千年前人类发明了语言,尤其是发明了文字。
所有生物能有自己文字的只有人类,文字是脱离生命体智能,可以把知识,文化承载下来。有了文字才有文化,有了文化才有文明,所以这几年我一直讲两句话,智能植根于教育,文明是智能的生态。500年前人类科学技术革命大发展,认识客观事件,发明了大量蒸汽,电动一直原子,这些动工具延伸了人的体能,解放人的体力。
100年前开始认识生命科学,发明人工智能。我们要用人工智能来延续人的智力,这三次革命很值得人们回顾。现在有人想做人工生命,这件事情要小心,如果人类要培养一个新人类,我们人类不会那么做的。所以要搞清楚意识,搞清楚生命,这是未来的事情,不是当前的事情。我们要研究人脑组织结构进化和后天学习这两件事情,因为它成就了人类的智能。遗传基因和可塑性就是我们讲的机器带有东西可以学习,一个什么软件都没有的机器不可能学习,后天怎么学?大家知道人类的智能和其他生物相比,如果没有后天的学习是不高明多少的。
我得出一个新的定义,智能是学习的能力,是解决问题的能力。学习又是解决问题的基础,学习可以很多。学习的结果是记忆,这句话很重要。我们不但要研究计算智能,还要研究记忆智能。解决问题是学习的目的,不能用一台机器总是做它原来能够解决的问题,我们希望解决它从来没有遇到过的新问题这是我们要追求的。这里面怎么解决?用数学家语言来讲,怎样把一个设计问题基于高阶次来做,把小变量放到一个大变量范围内研究才能够解释,解决这个问题。我个人认为算力算法和数据仅仅是计算机智能的硬核。
为什么这个事情这么强大?这不是偶然的,可以看看这张片子。每一个理工男都知道微积分,后来波尔做了逻辑代数成就了计算机,后来Fraga提出了位置演算。有人在有限数学资源里面怎样表示无穷的数学能力,打破了人们思维传统界限。有人提出了23个数学难题,后来哥德尔提出完备性定理,最后出来的两位神,就是图灵和伊曼两位专家,他们不但是人工智能之父,而且也是计算机之父。
图灵模型是在1936年发表,在1945年提出自动计算机,1950年他成为人工智能之父。他写了一篇重要文章《计算机器和思维》,冯洛伊曼先生用冯洛伊曼五个要素形成一个实实在在的物理机器,这叫计算机,所以智能科学的发展就是不断地提出智能问题,确保智能可解释性,引起了数学危机。再证明,让这个封闭性圈子越搞越大。
因此我们现在遇到一个基本问题就是开放性跟封闭性的矛盾,可以无限接近真理,但永远不可能相同它。人工智能科学家或者认知科学家这40位学者获得的诺贝尔奖和图灵奖,可以看到他们是怎样来做智能和人工智能研究的。1978年西蒙拿了经济学诺贝尔奖,同时在前一年又拿了人工智能图灵奖,这是我们的楷模。
现在说类脑智能,确切说应该是受脑科学或者认知科学启发的人工智能。并不是要在一个机构上做出真正类脑物理脑装置,而是受启发的。我们要认真研究怎么启发,受了哪些启发让我们能够做新一代智能呢?就是人工智能工作者要认真研究的对象。
我们不但要类脑,还要类人,还有躯体的智能。能在物理装置上重现人类智能,受脑科学和认知科学启发新一代人工智能架构,就是了解新一代人工智能的四梁八柱才是人工智能科技工作者追求的方向。
利用类脑人类发明了飞机,反过来用空气动力学解释了鸟的滑翔,鸟在飞行当中的动作还是很多的,不能全解释。利用类脑人类发明了计算机,反过来用计算智能解释了人脑部分智能。类脑,类人之路还很长,我们不能太急躁,不能太浮躁。
到底启发了我们什么呢?为什么我们可以做这些事情呢?我列出五条启发点,每一个都很重要,围绕这五条孵化了才可以。回顾人工智能70多年发展,我们有三条主线,一个行为主义机器人学派,他们提出机器如何像人一样行为。一个是符号主义,这是人工智能的主流学派,我原来在英国读博士的时候,我做的是位次演算,位次逻辑。他们强调的是机器如何像人一样思考,于是我们有了推理,预测可解释。现在大家比较看好的就是研究主义,尤其是人工神经网络然后出现了深度学习,尤其是转接学习。
机器脑如何像人脑一样连接,今天当我们研究新一代人工智能时候我们发现这三个学派封闭型假说都要被打破才行。于是我们从行为主义者强调模仿和类比,人类的模仿是人类抽象思维第一个功能。从行为智能得到感知智能,计算智能强调模型驱动继续发扬计算智能。从连接主义里面强调要考虑语境,语用,语构,语法四要素。人类智能进化先低阶后高阶,第一阶认知产生了感知智能行为智能,高阶认知产生记忆智能和计算智能,而人工智能恰是相反。我们先忠于符号计算,第一阶认知一直很弱必须大大加强。我搞了这么多年无人驾驶,本质上是搞的跨模态感知智能,认知用得很少。因为激光雷达跟毫米波雷达和摄像头搞不好跑不起来的。
人工智能不是人造生命,生命是人类存在的底线,触碰底线要慎之又慎。为什么要剥离意识呢?因为上海这个地区对伦理很重要,我多谈一点为什么现在当前不急于做人工生命的原因。意识这个问题,所有哲学家都感兴趣。计算机已经成功把智能和意识剥离了,计算机没有意识但它有智能,因此我们可以继续做没有意识,有智能的高阶机器。非生命人工智能可以确保一以贯之的工具性,智能体外延伸才是人类最需要的。
汽车成为我们的工具,就是人类的第一杀手。这个第一杀手之所以产生就是人类意识造成的,因为它疲劳,它有情绪,思想不集中。我们要这个意识干什么呢?我们只要意识不要智能,如果要意识,对不起这条路很长。意识可以分成三种,自觉意识,自我意识或传递意识。自觉意识需要当前人工智能学界做出一个人造的皮肤,把机器人包裹起来,让它能够感知到自我,皮肤功能很强大。到哪里找到这样皮肤呢?人全身有1000亿个上皮细胞常常更新,可以再生,体内还有15万公里总长的神经,这样人造皮肤到哪去做?如果没有,谈什么意识呢?我建议大家先做工具,不要做意识。
当前情况下做一个受脑科学启发的人工智能,一定要拿出一个非冯洛伊曼架构出来。在监管上类似人脑的神经组织,这个机器放到这个地方应该能感知到周边的环境,在智能驾驶里面叫做同步定位和映射。新时代人工智能价值,我提出两个循环,两个协同。一个是客观事件跟内部循环,通过五个感觉,感知器官。还有就是躯体的循环,形成动力学行为。内部还有两个协同,工作记忆跟场景记忆协同,记忆跟计算协同。
我们不要把所有机器都搞成CPU为主,可以数据中心为主,让CPU加速。只有在计算里面才有CPU为主,让GPU加速,不要所有芯片都是CPU为主,能不能做到这一点呢?我们还要有一个知识图谱,用快速和慢速双驱动形成对记忆的提取。把记忆提取做出来,在人工生命里是一件很伟大的事情。
新一代人工智能的核心在哪
第二点讲一下会学习,这个是新一代人工智能的核心。
现在所有计算机都是软件工程师的智能编程的代码在一次又一次简单执行而已。我们希望这个机器在学习过程中能够解决新的问题,这才叫做新一代人工智能。因此找它的边界怎么找呢?学习形态是交互,学习核心是理解,学习结果是记忆,学习成为新一代人工智能解释解决现实问题的基础。记忆智能成为新一代人工智能中多领域,多情景可计算智能的边界和约束。
用语用,语境来约束语义和语法。机器在客观空间里要有位置感知能力,形成位置空间感,为什么不讲多模态呢?因为我觉得视觉和听觉,哪怕是双模态已经很丰富了,不在于多而在于互相之间交叉融合,就是我们讲的信息融合,信息冲突更多一点,怎么样做冲突消减才是我们认真要做的事情。
这里面涉及到一个很基本问题,到底用没有通用智能?我认为人类学习过程中是不可以划分通用和专用,也不可以划分什么叫常识,什么叫非常识。
AlphaGo不是专用要是能把不同棋盘都能下,把游戏规则稍微改一下那个在专用里面也叫通用,这就是我的基本观点。相对地不要刻意区分,归根到底是人的魔法,魔法当中最重要是抽象,类推,类比。所以怎么学呢?我提出了三种学习方法,一个叫做课堂学习,一个叫做仿真学习,一个是真实环境下的学习。
假如我们做这样一个无人驾驶,机器人向人学习。像特斯拉一样还是你开,你开了两年之后这个驾驶脑说可以开了,就是第二阶段,机器开车让驾驶员干预一下。到了一定时候机器人学会了它说我不但可以从虹桥到苏州,我可以叫所有汽车都从虹桥到苏州,机器人叫机器人,这多好。这里面最重要的是怎样形成知识图谱,我们提出一个记忆网络的想法。用数据化,网络化来做这件事情。
我们知道神经元是一个超大规模的网络,怎样挖掘知识,进行基因提取我们正在做这方面的工作。我们希望通过学习让机器自学语言,让机器人听一听课,他有语言能力,有听觉,有视觉,还有手可以做表示,利用它的交互能力去学习去提问,学了一年两年能不能让它自己写一个新的程序呢?这就是我们自己推崇的。
机器人需要依赖自身软硬件和外部变化的环境,通过交互学习和记忆实现自编程自成长。机器人也许无法改变自身研发或者基础软件,如同人无法改变自己的基因一样,可以通过自编程扩充自己能力,也可以通过交互提出扩充硬件或者基础软件的要求,让它的主人配合它更好的增长才干,适应环境增长。行为主体一定是人类,我们提出两个驱动,情景数据和自身模型,归纳和研究系统推进,理性和经验迭代发展。
到2050年最浪漫的事也许是新一代人工智能和人类一起与时俱进,一起学习成长,解释解决新的问题,今天的手机以后将变成可交互,会学习,自成长,个性化的个人代理。
传统人工智能是计算机智能,应该是封闭型人工智能。新一代人工智能应该是开放性人工智能,传统人工智能应该是算力算法和数据,新一代人工智能是交互学习和记忆,传统人工智能解决的是确定性问题,我们要解决的是不确定性人工智能。(完)
人工智能、机器学习与深度学习
1人工智能和机器学习
在正文开始之前,先请大家看一张人工智能、机器学习、深度学习关系图,如下图1.1所示
图1.1人工智能、机器学习、深度学习关系图
现在我们带着一个问题——“你心目中的人工智能是什么样的?”,我们往下看可能枯燥的文字就会变得有趣了。
人工智能之父——“艾伦·麦席森·图灵”提出了一种用于判定机器是否具有智能的试验方法,即图灵试验。此原则说:如果一个人使用任意一串问题去询问两个他不能看见的对象:一个是正常思维的人;一个是机器,如果经过若干询问以后他不能得出实质的区别,则他就可以认为该机器业也具备了人的“智能”。
人工智能最早的应用——在二战期间,图灵曾协助英国军方破译德国著名的密码系统Enigma,为扭转二战盟军的大西洋战场战局立下汗马功劳。将英国战时情报中心每月破译的情报数量从39000条提升到84000条,让二战至少提前结束了几年。感兴趣的小伙伴可以观看相关的电影“模仿游戏”。这里就不再提及。
机器学习:机器学习是一门多领域交叉学科,涉及概率论、统计学、逼近论、凸分析、算法复杂度理论等多门学科。专门研究计算机怎样模拟或实现人类的学习行为,以获取新的知识或技能,重新组织已有的知识结构使之不断改善自身的性能。它是人工智能核心,是使计算机具有智能的根本途径。
机器学习本质上就是借鉴了我们人类的学习方法,例如:人的绝大部分智能是通过后天训练和学习得到的,并不是天生就具备的,新生儿刚出生的时候没有认知能力,在成长的过程中不断得到信息,对大脑形成刺激,从而建立认知能力。给孩子建立“苹果”、“橙子”的抽象概念,我们就需要不断地带他认识很多“苹果”、“橙子”的实例和图片,建立起他对“苹果”、“橙子”的认知。
[[390504]]
图1.2认知识物卡
机器学习中的经典算法发展史
图1.3机器学习经典算法
在这里就只拿被称为机器学习天花板的SVM经典算法来阐明一下机器学习的实现原理吧!
还是老样子,我们带着实际问题来了解SVM这样会更加的清晰。比如给你一堆“猫”和“狗”的图片,让你将“猫”和“狗”分别识别出来,你会怎么做呢?
[[390505]]
图1.4猫狗图片
像这些图片,我们由于早早的建立起了对“猫”和“狗”的认知,所以我们就能很轻松的分类出来,但是我们没多少人愿意做这种枯燥无趣的工作,我们有机器,何不训练机器来帮助我们完成这种简单无趣的工作呢?
2数字图像和模拟图像
在给大家揭开机器学习和深度学习的神秘面纱之前,先介绍一下图像处理中的最重要的一项——“图像”。图像现在大致可分为“模拟图像”与“数字图像”。
模拟图像:又称连续图像,是指在二维坐标系中连续变化的图像,即图像的像点是无限稠密的,同时具有灰度值(即图像从暗到亮的变化值)。连续图像的典型代表是由光学透镜系统获取的图像,如人物照片和景物照片等,有时又称模拟图像。用胶卷拍出的相片是模拟图像,根据胶卷洗一寸的照片与洗二寸的照片,不影响视觉效果。但模拟图像包含的信息量巨大,而我们通常需要使用计算机对图像进行处理,所以需要由有限行和有限列组成数字图像。如图2.1所示:
[[390506]]
图2.5猫狗分类点集
其中红色的点我们可以认为是“猫”,蓝色的点我们认为是“狗”。我们通过上述的特征可以明显的看出这红点和蓝点之间存在间隔!而我们让机器能够找出一个线将红点和蓝点分离开来就可以让机器来帮助我们识别图片到底是猫还是狗啦!(具体算法不过多介绍,感兴趣的可以百度SVM)分类效果如下图所示:
图2.6SVM二分类线
我们可以看到图中有一条实线,新的图片经过计算后结果在实线上方的我们就认为它是蓝色的点为“狗”,反之则是红色的点也就是“猫”,这是一个简单的二分类,以此类推,我们可以实现多分类!如图所示:
图2.7SVM三分类线
由这个“猫”和“狗”的分类我们基本可以得到机器学习解决问题的流程:
3深度学习
如同机器学习是在人工智能的基础发展来的一个分支,深度学习则是在机器学习的基础上发展来的一个分支。
图3.1深度学习比例图
深度学习也被称为人工神经网络,它是建立在我们对于自身认知水平上的产物,就拿下图生物研究成果来说,我们通过眼睛来收集信息,通过神经元网络来传递给大脑,最后得出我们观察到的结果。
[[390509]]
图3.2人体神经网络结构图
深度学习也正如同于此,我们还是举个简单的实例来分析一波深度学习的工作方式。现在给我们的问题是一个简单的手写数字识别0-9这10个数字。让我们能够正确的识别这10个数字。过程其实比较简单:
我们首先将手写数字图片收集起来,将相对应的数字图片进行相对应的标签。
将图片和标签都告诉计算机,让其在构建好的卷积网络中训练学习。
对学习好的模型进行验证极其应用。
图3.3图片标注训练图
为什么说深度学习为人工神经网络。接下来我们可以看看这幅图片。
图3.4手写数字神经网络图
Inputlayer输入层可以看成输入的图片,空心圆圈我们暂且理解为像素好了,这些像素经过中间hiddenlayer隐藏层(可以看成神经元的传输)的运算,最后输出到outputlayer输出层为10个数,这10个数经过运算以后范围一般为0-1之间,从上到下可以看成为0-9这是个数字的概率值。例如:我们把一张数字9的图片放入训练好的模型中,最后到outputlayer的时候这十个数的数组为[0.12,0.32,0.33,0.10,0.01,0.01,0.01,0.01,0.15,0.99]
分别表示这计算机认为这张图片是0的概率是0.12……9的概率为0.99。那么我们计算机会挑选概率最大的0.99对应的标签来认为这张图片就是9。这些hiddenlayer的隐藏层如同我们的神经网,起到自动提取特征运算的作用,并且从而对比传统机器学习算法具有更高的准确率。
那么深度学习就一定比传统机器学习好吗?其实不然,他们都各有优劣。
深度学习优点:
1、精准度高(超出传统机器学习一截),适用性广。
2、端到端,保密性强(hiddenlayer隐藏层就相当于一个小黑盒,不到最后的输出结果你不知道目前到了哪一步)。
3、不需要手动提取特征。
……
深度学习缺点:
1、计算量大、硬件要求高(网络层数越多计算量越大)。
2、训练时间久,通用性不强(训练的它能识别,不训练的它可能不知道)。
3、不成熟(全世界的专家都在研究hiddenlayer隐藏层,我们人类竟然能造出不知道具体原理的东西,只知道它能这样实现功能)。
……
机器学习优点:
1、通用性强。
2、硬件要求低。
3、运算时间短。
4、比较成熟。
……
机器学习缺点:
1、过分依赖于二值化。
……
到了这里想必大家对人工智能、机器学习和深度学习有了一定的了解,回到最初的问题“你心目中的人工智能是什么样的呢?”,可能现在的技术和你想的略有差距。但未来一定有像电影里的那种人工智能机器人(好了,偏离主题了)
人工智能ai用什么编程语言
人工智能ai用什么编程语言
AI(人工智能)为应用程序开发人员开辟了无限的可能性。通过利用机器学习或深度学习,您可以产生更好的用户配置文件,个性化设置和推荐,或者合并更智能的搜索,语音界面或智能帮助,或以其他多种方式改进您的应用程序。您甚至可以构建可以看到,听到和应对意外情况的应用程序。
您应该学习哪种编程语言来深入了解AI?当然,您需要一门具有许多良好的机器学习和深度学习库的语言。它还应具有良好的运行时性能,良好的工具支持,大量的程序员社区以及健康的支持包生态系统。这是一长串的要求,但是仍然有很多不错的选择。
[也在InfoWorld上:人工智能,机器学习和深度学习:您需要知道的一切]
以下是我精选的六种用于AI开发的最佳编程语言,以及两个荣誉称号。这些语言中的一些正在上升,而另一些正在下滑。还有其他一些您只需要知道您是否对历史深度学习架构和应用感兴趣。让我们看看它们如何堆叠。