博舍

人工智能的研究路径和发展途径是什么 人工智能理论基础中最重要的是什么和什么和什么

人工智能的研究路径和发展途径是什么

人工智能的研究路径和发展途径是什么?来源:中国教育信息化网作者:李志民

自2016年以来AlphaGo接连击败顶级的人类围棋棋手之后,AI(人工智能)的能力和潜力再次刷新了我们的认知,并在全球掀起了一场人工智能大发展的热潮。人工智能到底会如何发展,一直都是媒体和整个社会讨论的焦点,AI研究人员是如何看待的呢?

最近,偶然在微信圈里看到北京大学的黄铁军教授为2018年图灵奖获得者、卷积神经网络之父 YannLeCun的自传写的序,其中既有不谋而合之处,又有发人深省的地方。摘编如下:

黄教授在文中写道:人类智能是地球环境培育出的最美丽的花朵,我们在为自己骄傲的同时,也要警惕人类中心主义。地球不是宇宙的中心,人类智能也没有类似的独特地位,把人类智能视为人工智能的造物主,曾经禁锢了人工智能的发展。沉迷于寻求通用智能理论,将是阻碍人工智能发展的最大障碍。这个思想基本上贯穿全文,也是非常值得深思的部分。

对于智能的定义,黄教授认为,智能是系统通过获取和加工信息而获得的能力。智能系统的重要特征是能够从无序到有序(熵减)、从简单到复杂演化(进化)的。生命系统是智能系统,也是物理系统;既具有熵减的智能特征,也遵守熵增在内的物理规律。人工智能是智能系统,也是通过获取和加工信息而获得智能,只是智能载体从有机体扩展到一般性的机器。就像人可以分为精神和肉体两个层次(当然这两个层次从根本上密不可分),机器智能也可以分为载体(具有特定结构的机器)和智能(作为一种现象的功能)两个层次,两个层次同样重要。

AI技术的传统研究路径有符号主义、连接主义和行为主义。

符号主义有过辉煌,但不能从根本上解决智能问题,一个重要原因是“纸上得来终觉浅”:人类抽象出的符号,源头是身体对物理世界的感知,人类能够通过符号进行交流,是因为人类拥有类似的身体。计算机只处理符号,就不可能有类人感知和类人智能,人类可意会而不能言传的“潜智能”,不必或不能形式化为符号,更是计算机不能触及的。要实现类人乃至超人智能,就不能仅仅依靠计算机。

连接主义采取自底向上的路线,强调智能活动是由大量简单单元通过复杂连接后并行运行的结果,基本思想是:既然生物智能是由神经网络产生的,那就通过人工方式构造神经网络,再训练人工神经网络产生智能。它的困难在于,不知道什么样的神经网络能够产生预期智能,因此大量探索归于失败。20世纪80年代神经网络曾经兴盛一时,掀起本轮人工智能浪潮的深度神经网络只是少见的成功个案。

行为主义是第三条路径。生物智能是自然进化的产物,生物通过与环境以及其他生物之间的相互作用发展出越来越强的智能,人工智能也可以沿这个途径发展。这个学派在20世纪80年代末90年代初兴起,近年来颇受瞩目的波士顿动力公司的机器狗和机器人就是这个学派的代表作。行为主义遇到的困难和连接主义类似,那就是什么样的智能主体才是“可塑之才”。

黄教授认为,展望未来,人工智能的发展途径有三条:

一是继续推进“大数据+大算力+强算法”的信息技术方法,从而得到信息模型。收集尽可能多的数据,采用深度学习、注意力模型等算法,将大数据中蕴藏的规律转换为人工神经网络的参数,这实际上是凝练了大数据精华的“隐式知识库”,可以为各类文本、图像等信息处理应用提供共性智能模型。

二是推进“结构仿脑+功能类脑+性能超脑”的类脑途径,从而得到生命模型。把大自然亿万年进化训练出的生物神经网络作为新一代人工神经网络的蓝本,构造逼近生物神经网络的神经形态芯片和系统,站在人类智能肩膀上发展机器智能。

三是通过“强化学习+物理模型+算力”的自主学习途径,从而得到自主智能模型。其技术路线的核心是建立自然环境的物理模型,通过强化学习训练自主智能模型。比如,构造地球物理模型,训练出的人工智能系统能够适应地球环境,与人类共处共融;构造高精度物理模型(例如基于量子力学模型构造出粒子、原子、分子和材料模型),可以训练出能够从事物理学和材料学研究的人工智能;构造出宇宙及其他星球的物理模型,可以训练出的人工智能则有望走出地球,适应宇宙中更复杂的环境。(参考全文可查阅:黄铁军:沉迷于寻求通用智能理论,将是阻碍AI发展的最大障碍|YannLeCun自传《科学之路》序)

 

从以上研究路径和发展途径看,对现阶段的人工智能毋须过分魔幻,AI只是众多科研方向的其中之一。其研究方向可以概括为:符号主义学派把人类的感知抽象成“符号”,使用逻辑推理和演算的方法,通过解析物理符号系统假说和启发式搜索原理去寻找智能,它关心的是承载智能的心理结构和逻辑结构,即符号主义学派是在研究“心智”(Mind);连接主义学派使用生物仿生学的方法,通过构建模拟生物体脑部的组织结构去寻找智能,它关心的是承载智能的生理结构,即连接主义学派是在研究“大脑”(Brain);而行为主义学派认为智能是由环境习得的,通过环境反馈和智能行为之间的因果联系去寻找智能,既不关心智能的载体和其内部的生理结构,也不关心智能的逻辑和心理结构,只关心智能的外部可观察到的行为表现,即行为主义学派是在研究“行为”(Action)。

可以看出,当前的人工智能还只能说是由自动控制向自动化的升级,本质上还是人的智能,仅仅也就停留在弱人工智能的初级阶段,离有知觉、有自我意识,可以独立思考问题并制定解决问题的最优方案甚至有自己的价值观和世界观体系的强人工智能更是相差十万八千里。

所以我们应该去思考,人工智能没有解决的是什么?智能的形成机制是什么?有没有脑科学和神经科学的可靠理论支撑?难道智能仅仅是算法吗?搞清楚这些问题,我们就不会陷入科幻的杞人忧天和恐慌之中而得出自己的判断。自然人的智能只是电信号吗,只是靠电力吗?没有电力供应的智能机器怎么运转,人类在发明电力之前可是有过几千年的文明史。

上一篇:预长聘制应以真正的同行评议为基础

下一篇:什么是碳达峰、碳中和

人工智能的伦理挑战

原标题:人工智能的伦理挑战

控制论之父维纳在他的名著《人有人的用处》中曾在谈到自动化技术和智能机器之后,得出了一个危言耸听的结论:“这些机器的趋势是要在所有层面上取代人类,而非只是用机器能源和力量取代人类的能源和力量。很显然,这种新的取代将对我们的生活产生深远影响。”维纳的这句谶语,在今天未必成为现实,但已经成为诸多文学和影视作品中的题材。《银翼杀手》《机械公敌》《西部世界》等电影以人工智能反抗和超越人类为题材,机器人向乞讨的人类施舍的画作登上《纽约客》杂志2017年10月23日的封面……人们越来越倾向于讨论人工智能究竟在何时会形成属于自己的意识,并超越人类,让人类沦为它们的奴仆。

维纳的激进言辞和今天普通人对人工智能的担心有夸张的成分,但人工智能技术的飞速发展的确给未来带来了一系列挑战。其中,人工智能发展最大的问题,不是技术上的瓶颈,而是人工智能与人类的关系问题,这催生了人工智能的伦理学和跨人类主义的伦理学问题。准确来说,这种伦理学已经与传统的伦理学旨趣发生了较大的偏移,其原因在于,人工智能的伦理学讨论的不再是人与人之间的关系,也不是与自然界的既定事实(如动物,生态)之间的关系,而是人类与自己所发明的一种产品构成的关联,由于这种特殊的产品――根据未来学家库兹威尔在《奇点临近》中的说法――一旦超过了某个奇点,就存在彻底压倒人类的可能性,在这种情况下,人与人之间的伦理是否还能约束人类与这个超越奇点的存在之间的关系?

实际上,对人工智能与人类之间伦理关系的研究,不能脱离对人工智能技术本身的讨论。在人工智能领域,从一开始,准确来说是依从着两种完全不同的路径来进行的。

首先,是真正意义上的人工智能的路径,1956年,在达特茅斯学院召开了一次特殊的研讨会,会议的组织者约翰・麦卡锡为这次会议起了一个特殊的名字:人工智能(简称AI)夏季研讨会。这是第一次在学术范围内使用“人工智能”的名称,而参与达特茅斯会议的麦卡锡和明斯基等人直接将这个名词作为一个新的研究方向的名称。实际上,麦卡锡和明斯基思考的是,如何将我们人类的各种感觉,包括视觉、听觉、触觉,甚至大脑的思考都变成称作“信息论之父”的香农意义上的信息,并加以控制和应用。这一阶段上的人工智能的发展,在很大程度上还是对人类行为的模拟,其理论基础来自德国哲学家莱布尼茨的设想,即将人类的各种感觉可以转化为量化的信息数据,也就是说,我们可以将人类的各种感觉经验和思维经验看成是一个复杂的形式符号系统,如果具有强大的信息采集能力和数据分析能力,就能完整地模拟出人类的感觉和思维。这也是为什么明斯基信心十足地宣称:“人的脑子不过是肉做的电脑。”麦卡锡和明斯基不仅成功地模拟出视觉和听觉经验,后来的特里・谢伊诺斯基和杰弗里・辛顿也根据对认知科学和脑科学的最新进展,发明了一个“NETtalk”的程序,模拟了类似于人的“神经元”的网络,让该网络可以像人的大脑一样进行学习,并能够做出简单的思考。

然而,在这个阶段中,所谓的人工智能在更大程度上都是在模拟人的感觉和思维,让一种更像人的思维机器能够诞生。著名的图灵测试,也是在是否能够像人一样思考的标准上进行的。图灵测试的原理很简单,让测试一方和被测试一方彼此分开,只用简单的对话来让处在测试一方的人判断,被测试方是人还是机器,如果有30%的人无法判断对方是人还是机器时,则代表通过了图灵测试。所以,图灵测试的目的,仍然在检验人工智能是否更像人类。但是,问题在于,机器思维在作出自己的判断时,是否需要人的思维这个中介?也就是说,机器是否需要先绕一个弯路,即将自己的思维装扮得像一个人类,再去作出判断?显然,对于人工智能来说,答案是否定的,因为如果人工智能是用来解决某些实际问题,它们根本不需要让自己经过人类思维这个中介,再去思考和解决问题。人类的思维具有一定的定势和短板,强制性地模拟人类大脑思维的方式,并不是人工智能发展的良好选择。

所以,人工智能的发展走向了另一个方向,即智能增强(简称IA)上。如果模拟真实的人的大脑和思维的方向不再重要,那么,人工智能是否能发展出一种纯粹机器的学习和思维方式?倘若机器能够思维,是否能以机器本身的方式来进行。这就出现了机器学习的概念。机器学习的概念,实际上已经成为发展出属于机器本身的学习方式,通过海量的信息和数据收集,让机器从这些信息中提出自己的抽象观念,例如,在给机器浏览了上万张猫的图片之后,让机器从这些图片信息中自己提炼出关于猫的概念。这个时候,很难说机器自己抽象出来的猫的概念,与人类自己理解的猫的概念之间是否存在着差别。不过,最关键的是,一旦机器提炼出属于自己的概念和观念之后,这些抽象的概念和观念将会成为机器自身的思考方式的基础,这些机器自己抽象出来的概念就会形成一种不依赖于人的思考模式网络。当我们讨论打败李世石的阿尔法狗时,我们已经看到了这种机器式思维的凌厉之处,这种机器学习的思维已经让通常意义上的围棋定势丧失了威力,从而让习惯于人类思维的棋手瞬间崩溃。一个不再像人一样思维的机器,或许对于人类来说,会带来更大的恐慌。毕竟,模拟人类大脑和思维的人工智能,尚具有一定的可控性,但基于机器思维的人工智能,我们显然不能作出上述简单的结论,因为,根据与人工智能对弈之后的棋手来说,甚至在多次复盘之后,他们仍然无法理解像阿尔法狗这样的人工智能如何走出下一步棋。

不过,说智能增强技术是对人类的取代,似乎也言之尚早,至少第一个提出“智能增强”的工程师恩格尔巴特并不这么认为。对于恩格尔巴特来说,麦卡锡和明斯基的方向旨在建立机器和人类的同质性,这种同质性思维模式的建立,反而与人类处于一种竞争关系之中,这就像《西部世界》中那些总是将自己当成人类的机器人一样,他们谋求与人类平起平坐的关系。智能增强技术的目的则完全不是这样,它更关心的是人与智能机器之间的互补性,如何利用智能机器来弥补人类思维上的不足。比如自动驾驶技术就是一种典型的智能增强技术,自动驾驶技术的实现,不仅是在汽车上安装了自动驾驶的程序,更关键地还需要采集大量的地图地貌信息,还需要自动驾驶的程序能够在影像资料上判断一些移动的偶然性因素,如突然穿过马路的人。自动驾驶技术能够取代容易疲劳和分心的驾驶员,让人类从繁重的驾驶任务中解放出来。同样,在分拣快递、在汽车工厂里自动组装的机器人也属于智能增强类性质的智能,它们不关心如何更像人类,而是关心如何用自己的方式来解决问题。

这样,由于智能增强技术带来了两种平面,一方面是人类思维的平面,另一方面是机器的平面,所以,两个平面之间也需要一个接口技术。接口技术让人与智能机器的沟通成为可能。当接口技术的主要开创者费尔森斯丁来到伯克利大学时,距离恩格尔巴特在那里讨论智能增强技术已经有10年之久。费尔森斯丁用犹太神话中的一个形象――土傀儡――来形容今天的接口技术下人与智能机器的关系,与其说今天的人工智能在奇点临近时,旨在超越和取代人类,不如说今天的人工智能技术越来越倾向于以人类为中心的傀儡学,在这种观念的指引下,今天的人工智能的发展目标并不是产生一种独立的意识,而是如何形成与人类交流的接口技术。在这个意义上,我们可以从费尔森斯丁的傀儡学角度来重新理解人工智能与人的关系的伦理学,也就是说,人类与智能机器的关系,既不是纯粹的利用关系,因为人工智能已经不再是机器或软件,也不是对人的取代,成为人类的主人,而是一种共生性的伙伴关系。当苹果公司开发与人类交流的智能软件Siri时,乔布斯就提出Siri是人类与机器合作的一个最朴实、最优雅的模型。以后,我们或许会看到,当一些国家逐渐陷入老龄化社会之后,无论是一线的生产,还是对这些因衰老而无法行动的老人的照料,或许都会面对这样的人与智能机器的接口技术问题,这是一种人与人工智能之间的新伦理学,他们将构成一种跨人类主义,或许,我们在这种景象中看到的不一定是伦理的灾难,而是一种新的希望。

(作者:蓝江,系南京大学哲学系教授)

版权声明:本文内容由互联网用户自发贡献,该文观点仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌抄袭侵权/违法违规的内容,一经查实,本站将立刻删除。

上一篇

下一篇