博舍

被国外大片误导的中国人, 对人工智能的误解有多深 人工智能的误解

被国外大片误导的中国人, 对人工智能的误解有多深

本文来自微信公众号:文化纵横(ID:whzh_21bcr),作者:陈小平,题图:电影《机械姬》

导读

自“阿尔法狗事件”以来,人工智能成了一个脍炙人口的热词。事实上,人工智能诞生迄今已有70年,期间有过三次发展高潮。但中国只参与了当下第三波发展,且短短几年内对人工智能的关注被不断放大,因此社会上普遍缺乏对其成熟的理解。

许多人认为不久以后人工智能技术将超越某个临界点,然后指数级地超越人类能力。也有观点认为,现有人工智能技术只是“人工弱智”,有多少人工就有多少智能,实际并不智能。这些误区是中国人工智能发展的主要思想障碍。

长期从事人工智能与机器人交叉研究的中科大陈小平教授基于对70年来人工智能技术成果的总结梳理,分析了人工智能到底如何运作、到底有多智能等问题,并提出了理解人工智能的“封闭性准则”。他认为,在封闭性场景中,我们不仅可以规避人工智能技术失控的风险,而且可以推动现有人工智能技术在未来10-15年内中国产业升级中发挥关键作用,为产业发展带来新的广阔空间。

封闭性场景:人工智能的产业化路径

目前,社会上对于人工智能技术的讨论可谓众说纷纭,莫衷一是。有观点认为,人工智能技术已经或即将全面超越人类的能力水平,已经可以无条件应用,因而也会产生严重的伦理危机;也有观点认为,现有人工智能技术只是“人工弱智”,“有多少人工就有多少智能”,因而无法应用,也就根本不存在伦理风险。但如果依据前一种看法从现在开始就限制人工智能的发展,或者基于后一种看法完全放弃对人工智能伦理风险的监管,都是不明智的。

本文立足于对70年来人工智能的技术成果进行总结梳理,根据对现有人工智能成果的技术本质的理解,提出人工智能封闭性和强封闭性准则,形成观察人工智能的一种新视角,进而得出以下观察:

第一,在满足强封闭性准则的场景中,现有人工智能技术可以大规模应用,而在不满足该准则的场景中难以获得成功应用;

第二,受强封闭性准则的制约,短期内不存在人工智能技术失控的风险,而未来长期风险也是可控的;

第三,在强封闭性准则的有效范围内,人工智能的主要风险来自技术误用和管理失误。脱离人工智能技术本质的政策,将难以避免“一管就死、一放就乱”的监管困境。

人工智能应用与治理的迫切需求

人工智能迄今已有约70年历史,出现了三次浪潮,每次浪潮经历大约20年。也有人将以往的人工智能技术归结为两代,每代的发展经历了30~40年。由于本轮产业升级的窗口期只有10~15年,而一代新技术从诞生到成熟往往需要几十年,所以本轮产业升级依靠的人工智能技术,将主要是现有人工智能技术的工程化落地,而不是等待下一代新技术的成熟。

于是,下列问题尖锐地呈现在全社会面前:10~15年内,现有人工智能技术能否以及如何在我国产业升级中发挥关键作用?如果我们不能从现有人工智能技术的本质出发回答这个问题,人工智能国家战略必将落空,与此有关的产业升级也必将受到极大影响。

在西方发达国家中,人工智能的前三次浪潮均引起普遍关注,因而社会各界对人工智能的了解是长期的,也较容易形成较为客观的看法。但在我国,由于社会上普遍关心的只有人工智能的第三次浪潮,而且在短短几年之内这种关注又被放大,故而普遍存在着对人工智能技术真相了解不够,甚至误将国外影视作品当作现实的现象。

而我国人工智能领域的专家学者,又极少介入社会上的讨论,极少参与伦理风险研究和政策制定。因而,如果相关政策建议不能如实反映人工智能技术本质、应用条件和发展态势,必将隐含着管理失误的巨大风险。

人工智能三次浪潮的技术进展

人工智能研究已形成了至少几千种不同的技术路线,其中最成功、影响最大的有两种,被称为人工智能的两种经典思维:“基于模型的暴力法”与“基于元模型的训练法”。这两种思维虽然不能代表人工智能的全部,但它们已经不是停留在单个技术的层面,而是上升到“机器思维”的高度,因而它们在近期应用中发挥关键作用,最值得关注。

第一种人工智能经典思维是“基于模型的暴力法”,其基本设计原理是:第一,构建问题的一个精确模型;第二,建立一个表达该模型的知识表示或状态空间,使得推理或搜索在计算上是可行的;第三,在上述知识表示或状态空间中,用推理法或搜索法穷举所有选项,找出问题的一个解。因此,暴力法包含推理法和搜索法两种主要实现方法,它们具有共同的基本前提:待解问题存在良定义的、精确的符号模型。

在推理法中,通常采用逻辑形式化、概率形式化或决策论形式化作为知识表达的手段。以逻辑形式化为例,一个AI推理系统由一个知识库和一个推理机组成,推理机是一个执行推理的计算机程序,往往由专业团队长期研发而成,而知识库则需要由不同应用的研发者自行开发。推理机根据知识库里的知识进行推理,回答提问。

基于形式化逻辑系统的推理机的研制以对应逻辑的“保真性”为标准,因此推理机本身是“可证正确的”——只要推理机使用的知识库是“正确的”,则对知识库有效范围内的任何问题,推理机给出的回答都是正确的。然而,一个知识库的“正确性”以及相对于一个应用领域的充分性,至今没有形成公认的、可操作的标准,只能通过测试进行实验检验。

第二种人工智能经典思维是“基于元模型的训练法”,其基本设计原理是:第一,建立问题的元模型;第二,参照元模型,收集训练数据并进行人工标注,选择一种合适的人工神经网络结构和一个监督学习算法;第三,依数据拟合原理,以带标注的数据,用上述监督学习算法训练上述人工神经网络的连接权重,使得网络输出总误差最小。

训练好的人工神经网络可以对任意输入快速计算出对应的输出,并达到一定的准确性。例如,针对给定的图像库,一些经过训练的深层神经网络,可以对输入的图片进行分类,输出图片中物体的种类,分类准确性已超过人类。然而,训练法目前没有可证正确性,甚至没有可解释性。

在训练法中,只有监督学习算法和带标注的数据是不够的,还必须对学习目标、评价准则、测试方法、测试工具等进行人工选择。本文将这些人工选择汇集在一起,用“元模型”概括它们。因此,训练法绝不是只要有训练数据和训练算法就行的,人工智能已具备独立于人类的“自我学习”能力的说法更是毫无根据的。

训练法和暴力法都存在“脆弱性”问题:如果输入不在知识库或训练好的人工神经网络的覆盖范围内,将产生错误的输出。针对实际应用中无处不在的感知噪声,美国麻省理工学院做过一个测试。

先用一个著名的商业机器学习系统训练出一个深层神经网络,该网络可以从照片中识别各种枪支,并达到很高的正确识别率。然后,人为修改了这些照片上的少量像素(代表感知噪声),这些修改对人眼识别没有任何影响,可是训练好的深层神经网络却不能正确识别修改后的照片,而且会发生离奇的错误。自20世纪80年代以来,脆弱性已成为制约现有人工智能技术成功应用的主要瓶颈。

除了脆弱性之外,暴力法和训练法还存在其他短板。工程上,训练法的主要短板是需要对大量原始数据进行人工标注,费时费力,且难以保证标注质量;暴力法的主要短板是需要人工编写知识库或制定搜索空间,而这两项工作对于绝大多数开发者而言是十分困难的。因此,尝试将暴力法和训练法取长补短,以消除或减少它们各自的短板,一直是人工智能的一个研究课题。

AlphaGoZero采用了四项人工智能技术,包括两项暴力法技术——简化的决策论模型和蒙特卡洛树搜索,用这两项技术进行自博(自己和自己下棋),自动产生训练数据和标注,而且不仅下了人类下过的很多棋,也下了人类没下过的很多棋。

另外两项是训练法技术——残差网络和强化学习,强化学习算法用自博产生的全部训练数据及标注对残差网络进行训练,不断改进残差网络,最终训练出一个网络,其下棋水平远远超过了人类。这也表明,认为AlphaGoZero仅仅是深度学习的胜利,是一个巨大的误解。正是由于暴力法和训练法的结合,使得AlphaGoZero完全不需要人工标注和人类围棋知识(除了规则)。

根据规则,围棋一共可以下出大约10的300次方局不同的棋。AlphaGoZero通过40天自博,下了2900万局棋(不到10的8次方),仅仅探索了所有围棋棋局中的一个极小部分,所以AlphaGoZero的下棋水平还有巨大的提升空间。这表明,在现有人工智能技术的有效工作范围内,人工智能系统的能力已经远远超过了人类,“多少人工多少智能”的说法是没有根据的,也是不符合事实的。

以上分析表明,社会上流行的两种极端说法都是不成立的。那么,现有人工智能技术的真实能力到底如何?

现有人工智能技术的能力边界——封闭性

有人认为:围棋是最难的问题,既然AlphaGo在最难的问题上超过了人类,当然人工智能已全面超过了人类。但事实上,对人工智能而言,围棋是最容易的一类问题,比围棋更难的问题不仅有,而且非常多,而在这些问题上,现有人工智能技术远远达不到人的能力水平。

因此,我们需要某种准则,以便客观地判断:哪些场景中的应用是现有人工智能技术能够解决的,哪些问题是不能解决的。这个准则就是封闭性。为了便于理解,这里给出封闭性的一种尽可能通俗的描述。

一个应用场景具有封闭性,如果下列两条件之一得到满足:(1)存在一个可计算的和语义完全的模型,并且所有提问在该模型的可解范围内;(2)存在有限确定的元模型,并且代表性数据集也是有限确定的。

封闭性条件(1)和条件(2)是分别针对暴力法和训练法而言的。一个应用场景如果不满足条件(1)或条件(2)中的任何一个要求,则该场景应用就不能用暴力法或训练法解决。例如,假设一个场景具有可计算的和语义完全的模型,但某些提问不在该模型的可解范围内,那么就不能保证智能系统对这些提问的回答都是正确的,这时就出现了脆弱性。

因此,封闭性给出了一个场景中的应用能够被暴力法或训练法解决的理论上的必要条件,也就是说,不满足这些条件的场景应用是不可能用现有人工智能技术实现的。但是,实际场景往往是非常复杂的,理论上的必要条件与工程实际之间存在一定距离。例如,用训练法进行图像分类时,不保证分类误识别率为零,而且错误的性质可能非常严重,无法满足用户的需求。为了尽可能缩小理论与实际之间的距离,本文引入强封闭性准则如下。

一个场景具有强封闭性,如果下列条件全部得到满足:(1)该场景具有封闭性;(2)该场景具有失误非致命性,即应用于该场景的智能系统的失误不产生致命的后果;(3)基础条件成熟性,即封闭性包含的要求在该应用场景中都得到实际满足。

基础条件成熟性包含的内容较多,下面介绍两种重要的典型情况。

第一种情况是,满足要求的模型理论上存在,工程上构建不出。封闭性准则中的条件(1)要求,存在一个可计算的和语义完全的模型,而这里所谓“存在”只要理论上成立就行。但对于一项具体的工程项目来说,仅仅在理论上存在这样的模型是不够的,必须能够在该项目要求的施工期限内,实际地构建出一个这样的模型。

可是有些场景过于复杂,无法在项目期限内实际构建出它的模型。于是,这样的场景虽然符合封闭性准则,却在项目实施中无法成功。基础条件成熟性要求:在项目施工期限内可以实际构建出所需的模型,因而强封闭性准则反映了工程可行性。

第二种情况是,代表性数据集理论上存在,工程中得不到。封闭性准则的条件(2)要求保证找到一个复杂问题的代表性数据集,即使理论上可以证明存在这样的代表性数据集。因此,目前主要在环境变化可忽略或可控的场景中运用训练法,因为代表性数据集在这种场景中是可以得到的。这里的“环境变化可忽略或可控”就是强封闭性准则的一项具体要求,而封闭性准则不包含这项要求。

当一个应用场景出现以上两种情况时,怎么处理才能符合强封闭性准则?对于多数企业特别是中小企业来说,最有效的办法是进行场景裁剪,比如缩小场景规模、舍弃场景中难以建模的部分、舍弃场景中环境变化不可控或不可忽视的部分,使得裁剪后的场景符合强封闭性准则。

另外,人工智能技术在实际应用中往往起“画龙点睛”的作用,而不是单打独斗地解决一个行业的全部技术问题。因此,通常是在其他条件都已具备,却仍然无法实现预期工程目标的情况下,引入人工智能技术以攻克难点,从而发挥关键性作用。这也是基础条件成熟性的要求之一。例如,传统制造业的信息化和自动化、大面积高标准农田的实施,分别为我国传统制造业和现代农业的智能化提供了重要的、决定性的基础条件。

现有人工智能技术在实体经济中的落地路径

在实体经济特别是制造业中,大量场景的自然形态非常复杂,难以通过场景裁剪使之符合强封闭性准则。针对这种情况,可以采取场景改造的办法。目前至少有如下三条场景改造策略,可以作为现有人工智能技术在实体经济中的落地路径。

第一条落地路径:封闭化。具体做法是将一个自然形态下的非封闭场景加以改造,使得改造后的场景具有强封闭性。场景改造在制造业中是常见的,也是成功的。例如汽车制造业,原始的生产过程是人工操作的,其中包含大量不确定性,不是封闭性场景。

建设汽车自动化生产线的本质,是建立一个物理的三维坐标系,使得生产过程中出现的一切(如车身、零件、机器人和其他装备)都在这个坐标系中被精确定位,误差控制在亚毫米级以下,从而把非封闭的场景彻底改造为封闭的(这种改造在工业上称为“结构化”),于是各种智能装备和自动化设备都可以自动运行,独立完成生产任务。这种封闭化/结构化策略正在越来越多地应用于其他行业,而且智能化程度不断提升。

第二条落地路径:分治法。一些复杂的生产过程难以一次性地进行封闭化,但可以从整个生产过程中分解出一些环节,对这些环节进行封闭化,使之符合强封闭性准则;而不能封闭化的环节继续保留传统生产模式,各个环节之间通过移动机器人进行连接。这种策略已被奥迪等大型企业采纳,其实对较小型企业也是适用的。

第三条落地路径:准封闭化。在服务业和人机协作等场合,普遍存在着大量无法彻底封闭化的场景,这时可考虑采取“准封闭化”策略:将应用场景中可能导致致命性失误的部分彻底封闭化,不会出现致命性失误的部分半封闭化。

举一个运输业的例子,高铁系统的行车部分是封闭化的,而乘客的活动不要求封闭化,在遵守相关规定的前提下可自由活动。对于服务业的很多场景,只要满足失误非致命性条件,就可以放宽封闭性程度要求,因为适当条件下,这些场景中的人可以弥补人工智能系统的不足。

因此,强封闭性准则并非简单地要求一个场景在自然形态下满足该准则,而是指出一个目标方向,并通过场景裁剪或场景改造,只要裁剪/改造后的场景符合强封闭性准则,就可以在该场景中应用现有人工智能技术,实现产业升级。

不满足强封闭性准则(包括无法通过场景裁剪或场景改造满足准则)的场景也是大量存在的,现有人工智能技术在这些场景中难以实用化。一个典型例子是开放领域的人机对话。由于这种对话的提问集不是有限确定的,无法收集、标注所有代表性提问数据,也无法写出足够的规则描述提问或对应的回答,因而无法用现有人工智能技术完全实现开放领域的人机对话。

尤其值得注意的是,目前国内外人工智能应用都没有充分体现强封闭性准则,具体表现是:一方面选择了自然形态下不符合强封闭性准则的应用场景,另一方面又没有进行充分的场景裁剪或场景改造。因此,人工智能应用的现实情况不容乐观。

近来,国外媒体开始注意到人工智能初创企业发展不顺的情况,却只报道现象,没有分析深层原因。本文的观察是直截了当的:人工智能技术落地不顺利的原因不是现有人工智能技术不具备应用潜力,而是因为这些落地项目没有通过充分的场景裁剪或场景改造,以确保符合强封闭性准则的要求。

人工智能的风险分析

人工智能技术具有正、反两方面的作用,在造福于人类的同时,也存在各种风险。理论上可能存在四种风险:技术失控、技术误用、应用风险、管理失误。从封闭性准则的视角分析这些风险,可以得出更符合实际的观察。对四种风险的具体分析简述如下。

风险1:技术失控。技术失控指的是技术的发展超越了人类的控制能力,甚至人类被技术控制,这是很多人最为担忧的风险。上面的分析表明,现有人工智能技术仅在满足强封闭性准则的条件下,才可发挥其强大功能;在非封闭的场景中,现有人工智能技术的能力远远不如人类,而现实世界的大部分场景是非封闭的。

所以,目前不存在技术失控风险,并且未来只要依据封闭性准则做到以下三点,仍然可以避免技术失控。第一,在封闭化改造中,不仅考虑产业或商业需求,也考虑改造后场景的可控性,这种考虑不应局限于单个场景,而应通过行业标准批量式地制定和落实。第二,在对适用于非封闭性场景的人工智能新技术的研发中,不仅考虑技术性能,也考虑新技术的伦理风险及其可控性。第三,在对具有特殊需求的人工智能新技术的研发中,不仅考虑特殊需求的满足,也考虑新技术的伦理风险和应用条件,并严格控制这些技术的实际应用。

风险2:技术误用。与信息技术相关的技术误用包括数据隐私问题、安全性问题和公平性问题等,人工智能技术的应用可以放大这些问题的严重程度,也可能产生新的技术误用类型。在现有条件下,人工智能技术本身是中性的,是否出现误用完全取决于技术的使用。

因此,对人工智能技术误用的重视和风险防范应提上议事日程。值得注意的是,根据封闭性准则,现有人工智能技术仅在封闭性场景中有效,而对于这种场景中的技术误用,至少理论上是有办法应对的,所以应该积极对应,无须恐惧。不仅如此,应用自动验证等现有技术,可以消除或减轻某些技术误用的风险。

风险3:应用风险。应用风险指的是技术应用导致负面社会后果的可能性。目前人们最担心的是人工智能在某些行业中的普遍应用导致工作岗位的大量减少。应用风险是由技术的应用引起的,因此关键在于对应用的掌控。根据强封闭性准则,人工智能技术在实体经济中的应用往往需要借助于场景改造,而场景改造完全处于人类的控制之下,做多做少取决于相关的产业决策。因此,在强封闭性条件下,应用风险是可控的;同时也意味着,产业决策及相关的风险预测是应用风险防范的重点。

风险4:管理失误。人工智能是一项新技术,它的应用是一项新事物,社会缺乏管理经验,容易陷入“一管就死,一放就乱”的局面。为此,更需要深入理解人工智能现有成果的技术本质和技术条件,确保监管措施的针对性、有效性。封闭性准则刻画了现有人工智能技术的能力边界,从而为相关治理措施的制定提供了依据。

同样,当未来人工智能技术超越了强封闭性条件,那时人类就需要某种把握未来人工智能技术本质的新准则(如封闭性准则2.0)。还应看到,人工智能伦理问题不是一个单纯的风险管控问题,而需建设一个将监管与发展融为一体的完整伦理体系。

以上分析表明,封闭性准则帮助我们形成对各种风险的更具体、更明确、更贴近实际的认识,三点主要观察概括如下。第一,短期内不存在技术失控风险;对长期风险来说,应关注适用于非封闭性场景的新技术,而强封闭性准则为保证这种技术的风险可控性提供了初步指导。第二,技术误用和管理失误是目前的主要风险来源,应重点关注,着力加强研究。第三,应用风险尚未出现,未来出现的可能性、形态及应对手段需提早研判。

结语

本文认为目前关于人工智能存在这三种认识误区:

第一种误区:人工智能已经无所不能,因此现有人工智能技术可以无条件地应用。根据强封闭性准则,现有人工智能技术远未达到无所不能的程度,应用是有条件的。因此,在产业应用中亟须加强对强封闭性准则的认识,加强场景裁剪和场景改造,避免违反强封闭性准则的盲目应用,而这种盲目目前在国内外都十分普遍,不仅浪费资源,更严重的是干扰了有希望成功的应用。

第二种误区:现有人工智能技术不能大规模实际应用,因为现有人工智能技术依赖于人工标注,并不智能。本文指出,现有人工智能技术并不局限于深度学习,而暴力法和训练法的结合可以避免人工标注,而且符合强封闭性准则的应用场景可以有效地实施数据采集和人工标注。目前一些应用不成功的原因在于违反了强封闭性准则,而不是因为现有人工智能技术不能应用。这个误区往往发生在对人工智能技术有一定了解而认识不到位的情况下。与第一种误区一样,这种误解会严重影响我国人工智能产业应用的进度。

第三种误区:在未来20~30年内,人工智能技术发展将超越某个临界点,之后人工智能将不受人类控制自由发展。根据强封闭性准则和全球人工智能研究现状,这种“奇点说”在技术范围内没有任何科学依据。封闭性准则包含的一些条件,如模型的语义完全性、代表性数据集的有限确定性,通常需要借助于强封闭性准则要求的人工措施的辅助才可以满足。假想未来有可能突破这些限制,与人工智能目前已具备突破这些限制的能力,完全是两回事。即使将来突破了某种限制,还会有新的限制加以约束。这一类说法无形中假定,可以存在脱离具体条件的人工智能技术。这种技术是否可能存在,目前并没有任何科学证据的支持,有待于未来的观察和研判。

这三种误区是我国人工智能发展的主要思想障碍。封闭性和强封闭性准则立足于现有人工智能技术本质,为消除这些误区提供了依据,也为观察、思考和研究人工智能发展的其他问题,避免重复以往人为放大“周期性起伏”的干扰,提供了一种新的视角。

本文来自微信公众号:文化纵横(ID:whzh_21bcr),作者:陈小平

聊一聊人们对人工智能的十大误解

误解5:一个简单的修补程序将解决人工智能的控制问题

其实并不是这样的,如果,我们创造出强于人类的人工智能,我们将要面对一个非常重要的问题,那就是如何控制人工智能,未来主义者和人工智能理论家完全不知如何限制和制约超强人工智能,一旦它被创造出来,也不知道如何保证它将对人类友好。而现在人们已经提出很多简单的技巧来解决整个人工智能的控制问题,如果把人工智能的控制编写程序并且希望取悦人类以及作为人类的工具。但是,这些解决方案要么太简单,要么太复杂。如果我们试图给出一个连贯的、可操作的定义去尊重一次,是非常困难的。这并不是说,这种简单的技巧是无用的,许多此类建议揭示了好的研究途径,而且有助于解决最终的问题。但是,在没有大量工作来发展和探索这些技巧之前,我们是不能去信赖它们的。

误解6:我们将会被人工智能毁灭

其实这种想法不是很牢靠的,这是因为现在还没有证据保证人工智能会毁灭我们,或者我们将来一定没有办法来控制它。人工智能不讨厌你,也不喜欢你,但你是由可以用做别的东西的原子组成的。当人工智能如果有自己的意识,它会有强烈的动机以确保自己不被中断或干扰,包括被关闭,或其目标被改变,因为这样这些目标将无法实现。但万事无绝对,也没有人可以肯定人工智能会采取何种形式,以及它如何可能危及人类。人工智能实际上可以用于控制、调节和监控其他人工智能。或者,它可能被灌输人类价值,以及强制要求友好对待人类。

误解7:人工智能将接手我们所有的工作:

这是一个十分恐怖的事情,其实人工智能自动完成人类工作的能力与它摧毁人类的潜能是两回事。而技术的进步和未来的失业往往是密不可分的。思考人工智能在未来可能扮演的角色无可厚非,但是我们更应该关注的是后面几十年的问题。人工智能主要完成的还是大规模自动化的工作。毫无疑问,人工智能将彻底接管包括从工厂做工到上层的白领工作在内的许多现有的工作岗位。有专家预测,在美国有一半的工作岗位可能在不久的将来实现自动化。但这并不意味着我们不能适应这种巨变。通过人工智能将自己从纷杂的体力和脑力劳动中解放出来,这也是人们所希望的。

在接下来的几十年中,人工智能会摧毁许多工作,但是这是一件好事,例如,自动驾驶汽车可以取代卡车司机,这将减少运输成本,从而降低它的商品购买价格。而这些人将钱节省下来可以购买其他商品和服务,因而会创造新的工作。所以最终的结果可能是,人工智能会产生创造财富的新途径,而人类可以腾出来做其他事情。而在人工智能的进步将带动其他领域,尤其是制造业的发展。在未来,满足人类需求会变得更加容易,而不是更难。人工智能的出现会使得解放人们的双手。

误解8:来自人工智能的危险和机器人是一回事

这是一个特别常见的错误,如果超级人工智能真的想毁灭人类,它不会使用挥舞机关枪的机器人。它会使用更有效的手段,我们就给大家举个例子,比如释放生物瘟疫,或发动基于纳米技术的灾难。或者可以直接破坏掉大气层。人工智能是潜在的危险,并不因为它意味着机器人的未来,而是它将如何对世界展现它的存在。

误解9:我们永远不会创造出类似人类智慧的人工智能

其实并不是这样的,就目前而言,我们已经在一些游戏领域,如象棋与围棋、股市交易和谈话等创造出可以与人类智慧匹敌、甚至超过人类的计算机。而背后驱动的计算机和算法只会越来越好;因此,计算机赶超其他人类活动,将只是个时间问题。在人工智能领域工作的基本每个人都认为,机器将最终会替代我们自己。支持者和怀疑论者之间的唯一真正的区别只是时间框架问题。未来学家普遍认为机器替代人类可能会在几十年发生。

误解:10:工智能会有自觉的意识,其实这种想法不完全正确

关于机器智能的一个共同的假设是,它是自觉的有意识的,也就是说,它会像人类一样思考。更重要的是,但是现在我们还没有实现人工普遍智能,也就是说能够执行任何一项人类能够进行的智能任务,因为我们缺乏关于意识的完整科学理论知识体系。而人工智能的意识无疑是一个有趣和重要的主题,但还是有很多人不相信意识是匹敌人类水平的人工智能必要的部分,我们完全可以想像一个非常聪明的机器,缺乏一个或多个这种属性。最后,我们可以建立一个非常聪明的,但没有自我意识的,不能主观或有意识地体验世界的人工智能。沙纳汉说,将智慧和意识同时融合在一台机器里也是有可能的,但是,我们不应该忽视这样一个事实,即智慧和意识是两个不同的概念。只是因为一台机器通过图灵测试从而证实计算机和人类在智能上无区别,并不意味着它是有意识的。对我们来说,先进的人工智能可能会导致机器看起来是意识的假象,但是在自我自觉方面,它并不比一块岩石或计算器更能感知自我意识。

本文整理自:博客园-CDA-数据分析师,转载此文目的在于传递更多信息,版权归原作者所有。返回搜狐,查看更多

人工智能专家:这些是对ChatGPT的误解

◎科技日报记者 李山

近日,围绕热门科技话题ChatGPT,科技日报记者专访了欧洲科学院院士、德国比勒菲尔德大学洪堡人工智能教席教授金耀初。金教授同时兼任英国萨里大学计算系“计算智能”讲席教授 、IEEE计算智能学会候任理事长,曾任《IEEE认知与发育系统汇刊》主编等职。

德国比勒菲尔德大学的金耀初教授长期从事计算智能、演化计算、机器学习、计算神经科学等交叉学科的理论研究和工程应用,目前已发表学术论文500余篇,论文被引用次数达37400余次,2019—2022年连续4年被WebofScience评为“全球高被引科学家”。照片由受访者提供

生成式模型的重大进展

谈到ChatGPT最核心的东西,金耀初表示,ChatGPT所代表的技术是第三波人工智能技术取得的一个重大进展。它基于生成式预训练Transformer模型,采用了“自注意力机制”。与传统的判别式模型相比,生成式模型的最大特点是直接学习训练数据本身的特点,因而能更有效地学习大容量的样本,特别是海量的语言、视觉信息。

传统的语言处理模型一般只能根据字词的前后相邻词语来找它们之间的关系,因此有很大的局限性。Transformer引入了自注意力机制后,它就能很灵活地找出不单是某一个句子,而是不同句子,甚至是整篇文章或不同的文章之间词的相互关系,学习能力就增强了很多。

横空出世非一日之功

对于ChatGPT的横空出世,金耀初强调这仅仅是大众的感受。从科研的角度看,ChatGPT也是一步一步演进而来的。根据OpenAI发表的论文,ChatGPT是花了很长时间,用了各种学习方法不断训练和微调出来的。生成式模型给出的答案并不是人们事先给它的训练数据,而是模型生成出来的,所以很难保证百分之百正确。ChatGPT在训练过程中用到非常多的最新的学习技术。例如,无监督学习、有监督学习、多任务学习、小样本学习、自监督学习等。

此外,它还加入了基于人类反馈的强化学习,以获得与人类对齐、共情能力。通过人类评价,即给它生成的答案打分来选择一个最佳的答案。这个过程实际上是一个强化学习过程,也就是对原来的模型进行微调。其他AI模型可能没有像ChatGPT这样,用大量的人类反馈来使得模型能产生更加符合人类期待的回答,相应的体验就会有差距。

尚不具备自主的“心智”

金耀初谈到,作为一个从文本到文本的对话系统,ChatGPT最强的地方是对自然语言的充分学习,生成的文本更加“流畅”并符合人类体验,这是一个重大的技术创新。但值得注意的是,生成式机器学习模型有很多,比如从文本到语音信息,或者文本到图像信息,这些方面ChatGPT的表现可能就没那么好了。这是它的一个局限性。

图片来源:视觉中国另一方面,目前ChatGPT训练的数据截至2021年,没有训练过的东西,它是不可能准确回答出来的。换句话说,目前的模型不具备创造新知识的能力。ChatGPT回答问题时用的是推理。它不是那种在数据库中搜索答案的概念。生成式模型是根据问题本身联想出一个答案。这个答案是模型“学习消化”后产生出来的东西,不是原始的数据。严格意义上来说,模型本身甚至不知道这个答案的真正含义,它也不能保证答案肯定是对的。

ChatGPT不是“万能”的

金耀初认为,ChatGPT离真正的专业应用还有一定的距离。现在大家感觉很新奇,都在尝试玩一玩。有的人甚至以为ChatGPT什么都能干,可以很快用在自动驾驶之类的很多应用上,这其实是误解。自动驾驶的重点不是文本到文本的问题,纯粹的生成式模型是不够的。它需要其他判别式的机器学习模型,特别是实时场景的识别。

以现在热议的医疗服务为例,尽管ChatGPT在美国执业医师资格考试中取得不错的成绩,但真实情况下人们会用ChatGPT来代替医师进行诊疗吗?至少目前还不行,因为无法保证它的答案百分之百是正确的。有人说ChatGPT有时会一本正经地胡说八道,这样的描述是比较中肯的,人们不能忽视这种风险。

期待未来更多突破

金耀初表示,这一波人工智能可能不会像第一波和第二波人工智能浪潮那样很快偃旗息鼓。它会继续发展下去,未来三五年,人工智能领域可能还会涌现一些令人吃惊的突破。很多基于ChatGPT的新的想法或技术或会涌现,并在此基础上找到真正好的细分领域的应用。

至于人工智能和机器人的结合,金耀初强调,从某种意义上来说,这一直是人工智能研究的重点之一。现在ChatGPT与人对话这么流畅,如果把它与数字虚拟人技术结合起来,一般人可能很难分辨出计算机屏幕里回答问题的是真人还是一个数字人。当然,未来的发展过程中会涉及很多人工智能的本质问题,包括信任、责任、伦理、法律问题等。乐观地看,ChatGPT等人工智能应用的影响力急剧扩大,反过来会在一定程度上推动上述问题的解决。

来源:科技日报

编辑:刘义阳

审核:朱丽

版权声明:本文内容由互联网用户自发贡献,该文观点仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌抄袭侵权/违法违规的内容,一经查实,本站将立刻删除。

上一篇

下一篇