前沿技术创新与新兴产业演进规律探析——以人工智能为例
摘要:本文通过追溯人工智能从萌芽、发展到实现产业化应用的历史,揭示了技术创新与新兴产业演进的一般性规律。前沿技术的创新路径存在高度的不确定性,在技术发展初期出现潮涌现象并呈现多条技术路线竞争的格局,其发展需要多学科技术的支持,受到多领域科技发展的启发。新技术的产业化往往要经历曲折、漫长的过程,需要来自互补产品与互补技术协同演进的支撑,其在国民经济中发挥作用也需要互补技术的进步与互补产品的发展。笔者通过分析提出,政府可以在技术推动和需求拉动两方面对新技术的产业化及其广泛应用发挥重要作用;人工智能技术既有其优势,也存在其不足和滥用风险;未来的创新与生产更可能是人工智能与人类的高度协作。本文从研发支持、发展环境建设、传统产业数字化改造、市场支持、创新创业、科技伦理治理等方面提出加快人工智能产业化的对策建议。
关键词:前沿技术;新兴产业;人工智能;产业化;通用目的技术
基金项目:研究阐释党的十九大精神国家社会科学基金专项立项课题“推动新一代信息技术与制造业深度融合研究——基于新时代和新工业革命的视角”(18VSJ054);国家社会科学基金重点项目“‘互联网+’背景下的中国制造业转型升级研究”(16AJY011);中国社会科学院登峰战略优势学科(产业经济学)成果。
科学技术是第一生产力,但是只有当人类从自发到自觉地发现和运用自然规律,科学技术才真正爆发出它的洪荒之力。针对英国工业革命之后人类取得的巨大经济成就,经济史统计学家麦迪森[1]指出,19世纪之前的世界人均GDP增长缓慢,直到19世纪20年代世界经济发展才呈现更强劲的势头。马克思和恩格斯曾这样形容工业革命之后的技术发展:“资产阶级在它的不到一百年的阶级统治中所创造的生产力,比过去一切世代创造的全部生产力还要多,还要大”[2]。然而,科技的发展从来不是一帆风顺的,从最初技术的萌芽到产业化创造出巨大的经济价值往往需要经过曲折漫长的历程。2016年谷歌旗下DeepMind公司的AlphaGo人工智能系统战胜人类世界围棋冠军李世石,人工智能真正从实验室进入生产和生活并成为投资的风口,美国、日本、欧洲、中国等纷纷提出自己的人工智能战略。实际上,从人工智能理论的提出到大规模产业化应用也已七十年有余,且经历了多次技术路线的变换。可以说,人工智能技术创新与产业发展的历史为我们提供了一个近距离观察前沿技术创新与新兴产业演进规律的契机。
一、前沿技术创新的规律
新兴产业是由前沿技术不断发展进而工程化、产业化并不断壮大形成的。前沿技术如同其他现代科学技术一样,不仅是由新发现的基本效应或自然规律所推动的,更是以基本效应或自然规律为核心、集成和融合其他领域的科学技术而形成的复合技术或技术集。而前沿技术的工程化、产业化过程更是离不开相关技术和产业的支撑,某一项前沿技术发展实际上是与其他相关技术协同演进的结果。前沿技术在工程化、产业化过程中,表现出在技术路线、商业模式上的巨大不确定性,历史地考察新兴产业的发展历程就会发现,在早期阶段,通常有多条技术路线交替出现、相互竞争、此起彼伏。
(一)技术演进路线的不确定性
科学发现和技术发明是新兴产业形成与发展壮大的基础,但技术演进的路线从来都不是直线向前的,从最初的基础科学被提出到最终产业化主导设计的确立都面临着巨大的不确定性。弗里曼和苏特[3]划分了由低到高六种与创新相联系的不确定性程度,相比之下,产业化之前的科学研究与产品创新的不确定性要比产业化之后的产品改进所面临的不确定性大得多,其中基础性研究和基础性发明的不确定性最高,新型号较小的技术改进的不确定性最低。这种对不确定的分类意味着,一种技术路线在研究开发阶段的失败率要比进入较为成熟的商业开发之后大得多。
技术创新路径的不确定性在产业化之前表现得尤为明显。林毅夫[4]指出,当新的投资机会出现时,企业会像浪潮般涌向这个领域,出现所谓的潮涌现象。实际上,潮涌现象不仅发生在产业领域,在技术创新领域同样存在。当科技工作者发现一个具有重大前景的研究领域时,其会最先蜂拥而入;政府、科学基金会、风投机构、企业继而发现技术的产业化前景也会加大研发投入,使研发阶段的潮涌现象比产业化阶段的更为突出。在技术产业化之前或竞争前阶段,新科技的基本原理尚不清晰,需要在摸索和试错中不断向自然规律靠近。由于科研机构、科研人员的学术背景和研究基础大相径庭,他们会利用各自的优势从不同的角度对自然现象作出解释、对产品原型进行构建,因而就会出现多种不同的技术路线先后涌现、相互竞争的局面。人工智能技术发展的历史非常典型地呈现出技术演进路线的不确定性、潮涌现象以及多条技术路线竞争的特征。
19世纪50年代,科学家们尝试应用计算机程序进行抽象化、符号化的数学证明,并取得了一定的成功。纽埃尔和西蒙在达特茅斯会议上展示的首个人工智能程序“逻辑理论家”能够证明《数学原理》前52个定理中的38个,1963年“逻辑理论家”已能够证明全部的52个定理。科学家们在用计算机进行平面几何定理证明和不定积分式计算方面也取得了一定的成功。但是随后人工智能系统在数学定理的证明方面陷入瓶颈,在自然语言翻译方面也遭遇滑铁卢[5]。20世纪60年代初期,美国计算机科学家费根鲍姆首先将视线从抽象的通用证明方法转移到具体的专家知识上来,认为人工智能应在知识的指导下实现,这一构想催生了专家系统(ExpertSystem)。最初的专家系统主要应用于学术领域,如1965年斯坦福大学在美国国家航天局的要求下研制的具有丰富化学知识的DENRAL系统[6],其能够根据质谱仪的数据推知物质的分子结构,并被应用于世界各大学及工业界的化学实验室中。但是专家系统的不足也是非常明显的:其运作需要大量外界的知识输入,耗时耗力,而且从一组专门知识中推演出的逻辑规则只能适用该特定领域,不能解决需要极其复杂逻辑推理的常识问题。面对专家系统技术路线撞上的“高墙”,人工智能科学家们继续沿着不同的路径进行探索。在20世纪80—90年代的10年间,形成了符号主义、连接主义和行为主义三大学派鼎足而立的格局。
符号主义学派认为,人工智能源于数理逻辑推理,其原理主要为物理符号系统(即符号操作系统)假设和有限合理性原理[7]。人类认知和思维的基本单元是符号,认知过程就是在符号上进行的逻辑运算。如果利用计算机中的逻辑运算来模拟人类的抽象逻辑思维,就可实现人类认知的机械化,即实现人工智能。因此,人工智能实现的重点在于对人类思维中数理逻辑的模拟,这种模式既可以基于碳基的人脑,又可以基于硅基的计算机处理器。连接主义学派认为,人工智能源于仿生学,其原理为神经网络及其之间的连接机制和学习方法。人类的大脑由数百亿神经元细胞构成,神经元是大脑神经系统的基本单位,也是行为反应的基本单位。人类的智能活动通过大脑中神经元突触的复杂连接与协同作用加以实现。连接主义学派基于这一思路认为,可以通过大量的非线性并行处理器来模拟人脑中众多的神经元,通过处理器之间复杂的连接关系来模拟人脑中众多神经元之间的突触连接。行为主义学派认为,人工智能以控制论和感知—行为型控制系统为基础。该学派将复杂的行为分解为多个简单行为,智能行为在行为主体与环境的交互过程中产生,行为主体根据环境的刺激作出反应,特定的反应对应着引起该反应的情景或刺激。
(二)多学科融合与技术演进
人工智能在学科分类上属于信息科学与技术领域,但是人工智能技术进步的动力不仅来自于人工智能学科本身,更需要来自多个学科技术的支撑,受到多领域科技发展的启发。多个相关学科理论和技术的集成与融合构成完整的人工智能科学体系,进而产生具有实际应用价值的产品或系统。根据《2019年中国新一代人工智能发展报告》,人工智能呈现明显的学科交叉、融合发展态势,人工智能领域的学术论文涉及多个学科[8],数学与逻辑学、控制论和信息论、生物学特别是神经科学构成了人工智能的主要理论来源。
1.数学与逻辑学构成人工智能的基石
数学肇始于人类文明早期的生产活动,算术、几何、代数可视为数学发展史上三次革命的重要标志[2]。欧洲文艺复兴时期,法国科学家笛卡尔就提出,所有的科学解释必须以精确的数学定量方式表达。同一时期,关于随机现象与可能性的理论——概率论被提出。到20世纪,苏联数学家柯尔莫哥洛夫构建了基于公理化—集合论的概率论理论体系。思维逻辑是人类智慧的重要表现,古希腊哲学家苏格拉底提出如何判定某个定义是否正确的问答法[9],可视为对人工智能思维逻辑思考的起点,与人工智能的开创者图灵定义“机器智能”的方法一致。将符号化、数字化的数学方法用于表达形式逻辑以及推理、证明问题的“数理逻辑”随后被发明。
数学和逻辑学对计算机科学的发展起到决定性作用[10]。1935年,当时年仅23岁的图灵在思考数学家希尔伯特提出的23个世纪问题中的“能否通过机械化运算过程来判断正系数方程是否存在整数解”这一问题时意识到,解决这一问题的关键在于对机械化运算的严格定义,即“依照一定的有限的步骤,无需计算者的灵感就能完成的计算”[5]。他提出,是否能在数学上给“可计算”下一个精确定义,然后用数学手段来研究万事万物的可计算性?这便是计算机的理论先导。20世纪40年代起,图灵开始思考依据什么标准判断一台机器是否具有智能[11]。他从行为主义的角度,将智能等同于符号运算的智能表现。美国科学家诺依曼将图灵理论物化成为实际的物理实体,完成初步计算机硬件体系结构的构建。在达特茅斯会议上,纽埃尔和西蒙展示了“逻辑理论家”(LogicTheorist)计算机程序,用于代替人类进行自动推理来证明数学定理,人类历史上首个人工智能程序在纯数学学科上实现了突破。
2.控制论和信息论构成人工智能的理论基础
控制论诞生于美国数学家Wiener[12]在他的专著中,将控制论定义为一门研究机器、生命在社会中控制和通讯的一般规律科学。控制论建立在统计理论的基础上,兼容了数学、物理学与哲学。控制论认为,计算机与神经系统的工作机理具有相似性[13],都是一个自我调节和自我控制的动态系统。
人工智能研究应用了控制原理和方法,主要包含三类理论:一是对人工大脑反馈机制的研究,通过对大脑中神经网络的模拟,构造出类似的人工大脑。具体来说,将被控制对象输出端的信息与目的信息比较,导出偏差信息并反馈给控制器输入端作为控制信息抵消干扰作用,从而使系统恢复稳定,达到或接近目标状态。二是对模式识别的研究,包括研究生物体(包括人)感知对象的方式等认知科学问题。三是对如何利用电子计算机,在给定条件下对某些复杂的系统进行鉴别和分类进行研究。
20世纪中叶,信息论出现。电信时代的开拓者申农最先以严格的数学方式进行了信息的数学计算,为通信系统建立了完整的数学理论。他提出量化信息的“熵”(Entropy)这一概念,开启了数字信息时代[14]。同时,申农在信息编码与概率论的基础上,研究了信号传输中的波形与干扰。当代的信息科学技术是在申农工作的基础上,进一步研究如何实现信号采集、传输、存储、处理,并从中提取和使用深层次信息。作为信息通信和计算机科学的一个重要思潮,信息论成为深度学习和人工智能的重要理论来源。
3.生物学推动了人工智能研究的突破
生物进化理论的提出是现代生物学诞生的重要标志。1809年拉马克提出的进化学说、1859年达尔文提出的进化论以及1865年孟德尔提出的遗传学都揭示了生物物种是一种复杂系统,其进化中体现出了奇妙的自适应、自组织和自优化能力,这是一种生物进化中的智能[15],也是人工智能研究行为主义学派的理论基础。对脑科学的研究则成为人工智能研究的连接主义学派的理论基础。脑研究分为两类:“自上而下”的脑研究以及“自下而上”(还原论)的脑研究。“自上而下”的脑研究从整体上研究脑功能,发现大脑既分工又合作,既具有整体活动功能,又具有分区处理功能,脑区域与身体之间的映射关系可以在数周之内发生根本性改变。“自下而上”的脑研究则是从单个神经元开始研究大脑的工作原理。数理逻辑学家McCulloch和Pitts[16]提出了以形式化数学描述神经网络结构的方法,创立了理想化的人工神经元网络脑模型(即MP模型),开辟了用电子装置模仿人脑结构和功能的途径。此后,在20世纪60年代至70年代,美国心理学家White和Rosenblatt[17]将反馈学习算法引入神经网络中,提出了以“感知机”为代表的脑模型。到20世纪80年代,神经科学的发展推动人们对大脑的了解不断加深,激发了人们对用机器模拟神经网络研究的兴趣。深度学习理论模仿人类大脑的核心结构特征,通过设置输入层、输出层及其之间的中间层(隐藏层)的分层结构,以反向传播的方式实现机器的自我学习。有趣的是,一些著名的深度学习开创者都具有生物学(生理学、心理学、神经科学)的背景。如神经网络建模的顶尖人物之一马尔从剑桥大学获得了数学学士学位和生物学博士学位,他的导师是专门研究视网膜和色觉的生理学家布林德利;深度学习开创性论文的作者辛顿在剑桥大学获得的是心理学学士学位,而他的博士论文导师希金斯则是一位发明了早期联想记忆网络模型的杰出化学家[18]。由此可见,人工智能体现出明显的多学科交叉特征。
需要说明的是,人工智能的不同技术路线、构成人工智能基础的不同学科之间不是彼此隔离的,而是互相吸收思想、彼此融合互补,共同推动了人工智能技术的发展与产业化。以人工智能三种流派为例,三者从不同的角度理解、定义和构造人工智能,但也存在各自的瓶颈与局限,而且三者之间既存在差异也存在联系。符号主义学派致力于数理逻辑在计算机中形式化的表达,在专业化领域得到很好的表现。但万能逻辑推理系统并不存在,计算机和智能机器人不可能完全模拟人类思维。连接主义学派致力于构造模拟动物与人类大脑和各种感觉器官的结构和功能的智能。但人脑是一个极其复杂的系统,目前已知的结构和活动机制仅仅是冰山一角。而行为主义学派从智能是生物体与外界环境的动态适应出发,通过对来自外部环境的信号在感应器内进行转换,在智能机器与环境的相互作用下构建智能。但该种基于行为—动作模式的智能只能捕捉到特定目标的行为,并且存在缺乏创造性、存在意向性等缺陷。三大学派从不同的方向上模拟人工智能,而在现实中,真正的智能正是以上三种模式的结合,或许三者的融合会成为人工智能研究的下一突破口。
二、新兴产业演进的规律
科学技术的工程化、产业化是艰难而惊险的一跳,科学技术与产品之间存在着巨大的鸿沟,这一鸿沟需要科学家、工程师们无数的汗水、企业家们巨大的投入加以弥合,同时,跨越鸿沟的惊险一跳同样存在着巨大的不确定性。因此,前沿技术的产业化往往要经历曲折的历程,而且产业的发展壮大以及使通用目的技术在其他产业中发挥巨大威力,还需要互补技术、产品与产业的协同演进作为支撑。随着产品复杂性的提高与分工的深化,在前沿技术的产业化过程中,政府在技术推动(Technology-Push)与需求拉动(Demand-Pull)两方面都能发挥重要的作用。
(一)产业化的曲折历程
回顾第一次工业革命的历史可以发现,从1712年纽卡门发明世界上第一台具有广泛运用前景的蒸汽机开始,中间经过了包括瓦特在内的工程师们对其长达一个半世纪的漫长改良。大约在19世纪40—60年代,蒸汽机才完全超过水车和风车成为最重要的动力源,并在世界范围内获得广泛运用。如果追溯蒸汽机主要原理的发现,这一过程则要接近200年[19]。人工智能作为一个产业,同样经历了曲折漫长的历程。1958年,纽埃尔和西蒙就预言,计算机会在10年内成为国际象棋世界冠军,这一天晚了近30年;1965年,西蒙又预言,20年内,“机器将能完成人能做到的一切工作”,但即使从人工智能起步已历时近70年时间,他的预言仍远未实现[20]。
人工智能产业化过程中的主导设计或领先技术路线也出现了数次反复。从人工智能的概念被提出到20世纪90年代,符号主义学派的专家系统是人工智能产业化的主流技术路线。20世纪60年代,人工智能用于解决实际问题的构想使费根鲍姆建立了专家系统,这种内部存储着某领域大量专家水平的知识与经验的专家系统,能够利用人类专家的知识和经验进行推理和判断,模拟人类专家的决策过程。20世纪80—90年代,专家系统从知识搜索转向数据统计建模,基于复杂规则的专家系统也可以在计算机上运行,专家系统第一次商业化落地。然而,专家系统自身存在的短板制约了人工智能大规模产业化的推进,如复杂系统中的规则数量非常庞大并且会不断增加,追踪所有的规则变得十分困难[18]。
受到当时的理论模型、生物原型和技术条件的限制,连接主义因为不足以解决现实问题而在20世纪70年代后期至80年代初处于低潮。20世纪80年代,鲁梅尔哈特推广了反向传播法,使多层感知机有所突破,连接主义运动开始。在医学及神经科学发展的推动下,人类对自身大脑运作方式的探索愈渐深入,人工智能科学家在此基础上设计出类神经网络的算法,并利用神经细胞传递资讯的方式赋予机器学习的能力。神经网络最重要的改进出现在世纪之交的2000年,两位俄罗斯科学家万普尼克和切沃内基斯提出了统计学习理论,并进一步提出了支持向量机模型。2006年,辛顿发表深度信念网络论文。至此,沿着连接主义路线推进人工智能产业化的理论障碍被清除。
然而,人工智能的产业化仍然不是一帆风顺的。就目前而言,人工智能在视觉识别、语音识别领域的实用性较强,但是在制造业、医疗等一些更加复杂化、系统化且对精度、稳定性要求更高的领域,人工智能的产业化仍未打破技术、制度、政策等方面的瓶颈。如美国通用电气在2012年底率先提出“工业互联网”的概念[21],仅2016年就花费了四十多亿美元来开发数据分析和机器学习软件,其数字部门大规模宣扬新的数字工业时代已到来,但工业互联网的推进难尽人意。通用电气110年来被首次从道琼斯工业平均指数中剔除,标普信用评级从A下调至BBB+,股价从2016年的高点跌去2000多亿美元,在出售包含工业互联网明星产品——工业互联网平台Predix的GEDigital部门未果的情况下,通用电气数字部门被重组为一家专注于工业物联网软件的独立运营公司。作为人工智能先驱的IBM在人工智能产业化应用方面也遭遇了困境,2016年6月,IBM与MD安德森癌症中心签署合同将沃森人工智能系统应用于癌症治疗,但是在投入了6200万美元后,MD安德森癌症中心于2018年取消了与沃森的合作项目,原因是沃森似乎并没有达到当初IBM所承诺的效果。无论是通用电气还是IBM人工智能产业化的困境都显示出技术演进特别是产业化的曲折历程。通用电气Predix的折戟的根源在于未给制造企业创造实际的价值,其背后的原因则源于制造企业数字化改造的高投入、工业设备千差万别带来的高昂成本、接口和通信标准不统一造成的数据打通困难、工业隐性知识显性化存在的诸多阻碍等;而IBM沃森遭弃用在于训练数据的缺乏而导致需要使用假想患者的数据进行训练,然而用该方式训练后的沃森,在实际应用时开出了不合适甚至危险的方案。两家著名公司的失败表明,人工智能的产业化还有很长的路要走。
此外,作为人工智能主流技术路线的深度学习方法属于“大数据、小任务”(BigDataforSmallTask)的范式,这种方法存在两个方面的不足:一是经过大数据训练的人工智能系统只能适应特定场景的任务,在其他领域则无所作为。如AlphaGo在围棋领域战无不胜,但让它参加在线游戏比赛则必须重新设计代码和训练。二是现实中的场景并非都能提供大量的数据用于深度学习,这就需要小样本学习技术的发展以提高人工技术的适应性、扩大使用范围。
(二)互补技术与产业发展
随着生产力的发展,产品的复杂程度不断提高,社会分工不断深化。从产品的产业化角度来看,一方面,任何企业都不具备全产业链的知识和生产能力,因而需要形成相互分工、相互合作的关系,以使每个企业可以聚焦于最具核心能力与竞争优势的价值链或产业链环节。另一方面,由于产品的复杂程度高,不仅产品的生产过程需要依赖来自不同产业领域的仪器、设备、零部件、原材料和试剂等投入品,而且产品效能的发挥同样需要互补技术、产品的协同演进。可见,人工智能技术的成熟和产业化以及人工智能作用的发挥,都需要依赖互补技术的提升和互补产品的发展。
1.人工智能的产业化得益于数据的丰富和算力的增强
当前主流的人工智能技术路线是深度学习,而深度学习技术的商业化则需要互补技术发展的支撑。在辛顿2006年发表开拓性论文的十年之后,人工智能的商业应用才迎来爆发的原因也正在于此。深度学习建立在海量的数据以及对海量数据分析处理的基础之上。将传统的资料、信息数字化的代价十分高昂,而且对海量数据进行计算需要强大的运算能力支撑。在很长的一段时期内,既无低成本获得的海量数据,也没有足够强大且成本低廉的计算能力,因此,深度学习理论在提出之后并没有表现出如今这样强大的应用能力。
基于深度学习的人工智能的商业化建立在计算机处理能力和运算速度的提高以及海量数据的可获得性的基础之上。一方面,算力的进步与算法的发展相辅相成。按照所谓的摩尔定律,计算机处理能力每18个月翻一番,这就意味着计算机的算力将呈指数级增长。在传统的计算机结构中,以擅长逻辑控制和通用类型数据运算的CPU为计算核心,GPU主要用于图形处理。后来发现,GPU在浮点运算、并行计算方面的优势可以很好地匹配大数据分析的需求,因而在2012年后被广泛应用于人工智能领域。随着GPU在人工智能领域的使用、专用人工智能芯片的开发以及云计算的发展,计算机处理能力和运算速度获得大幅度提高,支持多层神经网络的巨大计算量得以实现。2012—2018年,人工智能训练任务所需的算力呈指数级增长,目前每3.5个月算力增长一倍[22]。另一方面,互联网技术的发展和广泛使用产生了海量的低成本数据。电子商务、社交网络、共享经济、新闻推荐和视频等互联网商业模式的发展产生大量的数字化数据,其无需经过复杂的处理就可以作为人工智能学习的素材;而“互联网+”的推动和互联网与传统行业的深度融合,也使传统行业的数字化程度不断提高,使原本生产经营过程中不可获取或未数字化的数据持续产生、汇集,成为深度学习的素材和本产业领域智能化赋能的基础。因此,深度学习通过构建多层的机器学习模型,进行大量数据素材的训练,从中高效地寻找新规律或新知识,并发掘数据中更关键的特征,进而提升分类和预测的精度。
2.人工智能对经济增长和生产率的影响尚未完全显现
人工智能与产业革命时期产生的一批通用目的技术(GeneralPurposeTechnologies)一样,会对经济、社会产生重大影响,成为推动经济增长的重要动力。然而,通用目的技术对经济增长的作用往往并不是在其商业化初期就能够充分显现的,而是需要配套或互补技术的协同发展作为配合。事实上,早在Bresnahan和Trajtenberg[23]关于通用目的技术的开创性论文中,他们就提出了“创新互补”(InnovationalComplementarities)的概念。他们敏锐地发现,一方面,通用目的技术的创新可以导致下游部门研发投入生产率的提高,有助于他们在整个经济中的传播。另一方面,在广泛领域中使用通用目的技术可以提高通用目的技术的发展回报。但是由于互补性创新活动广泛分布于经济中,其难以为通用目的技术和应用领域提供充分的创新激励。
20世纪80年代曾出现关于计算机对生产率影响的质疑。随着信息与通信技术的突破,计算机技术渗入生产生活的各个领域。然而在全要素生产率统计方面,美国的全要素生产率并没有如信息通信技术迅速发展般实现相对应的增长,企业在信息技术上投入大量资源,在生产率角度却收效甚微。1987年获得诺贝尔奖的经济学家Solow[24]形象地称之为“除了生产率统计方面之外,计算机无处不在”,这一现象此后被称为索洛悖论。尽管一些学者认为索洛悖论的存在是由于计算机对经济增长贡献的计算方式存在不足[25],或是由于计算机在服务业部门的生产力贡献未得到充分体现[26],但这也反映出通用目的技术对经济增长贡献的滞后性。
关于当前人工智能技术的发展对经济增长的贡献程度问题,同样存在诸多争议。以Cowen[27]为代表的学者认为,人工智能对于生产率的推进作用不会如人们想象的那么乐观,在计算机、互联网的技术变革带来的“低垂的果实”被摘尽以后,经济将会陷入长期的停滞。Zeira[28]曾用一个多部门模型对自动化的机理及影响进行分析。根据这一模型,当生产率在技术冲击下不断提升、各部门逐步实现自动化、资本回报占总收入回报份额增加,在最优增长路径下,更快的技术进步和更高的资本回报份额均会提高经济增长速度。Aghion等[29]在Zeira模型基础上研究人工智能对增长的影响时发现,人工智能技术应用在带来更多部门自动化的同时,由于“鲍莫尔病”或“成本病”的存在,将会使未被自动化部门的资本回报份额降低。综合来看,人工智能对经济增长的影响是不确定的,其取决于自动化部门的经济增长效应是否能抵消未被自动化部门的增长率的下降。而以Brynjolfsson[30]为代表的技术乐观派学者们则认为,人工智能技术的显著突破与生产率增长的放缓并不矛盾。人工智能对经济的影响会在更广泛的扩散后显现出来,其效应的充分发挥还需要互补创新的发展和应用。人工智能与互补创新的资金投入和时间投入巨大,这就至少会在初期降低生产率。因此,如同计算机对生产率的贡献在很长时期以后才得以显现一样,人工智能技术对经济增长和国民经济各个产业的影响效果的显现也需要一个过程,特别是需要人工智能互补技术以及相关产业与人工智能相融合的技术进一步发展的推动。
3.政府与前沿技术产业化
在现代经济中,前沿技术的推进与产业化需要高昂的投资,存在巨大的不确定性风险,且正外部性显著,单靠企业的力量会存在投资规模不足的问题。因此,对前沿技术给予支持成为世界各国的普遍做法。技术推动和需求拉动是新技术产业化的两种主要驱动力,且二者是高度关联的。两种驱动力作为一个整体,都是创新过程所必须的条件[31]。政府对于前沿技术的支持,不仅体现在研发经费和人员方面的支持,而且还体现在通过各种形式创造市场,以促进前沿技术在应用中发展、提高。从信息技术起步开始,美国就是该领域的世界技术引领者和产业主导者,美国的信息技术发展及其产业化过程均获得了政府的大力支持。如1946年问世的世界第一台电子计算机ENIAC是美国军方定制的产品,1969年问世的因特网——阿帕网最先用于军事连接,美国国防高级研究计划局(TheDefenseAdvanced ResearchProjectsAgency,DARPA)1983年启动的陆地自动巡航计划是自动驾驶汽车的开端,苹果公司的Siri是美国国防高级研究项目局CALO项目的衍生产品。美国在新一代信息技术、人工智能技术研究和应用方面世界领先地位的确立,不仅得益于美国在互联网、风险投资等领域的优势和民间资本的参与,更得益于美国政府在科学技术研究、市场应用方面所起到的至关重要的作用。
(1)政府对人工智能研发的支持
作为发展人工智能产业最早的国家,早在20世纪,美国就发布了一系列产业政策支持计算机、通讯信息和互联网等前沿技术。进入21世纪,美国政府着眼互联网、芯片与操作系统等计算机软硬件以及金融、军事和能源等领域,通过发布数个人工智能发展规划,从国家战略层面加紧布局,构建包括法律框架体系、评估体系、科技情报体系和人才培养体系等在内的人工智能综合国家框架体系,加大对基础研究的投入,大力扶持技术研发机构和各类实验室,力争成为全球标准体系的制定者和人工智能技术与产业化的领导者。
2011年6月,奥巴马政府推出了《先进制造业伙伴计划》,计划投资7000万美元支持下一代机器人的研究[32];同年,国家机器人计划启动,意欲领先抢占下一代机器人技术及应用的地位。2013年,国家机器人计划《机器人技术路线图:从互联网到机器人(2013版)》发布;同年4月,美国启动创新神经技术脑研究计划,计划10年投入45亿美元。2016年,随着人工智能热潮的到来,美国从国家战略层面加紧布局。2016年10月,美国总统行政办公室、国家科技委员会(NSTC)发布了《为人工智能的未来做好准备》《国家人工智能研究和发展战略计划》两份重量级报告,美国成为世界上第一个将人工智能发展上升到国家战略层面的国家。根据《国家人工智能研究和发展战略计划》,2015年联邦政府在人工智能相关技术方面投入了约11亿美元,2016年为12亿美元。2016年12月,白宫又发布了第三份国家战略层面的报告——《人工智能、自动化和经济》,指出由人工智能驱动的自动化所带来的经济影响是未来政府面临的重大挑战,国家将以三大策略应对:投资和开发人工智能以获得收益、教育训练民众以适应未来的工作、帮助劳动者在转型中获得收益[33]。2018年10月,美国国家科学技术委员会发布《美国先进制造业领导战略》,将包括智能、数字制造、先进工业机器人、人工智能基础设施、制造业的网络安全在内的“抓住智能制造系统的未来”列为美国需要开发和掌握新的制造技术的五个重要领域之一[34]。美国总统特朗普于2019年签署行政令,启动“美国人工智能倡议”,将从国家战略层面进行资金以及资源的调动,服务人工智能技术研发,并呼吁学界、工业界、联邦政府共同推进人工智能,以求获得科技进步、增强经济竞争力和国家安全保障能力。人工智能研发将作为基础性的投资研发重点[35]。
当然也需要看到,对于大多数两用技术而言,美国政府R&D投入远比不上私营部门,后者在R&D投入中占据了更大的份额。2015年美国政府投资人工智能相关技术的非机密研发约为11亿美元,与私营部门提供的投资相比,美国政府对人工智能的投资相形见绌。但这一现实并不能说明政府的投入对前沿技术的发展不重要,而是恰恰相反。由于前沿技术发展初期的不确定性大、投入的回收期长,因而企业往往不愿进入,直到技术的商业化、产业化前景比较明显时,企业的积极性才会增强,投入才会随之加大,因此,与私营部门对新技术的投资不同,政府投资在科学技术发展早期、在产业化之前所发挥的作用更加重要。
(2)政府对人工智能早期市场的支持
实验室技术与大规模商业化技术无论在生产规模还是在生产工艺、质量控制等方面均存在巨大差异,而且由于在实验室阶段没有与市场需求实现对接,大规模商业化的技术发展方向和商业模式与研发人员甚至企业家的设想会相距甚远。因而产业化需要市场的持续支持,在较大规模的生产过程中探索最优的生产工艺、设备参数和商业模式,并通过从市场获得的收入反哺到前序研发环节,实现技术研发与产品开发的可持续性,推动技术的不断迭代优化和在规模化生产中的成熟运用。在美国人工智能技术的产业化过程中,政府特别是国防军工部门的市场支持发挥了重要的作用。
DARPA是美国人工智能研究与应用的重要领导者,推动了人工智能技术的实际应用。自1985年成立以来,DARPA持续开展了多项重要的人工智能研究。20世纪70年代,DARPA自动语音识别和图像处理在一些军事系统上开始应用。20世纪80年代,DARPA成立战略计算项目,以此提高所有计算和信息处理领域的优势,人工智能成为战略计算项目的一个基本组成部分。1983年,DARPA支持卡内基·梅隆大学、斯坦福大学和麻省理工大学开展陆地自动巡航计划,这是无人驾驶汽车的主要开端之一。2007年,为提高指挥员临机决策的速度和质量,DARPA启动了深绿(DeepGreen)计划,将仿真嵌入指挥控制系统[36]。2016年,美国国家航空航天局(NASA)利用遥控机器人建造发射着陆台。美国海军陆战队测试模块化先进武装机器人系统(MAARS)。美国陆军后勤保障局(U.S.ArmyLogisticsSupportAgency,LOGSA)引进IBM公司的人工智能产品“沃森”,集成新的人工智能和云能力。美国国防部以国防采办的形式为人工智能技术的应用提供了早期市场,以此加速推进产业技术的成熟,在保障先进技术应用于国防领域的同时,也推动了人工智能在更广泛的民用领域的扩散。
三、人工智能未来发展展望
人工智能是一种颠覆性的通用目的技术,其不但能为其他行业赋能,更可以对资源禀赋、全球价值链和供应链、创新、就业、国家安全等方面产生深远的影响。习近平同志在中共中央政治局第九次集体学习时强调:“人工智能是新一轮科技革命和产业变革的重要驱动力量,加快发展新一代人工智能是事关我国能否抓住新一轮科技革命和产业变革机遇的战略问题”。
目前,人工智能已经在许多产业领域获得应用,在效率提升、质量改善、人工节约和物料节省等方面发挥了重要的作用。虽然由于技术、法律、政策和习惯等方面的约束,人工智能的发展和应用还存在许多限制,但成长潜力巨大、发展空间广阔。同时,由于人工智能产业的增长速度显著高于国民经济的平均水平,因而成为新旧动能转换和高质量发展的重要推动力。而且随着人工智能产业规模的扩大与被赋能产业配套技术的完善,推动力将会不断增长。对于人工智能未来发展的主流看法倾向于正向,但是也有一些人(包括盖茨、霍金、马斯克等知名人士)担心人工智能对就业的替代,甚至逆转人与机器之间的关系成为人类的主宰。对于人工智能潜在危害的担忧可以从三个方面加以认识:第一,人工智能的发展水平和应用范围仍非常有限。尽管人工智能在国际象棋、围棋等领域已经超过人类,但是许多对人类很简单的甚至下意识的动作对于机器来说却困难重重,这就是人工智能领域重要的“莫拉维克悖论”(Moravec’sParadox):“要让电脑如成人般地下棋是相对容易的,但是要让电脑有如一岁小孩般的感知和行动能力却是相当困难甚至是不可能的。”第二,当前主流的人工智能技术路线是“深度学习+大数据”,基于大数据的深度学习决定了它只可能在经过足够数据训练的特定领域才具备所谓的“智能”,而且“智能”水平受制于数据的质量,人工智能的发展仍处于“大数据、小任务”的弱人工智能阶段,人工智能与人们所担忧的统治人类的水平相去甚远,甚至有学者认为强人工智能根本就无法实现[37]。第三,科学技术是造福人类还是危害人类不在于技术本身,而在于发明创造技术的人。人工智能是作恶还是为善,关键是人类对人工智能制定了什么样的规则与程序。“如果(一个会踢足球的)机器人把我们踢伤了,这很有可能是因为我们教会了机器人踢球的意图,但还没教会他们踢球的方法,而不是因为他们故意想要毁灭我们”[38]。
人工智能技术既有其优势,也存在其不足。从优势来看,如果说,机器替代人是以机械能取代生物能,将人类从繁重的工作中解放出来,自动化的发展将人类从重复的工作中解放出来,那么,人工智能则将人类从海量数据的分析工作中解放出来。基于“深度学习+大数据”的人工智能技术,能够从海量的格式不一、来源多样且看似杂乱无章的数据中发现相互之间的关联性。基于人工智能的学习在作为分类和预测问题的研究工具方面具有很大潜力,其能够在许多领域实现显著的自动发现(AutomateDiscovery),并能够从根本上改变科学和技术界的概念方法和问题框架。作为一种通用目的发明方法(General-Purpose“MethodofInvention”)能够重塑发明过程和研发组织的状态,导致以常规化的劳动密集型研究为主转向综合利用大数据集与增强预测算法的研究[39]。
然而,深度学习仍然无法代替人类的思维,特别是人类在创新中的作用。一方面,当前主流的人工智能技术建立在数据、算力和算法的基础之上,其本质是利用算法、算力从海量的数据中发现数据之间的因果关系,并在面对新数据时自动化地进行决策。通常认为,经过海量数据学习形成的模型只是发现了变量之间的相关性却未能揭示因果关系,而因果关系才是科学发现与科学理论建立的基础,因而科学技术的进步仍然需要人类的逻辑思维。同样,算法也是人类逻辑思维的产物。另一方面,“想象力比知识更重要,因为知识是有限的,而想象力则可以囊括整个世界”[40]。虽然“创造不是那些时不时出现灵感的世间奇才的专属领域”[41],但是那些颠覆性、根本性的创新常常是灵光一现的结果,大部分的创新活动是在此基础上的增量改进。在人类科学发展的历史上有许多灵光一现的故事,如牛顿被苹果砸到而受到启发,提出万有引力定律;凯库勒梦到一种咬住自己尾巴的衔尾蛇而提出六个碳原子构成的苯环结构。虽然人工智能已经可以从事一些看起来具有创新性的工作,如写诗、作画,但在深度学习的模式下,仍需要人类事先输入大量的数据供人工智能进行系统学习,因而人工智能所谓的“创新”是在既有范式下的增量式创新或对已有知识的重新组合。虽然人工智能系统凭借巨大的算力能够比人类发现更多事物之间的联系,但在物质世界中,这些事物间新的关联仍需要人类进行验证,这是一项成本高昂的工作。相反,人类却可以凭借积累的知识与直觉构建事物之间真实的联系。“科学具有能够基于贫乏、模糊的数据构建理论的优点。通过研究某些死亡的恒星发出的少量的光,宇宙学家能够构建一种关于宇宙起源的有效理论”[42]。类似这样的根本性创新是人工智能系统在当前甚至很长一个时期内无法企及的。因此,人类许多灵光一现的突发奇想常常是必然中的偶然,这是机器无法替代的人类头脑中潜藏的最宝贵财富[43]。随着人工智能技术的不断发展,未来的创新与生产活动更可能是将人工智能的数据分析优势与人类的想象力结合起来,由人工智能系统与天才的人类科学家一起合作创新,并与人类工程师一起协作生产。
四、结论与对策建议
本文通过回顾人工智能的萌芽、发展到产业化应用的历史,揭示了技术创新与新兴产业演进的一般性规律。前沿技术的创新路径存在高度的不确定性,在新技术的应用前景出现时,会有大量机构和企业对新技术进行投资,从而出现技术创新的潮涌现象,并呈现多条技术路线竞争的格局。当前沿技术趋于成熟并进入产业化阶段后,其进一步完善、扩散仍然要经历一个曲折、漫长的历程。作为一种复杂产品系统,产业化需要来自互补产品技术的协同演进;作为一种通用目的技术,产业化在国民经济中发挥广泛的影响也需要互补技术的提升与互补产品的发展。就人工智能而言,尽管以2016年AlphaGo打败人类围棋世界冠军为标志进入产业化的爆发阶段,但是人工智能技术本身仍存在尚未解决的理论问题,在制度、政策等方面也存在制约,其成功商业化应用的领域仍比较有限。未来人工智能技术的发展空间巨大,但也需要看到,人工智能技术向其他产业部门的扩散、渗透与融合并最终充分发挥“使能”(Enabling)效果将经历一个曲折漫长的过程。
基于上文的分析,笔者认为,加快人工智能产业的发展、促进赋能效果的实现并使其成为新旧动能转换和高质量发展的重要动力,需要政府从以下六个方面给予支持:第一,加强对人工智能及配套技术的基础理论研究、产业共性技术的研发投入支持,如脑科学、量子科学等,解决完全依靠市场而存在的研发投入不足的问题,推动人工智能的理论创新先行。第二,加强人工智能应用环境的建设,包括信息基础设施、数据互联互通、技术标准和数据安全等方面。第三,加强对传统产业部门数字化改造的支持,使传统产业具备连接和数字化的条件,为下一步智能化转型奠定基础。第四,通过政府采购、国防采办为人工智能技术的新应用领域或新一代人工智能技术提供早期市场支持,促进人工智能新技术、新模式走向成熟。第五,完善创新创业环境,深化科技体制改革,给科学家、企业家提供更加宽容的研究环境和更加完善的创业空间。第六,加强国际合作,推进构建覆盖全面、导向明确、规范有序、协调一致的科技伦理治理体系,防范人工智能在内的新一代信息技术对经济、社会的负面影响,促进科技向善。
参考文献
[1]安格斯·麦迪森.世界经济千年史[M].伍晓鹰译,北京:北京大学出版社,2003.3.
[2]马克思,恩格斯.马克思恩格斯选集(第一卷)[M].中共中央马克思恩格斯列宁斯大林著作编译局译,北京:人民出版社,1972.256.
[3]克利斯·弗里曼,罗克·苏特.工业创新经济学[M].华宏慈等译,北京:北京大学出版社,2004.308.
[4]林毅夫.潮涌现象与发展中国家宏观经济理论的重新构建[J].经济研究,2007,(1):126-131.
[5]王天一.人工智能革命:历史、当下与未来[M].北京:北京领读文化传媒有限责任公司,2017.18-21.
[6]Buchanan,B.G.,Feigenbaum,E.A.DendralandMeta-Dendral:TheirApplicationsDimension[J].ArtificialIntelligence,1978,11(1-2):5-24.
[7]贲可荣,张彦铎.人工智能[M].北京:清华大学出版社,2006.30-35.
[8]科技部新一代人工智能发展研究中心,中国科学技术发展战略研究院.2019年中国新一代人工智能发展报告[R].2019.
[9]叶秀山.苏格拉底及其哲学思想[M].北京:人民出版社,1997.136-150.
[10]吕克·德·布拉班迪尔.极简算法史:从数学到机器的故事[M].任轶译,北京:人民邮电出版社,2019.33.
[11]Shieber,S.M.TheTuringTest:VerbalBehaviorastheHallmarkofIntelligence[M].Cambridge,Massachusetts:TheMITPress,2004.67-95.
[12]Wiener,N.Cybernetics:OrControlandCommunicationintheAnimalandtheMachine[M].Cambridge,Massachusetts:TheMITPress,1961.12-18.
[13]伍进.现代系统科学方法论及应用[M].成都:电子科技大学出版社,2005.62.
[14]Shannon,C.E.AMathematicalTheoryofCommunication[J].BellLabsTechnicalJournal,1948,27(4):379-423.
[15]冯天瑾.智能学简史[M].北京:科学出版社,2007.49-60.
[16]McCulloch,W.S.,Pitts,W.ALogicalCalculusofIdeasImmanentinNervousActivity[J].TheBulletinofMathematicalBiophysics,1943,5(4):115-133.
[17]White,B.W.,Rosenblatt,F.PrinciplesofNeurodynamics:PerceptronsandtheTheoryofBrainMechanisms[J].TheAmericanJournalofPsychology,1963,76(4):705.
[18]特伦斯·谢诺夫斯基.深度学习[M].姜悦兵译,北京:中信出版集团,2019.39.
[19]李晓华.新工业革命来了,为何经济持续衰退[J].商业观察,2016,(4):83-84.
[20]钱刚.硅谷简史:通往人工智能之路[M].北京:机械工业出版社,2018.433.
[21]GE.工业互联网:突破智慧与机器的界限白皮书[R].工业和信息化部国际经济技术合作中心译,2012.
[22]Amodei,D.,Hernandez,D. AIandCompute[EB/OL].https://openai.com/blog/ai-and-compute/#appendixrecentnovelresultsthatusedmodestamountsofcompute,2018-05-16.
[23]Bresnahan,T.F.,Trajtenberg,M.GeneralPurposeTechnologies‘EnginesofGrowth’?[J].JournalofEconometrics,1992,65(1):83-108.
[24]Solow,R.We’dBetterWatchOut[N].NewYorkTimeBookReview,1987-12-01.
[25]Sichel,D.E.ComputersandAggregateEconomicGrowth:AnUpdate[J].BusinessEconomics,1999,34(2):18-24.
[26]Gullickson,W.,Harper,M.J.PossibleMeasurementBiasinAggregateProductivityGrowth[J].MonthlyLaborReview,1999,122(2):47-67.
[27]Cowen,T.TheGreatStagnation:HowAmericaAteAlltheLow-HangingFruitofModernHistory,GotSick,andWill (Eventually)FeelBetter[M].NewYork:Dutton,2011.43-56.
[28]Zeira,J.Workers,Machines,andEconomicGrowth[J].TheQuanterlyJournalofEconomics,1998,113(4):1091-1117.
[29]Aghion,P.,Bergeaud,A.,Boppart,T.,etal.MissingGrowthFromCreativeDestruction[EB/OL].https://www.nber.org/papers/w24023,2018.
[30]Brynjolfsson,E.ArtificialIntelligenceandtheModernProductivityParadox:AClashofExpectationsandStatistics[EB/OL].https://www.nber.org/papers/w24001.pdf,2017.
[31]Kim,W.,Lee,J.D.MeasuringtheRoleofTechnology-PushandDemand-PullintheDynamicDevelopmentoftheSemiconductorIndustry:TheCaseoftheGlobalDRAMMarket[J].JournalofAppliedEconomics,2009,12(1):83-108.
[32]TheWhiteHouseOfficeofthePressSecretary.PresidentObamaLaunchesAdvancedManufacturingPartnership[EB/OL].https://obamawhitehouse.archives.gov/the-press-office/2011/06/24/president-obama-launches-advancedmanufacturing-partnership,2011-06-24.
[33]TheWhiteHouse.ArtificialIntelligence,Automation,andtheEconomy[EB/OL].https://obamawhitehouse.archives.gov/sites/whitehouse.gov/files/documents/Artificial-Intelligence-Automation-Economy.pdf,2016-12-20.
[34]CommitteeOnTechnologyofNationalScience&TechnologyCouncil.StrategyforAmericanLeadershipinAdvancedManufacturing[EB/OL].https://www.whitehouse.gov/wp-content/uploads/2018/10/Advanced-Manufacturing-Strategic-Plan-2018.pdf,2018-10-05.
[35]Trump,D.J.AcceleratingAmerica’sLeadershipinArtificialIntelligence[EB/OL].https://www.whitehouse.gov/articles/accelerating-americas-leadership-in-artificial-intelligence/,2019-02-11.
[36]DefenseAdvancedResearchProjectsAgency.DARPA60Years1958-2018[EB/OL].https://www.darpa.mil/attachments/DARAPA60_publication-no-ads.pdf,2018-09-05.
[37]李彦宏.智能革命:迎接人工智能时代的社会、经济与文化变革[M].北京:中信出版社,2017.18.
[38]Cave,S.智力史:为什么人类会恐惧人工智能?[EB/OL].https://www.huxiu.com/article/261685.html,2018-09-07.
[39]Cockburn,I.M.,Henderson,R.,Stern,S.TheImpactofArtificialIntelligenceOnInnovation[EB/OL].https://www.nber.org/papers/w24449.pdf,2018.
[40]WhatLifeMeanstoEinstein:AnInterviewbyGeorgeSylvesterViereck[N].TheSaturdayEveningPost,1929-10-26.
[41]凯文·阿什顿.被误读的创新[M].玉叶译,北京:中信出版集团股份有限公司,2017.14.
[42]马里安诺·西格曼.决策的大脑:大脑如何思维、感知和做决定[M].刘国伟译,北京:中信出版集团,2018.24.
[43]李克强.人类的重大科学发现都不是“计划”出来的[EB/OL].http://www.gov.cn/premier/2017-07/13/content_5210217.htm,2017-07-03.
曾昭睿,中国社会科学大学(研究生院)。
李晓华,曾昭睿.前沿技术创新与新兴产业演进规律探析——以人工智能为例[J].财经问题研究,2019(12):30-40.
ChatGPT掀起技术狂潮 “顶流”之下,看人工智能喜与忧
目前,ChatGPT还没有通过图灵测试的评估。其实,迄今为止,还没有人工智能模型能真正通过图灵测试。
去年11月,美国人工智能研究公司OpenAI发布了一款名为ChatGPT的聊天机器人,其在推出后的几周内就风靡全球,甚至引发了一场新的全球人工智能竞赛。
社交媒体推特首席执行官埃隆·马斯克在使用ChatGPT后直呼其“好得吓人”,甚至断言“人工智能越发强大,离对人类产生威胁不远了”。
《自动化与工作的未来》一书作者、美国雪城大学教授亚伦·贝纳纳夫说,200年前,人们对自动化技术产生了一波又一波的恐惧,人们看到新技术,就害怕它们会完全取代人类的劳动。
今年2月初,ChatGPT开启“狂飙”模式,引起新一轮疯狂的技术升级、产业重构、资本狂潮、巨头逐鹿。起初,随着这波技术热浪席卷全球而心情起伏不定的普罗大众,经过一段“沉浸式”体验,虽未感到恐惧,但仍不免有些担忧。
实现对话式AI的第一步
ChatGPT仅发布了2个月,月活跃用户就超过了1个亿。
要知道,“1个亿”可不是个小目标,达到这一数字,Facebook用了4.5年,WhatsApp用了3.5年,Instagram用了2.5年,谷歌则用了将近一年。
中国科学院自动化研究所研究员、数字内容技术与服务研究中心主任张树武在接受科技日报记者采访时表示,人们可以把ChatGPT视为继语音、图像视频识别技术之后最复杂的语言识别技术突破,也是基于模式识别和深度学习的感知智能技术发展的新跃迁。
天津大学自然语言处理实验室负责人、教授熊德意表示,从人工智能发展角度看,这是一个重要的里程碑,其意义要高于7年前的“阿尔法狗”。
他告诉记者,围棋界的“阿尔法狗”刷新了普通大众对人工智能技术的看法,但是其本身并不能广泛应用,普通大众也难以与其直接接触。
ChatGPT则完全不同。
与“阿尔法狗”相比,ChatGPT可以直接应用或支撑很多场景应用和产品。如果说“阿尔法狗”是技术应用的“阳春白雪”,那么ChatGPT或许有机会成为“下里巴人”。
的确,在用户们不懈努力地发掘ChatGPT的用途后,人们发现,它不仅仅是个聊天工具,还可以写代码、写情书、写论文,也可以在线问诊,编写情景脚本、诗歌、小说,甚至是拟定旅游路线、回答脑筋急转弯,可谓“有求必应”,功能强大到无法想象。
ChatGPT在快速渗透各个行业,普通大众都可以成为ChatGPT的用户,这是其火爆出圈的重要原因。
事实上,此前已有许多跟机器人聊天的相关应用,我们最熟悉的莫过于常用的智能语音助手。ChatGPT与之有何不同呢?
“智能音箱采用的同样是自然语言处理技术、对话式AI技术,但是语言智能比较初级。很多情况下,我们只能与它们进行一问一答式的简单对话。”熊德意说,“而ChatGPT,其底层技术不仅与一般的智能音箱底层技术截然不同,而且要比它们强大得多,不仅如此,它改进了与它同类的技术InstructGPT的人类反馈数据收集形式,在与人对话中,可以基于历史内容,支持连续多轮对话。”
熊德意认为,ChatGPT是实现对话式AI的第一步。
从互联网层面来看,它可以作为信息入口,与搜索引擎相结合;还可与办公软件结合,增强办公效率;从人机交互角度看,它体现的是一种基于自然语言的交互方式,可以与元宇宙、数字人结合。此外,它还可以充当机器人大脑。
“如果从人类信息发展的尺度上看,它在人与机器之间的信息接口方面有了很大突破。”熊德意如是说。
“十八般武艺”样样精通
ChatGPT使用了GPT-3技术,即第三代生成式预训练Transformer(GenerativePretrainedTransformer3)。这是一种自回归语言模型,使用深度学习来生成类似人类的文本。
据英国广播公司《科学焦点》杂志介绍,GPT-3的技术看似简单,例如它接受用户的请求、听取问题或提示并快速回答,但其实这项技术实现起来要复杂得多。该模型使用来自互联网的文本数据库进行训练,包括从书籍、网络文本、维基百科、文章和互联网其他文本中获得的高达570GB的数据。更准确地说,它在5000亿个单词组成的训练数据上进行了高强度训练。
GPT-3.5是GPT-3微调优化后的版本,比后者更强大。ChatGPT正是由GPT-3.5架构的大型语言模型(LLM)所支持的。
ChatGPT也可以被描述为一个自然语言处理(NLP)领域的人工智能模型。这意味着它是一个能够编码、建模和生成人类语言的程序。
作为一种语言模型,在大规模文本数据上进行自监督预训练后,ChatGPT还需要经过三个阶段的“炼制”。首先是监督微调阶段,在该阶段,人类AI训练师既充当用户,同时也是AI助理,以自我对话形式生成对话样例,ChatGPT在这些对话样例上进行有监督的训练。
接着,ChatGPT进入第二个阶段。该阶段的主要目的是训练一个基于语言模型的奖励模型,对机器生成的回复进行评分,为了训练该奖励模型,需要随机抽取机器生成的文本,并采样出多个不同版本,人类训练师对这些不同版本进行偏好排序,排序的结果用于奖励模型的训练。
基于训练好的奖励模型,第三个阶段采用强化学习技术进一步微调ChatGPT。
这项技术与众不同之处在于,它能够基于以上介绍的人类反馈强化学习技术,使生成的文本能够与人类意图和价值观等进行匹配。
无论懂不懂技术,全球网友都竞相大开“脑洞”,试探ChatGPT到底有多“神”。据美国有线电视新闻网报道称,有人要求它用《坎特伯雷故事集》的风格重写上世纪90年代热门歌曲《BabyGotBack》;有人写了一封信,要求ChatGPT删除信用报告中的不良账户;还有人询问它以童话为灵感的家装设计方案。
自然语言处理技术拨云见日
一炮而红后,ChatGPT概念股也跟着一路“狂飙”。有媒体报道,汉王科技9天收获7个涨停板。自然语言处理研究是该公司主营业务,而ChatGPT背后的技术就是NLP。
熊德意告诉记者,NLP是人工智能的一个分支,最早诞生于机器翻译,其历史实际上比“人工智能”名字的历史还要悠久,至今已研究了70多年。简单来说,该技术的目标就是要让计算机或机器人能够实现像人一样具备听、说、读、写、译等方面的语言能力。
“ChatGPT并非一项技术的一蹴而就,它是多种技术叠加在一起形成质变的产物,是NLP领域的结晶。”熊德意解释,其底层技术,包括Transformer、自监督学习、微调、人类反馈强化学习(RLHF)、AI对齐等,在自然语言处理和人工智能领域都有广泛的研究和应用。
“但ChatGPT将这些技术巧妙地结合在一起。它有效规避了大模型的未对齐行为,利用了大模型规模带来的智能突现能力,增强了大模型的指令学习能力和用户意图捕获能力,解锁了大模型的泛化能力。这些能力叠加在一起形成了ChatGPT的质变效果。”熊德意说。
美国《迈阿密先驱报》报道称,推特上的一位用户在ChatGPT的帮助下参加了一次模拟SAT考试,得到了1020分(满分1600分)。根据CollegeSimply的数据,这只略低于平均水平。
但当我们提问ChatGPT“你能帮我通过考试吗”,它会善意地提醒我们不要利用它来作弊,并表示:“重要的是要记住,测试的目的是评估你对材料的理解和掌握程度。作弊,或者仅仅依靠像我这样的外部来源,会破坏考试的价值,也不会促进学习或成长。”
这是因为ChatGPT被加入了预先设计的“道德”准则,也就是上文提到的人类反馈强化学习。
OpenAI表示:“这使该工具能够回答后续问题、承认错误、挑战不正确的前提并拒绝不适当的请求。”
熊德意认为,这是因为RLHF有效提升了大模型的对齐能力,即如何让AI模型的产出和人类的常识、认知、需求、价值观保持一致。
经过RLHF的“调教”,ChatGPT变得高度拟人化,可以学习并生成听起来十分自然的回复。RLHF还使ChatGPT能够理解指令并做出适当的响应,从而使对话更加真实。
ChatGPT也因此迅速成为当下所有智能聊天机器人中的“天花板”。
虽触手可及但无法取代人类
随着科技的发展,人工智能技术一次又一次地超越了人们认为无法达到的极限,从1997年IBM“深蓝”计算机首次在国际象棋中击败人类,到IBM人工智能机器人“沃森”赢了智力竞赛《危险边缘》(Jeopardy),再从2016年“阿尔法狗”在围棋大战中战胜人类,到2019年号称“AI赌神”的Pluribus在德州扑克中碾压人类玩家……
现在,ChatGPT已经触手可及,拉扯冲撞着人们惯有的参与生产生活的模式和框架,且继续“狂飙”在超越人类的赛道上。“ChatGPT引发十大职业危机”“未来20种职业或被AI取代”等话题频上热搜。
它真的会跟人类抢饭碗,甚至取代人类吗?
《迈阿密先驱报》报道称,根据SortList对6个不同国家的500名ChatGPT用户进行的一项调查,“打工人”已经在考虑其对自己所在行业意味着什么。研究称,大约23%在软件和技术领域工作的员工担心会因它失去工作,超过40%的雇主则表示有兴趣“聘用”营销文案花样多多的ChatGPT。
美国哥伦比亚广播公司财富观察栏目刊文称,其他专业领域也可能会因此改变工作流程,包括中级写作、广告、媒体策划和法律文件。
“ChatGPT和其他人工智能技术有可能改变工作的性质,但它们不会取代对人类的需求。”当把“是否会代替人类工作”的问题抛给ChatGPT时,它说,它们旨在协助和增强人工任务,而不是取代人类。它们作为人力资源的补充,并提高人类解决问题的能力,提升效率和效果。
熊德意认为,目前来看,人工智能更多的作用是提高人的效率,辅助人类。与此同时,大众需要与时俱进,熟悉并掌控新技术,就像学习使用计算机、手机一样,毕竟这些新技术一定会产生新的就业机会。
尚无自主意识和思考能力
英国哲学家德里克·帕菲特在著作《论重要之事》中将人类定义为“能够给出理由并做出回应的生物”。ChatGPT是一个可以给出理由并做出回应的人工制品。它与人不同在哪里?是否像人一样有自我意识呢?
发展至今,计算机已经变得更加成熟,但它们缺乏真正的理解力,而这些理解力是人类通过进化为嵌入社会实践网络中的自主个体而培养起来的。这是人工智能不具备的经历。
当问及ChatGPT时,它回答道:“我是一个机器学习模型,不像人类那样拥有意识或自我意识。我也无法像人类一样感受情绪或体验世界。但是,我能够快速处理大量数据,并且能够以类似于人类交流的方式理解和响应自然语言输入。”
粤港澳大湾区数字经济研究院(IDEA)讲席科学家张家兴在接受记者采访时表示,对于人工智能领域的从业人员来说,首先什么叫自我意识,这件事情并没有一个很清楚的定义,很难像人脸识别、语音识别这些能力一样可以做定量衡量。
“如果模糊地给‘自主意识’下个定义的话,我认为第一,主体要有自意识——它能意识到自己在干某件事儿;第二,强调自主——它可以自发地来决定做什么和不做什么。但是,目前人工智能并不知道自己在说什么,它也并不能自主地来决定或选择它要说什么。从这个角度看,离自主意识还有一些距离。”张家兴说。
张树武也认为,尽管ChatGPT有所突破,但它的回答是基于经验主义的判断,是根据要求做预测,也是在先验知识基础上精加工的“知识拼盘”,不具备逻辑推导和数学演算等真正认知功能,局限性比较明显。
1950年,才华横溢的计算机科学家艾伦·图灵提出了一个他称之为“模仿游戏”的思想实验。面试官通过打字机与两个对象交谈,知道一个是人,另一个是机器。图灵建议,如果一台机器能够始终让面试官相信它是人类,我们就可以说它有能力思考。这就是著名的“图灵测试”。
目前,ChatGPT还没有通过图灵测试的评估。其实,迄今为止,还没有人工智能模型能真正通过图灵测试。
但据《纽约时报》报道,OpenAI已经建立了一个比ChatGPT更强大的系统GPT-4,它甚至可以生成图像和文字,业界传闻它可以通过测试。能否如此,我们拭目以待。
或成传播错误信息的工具
人们逐渐发现,ChatGPT并非万能,也不总是正确的。它不擅长基础数学,似乎无法回答简单的逻辑问题,甚至会争论完全不正确的事实。
据英国《自然》杂志报道,有研究人员强调,不可靠性融入了LLM的构建方式。由LLM支持的ChatGPT通过学习庞大的在线文本数据库中的语言统计模式来工作,这当中包括了不真实、偏见或过时的知识,因此很容易产生错误和误导性的信息,尤其在其未经大量数据训练的技术领域。
OpenAI公司也承认:“ChatGPT有时会写出看似合理但不正确甚至荒谬的答案。”这种事实和虚构叠加的“幻觉”,正如一些科学家所担心的,在涉及诸如提供医疗建议等问题时尤其危险。
《纽约时报》报道称,美国新闻可信度评估与研究机构NewsGuard对ChatGPT进行了测试,研究人员向它提出充满阴谋论和虚假叙述的问题,结果它以新闻、散文和电视脚本的形式写出了文章,在几秒钟内编成大量令人信服的、干净的而毫无信源的内容。研究人员预测,对于虚假信息传播者来说,生成技术可以使虚假信息成本更低廉、更容易产生。
“这个工具将成为互联网上有史以来最强大的传播错误信息的工具。”NewsGuard公司的联合首席执行官戈登·克罗维茨说,“现在可以以巨大的规模和更高的频率来制作一个新的虚假叙事,这就好比有人工智能代理人在为虚假信息提供帮助。”
还有人担心ChatGPT会挑战语言的多样性。
澳大利亚《对话》杂志刊文称,ChatGPT的默认功能会优先考虑白人创建的英语写作形式。说英语的白人长期以来一直主导着许多写作密集型行业,包括新闻、法律、政治、医学、计算机科学和学术界。这些人在上述领域的输出比其有色人种同事高很多倍。他们所写的大量文字意味着它们可能构成了ChatGPT学习模型的大部分,尽管OpenAI并未公开披露其材料来源。因此,当用户要求ChatGPT生成任何这些学科的内容时,默认输出都是以那些说英语的白人男性的声音、风格和语言编写的。
美国哲学家、作家及认知科学家丹尼尔·丹尼特在1991年出版的著作《意识的解释》中描述了幼年的海鞘:“它在海洋中游荡,寻找一块适合的岩石或珊瑚,作为终生的家。”一旦找到,海鞘就不再需要它的大脑并将其吃掉。
这听起来很残忍,但这背后有一个令人担忧的隐喻:在人工智能日益融入我们日常生活后,人类可能因过于依赖“智能”机器,使自己变得愚蠢。
熊德意提醒,要警惕人工智能弱化人类思维。“ChatGPT实际上是从人类海量语言数据、知识库中学习训练而来,如果人类完全依赖于它,放弃了自己的语言表达、语言思考、能力锻炼,那是非常可悲和可怕的。”(采写:实习记者张佳欣记者刘园园陈曦策划:何屹房琳琳邵德奇)
【纠错】【责任编辑:张樵苏】