博舍

2023年人工智能行业研究报告 人工智能框架的一般形式包括哪些

2023年人工智能行业研究报告

第一章行业概况1.1定义和分类

人工智能(ArtificialIntelligence,AI)是一个广泛的计算机科学分支,它致力于创建和应用智能机器。在更深入的层次上,人工智能可以被理解为以下几个方面:

学习和适应:人工智能系统需要具有学习和适应的能力。这意味着这些系统能从数据中学习,并在新的、未曾见过的情况下,根据所学到的知识做出适应性的反应。

理解和解析:人工智能系统需要有能力理解和解析其所处的环境。这可能包括理解语言,识别图像,或者理解复杂的模式和关系。

决策和行动:人工智能系统需要能够基于其理解和学习,做出决策并采取行动。这可能包括自动驾驶汽车的导航决策,或者聊天机器人产生回应的决策。

自我改进:人工智能系统需要有能力进行自我改进。这意味着系统能够根据其性能的反馈,调整其行为以提高未来的性能。

人工智能可以按照不同的标准进行分类。以下是一些常见的分类方式:

(1)按照功能分类:

弱人工智能(NarrowAI):这类人工智能系统专门针对某一特定任务进行优化,例如语音识别或图像识别。它们只能在特定领域内表现出人类级别的智能。

强人工智能(GeneralAI):强人工智能系统能够执行任何人类智能能够执行的任务,理论上它们能够理解、学习、适应并执行任何一种可以由人类大脑完成的认知任务。

超人工智能:各个领域超越人类,创新创造领域超越人类,解决人类无法解决的问题。

当前,人工智能的发展仍处于“弱”人工智能阶段,只具备在特定领域模拟人类的能力,“工具性”仍是该阶段主要特点,同全面模拟或者超越人类能力的强人工智能、超人工智能差距巨大。

图智能的构成以及人工智能分级

资料来源:资产信息网千际投行平安证券研究所

(2)按照技术分类:

机器学习(MachineLearning):机器学习是一种让计算机系统从数据中学习的方法。机器学习算法使用统计学习理论,从输入数据中找到并学习潜在的模式。

深度学习(DeepLearning):深度学习是机器学习的一个子领域,使用神经网络模拟人脑神经元的工作方式,从复杂的、大量的数据中进行学习。

自然语言处理(NaturalLanguageProcessing):自然语言处理是计算机用来理解、解析和生成人类语言的技术。

计算机视觉(ComputerVision):计算机视觉是让计算机和机器能够“看到”和理解视觉信息的技术。

以上就是人工智能的一些主要分类,它们不同的特性和应用场景使得人工智能在各个领域都有广泛的应用。

1.2发展历程

人工智能的历史已有七十余年的长河,其脉络可追溯到上世纪初的岁月。如今,AI已然深入到我们生活的每个角落,无论是医疗保健、汽车产业、金融业、游戏产业、环境监测、农业、体育、能源管理,还是安全领域,大量的AI应用都正在彻底改变我们的生活方式、工作习惯以及娱乐模式。这些技术的持续进步预示着第四次工业革命的到来。

(1)萌芽1900-1956

1900年,希尔伯特在数学家大会上宣布了23个未解决的问题,其中第二和第十个问题与人工智能密切相关,最终促进了计算机的发明。1954年,冯-诺依曼完成了早期计算机EDVAC的设计,并提出了“冯-诺依曼架构”。图灵、哥德尔、冯-诺依曼、维纳、克劳德-香农和其他的先驱者奠定了人工智能和计算机技术的基础。

(2)黄金时代1956-1974

1965年,麦卡锡、明斯基等科学家召开“达特茅斯会议”,首次提出“人工智能(AI)”的概念,标志着人工智能学科的诞生。随后,人工智能研究进入了20年的黄金时代,取得了一批令人瞩目的研究成果,如机器定理证明和跳棋程序,掀起了人工智能发展的第一个高潮。

在这个黄金时代,约翰-麦卡锡开发了LISP语音,成为此后几十年人工智能领域最主要的编程语言;马文-明斯基对神经网络有了更深入的研究,也发现了简单神经网络的缺点;接着开始出现多层神经网络和反向传播算法。

(3)第一次寒冬1974-1980

人工智能发展的最初突破极大地提高了人们的期望,使人们高估了科技发展的速度。然而,连续的失败和预期目标的落空使人工智能的发展进入低谷。

1973年,赖特-希尔关于人工智能的报告,拉开了人工智能冬天的序幕。此后,科学界对人工智能进行了一轮深入的拷问,使人工智能受到了严厉的批评和对其实用价值的质疑。随后,政府和机构也停止或减少了资助,人工智能在20世纪70年代陷入了它的第一个冬天。

有限的计算能力和大量常识性数据的缺乏使发展陷入瓶颈,尤其是过度依赖计算能力和经验数据量的神经网络技术,在很长一段时间内没有取得实质性的进展。

(4)应用发展1980-1987

专家系统模拟人类专家的知识和经验来解决特定领域的问题,实现了人工智能从理论研究到实际应用的重大突破。专家系统在医学、化学、地质学等领域的成功,将人工智能推向了应用发展的新高潮,1980年XCON在卡内基梅隆大学(CMU)正式启动,成为专家系统开始在特定领域发挥作用的里程碑,推动了整个人工智能技术进入繁荣阶段。

经过十年的沉寂,神经网络有了新的研究进展,并发现了具有学习能力的神经网络算法,这使得神经网络的发展在20世纪90年代后期一路走向商业化,被应用于文字图像识别和语音识别。

(5)第二次寒冬1987-1993

随着人工智能应用规模的不断扩大,应用领域狭窄、缺乏常识性知识、知识获取困难、推理方法单一、缺乏分布式功能、与现有专家系统数据库难以兼容等问题逐渐暴露出来。当时的人工智能领域主要使用约翰-麦卡锡的LISP编程语言。LISP机的逐步发展被蓬勃发展的个人电脑打败了,专用LISP机的硬件销售市场严重崩溃,人工智能领域再次进入寒冬。

硬件市场的崩溃和理论研究的混乱,再加上政府和机构纷纷停止对人工智能研究领域的资金投入,导致人工智能领域几年来一直处于低迷状态。但另一方面在理论方法的研究上也取得了一些成果。

1988年,美国科学家朱迪亚-皮尔将概率统计方法引入人工智能的推理过程;IBM的沃森研究中心将概率统计方法引入到人工智能的语言处理中;1992年,李开复利用统计方法设计开发了世界上第一个独立于扬声器的连续语音识别程序;1989年,AT&T贝尔实验室的亚恩-莱坤和团队将卷积神经网络技术应用在了人工智能的手写数字图像识别中。

(6)稳步发展1993-2011

人工智能的创新研究因网络技术的发展而加速,尤其是互联网的发展,使人工智能技术进一步实用化。

1995年,理查德-华莱士开发了新的聊天机器人程序Alice,它能够利用互联网不断增加自己的数据集并优化内容。

1997年,IMB的计算机Deepblue深蓝击败了世界象棋冠军卡斯帕罗夫。德国科学家霍克赖特和施米德赫伯提出了LSTM递归神经网络,至今仍被用于手写识别和语音识别,对后来的人工智能研究产生了深远影响。

2004年,美国神经科学家杰夫·霍金斯出版了《人工智能的未来》,2006年,杰弗里辛顿出版了《学习多层表征》,为神经网络奠定了一个新的架构,对未来人工智能中的深度学习的研究产生了深刻影响。

(7)深化阶段2012-至今

随着移动互联网技术和云计算技术的爆发,积累了难以想象的数据量,为人工智能的后续发展提供了足够的素材和动力,以深度神经网络为代表的人工智能技术的快速发展,大大跨越了科学与应用之间的“技术鸿沟”,迎来了爆发式增长。

2012年,多伦多大学在ImageNet视觉识别挑战赛上设计的深度卷积神经网络算法,被认为是深度学习革命的开始。

2014年,IanGoodfellow提出了GANs生成式对抗网络算法,这是一种用于无监督学习的人工网络。这是一种用于无监督学习的人工智能算法,由生成网络和评估网络组成,这种方法很快被人工智能的许多技术领域所采用。

2016年和2017年,谷歌推出的人工智能程序AlphaGo连续击败了前围棋世界冠军韩国的李世石,以及现任围棋世界冠军中国的柯洁,引起了巨大轰动。同时语音识别、图像识别、无人驾驶等技术不断进步。

2022年11月,OpenAI推出其开发的一个人工智慧聊天机器人程序ChatGPT。该程序使用基于GPT-3.5架构的大型语言模型并通过强化学习进行训练,成为AIGC现象级应用。

在2023年3月,OpenAI又推出了ChatGPT的升级版——GPT-4,迭代速度极快。其包含的重大升级是支持图像和文本的输入,并且在GPT-3原来欠缺的专业和学术能力上得到重大突破,它通过了美国律师法律考试,并且打败了90%的应试者。在各种类型考试中,GPT-4的表现都优于GPT-3。

1.3市场现状

全球AI产业规模预计2030年将达到1500亿,未来8年复合增速约40%。目前全球人工智能企业的数量迅速增长,2022年,全球人工智能(AI)市场规模估计为197.8亿美元,预计到2030年将达到1591.03亿美元,从2022年到2030年,复合年增长率为38.1%。

图人工智能全球市场规模预测

资料来源:资产信息网千际投行PrecedenceResearch

2022年中国人工智能产业规模达1958亿元,年增长率7.8%,整体稳健增长。而从应用格局来看,机器视觉、智能语音和自然语言处理是中国人工智能市场规模最大的三个应用方向。根据清华大学数据显示,三者占比分别为34.9%、24.8%和21%。一方面,政策推动下国内应用场景不断开放,各行业积累的大量数据为技术落地和优化提供了基础条件。另一方面,以百度、阿里、腾讯和华为为代表的头部互联网和科技企业加快在三大核心技术领域布局,同时一系列创新型独角兽企业在垂直领域快速发展,庞大的商业化潜力推动核心技术创新。

图中国人工智能产业规模

资料来源:资产信息网千际投行艾瑞咨询

第二章商业模式和技术发展2.1产业链

人工智能产业链主要分为基础层、技术层、应用层三个层级:

基础层以数据、算力、算法为核心;

技术层是建立在基础层的核心能力之上,通过打造一套人工智能系统使机器能够像人类一样进行感知与分析,其中最关键的领域包括计算机视觉(图像识别与分析)、语音识别与自然语言处理技术(语音识别与合成)、机器学习与深度学习(分析决策及行动)等;

应用层是将技术能力与具体场景相融合,帮助企业/城市管理者等客户降本增效,目前主要应用的场景有泛安防、金融、医疗、自动驾驶等领域。

在上述三个层级之外,通常面向终端时还涉及硬件交付,如摄像头、服务器、芯片等,所以人工智能产业链涉及业务方众多。

图:产业链

资料来源:资产信息网千际投行招商银行

上游

人工智能基础层是支撑各类人工智能应用开发与运行的资源平台,主要包括数据资源、硬件设置和计算力三大要素。

人工智能基础层主要包括智能计算集群、智能模型敏捷开发工具、数据基础服务与治理平台三个板块。

智能计算集群:提供支持AI模型开发、训练或推理的算力资源,包括系统级AI芯片和异构智能计算服务器,以及下游的人工智能计算中心等;

智能模型敏捷开发工具:主要实现AI应用模型的生产,包括开源算法框架,提供语音、图像等AI技术能力调用的AI开放平台和AI应用模型效率化生产平台;

数据基础服务与治理平台:实现应用所需的数据资源生产与治理,提供AI基础数据服务及面向AI的数据治理平台。

AI基础层企业通过提供AI算力、开发工具或数据资源助力人工智能应用在各行业领域、各应用场景落地,支撑人工智能产业健康稳定发展。

图:人工智能基础层分类

资料来源:资产信息网千际投行

通用计算芯片CPU、GPU全球市场基本被Intel、Nvidia等美国芯片厂商垄断,技术与专利壁垒较高,卡脖子现象严重。华为麒麟、巴龙、昇腾及鲲鹏四大芯片有望突破此壁垒。未来几年,全球各大芯片企业、互联网巨头、初创企业都将成为该市场的主要玩家。

图中国及全球人工智能基础层产业规模及年增长率

资料来源:资产信息网千际投行中国电子学会

计算力指数国家排名中美国列国家计算力指数排名第一,坐拥全球最多超大规模数据中心,这是美国算力的基础保障。中国列第二,AI算力领跑全球。日本、德国、英国分别位列第三至第五名。

计算平台方面,全球市场被亚马逊、谷歌、阿里、腾讯、华为等公司基本垄断,但小公司的计算平台凭借价格优势仍有生存空间。

中游

技术层作为人工智能产业的核心,主要依托基础层的运算平台和海量数据资源进行识别训练和机器学习建模,以开发面向不同领域的应用技术,对应用层的产品智能化程度起着决定性作用。根据技术层级分为通用技术层、AI软件框架层和算法模型层。

算法作为人工智能技术的引擎,主要用于计算、数据分析和自动推理。当前最为主流的基础算法是深度学习算法,深度学习可以从大量数据中自动总结规律,并使其适应自身结构,从而应用到案例中。随着基础算法的成熟和稳定,算法发展重点转向工程实现——软件框架,很多企业开始转向建设算法模型工具库,将算法封装为软件框架,提供给开发者使用。

图中国及全球人工智能技术层产业规模及年增长率

资料来源:资产信息网千际投行中国电子学会

目前美国是该领域发展水平最高的国家,以谷歌、Facebook、IBM和微软为主的科技巨头均将人工智能的重点布局在算法理论和软件框架等门槛高的技术之上。而我国基础理论体系尚不成熟,鲜有拥有针对算法的开放平台,百度的Paddle-Paddle、腾讯的Angle等国内企业的算法框架尚无法与国际主流产品竞争。

下游

应用层是基于技术层的能力,去解决具体现实生活中的问题。比如利用计算机视觉技术,实现金融、安防等多个领域的人脸识别;利用智能语音技术,实现智能音箱、录音笔等的语音识别;利用自然语言处理技术,用于智能客服的问答。

图全球及中国应用层产业规模及增速

资料来源:资产信息网千际投行中国电子学会

在实际的应用中,技术层和应用层的关系是相互交叉的,某个领域的应用可能用到多个维度的技术层的能力,比如金融行业的应用对于智能语音、计算机视觉、自然语言处理技术都会有需求;同样某个技术层的能力也可以广泛应用到多个不同的应用领域,比如计算机视觉技术可以广泛应用到金融、安防、医疗、交通、教育等多个维度。

2.2商业模式

人工智能相关产业大概分为五类:销售智能设备、提供智能服务、智能平台变现、智能软件授权以及智能项目整合。不同的商业领域决定AI技术的变现能力,根据五类产业内容又可分为计算能力、数据、算法框架、应用平台和解决方案六类商业领域,其进入壁垒、演化路径与短期长期价值各不相同。

图:人工智能常见五种商业模式

资料来源:资产信息网千际投行

目前,国内外的中大型厂商都已经初步形成了各自不同的核心竞争力,依据五大类人工智能商业内容呈现出的最终形式大致可以分为以下三类公司。

人工智能创业公司:主要是依靠其对于某一垂直领域的技术研发或渠道优势,通过销售相关技术产品设备或服务获得盈利。人工智能领域创业的技术门槛较高,一旦成功产业化,则竞争压力相对较小。商业模式相对比较传统,在获得市场关注和盈利前,需要投资人在人才与研发环节持续投入。而获得源源不断的融资也靠创始人的声誉背书,因此这类企业短时间内的收入模型和盈利模式比较模糊。

人工智能平台:大型人工智能科技公司一般布局都在基础功能平台服务上,如大数据、云计算平台。现在越来越多的巨头也把资源投入到了AI领域,如微软旗下成熟的AI平台。大型科技巨头公司将主要精力花在布局基础设施上,且大型人工智能平台主要都是靠应用程序接口(API)来盈利,调用的API次数越多,收费越高。而在调用这些API的同时,用户通常还会涉及其他服务,如服务器、虚拟机、数据库等,这也将为企业盈利带来新的增长点。

人工智能咨询与定制服务:主要根据企业和客户的需求进行定制化的人工智能解决方案。现阶段,人工智能方案对于传统制造与服务类企业来说,规模化应用及成本控制难度较大。但随着未来AI技术的发展,与人工智能服务相关的产品成本必将下降,中小型企业也可以负担并愿意进行智能升级改造。

AI咨询与定制服务的商业模式较为独特,目前大致有以下两种模式:

成熟的AI专利应用,如开发一个独家专利的人工智能解决方案产品,并出售给下游用户,其产品可标准化、规模化量产。

客户定制化服务,比如为某家公司客户进行产品定制服务,服务的归属权归客户所有,服务公司无权转卖,此类定制服务价格较高,竞争能力强。

2.3专利申请量

专利申请量是衡量人工智能技术创新能力和发展潜质的核心要素。在全球范围内,人工智能专利申请主要来源于中国、美国和日本。2000年至2018年间,中美日三国AI专利申请量占全球总申请量的73.95%。中国虽在AI领域起步较晚,但自2010年起,专利产出量首超美国,并长期雄踞申请量首位。

从专利申请领域来看,深度学习、语音识别、人脸识别和机器人等热门领域均成为各国重点布局领域。其中,美国几乎全领域领跑,而中国在语音识别(中文语音识别正确率世界第一)、文本挖掘、云计算领域优势明显。具体来看,多数国内专利于AI科技热潮兴起后申请,并集中在应用端(如智能搜索、智能推荐),而AI芯片、基础算法等关键领域和前沿领域专利技术主要仍被美国掌握。由此反映出中国AI发展存在基础不牢,存在表面繁荣的结构性不均衡问题。

从专利权人分布来看,中国高校和科研机构创新占据主导地位,或导致理论、技术和产业割断的市场格局。欧美日人工智能申请人集中在企业,IBM、微软、三星等巨头企业已构建了相对成熟的研发体系和策略,成为专利申请量最多的专利人之一。其中,IBM拥有专利数量全球遥遥领先。而中国是全球唯一的大学和研究机构AI专利申请高于企业的国家。由于高校与企业定位与利益追求本质上存在差异,国内技术创新与市场需求是否有效结合的问题值得关注。

图AI领域主要专利权人分布

资料来源:资产信息网千际投行Derwent

通过对国内人工智能行业的各个专利申请人的专利数量进行统计,排名前列的公司依次为:中兴通讯、京东方A、四川长虹、视源股份、海康威视、浪潮信息、大华股份、航天信息等。

图国内人工智能行业专利数量Top10

资料来源:资产信息网千际投行iFinD

中国AI专利质量参差不齐,海外市场布局仍有欠缺。尽管中国专利申请量远超美国,但技术“多而不强,专而不优”问题亟待调整。其一,中国AI专利国内为主,高质量PCT数量较少。

PCT(PatentCooperationTreaty)是由WIPO进行管理,在全球范围内保护专利发明者的条约。PCT通常被为是具有较高的技术价值。据中国专利保护协会统计,美国PCT申请量占全球的41%,国际应用广泛。而中国PCT数量(2568件)相对较少,仅为美国PCT申请量的1/4。

目前,我国AI技术尚未形成规模性技术输出,国际市场布局欠缺;其二,中国实用新型专利占比高,专利废弃比例大。我国专利类别包括发明、实用新型专利和外观设计三类,技术难度依次降低。中国拥有AI专利中较多为门槛低的实用新型专利。此外,据剑桥大学报告显示,受高昂专利维护费用影响,我国61%的AI实用新型和95%的外观设计将于5年后失效,而美国85.6%的专利仍能得到有效保留。

2.4政策监管

人工智能行业根据中国证监会颁布的《上市公司行业分类指引》(2012年修订)和国家统计局《国民经济行业分类》(GB/T4754-2017)隶属于“软件和信息技术服务业”(行业代码为I65)。根据《战略性新兴产业分类(2018)》隶属于“新一代信息技术产业”中的“人工智能”行业。

人工智能行业的行政监管部门为工信部,负责拟订信息产业的规划、政策和标准并组织实施,指导行业技术创新和技术进步,组织实施有关国家科技重大专项,推进相关科研成果产业化,推动软件业、信息服务业和新兴产业发展。

人工智能的自律协会包括:

中国软件行业协会:协助政府部门组织制定、修改行业的国家标准、行业标准及推荐性标准,并推进标准的贯彻落实;开展软件和信息服务行业的调查与统计,提出行业中、长期发展规划的咨询建议;根据软件行业发展需要,组织行业人才培训、人才交流等。

中国人工智能产业发展联盟:聚集产业生态各方力量,联合开展人工智能技术、标准和产业研究,共同探索人工智能的新模式和新机制,推进技术、产业与应用研发,开展试点示范,广泛开展国际合作等。

中国人工智能学会:组织和领导会员开展人工智能科学与技术的创新研究,促进人工智能科学与技术的发展;开展国内、国际学术交流活动,提高会员的学术水平;开展人工智能科学与技术的咨询与培训;组织开展对人工智能领域科学技术和产业发展战略的研究,向政府部门提出咨询建议等。

人工智能的行业政策包括:

资料来源:资产信息网千际投行

2020年国家标准化管理委员会、中央网信办国家发展改革委、科技部、工业和信息化部关于印发《国家新一代人工智能标准体系建设指南》的通知,将人工智能标准体系结构分为八大部分。

基础共性标准:包括术语、参考架构、测试评估三大类,位于人工智能标准体系结构的最左侧,支撑标准体系结构中其它部分。

支撑技术与产品标准:对人工智能软硬件平台建设、算法模型开发、人工智能应用提供基础支撑。

基础软硬件平台标准:主要围绕智能芯片、系统软件、开发框架等方面,为人工智能提供基础设施支撑。

关键通用技术标准:主要围绕智能芯片、系统软件、开发框架等方面,为人工智能提供基础设施支撑。

关键领域技术标准:主要围绕自然语言处理、智能语音、计算机视觉、生物特征识别、虚拟现实/增强现实、人机交互等方面,为人工智能应用提供领域技术支撑。

产品与服务标准:包括在人工智能技术领域中形成的智能化产品及新服务模式的相关标准。

行业应用标准:位于人工智能标准体系结构的最顶层,面向行业具体需求,对其它部分标准进行细化,支撑各行业发展。

安全/伦理标准:位于人工智能标准体系结构的最右侧,贯穿于其他部分,为人工智能建立合规体系。

图:人工智能标准体系结构

资料来源:资产信息网千际投行东吴证券

第三章行业估值、定价机制和全球龙头企业3.1行业综合财务分析和估值方法

图:指数表现

资料来源:资产信息网千际投行iFinD

人工智能行业估值方法可以选择市盈率估值法、PEG估值法、市净率估值法、市现率、P/S市销率估值法、EV/Sales市售率估值法、RNAV重估净资产估值法、EV/EBITDA估值法、DDM估值法、DCF现金流折现估值法、NAV净资产价值估值法等。

3.2行业发展和驱动因子

多个行业希望利用AI实现数字化转型

当前,数字化浪潮来袭,以人工智能为代表的新一代数字技术日新月异,催生了数字经济这一新的经济发展形态。过去20余年消费互联网的充分发展为我国数字技术的创新、数字企业的成长以及数字产业的蓬勃发展提供了重要机遇。人工智能等新一代信息技术的快速发展和应用,推动着各行各业加速向数字化迈进。伴随着数字技术的融合应用以及我国供给侧结构性改革的不断深化,加快AI等数字技术与产业经济的融合发展成为多个行业的共识。

大量人工智能高端人才

高端人才对于一个行业的影响毋庸置疑,甚至可以说,一个国家在人工智能领域的实力主要取决于少数精英研究人员的质量。目前世界范围内,美国仍然是拥有最多拔尖研究人员的国家,这就是为什么美国在人工智能发明的年代能够取得领先地位,并且进入应用的时代时,他们比自己的同行有优势。

近年来,我国企业对于机器学习、知识图谱等领域关注度逐年增加,尤其在金融、教育、医疗领域,并由此吸引了越来越多的人才从事相关领域的学习。在研究热度、就业前景、政策红利等多方面因素叠加下,未来我国有望培养大量该领域的高端人才。

移动互联网的推动

随着人工智能进入应用时代,数据的应用量得到了大幅提升。当今人工智能应用的核心,就是通过深度学习在海量数据中概括出人类难以发觉的细微联系的能力。数据可以被视为支撑人工智能运行的原材料。

我国拥有大量的移动互联网用户基础,为我国人工智能行业提供数据支撑。截至2021年上半年,我国手机网民规模为10.07亿,较2020年12月新增手机网民2092万,网民中使用手机上网的比例为99.6%

技术进步

(1)边缘计算技术:通过将边缘技术应用于人工智能,可以提供更快的计算和洞察力、更好的数据安全性以及对持续运营的有效控制。因此,它可以提高支持人工智能的应用程序的性能,并降低运营成本。

(2)分布式计算技术:可以将计算任务分派给多个分布式服务器进行下发,计算完成后再将结果通过不同的分布式服务器进行汇总,通过中央控制器合成展现。分布式计算架构与人工智能计算相辅相成,共同完成大数据处理和计算任务。

政府政策支持

政府政策在驱动中国人工智能发展方面的作用是显著的但常常被人误解。政府常常挑选优势企业进行补贴,或者发布命令规定应当发展的技术。如果人工智能对经济的影响远小于当前预期,那么投入人工智能的资源可能是一种浪费。

另外,由于许多人工智能技术都已经成熟,选择哪些进行支持对公共部门来说是一个问题。政府的参与绝不是技术领先的先决条件,但随着人工智能更深入地渗透到现实系统中,政府参与可能会加速技术产生经济影响。

3.3行业风险分析

表:常见行业风险因子

资料来源:资产信息网千际投行

(1)美国对国内AI发展限制力度可能加大

限制我国高科技产业的发展,已经成为美国政治精英层的共识。AI作为未来全球科技的重要发展方向,美国对相关领域的出口管制力度,不但不会因中美双方的后续协商而有所缓解,甚至还有可能加大。目前,美国已经将主要AI技术列入“限制性出口清单”,虽然没有明确限制对象,我国作为其重要竞争对手,限制力度可能更为严格,国内企业在技术引进、产品进口等方面将面临更多限制。

(2)政策支持力度不达预期或调整

当前,国内人工智能发展还处在起步阶段,产业链各环节发展还较为薄弱,企业对政府在技术研发、财税优惠、公共服务平台搭建、投融资支持、政府采购、人才培养等方面支持还十分依赖。如果政策支持方向出现调整,或者力度不达预期,对企业的业务发展和公司业绩都会造成较大的影响。

(3)技术研发和产业化不及预期

人工智能作为计算机领域的交叉和新兴学科,近年来进入创新爆发期,产品周期明显缩短,技术创新迭代加速,企业面临着的技术层面的竞争更为激烈。如果企业在技术研发投入不足或者产业化不及预期,对整个公司的发展将造成严重影响。

(4)市场竞争激化的风险

目前,国内在应用领域企业较为集中,微创企业、传统互联网巨头、垂直行业企业都在积极进入,形成了“百家争鸣”的格局,而且未来在国家政策的支持下,行业新进入企业将可能增多,市场、利润争夺也将趋于白热化,企业盈利能力将可能受到挑战。

3.4竞争分析-SWOT模型

优势

人工智能可以提供各种各样的应用来服务人类,比如京东和淘宝的智能推荐,无人车的自动驾驶。人工智能可用于完成最困难,最复杂甚至最危险的任务。我们可以利用人工智能的优势并充分利用它。人工智能还可以节省人力资源和提高效率,帮助我们完成单调,重复和耗时的过程。并且人工智能可以不停地工作,但人们不能这样做。同时人工智能能够比人们更快地完成复杂的任务,节省大量时间并加快进程,并且人工智能的成本与人力成本相比要低很多。

劣势

人工智能系统还无法超出场景或语境理解行为,并且具有不可预测性,用户无法预测人工智能会做出何种决策,这既是一种优势,也会带来风险,因为系统可能会做出不符合设计者初衷的决策。最后是安全问题和漏洞。机器会重结果而轻过程,它只会通过找到系统漏洞,实现字面意义上的目标,但其采用的方法不一定是设计者的初衷。例如,网站会推荐一些极端主义视频,因为刺激性内容可以增加浏览时间。再如,网络安全系统会判断人是导致破坏性软件植入的主要原因,于是索性不允许人进入系统。

机遇

无论人类社会自身的需求,还是由于人工智能的介入而产生的新需求,这些需求本身都为人工智能的发展提供了难得的机遇。虽然这些机遇不一定促成人工智能的进步,但它们的确是人工智能进一步发展的动力。人类总是期望人工智能可以更安全、更贴心地服务于人类,为人类创造更多的便利。

威胁

从技术层面来说,当前人工智能仍然面临着众多技术上的难题。技术上的难题关系着人工智能是否具有可靠性与高效性,能否取得人类信任,能否避免出现重大技术事故等。

从社会规范层面来看,人工智能的快速发展在一定程度上打破了传统的社会规范,也因此带来了一系列的社会问题。这些问题的出现,为人工智能的发展带来了诸多隐忧,甚至在一定程度上阻碍了人工智能的发展。人工智能能否解决人类对人工智能自身发展的担忧,在很大程度上决定着其自身的发展前景。

3.5重要参与企业

中国主要企业有海康威视[002415.SZ]、工业富联[601138.SH]、京东方A[000725.SZ]、中兴通讯[000063.SZ]、科大讯飞[002230.SZ]、恒生电子[600570.SH]、澜起科技[688008.SH]、闻泰科技[600745.SH]、兆易创新[603986.SH]、圣邦股份[300661.SZ]等。

根据Google的综合数据,全球人工智能企业排名前十分别是:Nvidia,Microsoft,IBM,Google,OpenAI,Alphabet,DataRobot,Apple,Intel,SenseTime。

第四章未来展望

整体趋势

人工智能作为第四次工业革命的重要抓手之一,已经成为各国科技领域争夺的焦点。中美两国在该领域各有千秋,竞争日趋激烈。国内人工智能政策环境较好,产业基础初步具备,市场需求十分旺盛。按照中央规划,未来人工智能核心产业、“AI+”(AI与传统产业融合)均是战略发展重点。

基础层

该层主要为人工智能提供算力支撑和数据输入,包括AI芯片、算力基础设施和大数据服务等。AI芯片方面,未来随着产业自身发展以及科创板的推进,国内AI专用芯片尤其是边缘端芯片领域的投资标的可能增加,一些视觉、语音算法研发企业已经注意到该领域的发展潜力,开始增加该板块的投资。

基础设施方面,服务器、云计算、超算等算力都开始向AI倾斜,尤其是GPU服务器需求增长更为迅速,国内主要服务器企业也在持续发力,竞争优势开始凸显。

技术层

该层是人工智能的核心,除了开源技术框架主要为国外AI巨头所掌控之外,我国企业在算法、语音和视觉技术等方面的布局已经相对完善。

应用层

该层是我国AI市场最为活跃的领域,国内AI企业多集中在该板块。尤其是语音、计算机视觉、知识图谱等相对成熟的技术,在AI产品、融合解决方案市场(安防、医疗、家居和金融等)上都得到了广泛应用,随着我国“AI+”战略的实施,该领域的市场空间更为广阔。

人工智能基础理论的过去、现在及发展趋势思考

【导读】本文回顾了人工智能的发展历史,分析了当前国内外研究现状,指出了目前以深度学习为代表的人工智能基础研究困境。包括可解释性神经网络模型问题、网络模型的结构设计问题、小样本学习问题等。给出了今后人工智能发展趋势,认为基于统计物理思维构建协同学习系统可能是通往通用人工智能的路线之一。

辛欣,北京理工大学计算机学院

郭平,北京师范大学图形图像与模式识别实验室

谈历史,要从盘古开天辟地说起。盘古,又称盘古氏,混沌氏。是中国传说中开天辟地创造人类世界的始祖。最早的记载见于三国时期吴国徐整著《三五历纪》:“天地浑沌如鸡⼦,盘古⽣其中。万⼋千岁,天地开辟,阳清为天,阴浊为地”。“自从盘古开天辟地...”这种说法常比喻空前的,自古以来没有过。但这是民间神话传说,并非科学的天地起源之说。

从科学的角度来看,依据“大爆炸宇宙论”(TheBigBangTheory),我们目前认知的宇宙是由大约137亿年前发生的一次大爆炸形成的。大爆炸使物质四散出去,宇宙空间不断膨胀,物质密度从密到稀地演化,温度也相应下降。大约在大爆炸后30万年后,化学结合作用使中性原子形成,宇宙主要成分为气态物质,并逐步在自引力作用下凝聚成密度较高的气体云块,直至后来相继在宇宙中演化出所有星系、恒星、行星乃至生命,成为我们今天看到的宇宙[1]。

在宇宙演化过程中,大约在46亿年前形成了太阳系以及地球。而随着时间的推移,大约在40亿年前,地球上出现了生命。在“物竞天择、适者生存”自然选择法则下面,地球上的生物从低级到高级、从简单到复杂,经过漫长的时间逐渐演化到目前多物种的生物圈。在生物演化的时间长河中,大约在450万年前,人和猿开始分化,以后在由腊玛古猿演化成200万年前的南方古猿,进一步再发展为晚期智人(新人)。而大约在4-5万年前人类的进化出现了明显的加速,直至出现了现代人类。人类进化为万物之灵,具有了高智慧的大脑。

Intelligence,这个英文单词通常翻译为智能,有时也译为智慧。智能与智慧含义比较接近,但是有区别。可以认为智慧是比智能更高层次的理念,而智能是智力和能力的总称,中国古代思想家一般把智与能看做是两个相对独立的概念,通常认为“智”指进行认识活动的某些心理特点,“能”则指进行实际活动的某些心理特点。自然智能包括人类智能和其他生物智能,因此生物智能是一种天生的能力,可以使生物体在某些环境中探索,开发,适应和生存。有些学者认为具有感知,记忆,自我意识,并能进行一定交流的动物为智能生物,也具有智能[2]。有些学者将智能定义为智慧和能力,从感觉到记忆到思维这一过程,称为“智慧“,智慧的结果产生了行为和语言,将行为和语言的表达过程称为“能力”。根据发育心理学家霍华德·加德纳的多元智能理论,人类的智能可以分成七个范畴:包括语言(Verbal/Linguistic);逻辑(Logical/Mathematical);空间(Visual/Spatial);肢体运作(Bodily/Kinesthetic);音乐(Musical/Rhythmic);人际(Inter--personal/Social);内省(

Intrapersonal/Introspective)等[3]。人类在与大自然协同演化过程中,最初为了生存而提高生产力,发明创造了生产工具。我们知道,生产工具的内容和形式是随着经济和科学技术的发展而不断发展变化的。随着科学技术的发展,人类文明不断向前发展。如今科学技术是第一生产力,对社会发展具有推动作用。科技改变了人们的学习工作和日常生活,人类文明也在不断发展,人类从最初的畏惧自然到征服自然,进而认识到要善待自然、与自然和谐相处。恩格斯在《在马克思墓前讲话》(1883年3月17日)里说过,人们首先必须吃、喝、住、穿,然后才能从事政治、科学、艺术、宗教等等。即一切人类生存的第一个前提,也就是一切历史的第一个前提是生活。为了生产满足人类生活需要的资料,人类自从进化出来的那一天开始,就一直从事着繁重的体力劳动。为了从体力劳动之中解放出来,是最初科学技术发展的动力。从社会进化史中可以看到,为了解放自己的人类,通过技术革命,特别是近代的三次工业技术革命,直接改变了生产方式。为了从繁重的体力劳动之中解放出来,实现高度自动化生产,其关键是发展人工智能技术,实现生产的无人化。只有实现了生产的无人化,人类才能真正的解放出来。

人工智能(ArtificialIntelligence--AI)一词,是1956年在达特茅斯学院举办的一次会议上,由计算机专家约翰麦卡锡(JohnMcCarthy)提出来的。后来,这被人们看做是人工智能正式诞生的标志,1956年也被当做人工智能的元年。达特茅斯茅斯会议正式确立了AI这一术语后,开始从学术角度对AI展开了严肃而精专的研究。在那之后不久,最早的一批人工智能学者和技术开始涌现,从此人工智能走上了快速发展的道路。

最初对人工智能研究的一个主要目标是使机器能够胜任一些通常需要人类智能才能完成的复杂工作。但不同的时代、不同的人对这种“复杂工作”的理解是不同的。目前对人工智能还没有一个精确的,人们普遍可以接受的定义,但按照拟人化的说法目标是希望人工智能能够分担和协助人类的工作。在学科上来说人工智能是研究、开发用于模拟、延伸和扩展人的智能的理论、方法、技术及应用系统的一门新的技术科学。斯坦福大学人工智能研究中心尼尔逊教授认为“人工智能是关于知识的学科怎样表示知识以及怎样获得知识并使用知识的科学。”而麻省理工学院的温斯顿教授认为“人工智能就是研究如何使计算机去做过去只有人类能做的智能工作”。由此可见一种观点认为人工智能是研究人类智能活动的规律,构造具有一定智能的人工系统,研究如何让计算机去完成以往需要人的智力才能胜任的工作,也就是研究如何应用计算机的软硬件来模拟人类某些智能行为的基本理论、方法和技术。

在人工智能发展的历史上,不同学科或学科背景的学者对人工智能做出了各自的理解,提出了不同的观点,由此产生了不同的学术流派。期间对人工智能研究影响较大的的主要有符号主义、联接主义和行为主义三大学派:

(1)符号主义(Symbolism),又称为逻辑主义、心理学派或计算机学派,其原理主要为物理符号系统(即符号操作系统)假设和有限合理性原理。

(2)联接主义(Connectionism),又称为仿生学派或生理学派,其主要原理为神经网络及神经网络间的连接机制与学习算法。

(3)行为主义(Actionism),又称为进化主义或控制论学派,其原理为控制论及感知-动作型控制系统。

三大学派之一的联接主义学派,认为人工智能实现应该源于仿生学,特别是对人脑模型的研究。其代表性成果是1943年由生理学家麦卡洛克(McCulloch)和数理逻辑学家皮茨(Pitts)创立的脑模型,即MP模型,开创了用电子装置模仿人脑结构和功能的新途径。从神经元开始进而研究神经网络模型和脑模型,形成了人工智能研究的一大主流。在20世纪60~70年代,联接主义学派代表性成果是罗森布拉特(Rosenblatt)提出的感知机(perceptron)。但以感知机为代表的脑模型的研究出现过热潮,明斯基(Minsky)和佩伯特(Papert)他们指出,感知机连一个简单的XOR(异或)逻辑都实现不了,最简单的模式都无法识别,使得神经网络研究在20世纪70年代后期至80年代初期落入低潮。在1982年和1984年霍普菲尔德(Hopfield)教授发表了两篇重要论文,提出用硬件模拟神经网络以后,联接主义才又重新抬头[4,5]。1974年韦伯斯(PaulWerbos)在他的博士论文里提出了对神经网络的误差反向传播(BackPropagation--BP)算法,为神经网络发展带来了第一次重大转机。但BP的快速发展与成名,得益于鲁梅意哈特(Rumelhart)等人在“自然”杂志的通信:通过误差传播学习内在表示(LearningInternalRepresentationsbyErrorPropagation)[6](1986年出版的ParallelDistributedProcessing一书里的一章)。(BP是一种梯度下降算法,原理很简单,就是采用链式法则微分计算误差函数的梯度,解决了多层神经网络的权重优化问题。)在这年之后,联结主义势头大振,在全世界范围内掀起了神经网络研究的热潮。从模型到算法,从理论分析到工程实现,为神经网络计算机走向市场打下基础。

1987年6月21-24号在美国圣地亚哥召开了第一届国际神经网络会议(1987IEEEFirstAnnualInternationalConferenceonNeuralNetworks),会上甚至有人提出了“人工智能已经死亡,神经网络万岁(AIisdead.LongliveNeuralNetworks)”的口号,可见神经网络的火爆程度。

随着国际上神经网络学术研究迅猛发展,我国学者也积极跟进,并与1990年筹建了中国神经网络委员会,同年12月在北京举办了国内首届神经网络大会,大会主席是罗沛霖院士。罗沛霖院士也是中国神经网络学术研究那时最重要的发起推动人,他在1987年访问美国时,会晤了人工神经网络的学术权威霍普费尔德(Hopfield)和米德(Mead),回国后便推动这项学术活动。罗沛霖院士促成了由中国电子学会、中国计算机学会、中国自动化学会、中国人工智能学会、中国生物物理学会和中国心理学会等8个国家一级学会(后来增加到15个)成立了中国神经网络委员会筹备委员会。

由中国神经网络委员会筹备委员会主办的第二届中国神经网络大会1991年12月3-6号在南京举行,大会主席是吴佑寿院士和韦钰教授。当时是中华医学会、中国人工智能学会、中国心理学会、中国生物物理学会、中国电子学会、中国电工学会、中国电机学会、中国计算机学会、中国光学学会、中国自动化学会、中国物理学会、中国通信学会和中国数学学会等13个一级学会组成了中国神经网络委员会筹备委员会。

当时的口号是“携手探智能,联盟攻大关”,对神经网络学术研究接轨与世界水平充满了希望。并确定1992年与IEEENeuralNetworkCouncil(神经网络委员会),InternationalNeuralNetworkSociety(国际神经网络学会)联合举办国际神经网络联合大会(InternationalJointConferenceonNeuralNetwork–IJCNN)。

由于韦伯斯的BP算法和辛顿等人的Nature论文,使得神经网络研究得以复兴,并有了独立于AssociationfortheAdvancementofArtificialIntelligence(先进人工智能协会--AAAI)之外的,单独成为一个国际学术组织“国际神经网络学会”(INNS)。IEEE的神经网络委员会后来(2001年)改名为IEEE神经网络学会(IEEENeuralNetworkSociety)。

但是希望越大,失望也越大,由于受到当时的理论模型、生物原型和技术条件的限制,随着日本第五代计算机项目的失败,以神经网络为主的人工智能研究也进入了第二次寒冬。IEEE神经网络学会最后于2003年正式改名为今天的IEEE计算智能学会(ComputationalIntelligenceSociety)。

计算智能(ComputationalIntelligence--CI)是人工智能发展的新阶段,是受到大自然智慧和人类智慧的启发而设计出的一类解决复杂问题方法的统称[7]。按照维基百科的解释,虽然人工智能和计算智能寻求类似的长期目标:达到通用智能(AGI:一台可以执行人类可以执行的任何智力任务的机器的智能),但是传统人工智能和计算智能之间还是有明显区别的。根据Bezdek(1994)的定义,计算智能是人工智能的一个子集。有时人工智能也称为机器智能,而机器智能包括了两种类型:基于硬计算技术的人工机器智能和基于软计算方法的计算机器智能,它们都能够适应多种情况。

通常认为计算智能是在人工神经网络、演化计算和模糊系统三个主要分支发展相对成熟的基础上,通过相互之间的有机融合形成新的科学方法,是智能理论和技术发展的新阶段。新兴的计算智能拓展了传统的计算模式和智能理论,包括了学习理论和概率方法。那些在工程领域中无法用数学模型精确描述的复杂系统,也可以用计算智能算法来建模和求解。

我们认为人工智能研究的符号主义、联接主义和行为主义三大学派,在计算智能中或多或少的得到了体现。例如模糊逻辑系统是建立在多值逻辑基础上,模仿人脑的不确定性概念判断、推理思维方式,运用模糊集合和模糊规则进行推理的方法来研究模糊性思维、语言形式及其规律的学科,这代表了符号主义学派的延伸与发展。演化计算(EvolutionComputation--EC)也称进化计算,是借助自然界(生物界)规律的启示,根据其规律,设计出求解问题的算法,其目标是模拟自然演化的过程。主要概念是“适者生存,优胜劣汰”,因此群体智能也归为演化计算。群体智能本身是来自对自然界中昆虫群体的观察,或社会性群居生物“群居性生物通过协作表现出的宏观智能行为特征被称为群体智能”。而行为主义学派认为人工智能源于控制论。控制论早期的研究工作重点是模拟人在控制过程中的智能行为和作用,如对自寻优、自适应、自镇定、自组织和自学习等控制论系统的研究,并进行“控制论动物”的研制,因此行为主义也被称为进化主义。而目前发展势头最猛、风头最盛的深度神经网络(深度学习)就是联结主义学派的延伸。

2006年,Hinton等人在《科学》上发表了一篇论文(HintonGE,SalakhutdinovRR.Reducingthedimensionalityofdatawithneuralnetworks.Science,2006,313(5786):504-507.),文中提出了两个观点:(1)多层人工神经网络模型(MLP)有很强的特征表示能力,深度网络模型学习得到的特征对原始数据有更本质的代表性,这将大大有利于解决分类和可视化问题;(2)对于深度神经网络很难训练达到最优的问题,可以采用逐层训练加微调方法解决。Hinton等人提出深度置信网(DeepBeliefNet:DBN)[HintonGE,OsinderoS,TehYW.Afastlearningalgorithmfordeepbeliefnets.Neuralcomputation,2006,18(7):1527-1554.],是由一系列受限波尔兹曼机堆叠组成,网络结构与MLP是完全一致的。Hinton等人提出无监督贪心逐层训练算法,是对经典的BP算法的改进,这突破了早期多层神经网络发展的瓶颈,应用效果才取得突破性进展。其后重新点燃了人工智能领域对神经网络热情,学术界才由此掀起了对深度学习的关注与深入研究。特别是在2012年,Hinton和他的学生AlexKrizhevsky设计了基于卷积神经网络(CNN)的AlexNet,并利用了GPU强大的并行计算能力,在代表计算机智能图像识别最前沿的ImageNet竞赛中,以比第二名测试错误率26.2%低好多的测试错误率15.3%夺得竞赛冠军。也是在那年之后,更多更深的神经网络结构模型被提出来。2015年,深度学习的代表学者LeCun,YoshuaBengio&GeoffreyHinton联合在Nature杂志发表了深度学习综述论文,(YannLeCun,YoshuaBengio&GeoffreyHinton,Deeplearning,NatureVol.521,pages436–444,28May2015),神经网络以深度学习之名强势回归。得益于近年来数据爆发式的增长、计算能力的大幅提升以及深度学习算法的发展和成熟,我们迎来了人工智能概念出现以来的第三个发展浪潮。

2016年对大众来说有两个刷屏事件,其中之一是谷歌大脑的AlphaGo与李世石举世瞩目的围棋人机大战,AlphaGo对李世石的胜利使得公众开始认识、了解人工智能。(另一个刷屏事件是人类首次探测到了引力波。郭某人在科学网博客中将人工智能与引力波这两个事件结合起来做了介绍【郭平,“引力波数据分析中的人工智能技术”,科学网博客,

http://blog.sciencenet.cn/blog-103425-958317.html】)

随着2016年AlphaGo在围棋游戏上取得突破进展,人工智能得到全方位关注。大家熟悉人工智能对大众来说,可能较早进入视线的是一部AI科幻电影。电影的名字就叫《人工智能》,这是由著名导演史蒂文·斯皮尔伯格执导的,华纳兄弟影片公司于2001年拍摄发行的一部未来派的科幻类电影。后来另外一部在2015年上映的电影《机器姬》(ExMachina),使得大众知道了由图灵提出的测试机器是否具备人类智能的的著名实验“图灵测试”。

但是大众媒体认知中的AI与学术界中专家认为的AI存在较大差异,在我国人工智能专家学者眼中的AI,从《新一代人工智能发展规划》中可见一斑。

2017年7月8日国务院印发了关于“新一代人工智能发展规划的通知”。在《新一代人工智能发展规划》中,对人工智能基础理论方面提出了8个研究方向,分别为1.大数据智能理论;2.跨媒体感知计算理论;3.混合增强智能理论;4.群体智能理论;5.自主协同控制与优化决策理论;6.高级机器学习理论;7.类脑智能计算理论;和8.量子智能计算理论。在2018年4月2日,为落实《国务院关于印发新一代人工智能发展规划的通知》,引导高等学校瞄准世界科技前沿,不断提高人工智能领域科技创新、人才培养和国际合作交流等能力,为我国新一代人工智能发展提供战略支撑,教育部特别制定了《高等学校人工智能创新行动计划》(简称《行动计划》)。在学科建设⽅面,《⾏动计划》支持⾼校在计算机科学与技术学科设置⼈⼯智能学科⽅向,深⼊论证并确定⼈⼯智能学科内涵,完善⼈⼯智能的学科体系,推动⼈⼯智能领域⼀级学科建设。支持⾼校自主设置相关⼆级学科或交叉学科。在专业建设⽅面,重视⼈⼯智能与计算机、控制、数学、统计学、物理学、⽣物学、⼼理学、社会学、法学等学科专业教育的交叉融合,探索“⼈⼯智能+X”的⼈才培养模式。

从《行动计划》中可以看出,我国大多数专家认为人工智能是计算机科学的一个分支,这是由于研究人工智能的主要工具以及能够实现人工智能技术平台的机器就是计算机,人工智能的发展历史是和计算机科学技术的发展史关联在一起的。但目前由于人工智能具有“头雁”作用,人工智能已经发展成为十分广泛的学科,它由不同的学科领域组成,可以说几乎涵盖了自然科学和社会科学的所有学科,其范围已远远超出了计算机科学的范畴。今日的人工智能研究主流是以深度学习领衔的,基于大数据和强大计算能力的深度学习算法已经在计算机视觉、语音识别、自然语言处理等一系列领域中取得了突破性的进展。

但是,深度学习是机器学习的一个研究方向,而机器学习则是人工智能的分支之一。计算机与统计学习专家MichaelJordan认为:今天大多数被称为“AI”的东西,特别是在公共领域,都被称为“机器学习”(ML)。在过去的几十年里,ML是一个算法领域,它将来自统计学、计算机科学和许多其他学科的想法融合在一起,设计算法来处理数据,做出预测并帮助做出决定。他说:“应该把它叫IA,称作是增强智能更合适。并指出今后经典的人工模拟AI问题仍然值得关注。

然而,不同学科背景的专家学者的看法是不同的。由于早期联结主义学派是从大脑互联网络过来的,神经科学、认知科学专家学者,包括部分计算机科学学者认为对人工智能的进一步发展中类脑计算是重要的。在2018年1月28日,MIT计算机科学&人工智能实验室教授TomasoPoggio在《麻省理工科技评论》EmTechChina全球新兴科技峰会上演讲中有这样的内容:“深度学习有点像我们这个时代的炼金术,但是需要从炼金术转化为真正的化学。首先我认为是机器学习的算法,第一是深度学习,第二是强化学习,他们都是来自于认知科学以及神经科学。”“深度学习可以帮助我们解决10%的难题,剩下的90%呢?我的答案是:我们可能也需要来自神经科学以及认知科学的研究,我们需要更好地了解人的思维和大脑。”并且TheCenterforBrains,MindsandMachines(CBMM)想通过以下三条路径解决这个问题:1、计算机科学+机器学习;2、神经科学;3、认知科学。不过按顺序来看,排在第一位的还是计算机科学+机器学习

我国认知科学家陈霖院士认为新一代人工智能的核心基础科学问题是认知和计算的关系。(中国认知计算和混合智能学术大会(CCHI2018),《新一代人工智能的核心基础科学问题:认知和计算的关系》的大会报告,[陈霖,新一代人工智能的核心基础科学问题:认知和计算的关系,中国科学院院刊,2018,33(10):1104-1106.])。“如果说,深度学习来自神经系统的层次结构的启发。那么,起源于特定细胞的超越脑区的全脑成像,将为新⼀代⼈⼯智能体系结构提供深刻和丰富得多的启发”。“⼈⼯智能的基础研究应当强调系统、整体和⾏为的研究,应当⼈类为主,动物为辅;宏观为主,结合微观”。“⼈⼯智能的基础研究要特别支持认知科学的实验研究,要注重认知科学实验为基础的学科交叉。”

计算机科学家李国杰院士最近在一个论坛讲到:“认知科学本质上是⼀个实验科学。认知的基本单元不是计算的符号,不是比特,⽽是⼀种整体性的“组块”(chunk)。对上百亿年宇宙演化形成的极为精巧的⼈脑应有⾜够的敬畏,破解⼈脑的奥秘可能需要⼏百年甚⾄更长的时间,不是我们这⼀代⼈就能够解决。”“图灵认为“机器有没有智能”不是科学问题,因为“智能”没有明确定义。从计算机科学诞⽣起,⼈⼯智能与计算机科学本质上就是⼀门科学。到目前为⽌,还不存在不采用计算技术的⼈⼯智能。近年来⼈⼯智能发展主要得益于数据资源的极⼤丰富和计算能⼒的飞速提⾼,⼈⼯智能技术本质上并没有实质性的突破。因此可以说,⼈⼯智能的复兴主要是计算技术的胜利,摩尔定律的胜利!”

由深度学习领域三位专家IanGoodfellow、YoshuaBengio和AaronCourville合著,张志华等人翻译的《深度学习》(DeepLearning)一书中,对深度学习与脑科学或者神经科学的关系的看法是:“如今神经科学在深度学习研究中的作用被削弱,主要原因是我们根本没有⾜够的关于⼤脑的信息作为指导去使用它。要获得对被⼤脑实际使用算法的深刻理解,我们需要有能⼒同时监测(⾄少是)数千相连神经元的活动。我们不能够做到这⼀点,所以我们甚⾄连⼤脑最简单、最深⼊研究的部分都还远远没有理解”。对此北京大学张志华教授评论到[注1]:“值得注意的是,我国有些专家热衷倡导⼈⼯智能与脑科学或认知学科的交叉研究,推动国家在所谓的“类脑智能”等领域投⼊⼤量资源。且不论我国是否真有同时精通⼈⼯智能和脑科学或认知⼼理学的学者,⾄少对交叉领域,我们都应该怀着务实、理性的求是态度。唯有如此,我们才有可能在这⼀波⼈⼯智能发展浪潮中有所作为,⽽不是又成为⼀群观潮⼈”。并指出“数学模型、计算⽅法和应用驱动才是我们研究⼈⼯智能的可⾏之道。”

随着认知的深入,对人工智能发展需要重新思考。最近谷歌BusinessInsight团队的数据科学家,TakashiJozaki认为,Hinton他们1986年Nature上发表的那篇论文的意义,并不单单只是提出了反向传播,更是“神经网络从心理学和生理学分离,转向机器学习领域的一个重大转折。”(

https://tjo.hatenablog.com/entry/2018/10/23/080000)Hinton他们在2006年的论文里也提到:“这样的学习方法,似乎并不是大脑学习的一种合理模型。然而,将这个方法应用在各种各样的任务上后显示,通过权重空间的梯度下降,可以构建出很有趣的内部表征。这表明,很值得在神经网络中找出更有生理可行性的方法来进行梯度下降。”我们可以看出,虽然神经网络研究起源于对生物体大脑的建模,但由于对神经科学看法的改变,逐渐与大脑模型的差异变得显着。为了区分于生物学和神经科学上的神经网络,所以也称为人工神经网络(ANN)。ANN或联结主义系统,是由构成大脑的生物神经网络启发的计算系统,ANN最初的目的是想像人脑一样解决问题。但随着时间的推移,注意力重点开始转移到了执行特定任务上去,导致了从神经科学的偏离。还有“尽管如此,受大脑启发的神经网络(和其综合运用)还是有很大的应用可能性”。即使在已不把模仿人脑当做目标的现在,神经网络还继续沿用“神经”这个词。但是神经网络现在已慢慢远离联结主义的起源,开始成为了大家公认的机器学习王者。

神经生物学家杨雄里院士谈当前脑科学的发展态势和战略时认为:人工智能有两条途径可以实现:一是跟脑的工作原理毫不相关,即不考虑脑的工作机制,仅从计算科学的角度来设计和考虑;二是受脑的工作原理的启发,借鉴脑处理信息实现智能的特点来推进人工智能的研究,即类脑人工智能。这是两条不同的路径,但也有可能殊途同归,只要能实现人工智能都是值得鼓励的。目前前者的研究更热门一点,后者难度更大,但意义更深远。杨雄里:中国脑计划:“一体两翼”,文汇报2017年3月26日

http://www.sohu.com/a/221020764_465915)。

从上面所列举的观点我们可以看出,目前是一个人工智能,众多学派各自表述。俗话说,屁股决定脑袋,一个人坐什么位置,往往决定了他思考的角度和范围。不同学科背景的人自然对人工智能的解释不同。我们认为,只要不是大是大非的问题,各种观点从学术研究的角度来说均可表述,但对异端邪说,我们应该坚决反对。古人云:岁月如河,大浪淘沙,泥沙俱下。在人工智能发展的浪潮下,大浪淘沙,最后留下的都是金子,是可以促进人类社会健康发展的科学与技术。这也是一种符合适者生存的自然选择法则。

虽然目前人工智能的研究热门是脱离了心理和生理学的深度学习(机器学习),但也不仅仅只是深度学习,人工智能研究也分为很多学术门派。CarlosE.Perez在Medium.com写了一篇文章,将人工智能研究划分为17种门派(Tribes),并给每个“门派”起了名字,还设计了Logo。(更详细请参见CarlosE.Perez,“TheManyTribesofArtificialIntelligence”

https://medium.com/intuitionmachine/the-many-tribes-problem-of-artificial-intelli-gence-ai1300faba5b60#.4vf8ax9ab).Perez把深度学习中分成几个子方法,包括了:TheCanadianConspirators,SwissPosse,BritishAlphaGoist,还有PredictiveLearners等。从这里可见深度学习也是综合了多种研究方法。

随着时间的演化与研究的深入,深度学习遇到了瓶颈,人工智能的理论停滞不前。纽约大学心理学教授GaryMarcus给过热的深度学习泼了冷水,他列举了深度学习的种种问题,包括以下几个方面:(GaryMarcus,DeepLearning:ACriticalAppraisal,

https://arxiv.org/abs/1801.00631,2018.)

1)深度学习需要大量的数据,对于可用的数据有限的场合,深度学习往往并不是最佳的选择;2)学到的知识并不深入而且很难迁移;3)难以处理层次化的结构;4)对于开放性推理问题爱莫能助;5)深度学习依然不够透明;6)深度学习远未与先验知识紧密结合;7)深度学习无法区分因果性与相关性;8)深度学习对环境的稳定性提出要求,这可能会存在问题;9)深度学习目前得出来的结果只是近似值,不能彻底相信;10)深度学习发展到现在还是很难工程化。

GaryMarcus在指出深度学习的种种问题的同时也肯定了目前的进展,“诚然,深度学习在计算机视觉、强化学习、NLP等领域都优异地解决了不少疑难问题,但我们在对深度学习抱有热情的同时也应当看到,深度学习并不能解决所有的问题,它⾼超的提取特征和非线性抽象的能⼒也远不⾜以构成通用⼈⼯智能的基础架构。”同时也更希望各种技术和认识方法可以齐头并进,合力构建出人类理想中的“人工智能”。

计算机科学教授、图灵奖得主JudeaPearl的新书《因果科学》(TheBookofWhy:TheNewScienceofCauseandEffect)则引发了一场关于人工智能未来以及深度学习是否会导致接近一般人类智能的讨论。Pearl阐述了自己书中的观点和对人工智能现状的看法,包括当前人工智能无法执行因果推理是一个严重的缺陷。他认为“深度学习是⼀种非常通用和强⼤的曲线拟合技术,它可以识别以前隐藏的模式,推断出趋势,并预测出各种问题的结果。曲线拟合⽅法在表示给定数据集⽅面的⼀个风险是过度拟合,即算法不能识别出数据中的正常波动,最终会被⼲扰所迷惑。”“除非算法和由它们控制的机器能够推理因果关系,或者⾄少概念化差异,否则它们的效用和通用性永远不会接近⼈类。”

在2018年8月11日由厚益控股和《财经》杂志联合主办主题为“共享全球智慧引领未来科技”的世界科技创新论坛上,2011年诺贝尔经济学奖获得者ThomasJ.Sargent认为“⼈⼯智能其实就是统计学,只不过用了⼀个很华丽的辞藻,其实就是统计学。好多的公式都非常老,但是所有的⼈⼯智能利用的都是统计学来解决问题。”。他还提出,“有好多应用科学像⼯程学、物理学、经济学,我们会建立⼀些模型模拟世界运营……我们的目的是希望解释我们所观察到的世界上的现象,⽽我们关键的⼯具是使用模型,然后放到计算机里模拟。把模拟后的数据拿来,利用数学⽅法,去微调它的参数,希望尽量接近于现实。在这个过程中,我们扮演上帝的角⾊。”

暂且不论Sargent的观点是否正确,是否能被主流的人工智能研究学者接受,我们应该看到深度学习为代表的人工智能的局限性与今后应该如何发展。

最近(2019年1月25号)《麻省理工学院科技评论》杂志的AI记者KarenHao利用当今最庞大的科学论文开源数据库之一“arXiv”,对深度学习研究领域的演化进行了分析。KarenHao下载了截止到2018年11月18日“人工智能”部分的16625篇论文的摘要,并对这些年来提到的词汇进行了追踪,以了解深度学习的发展究竟走到了哪一个阶段,以洞察AI下一步的发展方向。作者深入研读了25年来的AI研究论文,结果表明深度学习的时代即将结束。(参见

https://www.technologyreview.com/s/612768/we-analyzed16625-papers-to-figure-out-where-ai-is-headed-next/)

华盛顿大学的计算机科学教授、《终极算法》(MasterAlgorithm)一书的作者PedroDomingos认为,长期以来,不同技术的突然兴起和衰落一直是人工智能研究领域的特点。每十年都有不同观点之间的激烈竞争。然后,每隔一段时间,一个新的技术就会兴起,研究人员都会聚集起来研究这个新兴的技术。“换句话说,每⼀个⼗年,本质上是某种技术的统治时期:神经⽹络统治了上世纪50年代和60年代,各种象征性的⽅法征服了70年代,知识库系统在80年代⾛向巅峰,贝叶斯⽹络引领90年代,支持向量机在本世纪00年代爆发,在10年代,我们再次回到神经⽹络。”“21世纪20年代也不会例外”,这意味着深度学习的时代可能很快就会结束。但是,对于接下来会发生什么,已经有两个截然不同的走向摆在我们面前——究竟是一种旧技术会重新获得青睐,还是AI领域将迎来一个全新的范式?PedroDomingos并没有给出答案,但从我国新一代人工智能发展规划我们可以认为,在未来的10年,多学科多方位的融合发展是人工智能未来的发展趋势。

围绕人工智能今后的发展趋势问题,微软研究院机器学习组刘铁岩等人认为机器学习的未来十年研究热点中包括可解释的机器学习;轻量机器学习和边缘计算;量子机器学习;简单而美的定律,貌似复杂的自然现象都由简单而优美的数学规律所刻画,如偏微分方程;还有社会机器学习等。(参见

https://www.msra.cn/zh-cn/news/executivebylines/techbylines-machine-learning)。

大多数专家学者认为发展新一代人工智能应该借鉴认知神经科学的机制,利用机器学习的数学工具,构建人工智能的基础理论体系。机器学习是以概率统计为数学工具的,有学者想用概率统计的框架(例如信息瓶颈)不足为奇。作为自然科学的带头学科,物理学是研究物质运动最一般规律和物质基本结构的学科。用物理方法的框架也许是走向统一理论的途径之一[12]。但是,由DavidHWolpert和WilliamGMacready提出的没有免费午餐的定理说明,没有任何一个算法可以解决机器学习所有的应用。因此,针对特定的问题,需要发展专门的方法来解决。例如为了克服卷积神经网络的缺点,深度学习大咖之一Hinton教授最近提出了胶囊网络。一个胶囊网络是由胶囊而不是由神经元构成。一个胶囊是一小组神经元,相当于一个功能模块。用到图像处理时,功能模块可以学习在一个图片的一定区域内检查一个特定的对象(模式)[Sabour,Sara;Frosst,Nicholas;Hinton,GeoffreyE.(2017-10-26)."DynamicRoutingBetweenCapsules".arXiv:1710.09829]。

深度学习的三驾马车之一,YannLeCun在IJCAI-2018开幕式上给出了“LearningWorldModels:theNextSteptowardsAI”的演讲。LeCun表示人工智能革命的未来不会是有监督学习,也不会是单纯的强化学习,而是需要学习一个具备常识推理与预测能力的世界模型。从直观上理解,世界模型就是一个具备关于世界如何运作的通用背景知识、具备预测行为后果的能力、具有长期规划与推理能力的模型。YannLeCun总结了三类学习范式,分别是强化学习、监督学习和自监督学习,并认为自监督学习(以前称为预测学习)是实现世界模型的一个潜在研究方向。演讲最后YannLecun总结了技术和科学之间的互相驱动和促进,如望远镜和光学、蒸汽机和热力学、计算机和计算机科学等。并提出了几个疑问,1)什么相当于智能的“热力学”?2)人工智能和自然智能背后是否存在底层原则?3)学习背后是否存在简单的准则?4)大脑是否是进化产生的大量“hack”的集合?

在2018年11月7日,YoshuaBengio受邀来到北京参加第二十届“二十一世纪的计算”国际学术研讨会。会上以及随后受邀前往清华大学,他给出了题为“ChallengesforDeepLearningtowardsHuman-LevelAI”的演讲。Bengio以2017年发布在arXiv的研究计划论文“有意识先验”(Theconsciousnessprior)为主旨,重申了他与YannLecun多年前提出的解纠缠(disentangle)观念:我们应该以“关键要素需要彼此解纠缠”为约束,学习用于描述整个世界的高维表征(unconsciousstate)、用于推理的低维特征(consciousstate),以及从高维到低维的注意力机制--这正是深度学习通往人类水平AI的挑战。人类的认知任务可以分为系统1和系统2。系统1侧重快速感知,而系统2认知任务则与系统1任务的方式完全相反,侧重慢速有意识的行为---算法。Bengio认为意识领域的研究正逐渐变成主流,将“意识”称作一个“先验”,是因为意识是一个约束条件、一个正则化项、一个假设,这就是我们可以用非常少的变量进行大量的预测。但是“具体⽽⾔,我们的学习理论在这⽅面仍然很匮乏。目前的学习理论假设测试分布与训练分布相同,但是该假设并不成立。你在训练集上构建的系统在现实世界中可能效果并不好,因为测试分布与训练分布不同。因此我认为我们应该创建新的学习理论,它应该不会基于“测试分布与训练分布相同”这样⽣硬的假设。我们可以采用物理学家的⽅式,假设训练分布和测试分布的底层因果机制相同。这样即使动态系统的初始条件不同,底层物理机制仍然不会改变。那么如何去做呢?事实上,构建好的世界模型令⼈望⽽⽣畏,我们没有⾜够的计算能⼒对真实世界建模,因此我认为更合理的⽅法是利用机器学习,机器学习研究不是关于AI应该具备哪些知识的研究,⽽是提出优秀的学习算法的研究。优秀的机器学习算法理应在任何分布中都可以良好运⾏。”

最近M.MitchellWaldrop在美国国家科学院院刊(PNAS)发表了一篇题为“新闻特写:深度学习的局限是什么?”的评论文章(M.MitchellWaldrop,NewsFeature:Whatarethelimitsofdeeplearning?,PNAS,2019-01-22,DOI:10.1073/pnas.1821594116)。在这篇PNAS特稿中,Waldrop简述了深度学习的发展历史,认为一切光荣得益计算力的爆发,才使得人工智能有了今天的蓬勃发展。但是,由于深度学习具有多种局限,包括易受对抗攻击、学习效率低、应用不稳定、缺乏常识以及可解释性等,Hinton提出的问题依然存在:“深度学习到底缺少了什么?”。从可计算性的角度来看,人工智能研究领域越来越多的人认为,为了解决深度学习的缺陷,需要有一些根本性的全新想法。Waldrop因此列举了几个他认为具有新想法的工作,其中之一是DeepMind团队的生成查询网络(GenerativeQueryNetwork-GQN)[11]。

在GQN架构中,有两个不同的网络:生成网络(generationnetwork)和表示网络(representationnetwork)。GQN模型由两部分构成:一个表征网络以及一个生成网络。表征网络将智能体的观察作为输入,并生成一个描述潜在场景的表征(向量)。然后生成网络从之前未观察过的视角来预测(想象)该场景。GQN建立在最近大量多视角的几何研究、生成式建模、无监督学习和预测学习[10]的基础上,它展示了一种学习物理场景的紧凑、直观表征的全新方式。GQN本质上不是训练一个大型网络,而是让两个网络协同工作。

Waldrop的最终结论是深度学习不是实现AI的途径,认为图网络(graphnetwork)可能会引领AI未来发展。图网络是一种神经网络,它将图作为输入(而不是原始像素或这一维波形),然后学习推理和预测对象及其关系如何随时间演变。图网络方法已经证明了在一系列应用中可实现快速学习,以及人类水平的能力,包括复杂的视频游戏。此外,图网络可以使网络不那么容易受到对抗性攻击,原因很简单,它是一个将事物表示为对象,而不是像素模式的系统,不会轻易被一点噪音或无关的贴纸所干扰(注:关于贴纸,是指在交通标志牌上的贴纸干扰了识别,也就是所谓的“对抗样本”,参见:

https://futurism.com/wemay-have-just-uncovered-a-serious-problem-with-how-ai-see/)。

综上所述,从这些已有的理论与方法,我们可以看出,虽然每种理论及方法或多或少地有这样那样的问题,但是都是朝着可能正确的方向迈进。目前有些理论与方法彼此矛盾,而另一些理论与方法可以结合起来使用。如前面所介绍的,目前人工智能研究能否形成一种新型的统一的理论,该理论的目标是构建可以实现的世界模型,那这个统一理论应该是什么呢?有学者认为为了更好地描述神经网络和神经系统,我们需要一套新的数学语言和框架,这又相当于提出了新的问题,这个新的框架在哪里呢?目前学术界里还没有统一的思路和共识。但是我们已经看到有些理论学家借鉴统计物理研究神经网络的复杂性。十九世纪末起步的统计力学(热力学与统计物理)发展到今天已经是较为成熟的学科。统计力学所研究的问题与理论神经科学研究的问题有不少相通之处。这两个学科都是研究复杂的宏观行为是如何由微观结构和性质产生的。而且在人工智能研究的17个门派之一就是复杂性理论学家,按照CarlosE.Perez的说法,“ComplexityTheorists:这一派的人采用来自物理学,基于能量的模型,复杂性理论,混沌理论和统计力学的方法。SwarmAI可以说属于这一派。如果任何团队称他们能找到深度学习为什么能起效的很好的解释,那么他们可能是这一派的。”在有大多数人可以接受的统一的世界模型及研究思路之前,我们可以在多个方向进行尝试,基于复杂性科学的研究也是值得探索的路线之一。

那应该如何克服深度学习具有的多种局限呢?我们认为今后既不是旧技术重新获得青睐,也不是AI领域将迎来一个全新的范式。最可能的路线是在旧技术基础上,发展新的范式。因为历史是在螺旋式演进的,我们的认知水平也是在不断提高的。牛顿说过他是站在巨人的肩膀上,任何具有历史的学科均是要在前人研究的基础上盖大厦,不是建空中楼阁的。

如前面所述,我们认为计算智能是人工智能发展的新阶段,是受自然启发(Natureinspired)的智能。计算智能的思想来源于物理学、化学、数学、生物学、心理学、生理学、神经科学和计算机科学等学科的现象与规律,融合了人工智能的三大学派形成了一个有机的整体。通过多学科多技术融合形成的系统从而可实现优势互补,将会比单一学科或技术更加有效,并且能够取得更大的成果。因此,我们提出在借鉴认知神经科学的机制,利用机器学习中的数学工具,发展新一代人工智能路线上,应该以计算智能为基础,多头并进,发展协同学习系统[9]。

物理学的核心是发现并解释物理现象、物质结构、相互作用及运动规律的,而人工智能的核心是创造智能。为了发展人工智能的基础理论,人工智能研究者应当融合并接受一切学科,兼容并包,采取搁置争议共同发展的策略。重提上世纪九十年代我国神经网络委员会的口号:“携手探智能,联盟攻大关”。

清华大学张钹院士说过,神经网络现在还在演进,关键是怎样选择正确框架以及训练,我们要把感知和认知放到同一个空间里,不是简单用概率统计的理论;我们现在正在通往AI的路上,现在走得并不远,在出发点附近,但人工智能永远在路上,大家要有思想准备,而这也就是人工智能的魅力。

的确,人工智能永远在路上,这意味着需要长时间的演化才有可能接近AGI。这里所说AGI是按照一种定义描述的:“ArtificialGeneralIntelligence是具备与人类同等智慧、或超越人类的人工智能,能表现正常人类所具有的所有智能行为。”我们的长远目标,或者说梦想是协同学习系统通过长时间协同演化,最终实现通用人工智能。“我们都在努⼒奔跑,我们都是追梦⼈”,AGI是梦想的未来,不是现在,是需要长时间演化才有可能达到的目标。这个时间有多长,也许需要地球流浪的时间,也需是一万年。但是“一万年太久,只争朝夕”,我们需要努力使演化过程加速。但目前考虑如何在近期实现AGI尚为时过早,如Bengio所说,“构建好的世界模型令人望而生畏,我们没有足够的计算能力对真实世界建模”。为避免在人工智能方面不切实际的幻想导致人工智能的寒冬很快再次来临,需要制定近期可实行的目标。也许从深度学习过渡到协同学习是可能的演化方向之一[9,10]。

版权声明:本文内容由互联网用户自发贡献,该文观点仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌抄袭侵权/违法违规的内容,一经查实,本站将立刻删除。

上一篇

下一篇