博舍

人工智能AI行业深度研究报告:大模型驱动AI全面提速 AI人工智能产业研究院

人工智能AI行业深度研究报告:大模型驱动AI全面提速

(报告出品方:中信证券)

报告缘起

人工智能(AI)指利用技术学习人、模拟人,乃至超越人类智能的综合学科,过去十年来,伴随技术理论、算力、应用场景等核心要素的不断进步&完善,持续成为科技产业的创新焦点,以及资本市场的投资热点。2016年以来,大量AI相关的学术论文转化为实际落地的专利,技术上的创新快速推动了人工智能的商业化,并成为了资本市场追逐的热点。在人工智能的相关专利方面,2021年提交的专利数量是2015年的30倍以上,复合年增⻓率为76.9%。中国的专利申请数已经占了世界⼀半,并获得约6%的授权。

人工智能产业发展史:“三起两落”,从运算智能,逐步走向感知智能、认知智能。人工智能技术可以显著提升人类效率,在图像识别、语音识别等领域快速完成识别和复杂运算。此外,面对开放性问题,人工智能技术亦可通过穷举计算,找到人类预料之外的规律和关联。自1956年“人工智能”概念&理论首次被提出,AI产业&技术发展主要经历如下发展阶段:

1)20世纪50年代~20世纪70年代:受制于算力性能、数据量等,更多停留在理论层面。1956年达特茅斯会议推动了全球第一次人工智能浪潮的出现,当时乐观的气氛弥漫着整个学界,在算法方面出现了很多世界级的发明,其中包括一种叫做增强学习的雏形,增强学习就是谷歌AlphaGo算法核心思想内容。而70年代初,AI遭遇了瓶颈:人们发现逻辑证明器、感知器、增强学习等只能做很简单、用途狭隘的任务,稍微超出范围就无法应对。当时的计算机有限的内存和处理速度不足以解决任何实际的AI问题。这些计算复杂度以指数程度增加,成为了不可能完成的计算任务。

2)20世纪80年代~20世纪90年代:专家系统是人工智能的第一次商业化尝试,高昂的硬件成本、有限的适用场景限制了市场的进一步向前发展。在80年代,专家系统AI程序开始为全世界的公司所采纳,而“知识处理”成为了主流AI研究的焦点。专家系统的能力来自于它们存储的专业知识,知识库系统和知识工程成为了80年代AI研究的主要方向。但是专家系统的实用性仅仅局限于某些特定情景,不久后人们对专家系统的狂热追捧转向巨大的失望。另一方面,1987年到1993年现代PC的出现,其费用远远低于专家系统所使用的Symbolics和Lisp等机器。相比于现代PC,专家系统被认为古老陈旧而非常难以维护。于是,政府经费开始下降,寒冬又一次来临。

3)2015年至今:逐步形成完整的产业链分工、协作体系。人工智能第三起的标志性事件发生在2016年3月,谷歌DeepMind研发的AlphaGo在围棋人机大战中击败韩国职业九段棋手李世石。随后,大众开始熟知人工智能,各个领域的热情都被调动起来。这次事件确立了以DNN神经网络算法为基础的统计分类深度学习模型,这类模型相比于过往更加泛化,通过不同的特征值提取可以适用于不同的应用场景中。同时,2010年-2015年移动互联网的普及也为深度学习算法带来了前所未有的数据养料。得益于数据量的上涨、运算力的提升和机器学习新算法的出现,人工智能开始大调整。人工智能的研究领域也在不断扩大,包括专家系统、机器学习、进化计算、模糊逻辑、计算机视觉、自然语言处理、推荐系统等。深度学习的发展,让人工智能进入新的发展高潮。

人工智能第三次浪潮带给我们一批能给商业化落地的场景,DNN算法的出色表现让语音识别与图像识别在安防、教育领域贡献了第一批成功的商业案例。而近年来基于神经网络算法之上的Transformer等算法的开发让NLP(自然语言处理)的商业化也提上了日程,有望在未来3-5年看到成熟的商业化场景。

伴随全球AI产业主要配套环节(芯片、软件框架、应用算法、数据积累)的逐步清晰、完善,以及部分简单应用场景(图像识别、语音合成、多轮会话、推荐系统等)的持续落地等,我们判断全球AI产业有望在经历前期徘徊之后,进入快速发展期,但作为一个极为复杂的学科和产业板块,一系列的技术、产业问题仍困扰着投资者。在本篇专题报告中,我们将尝试从理论技术、产业应用等维度,就当下AI产业发展的核心问题展开分析讨论,并在此基础上构建我们对全球AI产业的中期投资框架:1.当前AI产业面临的主要技术约束在哪里?如何实现AI模型通用性、逻辑可解释性之间的平衡?AI技术演进的速度、路径等如何影响下游的应用场景?2.基于现有技术发展水平、可能演进路径等,AI产业稳态的产业链组织形态、各产业环节(芯片、软件框架、平台&算法、应用场景等)价值分配结构如何?3.中期维度,从市场空间、竞争格局等维度,AI哪些产业环节更具有吸引力,各环节的核心竞争力是什么,如何结合中长期时间线,形成完整的AI产业投资框架&蓝图?

产业现状:逐步形成完整产业分工、协作体系,落地场景亦不断扩展

经历过去5~6年的发展,全球AI产业正逐步形成分工协作、完整的产业链结构,并开始在部分领域形成典型应用场景。基于广泛的产业共识,我们将AI产业链简化为如下环节:芯片、算力设施、AI框架、算法模型、应用场景等。在本部分内容中,我们将对上述环节的发展现状展开分析探讨。

AI芯片:从GPU到FPGA、ASIC等,性能不断提升

芯片是AI产业的制高点。本轮人工智能产业繁荣,缘于大幅提升的AI算力,使得深度学习和多层神经网络算法成为可能。人工智能在各个行业迅速渗透,数据随之海量增长,这导致算法模型极其复杂,处理对象异构,计算性能要求高。因此人工智能深度学习需要异常强大的并行处理能力,与CPU相比,AI芯片拥有更多逻辑运算单元(ALU)用于数据处理,适合对密集型数据进行并行处理,主要类型包括图形处理器(GPU)、现场可编程门阵列(FPGA)、专用集成电路(ASIC)等。从使用场景来看,相关硬件包括:云侧推理芯片、云侧测试芯片、终端处理芯片、IP核心等。在云端的“训练”或“学习”环节,英伟达GPU具备较强竞争优势,谷歌TPU亦在积极拓展市场和应用。在终端的“推理”应用领域FPGA和ASIC可能具备优势。美国在GPU和FPGA领域具有较强优势,拥有英伟达、赛灵思、AMD等优势企业,谷歌、亚马逊亦在积极开发AI芯片。

芯片类型:从GPU起步,正逐步扩展至FPGA、ASIC等领域。目前AI芯片主要用于语音识别、自然语言处理、图像处理等大量使用AI算法的领域,通过芯片加速提高算法效率。AI芯片的主要任务是矩阵或向量的乘法、加法,然后配合一些除法、指数等算法。AI算法在图像识别等领域,常用的是CNN卷积网络,一个成熟的AI算法,就是大量的卷积、残差网络、全连接等类型的计算,本质是乘法和加法。2014年以来,GPU在卷积神经网络方面的良好表现,以及大量的图像识别&计算机视觉模型的部署,让其成为了AI推理芯片的主要解决方案。随着人工智能模型的复杂度加剧,FPGA、ASIC等灵活性较高、单位功耗较低的芯片种类也加入到了竞争之中。

部署场景:从数据中心向边缘扩展。在高性能计算市场,借助AI芯片的并行运算能力实现对复杂问题的求解是目前的主流方案。据Tractica数据显示,2019年全球AIHPC市场规模约13.6亿美元,预计到2025年市场规模达111.9亿美元,7年CAGR为35.1%。AIHPC市场规模占比由2019年的13.2%提高至2025年的35.5%。同时Tractica数据显示,2019年全球AI芯片市场规模为64亿美元,预计到2023年市场规模达510亿美元,市场空间增长近10倍。

参与厂商:继欧美芯片厂商之后,国产AI芯片厂商亦快速崛起。近两年内,国内涌现了大量自研的芯片类公司,以自研GPU的摩尔线程、自研自动驾驶芯片的寒武纪等为代表。摩尔线程于2022年3月发布了MUSA统一系统架构及第一代芯片“苏堤”,摩尔线程的新架构支持英伟达的cuda架构。根据IDC数据,在2021年上半年中国人工智能芯片中,GPU一直是市场首选,占有90%以上的市场份额,但随其他芯片的稳步发展,预计到2025年GPU占比将逐步降低至80%。

算力设施:借助云计算、自建等方式,算力规模、单位成本等指标不断改善

过去算力发展有效缓解了人工智能的发展瓶颈。人工智能作为一个年代久远的概念,过去的发展一直受限于算力不足,其算力需求的主要来源于两个方面:1)人工智能最大挑战之一是识别度与准确度不高,而要提高准确度就需要提高模型的规模和精确度,这就需要更强的算力支撑。2)随着人工智能的应用场景逐渐落地,图像、语音、机器视觉和游戏等领域的数据呈现爆发性增长,也对算力提出了更高的要求,使得计算技术进入新一轮高速创新期。而过去十几年算力的发展有效缓解了人工智能的发展瓶颈,未来智能计算将呈现出需求更大、性能要求更高、需求随时随地且多样化的特点。

由于接近物理极限,算力增长的摩尔定律逐步失效,算力行业正处于多要素综合创新阶段。过去算力供应提升主要通过工艺制程微缩,即在同一芯片内增加晶体管堆叠的数量来提高计算性能。但随着工艺制程不断逼近物理极限,成本不断提高,使得摩尔定律逐渐失效,算力产业进入后摩尔时代,算力供应需要通过多要素综合创新提高。当前算力供给有四个层面:单芯片算力、整机算力、数据中心算力和网络化算力,分别通过不同技术进行持续演进升级,以满足智能时代多样化算力的供给需求。此外,通过软硬件系统的深度融合与算法优化提升计算系统整体性能,也是算力产业演进的重要方向。

算力规模:根据中国信通院2021年发布的《中国算力发展指数白皮书》,2020年全球算力总规模依旧保持增长态势,总规模达429EFlops,同比增长39%,其中基础算力规模313EFlops、智能算力规模107EFlops、超算算力规模9EFlops,智能算力占比有所提高。我国算力发展节奏与全球相似,2020年我国算力总规模达到135EFlops,占全球算力规模的39%,实现55%的高位增长,并实现连续三年增速保持40%以上。

算力结构:我国与全球发展情况相似,智能算力增长迅速,占比从2016年的3%提升至2020年的41%。而基础算力占比由2016年的95%下降至2020年的57%,在下游需求驱动下,以智能计算中心为代表的人工智能算力基础设施发展迅猛。

截至2021年底,我国在用数据中心机架总规模达到约400余万架(标准机架),近5年年均增速超过30%,随着数字经济的发展,数据中心需求量还将持续上升。商汤Ai计算中心是国内厂商自建算力中心的代表之一,这是由商汤科技打造的一个开放、大规模、低碳、节能的先进计算基础设施,该项目于2020年7月开工建设。作为SenseCore商汤AI大装置计算基础设施的重要组成部分,AIDC一期工程的设计算力为每秒3740Petaflops,是亚洲最大的超算中心之一。

数据存储:非关系型数据库以及用于储存、治理非结构数据的数据湖迎来需求爆发。近年来全球数据量呈现爆发式增长,据IDC统计,2019年全球产生的数据量为41ZB,过去十年的CAGR接近50%,预计到2025年全球数据量或高达175ZB,2019-2025年仍将维持近30%的复合增速,其中超过80%的数据都将是处理难度较大的文本、图像、音视频等非结构化数据。数据量(尤其是非结构化数据)的激增使得关系型数据库的弱点愈加凸显,面对几何指数增长的数据,传统为结构型数据设计的关系型数据库纵向叠加的数据延展模式难以满足。非关系型数据库以及用于储存、治理非结构数据的数据湖,因其灵活性以及易延展性逐渐占据市场中越来越多的份额。根据IDC,2020年全球Nosql数据库的市场规模为56亿美元,预计2025年将增长至190亿美元,2020-2025年复合增速为27.6%。同时,根据IDC,2020年全球数据湖市场规模为62亿美元,2020年市场规模增速为34.4%。

企业数据向云端迁移为高确定性趋势。根据IDC数据,存储在公有云中数据占比将在2020年追平传统数据中心,且占比仍将不断提升;而根据Alphawise的调研数据,到2023年,欧美企业IT部署中43%将为云,较目前的23%提升近一倍。而在应用层面,根据IDC数据,预计到2023年,全球云原生应用数将达到5亿个,相较2019年0.7亿的水平增加逾6倍,2019-2023年复合增速为62.3%。云原生下的应用开发将成为未来开发的主流环境,这对数据库本身的灵活性和延展性提出了更多要求。在企业数据库部署模式上,数据库向云端迁移将成未来的主要趋势。

AI框架:相对趋于成熟,少数巨头主导

Tensorflow(产业界)、PyTorch(学术界)逐步实现主导。谷歌推出的Tensorflow为主流与其他开源模块如Keras(Tensorflow2集成了Keras模块)、Facebook开源的PyTorch等一起构成了目前AI学习的主流框架。GoogleBrain自2011年成立起开展了面向科学研究和谷歌产品开发的大规模深度学习应用研究,其早期工作即是TensorFlow的前身DistBelief。DistBelief在谷歌和Alphabet旗下其他公司的产品开发中被改进和广泛使用。2015年11月,在DistBelief的基础上,谷歌大脑完成了对“第二代机器学习系统”TensorFlow的开发并对代码开源。相比于前作,TensorFlow在性能上有显著改进、构架灵活性和可移植性也得到增强。Tensorflow与Pytorch虽然本身是开源模块,但因为深度学习框架庞大的模型与复杂度导致其修改与更新基本完全是由谷歌完成,从而谷歌与Facebook也通过对Tensorflow与PyTorch的更新方向直接主导了产业界对人工智能的开发模式。

Microsoft在2020年以10亿美元注资OpenAI,获得GPT-3语言模型的独家许可。GPT-3是目前在自然语言生成中最为成功的应用,不仅可以用于写“论文”,也可以应用于“自动生成代码”,自今年7月发布后,也被业界视为最强大的人工智能语言模型。而Facebook早在2013年创立了AI研究院,FAIR本身并没有像AlphaGo和GPT-3那样著名的模型和应用,但是它的团队已经在Facebook本身感兴趣的领域发表了学术论文,包括计算机视觉、自然语言处理和对话型AI等。2021年,谷歌有177篇论文被NeurIPS(目前人工智能算法的最高期刊)接收并发表,Microsoft有116篇,DeepMind有81篇,Facebook有78篇,IBM有36篇,而亚马逊只有35篇。(报告来源:未来智库)

算法模型:神经网络算法为主要理论基础

深度学习正在向深度神经网络过渡。机器学习是通过多层非线性的特征学习和分层特征提取,对图像、声音等数据进行预测的计算机算法。深度学习为一种进阶的机器学习,又称深度神经网络(DNN:DeepNeuralNetworks)。针对不同场景(信息)进行的训练和推断,建立不同的神经网络与训练方式,而训练即是通过海量数据推演,优化每个神经元的权重与传递方向的过程。而卷积神经网络,能考虑单一像素与周边环境变量,并简化数据提取数量,进一步提高神经网络算法的效率。

神经网络算法成为大数据处理核心。AI通过海量标签数据进行深度学习,优化神经网络与模型,并导入推理决策的应用环节。90年代是机器学习、神经网络算法快速崛起的时期,算法在算力支持下得到商用。90年代以后,AI技术的实际应用领域包括了数据挖掘、工业机器人、物流、语音识别、银行业软件、医疗诊断和搜索引擎等。相关算法的框架成为科技巨头的布局重点。

在过去五年,我们观察到以CNN与DNN为主的神经网络算法是近年来发展最快的机器学习算法,因其在计算机视觉、自然语言处理等领域中的优异表现,大幅加快了人工智能应用的落地速度,是计算机视觉、决策智能迅速迈向成熟的关键因素。从侧视图可以看出,在语音识别任务上,标准的DNN方法相较于传统的KNN、SVM与随机森林等方法都有着明显的优势。

训练成本上看,神经网络算法训练人工智能的成本明显降低。ImageNet是一个包含超过1400万张图像的数据集,用于训练人工智能算法。根据斯坦福DAWNBench团队的测试,2020年训练一个现代的图像识别系统仅需约7.5美元,比2017年的1100美元下降了99%以上,这主要受益于算法设计的优化、算力成本的下降,以及大规模人工智能训练基础设施的进步。训练系统的速度越快,评估并用新数据更新系统的速度就越快,这将进一步加快ImageNet系统的训练速度,提高开发和部署人工智能系统的生产力。

训练时间分布上看,神经网络算法训练所需时间全面降低。通过分析每个时期的训练时间分布,发现在过去几年中,训练时间大大缩短,且训练时间的分布更加集中,这主要受益于加速器芯片的广泛使用。

在卷积神经网络的推动下,计算机视觉准确率测试成绩明显提升,正处于产业化阶段。计算机视觉准确率在过去的十年中取得了巨大的进步,这主要归功于机器学习技术的应用。Top-1准确度测试人工智能系统为图像分配正确标签的能力越强,那么其预测结果(在所有可能的标签中)与目标标签越相同。在有额外的训练数据(例如来自社交媒体的照片)的情况下,2021年1月在Top-1准确度测试上每10次尝试中会出现1次错误,而2012年12月每10次尝试中会出现4次错误。而另一项精确率测试Top-5会让计算机回答目标标签是否在分类器的前五个预测中,其准确率从2013年的85%提高到2021年的99%,超过了代表人类水平的成绩94.9%。

在神经网络算法发展的过程中,Transformer模型在过去五年里成为了主流,整合了过去各种零散的小模型。Transformer模型是谷歌在2017年推出的NLP经典模型(Bert就是用的Transformer)。

AI大模型化是过去两年内兴起的新潮流,自监督学习+预训练模型微调适配方案逐渐成为主流,AI模型走向大数据支撑下的泛化成为可能。传统的小模型用特定领域有标注的数据训练,通用性差,换到另外一个应用场景中往往不适用,需要重新训练。而AI大模型通常是在大规模无标注数据上进行训练,将大模型进行微调就可以满足多种应用任务的需要。以OpenAI、谷歌、微软、Facebook、NVIDIA等机构为代表,布局大规模智能模型已成为全球引领性趋势,并形成了GPT-3、SwitchTransformer等大参数量的基础模型。2021年底英伟达与微软联合开发的Megatron-LM拥有83亿条参数,而Facebook开发的Megatron拥有110亿条参数。这些参数大多来自于reddit、wikipedia、新闻网站等,对大量数据存储及分析所需的数据湖等工具将会是下一步研发的焦点之一。

应用场景:逐步在安防、互联网、零售等领域实现落地

目前在应用端最成熟的技术是语音识别、图像识别等,围绕这些领域,国内、美国都有大量的企业上市,并形成一定的产业集群。在语音识别领域,比较成熟的上市企业包括科大讯飞与此前被微软以290亿美元收购的Nuance。

智慧医疗:AI+医疗多应用于医疗辅助场景。在医疗健康领域的AI产品涉及智能问诊、病史采集、语音电子病历、医疗语音录入、医学影像诊断、智能随访、医疗云平台等多类应用场景。从医院就医流程来看,诊前产品多为语音助理产品,如导诊、病史采集等,诊中产品多为语音电子病例、影像辅助诊断,诊后产品以随访跟踪类为主。综合整个就诊流程中的不同产品,当前AI+医疗的主要应用领域仍以辅助场景为主,取代医生的体力及重复性劳动。AI+医疗的海外龙头企业是Nuance,公司50%的业务来自智能医疗解决方案,而病历等临床医疗文献转写方案是医疗业务的主要收入来源。

智慧城市:大城市病和新型城镇化给城市治理带来新挑战,刺激AI+城市治理的需求。大中型城市随着人口和机动车数量的增加,城市拥堵等问题比较突出。随着新型城镇化的推进,智慧城市将会成为中国城市的主要发展模式。而智慧城市涉及的AI+安防、AI+交通治理将会成为G端的主要落地方案。2016年杭州首次进行城市数据大脑改造,高峰拥堵指数下降至1.7以下。目前以阿里为代表的城市数据大脑已经进行了超过15亿元的投资,主要集中在智能安防、智能交通等领域。我国智慧城市产业规模持续扩大,前瞻产业研究院预计2022年可达25万亿元,2014年至2022年的年均复合增长率为55.27%。

城市交通是智慧城市落地的重点场景。从城市问题与落地的技术瓶颈来看,交通领域具有优先的落地价值。以城市大脑为中枢,连接摄像头、车辆标签、交通流量等数据,通过云端的分析和整合,从而实现对城市的精准分析、整体研判、协同指挥,缓解拥堵、停车困难、路线规划、事故处理、违章告发等首要交通问题。

AI+安防:基于图像识别等推动产业能力边界、商业模式极大延伸。传统安防设备将音视频材料简单记录后,需要大批量人工进行逐一甄别或实时监控。引入AI后,算法可以自动将人像及事故场景与预设标签比较,识别出特定人物及事故,充分盘活原有音视频及图像数据。AI+安防可用于市政治安管理,提升智能发现的事件数目,降低事件发生处理平均时长,对警、消、救等各类车辆进行联合指挥调度。也可以用于车站、机场等需要验证信息的特殊场景,减少人工成本及审核时间,提高效率。

智慧物流2020年市场规模高达5710亿元,智能仓储迎来千亿市场。物流行业成本居高不下及数字化转型的背景下,仓储物流及产品制造环节面临着自动化、数字化、智能化转型的迫切需求,以提升制造和流通效率。根据中国物流与采购联合会的数据,2020年中国智慧物流市场高达5710亿元,2013-2020年的年均复合增长率为21.61%。物联网、大数据、云计算、人工智能等新一代信息技术既促进了智慧物流行业的发展,又对智慧物流行业提出了更高的服务要求,智慧物流市场规模有望持续扩大。据GGII测算,2019年中国智能仓储市场规模近900亿元,而前瞻研究院预计这一数字将在2025年达到1500亿以上。

新零售:人工智能将带来人力成本的缩减与运营效率的提升。AmazonGo为亚马逊提出的无人商店概念,无人商店于2018年1月22日在美国西雅图正式对外营运。AmazonGo结合了云计算和机器学习,应用拿了就走技术(JustWalkOutTechnology)和智能识别技术(AmazonRekognition)。店内的相机、感应监测器以及背后的机器算法会辨识消费者拿走的商品品项,并且在顾客走出店时将自动结账,是零售商业领域的全新变革。

云化的人工智能模块组件是各大互联网巨头目前在人工智能商业化的主要发力方向,将人工智能技术集成在公有云服务中进行出售。GoogleCloudPlatform的AI技术一直走在行业的最前沿,并致力于将先进的AI技术融入云计算服务中心。近年来,谷歌收购多家AI公司,并发布AI专用芯片TPU、云服务CloudAutoML等产品完善布局。目前谷歌的AI能力已经覆盖认知服务、机器学习、机器人、数据分析&协作等领域。区别于部分云厂商在AI领域相对分散的产品,谷歌在AI产品的运营上更加完整和体系化,将垂直应用整合为AI基础组件,将Tensorflow与TPU运算整合为基础设施,形成了一个完整的AI平台服务。

百度是中国AI能力最强的公有云厂商,百度AI的核心战略是开放赋能。百度搭建以DuerOS、Apollo为代表的AI平台,开放生态,形成数据与场景的正向迭代。基于百度互联网搜索的数据基础,自然语言处理、知识图谱和用户画像技术逐步成熟。在平台以及生态层,百度云是很大的计算平台,开放给所有的合作伙伴,变成基础的支撑平台,上面有百度大脑的各种能力。同时还有一些垂直的解决方案,比如基于自然语言的人机交互的新一代操作系统,以及与智能驾驶相关的Apollo。整车厂商可以调用其中他们需要的能力,汽车电子厂商也可以调用他们需要的相应能力,共建整个平台和生态。

产业变化:AI大模型逐步成为主流,产业发展有望全面提速

最近几年来,AI产业的技术演进路线主要呈现如下特征:底层模块性能的不断提升,注重模型的泛化能力,从而帮助AI算法的通用性优化,并反哺数据收集。AI技术的持续发展依靠底层算法的突破,这同时需要以算力为核心的基础能力建设以及有大数据支撑进行知识和经验学习的环境。大模型在产业内的快速流行,大模型+小模型的运作模式,以及芯片、算力基础设施等底层环节能力的不断改善,以及由此带来的应用场景类别、场景深度的持续提升,并最终带来产业基础能力、应用场景之间的不断相互促进,并在正向循环逻辑下,驱动全球AI产业发展不断提速。

算法模型:大模型嵌套小模型成为主流

大模型带来较强的通用问题求解能力。当前大部分人工智能正处于“手工作坊式”,面对各类行业的下游应用,AI逐渐展现出碎片化、多样化的特点,模型通用性不高。为提高通用求解能力,大模型提供了一种可行方案,即“预训练大模型+下游任务微调”。该方案指从大量标记和未标记的数据中捕获知识,通过将知识存储到大量的参数中并对特定任务进行微调,提高模型泛化能力。

大模型有望进一步突破现有模型结构的精度局限,结合嵌套小模型训练,进一步提升特定场景下的模型效率。过去十年中,模型精度提升主要依赖网络在结构上的变革,但随着神经网络结构设计技术逐渐成熟并趋于收敛,精度提升达到瓶颈,而大模型的应用有望突破这一瓶颈。以谷歌的视觉迁移模型BigTransfer,BiT为例,使用ILSVRC-2012(128万张图片,1000个类别)和JFT-300M(3亿张图片,18291个类别)两个数据集来训练ResNet50,精度分别是77%和79%,大模型的使用使得处于瓶颈的精度进一步提高。另外使用JFT-300M训练ResNet152x4,精度可以上升到87.5%,相比ILSVRC-2012+ResNet50结构提升了10.5%。

大模型+小模型:泛化大模型人工智能的推广并结合特定场景下的数据优化将成为中期人工智能产业商业化的关键。原先针对特定场景重新提取数据训练的模式,已经被实践证明难以盈利,重新训练模型的成本过高,而获得的模型泛用性低下,难以重复利用。而在芯片算力性能不断提高的大背景下,大模型嵌套小模型的尝试提供给了厂商另一个思路,通过分析海量数据获得泛用模型,再通过嵌套特定小模型的方式为不同场景进行优化,节省了大量成本。阿里云、华为云、腾讯云等公有云厂商都在积极开发自研的大模型平台,提升模型的通用型。

芯片厂商:软硬结合,推动Transformer等算法的硬件实现&封装

以英伟达为代表的AI芯片巨头,在新一代芯片中针对产业中常用的AI模型,特别设计了新引擎以大幅提升计算能力。英伟达的Hopper架构引入了Transformer引擎,大幅加速了AI训练。Transformer引擎采用软件和自定义NVIDIAHopperTensorCore技术,该技术旨在加速训练基于常见AI模型构建模块(即Transformer)构建的模型。这些TensorCore能够应用FP8和FP16混合精度,以大幅加速Transformer模型的AI计算。采用FP8的TensorCore运算在吞吐量方面是16位运算的两倍。Transformer引擎利用定制的、经NVIDIA调优的启发式算法来解决上述挑战,该算法可在FP8与FP16计算之间动态选择,并自动处理每层中这些精度之间的重新投射和缩放。根据英伟达提供的数据,Hopper架构在训练Transformer模型时,效率可以达到安培模型的9倍。(报告来源:未来智库)

算力设施:云厂商参与度持续提升

在大模型技术趋势下,云厂商正在逐步成为算力市场中的核心玩家,在人工智能技术框架通过大模型往泛用化发展后,云厂商也能够借助PaaS能力把底层IaaS能力与PaaS结合,为市场提供通用性解决方案。我们看到随着大模型的出现,人工智能需要处理与分析的数据量日渐上升,同时这部分数据从过去的专业性数据集转化为通用型大数据。云计算巨头可以通过本身强大的PaaS能力与底层IaaS基础相结合,为人工智能厂商提供一站式的数据处理,这也帮助云计算巨头成为本轮人工智能浪潮的主要受益者之一。

目前AWS、Azure等国际主流云厂商与阿里云、腾讯云、华为云等国内头部云厂商都已开始在数据储存、数据处理等PaaS能力上重点发力。存储能力方面,NoSQL类型数据库与在数据种类日益繁杂的未来会涌现更多机会,如GoogleCloud就已经在对象类、传统的关系型数据库以及NoSQL类型数据库分散布局。而在数据处理方面,DataLake与DataWarehouse的重要性愈发凸显,云计算巨头通过完善这部分产品线,构建了一个完整的数据循环模式,并结合其底层的IaaS基础能力。完整的产品线与闭合的数据循环模式将是未来云计算巨头在AI中间层竞争的最大优势。

应用场景:从CV到NLP、推荐系统等,应用场景、技术深度等不断改善

目前商业化的典型应用场景包括语音识别与计算机视觉,但与此同时我们也注意到NLP、推荐系统等场景在技术的驱动下正在不断拓展。全球科技巨头近年来积极布局NLP以及推荐系统等应用场景化尝试,并寄希望于此开辟全新的商业化路径,这也意味着我们未来能在人工智能赛道上看到更多的商业化布局。

图像识别

图像识别的核心技术是计算机视觉。计算机视觉(ComputerVision,CV)是用机器替代人眼,对目标进行识别、跟踪和测量等,并处理为人眼观察或易于机器检测的图像的技术。技术上需要大量的图像数据对计算机进行训练,如人脸、动物图片、证件图片等,依靠AI芯片和深度学习算法进行归类判断,最终对输入图像进行识别。图像识别技术已经用于动态人脸识别、在线/离线活体检测、超大人像库实时检索、证件识别、行人检测、轨迹分析等领域,具体到2G和2G端可用于地产、安防、交通、无人驾驶、零售、商业等具体场景。

语音识别

依靠深度学习和芯片突破,语音识别的准确度不断提升。语音识别将人发出的语音词汇内容,转换为文字或指令,主要是分析句子、句法以及结构,以便将人类语言转换为计算机语言。以深度神经网络算法取代传统模型后,语音识别的单词错误率每年下降约18%,以谷歌、微软、亚马逊为代表的巨头已经开发出具备人类级别的语音识别系统。

自然语言处理

NLP是研究人机之间以人类语言进行交流的方法的过程,近两年来NLP相关的研究与应用场景尝试明显增多。由于底层算力的提高,以往算力无法支持的算法得以实现,尤其是深度学习方面,正在向深度神经网络过渡。计算机视觉(CV)层通过机器学习取得巨大突破,而目前这一方法正逐渐向自然语言处理(NLP:NaturalLanguageProcessing)延伸。可处理数据类型也从图像延伸至文本,使得计算机有处理人类自然语言的能力,并因此催生出搜索引擎优化、推荐算法等实际应用场景。NLP包括多方面步骤,基本由认知、理解、生成等部分。基于数据及知识图谱,计算机通过阅读(知识)自动获取信息,通过NLP可以将输入的语言变为有具体含义的符号,再根据使用者意图进行处理,重新编为人类语言输出。与语音识别关注准确度不同,NLP更多关注语言的具体含义及语境,试图理解句子意图和上下文含义。

在NLP语言测试SuperGLUE中,人工智能表现超过“人类基线”。近年自然语言处理技术的进步导致数十亿人访问的大规模系统发生了重大变化,并已开始对世界产生有意义的经济影响。谷歌和微软都在他们的搜索引擎中部署了BERT语言模型,而OpenAI等公司也开发了其他大型语言模型。此外,NLP的性能也得到了极大提升,在任务测试表现上达到甚至超过人类水平。SuperGLUE是2019年推出的单指标基准,用于评估模型在已建立数据集上的完成语言理解任务的性能。SuperGLUE标定的“人类基线”的平均得分为89.8,而微软的DeBERTa模型目前得分为90.3,这意味着AI系统在整个套件的平均性能超过了人类基线的表现。

知识图谱

知识图谱提供了管理组织海量数据的能力。知识图谱融合了认知计算、知识表示和推理、信息检索与抽取、自然语言处理与语义Web、数据挖掘与机器学习,是人工智能的重要研究领域。知识图谱的应用可以直接为用户提供答案和解决方案,直接显示满足客户需求的结构化信息内容。

以语音和图像作为知识图谱,AI技术快速渗透。对AI来说,数据多为无效或原始信息,需要大量的归类与标签工作,才能为后期的分析与学习所用。而语音和图像数据由于来源广,可得性高,语音及图像知识图谱与行业数据库,成为当前人工智能的积累重点。

个性化推荐

个性化推荐系统是近年来另一个科技巨头聚焦的商业化尝试,基于庞大的数据支持,人工智能系统可以根据用户的性格画像进行分类,准确推荐用户感兴趣的服务与商品。支撑TikTok业务腾飞的是字节跳动的人工智能推荐算法,该系统能够根据用户的兴趣和活动提供经过筛选的相关内容。TikTok在开发推荐算法时主要考量了三个因素:用户在应用程序上的互动,比如喜欢某个视频或关注某个账号;感兴趣的内容包括什么——在短视频中就是诸如音乐和主题标签等信息;以及用户所处的环境,诸如语言偏好、国家和地区设置以及设备类型。基于以上三点,人工智能算法便可以快速分类,为视频内容对用户的符合程度进行打分,并按由高到低进行推荐。

中期判断:产业价值链趋于稳定,并逐步向两端靠拢

产业链结构:芯片+算力基础设施+AI框架&算法库+应用场景。伴随AI产业链结构的逐步清晰,以及大模型带来的产业运作效率、技术深度的大幅改善,中期维度,假设AI技术不发生跳变式跃迁前提下,我们判断AI产业链价值有望逐步向两端靠拢,中间环节价值有望持续减弱,并逐步形成“芯片+算力基础设施+AI框架&算法库+应用场景”的典型产业链结构,同时在这样的产业结构安排下,我们预计上游的芯片企业、云基础设施厂商,以及下游的应用厂商有望逐步成为AI产业快速发展的核心受益者。

AI芯片:GPU+FPGA+ASIC并存局面。技术理论层面,GPU的峰值性能与泛用性更为出色,尤其是英伟达推出了CUDA编程框架,大大降低了开发难度。但GPU底层无法编辑,如果出现底层算法的更改需要重新部署。FPGA具有足够的计算能力和足够的灵活性,FPGA也是一种半定制的硬件,通过编程可定义其中的单元配置和链接架构进行计算,因此具有较强的灵活性。相对于GPU,FPGA能管理能运算,但是相对开发周期长,编程语言非常复杂,算法开发难度大。ASIC是根据产品的需求进行特定设计和制造的集成电路,能够在特定功能上进行强化,具有更高的处理速度和更低的能耗。缺点是研发成本高,前期研发投入周期长,且由于是定制化,ASIC可复制性一般,因此只有用量足够大时才能够分摊前期投入,降低成本。

AI训练环节:GPU料将占据主导地位。伴随谷歌借助BERT模型在对话式AI领域的突破,以及微软的跟进,AI训练端芯片的需求再次被激发。我们判断,在当前技术可预期的范围,对话式AI(主要用于NLP等)、广度&深度推荐系统将构成中期市场核心应用场景之一。同时相较于此前的图像识别&计算机视觉,对话式AI、推荐系统模型参数&复杂度的大幅增加亦会对芯片&硬件提出更高的要求。英伟达系统级产品布局、在训练环节的突出表现&领先优势已基本成为市场的共识,而在推理领域,伴随新一代安培架构的升级,以及由此实现的训练、推理的统一,以及对稀疏矩阵运算问题的良好支持,目前在推理方面,英伟达最新的A100芯片的Int8Tops已经达到1248,较上一代提升超过5X。同时在训练环节,根据英伟达2021GTC大会上提供的Mlperf评测,在图像识别、对话式AI、推荐系统等多个模型的对比评测中,英伟达芯片训练性能全面领先华为、谷歌等主要竞争对手。基于技术层面的全面分析,我们判断英伟达有望在企业对外服务(训练、推理)、企业内部服务(训练)环节保持持续领先。

AI推理环节:市场百花齐放,核心在于应用场景的匹配。不同于训练类芯片,更注重功耗、成本以及延迟类的需求,GPU在推理环节优势并不明显,FPGA与ASIC等新兴产品将会百花齐放。相较于训练环节,推理环节是一个更大、更具吸引力的市场,但同时相较于训练环节,推理环节对于计算复杂度、计算精度要求不高,但对于延迟较为敏感,本身技术要求和训练存在明显不同。同时传感器技术的成熟、通信网络的发展等,亦将极大促进边缘智能计算设备的需求,以及最终带动对推理芯片的需求。但在企业内部服务(推理)仍面临延迟、功耗等层面的明显短板。

算力设施+基础算法框架:云计算厂商料逐步实现主导。大模型带来AI底层基础技术架构的统一,以及对算力的庞大需求等特征,天然有利于云计算公司在此过程中发挥基础性角色:云计算具有全球分布最为广泛、最为强大的硬件算力设施,同时AI框架、通用算法最为一种典型PaaS能力,亦倾向于被整合到云厂商的平台能力当中。因此从技术通用性、实际商业需求等维度,在大模型的推动下,云计算巨头有望逐步成为算力设施+基础算法框架环节能力的主要提供商,并不断侵蚀现有的AI算法平台商的商业空间。从过去云厂商各类产品的报价中可以发现,以AWS与Google产品为例,美国东部地区的Linus按需使用价格正在阶梯式降低。

应用场景:从计算智能到感知智能、认知智能。在目前的算力条件与可展望的技术能力支持下,应用端将继续通过数据获取实现算法迭代与优化,完善目前认知智能当中仍存在的不足(图像识别方向),并尝试往决策智能发展。根据目前的技术能力以及硬件算力支持,实现完全决策智能仍需较长时间;现有场景的继续深化的基础上做出局部性的智能化将是3-5年内的主要方向。目前的AI应用层面仍然过于单点化,而完成局部性的串联将成为实现决策智能的第一步。人工智能的软件类应用将包括从底层的驱动程序,到上层的应用程序、算法框架,从面向商业(制造、金融、物流、零售、地产等),到人(元宇宙、医疗、人形机器人等)、自动驾驶等领域:

商业:在过去几年,我们看到主流的软件SaaS厂商均在其产品中融入AI能力,和具体应用场景深度融合。同时,AI能力的融入也成为软件厂商提价、吸引客户向高阶产品切换的重要手段,比如微软在office产品中借助AI实现文本语法自动纠错、文本翻译等,ZOOM借助AI技术实现同声传译、语音文字转录,Salesforce在CRM产品中借助AI帮助客户更为准确地识别潜在客户、转化客户等。展望未来,我们相信软件厂商提供的AI能力将实现由单点智能向全局智能、由认知智能向决策智能的跨越,比如我们已经看到部分流程挖掘厂商在通过对于底层日志数据的机器学习对上层可优化的业务流程进行改进,从而实现由流程挖掘到流程自动化的闭环;我们也看到领先的IT运维厂商在通过对海量IT监控指标的机器学习,从而对IT性能问题实现主动式、预测性的运维,保证整个IT堆栈的稳定运行。

元宇宙:过去20年,互联网改变人类生活,将人和人的交流数字化;未来20年乃至更久,元宇宙将把人与社会的关系数字化。元宇宙中,人机交互水平达到或超越人和人的交互体验,从“社会关系的数字化”到“人与世界的关系数字化”。过去20年,互联网把现实世界中人和人的关系数字化到网络上,在线聊天、电商、视频会议等,都是人和人的社会关系被数字化;未来20年,在元宇宙的世界中,我们将与更聪明的AI或机器人更频繁地互动,互动体验有机会达到或超越人和人的交互体验。同样,我们认为,这种人机交互将不只发生在网络上,也有可能发生在物理世界中,类似于科幻作品中的仿生机器人。无论虚拟世界还是物理世界,现有的认知智能是无法满足元宇宙时代的人机交互需求的,仍需硬件、算力、算法、数据等要素持续迭代升级,进而实现更为理想的交互体验。

自动驾驶:近五年来,卷积神经网络算法(CNN)的推广大大提高了AI处理图像识别任务与依托于庞大训练数据的智能决策系统的准确性。在自动驾驶领域,基础算法的突破首次为图像处理类任务提供了可商业化的前景。在接下来的3-5年,我们将看到更多学术界的新兴人工智能模型应用于自动驾驶任务,如目前广泛用于NLP的Transformer模型。近两年学术界有多项工作在图像处理任务中尝试用Transformer模型代替CNN模型(Ramachandran等人,2020;Wang等人,2020a)。此前这类模型虽然在理论上很高效,但由于使用了专门的注意力模式,在现代硬件加速器上还没有得到有效的扩展。而英伟达即将推出的下一代Hopper架构将专门为Transformer模型优化,为其在自动驾驶图像处理任务的应用提供硬件支持。具体方案进展方面,随着特斯拉、小鹏汽车等造车新势力的商业化进程持续推进,L3技术未来几年处于快速导入期,有望由2019年的0.8%提升至2025年的10.0%。而L4、L5技术仍处于试验、封闭或半封闭园区运营阶段(如:百度、滴滴沃芽、文远知行等公司先后在上海、广州、长沙、北京等地区特定场所提供Robotaxi服务;图森未来在美国高度公路开始了无人驾驶货车配送;Waymo在美国开始提供Robo-taxi和无人驾驶货车配送等服务)。据亿欧智库数据显示,未来3年左右,高级别自动驾驶技术有望在封闭式&半封闭式环境中实现试点运营和小规模商业化应用;未来5-10年后,高级别自动驾驶技术有望在开放式环境中(如RoboTaxi)实现商业化应用。

未来随着自动驾驶级别的提高,智能汽车对车载计算平台的算力要求也逐步提高,目前DPU化的自动驾驶芯片解决方案将带给我们更多可能。地平线数据显示,L4级别的车载计算平台计算能力将达320TOPs、L5级别的车载计算平台算力将超过4000TOPs。罗兰贝格数据显示,随着智能汽车渗透率的提高&计算平台算力的提高,其市场规模有望从2017年的11亿美元提升至2025年的795亿美元(CAGR=70.1%)。同时2020年以来,受新冠疫情影响,市场催生出对无人配送、非接触式配送、无人驾驶环卫车的刚性需求。海内外公司如NuroAI、智行者科技、小马智行、ArgoAI利用无人驾驶技术为居民或医院提供无人驾驶配送服务或无人消毒服务,在很大程度上加速了无人驾驶技术的普及与落地。(报告来源:未来智库)

投资分析

全球AI产业集群效应逐步凸显。目前在全球范围内,无论是在二级市场,还是在一级市场,均有大量的、分布于AI各产业环节的相关公司出现和壮大,并相应吸引大量投资者的参与,包括海外的英伟达、高通、Palantir、C3.AI,以及国内的商汤、格灵深瞳等,产业集群效应不断凸显。

1)一级市场:据第三方数据统计,2021年中国人工智能领域一级市场融资事件1132起,融资金额共3996.4亿元,同比2020年增长48.2%。2021年中国新成立人工智能企业57家,远低于2017年的1057家;单笔融资金额2021年为3.53亿元,同比增长16%,说明2015年至2017年时段成立的中国人工智能企业已经逐渐迈向成熟期。2018年至2020年间,一级市场融资方向以企业服务、金融、汽车为主流,2020年融资金额共占到全部融资事件的38%。

近几年来国内一级市场涌现了大量自研DPU与GPU的一级市场公司,以外购IP加自研模块的商业模式为主。相比于完全自研IP的模式,这种外购IP结合自研的模式类似于华为与苹果曾经的发展路径:通过外购IP迅速流片出成品有利于快速回收资金补贴研发费用,并在后续的研发过程中逐步加入自研技术,与外部同IP产品形成竞争优势。

2)二级市场:目前在芯片、算力设施、算法框架、应用等环节,中美市场均有大量的上市公司存在,包括我们熟知的英伟达、高通、百度等,以及近期新上市,以及后续有望登陆资本市场的大量新兴AI企业,包括国内的商汤、云从等,以及海外的Palantir、C3.AI、图森未来等,市场对该板块的关注度不断提升。

(本文仅供参考,不代表我们的任何投资建议。如需使用相关信息,请参阅报告原文。)

精选报告来源:【未来智库】。

版权声明:本文内容由互联网用户自发贡献,该文观点仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌抄袭侵权/违法违规的内容,一经查实,本站将立刻删除。

上一篇

下一篇