清华发布《人工智能AI芯片研究报告》,一文读懂人才技术趋势
来源:Future智能
摘要:大数据产业的爆炸性增长下,AI芯片作为人工智能时代的技术核心之一,决定了平台的基础架构和发展生态。
近日,清华大学推出了《人工智能芯片研究报告》,全面讲解人工智能芯片,系统梳理人工智能芯片的发展现状及趋势。。
一、基本知识及现状
从广义上讲只要能够运行人工智能算法的芯片都叫作AI芯片。但是通常意义上的AI芯片指的是针对人工智能算法做了特殊加速设计的芯片,现阶段,这些人工智能算法一般以深度学习算法为主,也可以包括其它机器学习算法。
深度学习算法,通常是基于接收到的连续数值,通过学习处理,并输出连续数值的过程,实质上并不能完全模仿生物大脑的运作机制。基于这一现实,研究界还提出了SNN(SpikingNeuralNetwork,脉冲神经网络)模型。作为第三代神经网络模型,SNN更贴近生物神经网络——除了神经元和突触模型更贴近生物神经元与突触之外,SNN还将时域信息引入了计算模型。目前基于SNN的AI芯片主要以IBM的TrueNorth、Intel的Loihi以及国内的清华大学天机芯为代表。
1、AI芯片发展历程
从图灵的论文《计算机器与智能》和图灵测试,到最初级的神经元模拟单元——感知机,再到现在多达上百层的深度神经网络,人类对人工智能的探索从来就没有停止过。上世纪八十年代,多层神经网络和反向传播算法的出现给人工智能行业点燃了新的火花。反向传播的主要创新在于能将信息输出和目标输出之间的误差通过多层网络往前一级迭代反馈,将最终的输出收敛到某一个目标范围之内。1989年贝尔实验室成功利用反向传播算法,在多层神经网络开发了一个手写邮编识别器。1998年YannLeCun和YoshuaBengio发表了手写识别神经网络和反向传播优化相关的论文《Gradient-basedlearningappliedtodocumentrecognition》,开创了卷积神经网络的时代。
此后,人工智能陷入了长时间的发展沉寂阶段,直到1997年IBM的深蓝战胜国际象棋大师和2011年IBM的沃森智能系统在Jeopardy节目中胜出,人工智能才又一次为人们所关注。2016年AlphaGo击败韩国围棋九段职业选手,则标志着人工智能的又一波高潮。从基础算法、底层硬件、工具框架到实际应用场景,现阶段的人工智能领域已经全面开花。
作为人工智能核心的底层硬件AI芯片,也同样经历了多次的起伏和波折,总体看来,AI芯片的发展前后经历了四次大的变化,其发展历程如图所示。
(1)2007年以前,AI芯片产业一直没有发展成为成熟的产业;同时由于当时算法、数据量等因素,这个阶段AI芯片并没有特别强烈的市场需求,通用的CPU芯片即可满足应用需要。
(2)随着高清视频、VR、AR游戏等行业的发展,GPU产品取得快速的突破;同时人们发现GPU的并行计算特性恰好适应人工智能算法及大数据并行计算的需求,如GPU比之前传统的CPU在深度学习算法的运算上可以提高几十倍的效率,因此开始尝试使用GPU进行人工智能计算。
(3)进入2010年后,云计算广泛推广,人工智能的研究人员可以通过云计算借助大量CPU和GPU进行混合运算,进一步推进了AI芯片的深入应用,从而催生了各类AI芯片的研发与应用。
(4)人工智能对于计算能力的要求不断快速地提升,进入2015年后,GPU性能功耗比不高的特点使其在工作适用场合受到多种限制,业界开始研发针对人工智能的专用芯片,以期通过更好的硬件和芯片架构,在计算效率、能耗比等性能上得到进一步提升。
2、我国AI芯片发展情况
目前,我国的人工智能芯片行业发展尚处于起步阶段。长期以来,中国在CPU、GPU、DSP处理器设计上一直处于追赶地位,绝大部分芯片设计企业依靠国外的IP核设计芯片,在自主创新上受到了极大的限制。然而,人工智能的兴起,无疑为中国在处理器领域实现弯道超车提供了绝佳的机遇。
人工智能领域的应用目前还处于面向行业应用阶段,生态上尚未形成垄断,国产处理器厂商与国外竞争对手在人工智能这一全新赛场上处在同一起跑线上,因此,基于新兴技术和应用市场,中国在建立人工智能生态圈方面将大有可为。
由于我国特殊的环境和市场,国内AI芯片的发展目前呈现出百花齐放、百家争鸣的态势,AI芯片的应用领域也遍布股票交易、金融、商品推荐、安防、早教机器人以及无人驾驶等众多领域,催生了大量的人工智能芯片创业公司,如地平线、深鉴科技、中科寒武纪等。
尽管如此,国内公司却并未如国外大公司一样形成市场规模,反而出现各自为政的散裂发展现状。除了新兴创业公司,国内研究机构如北京大学、清华大学、中国科学院等在AI芯片领域都有深入研究;而其他公司如百度和比特大陆等,2017年也有一些成果发布。可以预见,未来谁先在人工智能领域掌握了生态系统,谁就掌握住了这个产业的主动权。
3、AI学者概况
基于来自清华大学AMiner人才库数据,全球人工智能芯片领域学者分布如图所示,从图中可以看到,人工智能芯片领域的学者主要分布在北美洲,其次是欧洲。中国对人工智能芯片的研究紧跟其后,南美洲、非洲和大洋洲人才相对比较匮乏。
按国家进行统计来看美国是人工智能芯片领域科技发展的核心。英国的人数紧排在美国之后。其他的专家主要分布在中国、德国、加拿大、意大利和日本。
对全球人工智能芯片领域最具影响力的1000人的迁徙路径进行了统计分析,得出下图所示的各国人才逆顺差对比。
可以看出,各国人才的流失和引进是相对比较均衡的,其中美国为人才流动大国,人才输入和输出幅度都大幅度领先。英国、中国、德国和瑞士等国次于美国,但各国之间人才流动相差并不明显。
二、AI芯片的分类及技术
人工智能芯片目前有两种发展路径:一种是延续传统计算架构,加速硬件计算能力,主要以3种类型的芯片为代表,即GPU、FPGA、ASIC,但CPU依旧发挥着不可替代的作用;另一种是颠覆经典的冯·诺依曼计算架构,采用类脑神经结构来提升计算能力,以IBMTrueNorth芯片为代表。
1、传统的CPU
计算机工业从1960年代早期开始使用CPU这个术语。迄今为止,CPU从形态、设计到实现都已发生了巨大的变化,但是其基本工作原理却一直没有大的改变。通常CPU由控制器和运算器这两个主要部件组成。传统的CPU内部结构图如图3所示,从图中我们可以看到:实质上仅单独的ALU模块(逻辑运算单元)是用来完成数据计算的,其他各个模块的存在都是为了保证指令能够一条接一条的有序执行。这种通用性结构对于传统的编程计算模式非常适合,同时可以通过提升CPU主频(提升单位时间内执行指令的条数)来提升计算速度。
但对于深度学习中的并不需要太多的程序指令、却需要海量数据运算的计算需求,这种结构就显得有些力不从心。尤其是在功耗限制下,无法通过无限制的提升CPU和内存的工作频率来加快指令执行速度,这种情况导致CPU系统的发展遇到不可逾越的瓶颈。
2、并行加速计算的GPU
GPU作为最早从事并行加速计算的处理器,相比CPU速度快,同时比其他加速器芯片编程灵活简单。
传统的CPU之所以不适合人工智能算法的执行,主要原因在于其计算指令遵循串行执行的方式,没能发挥出芯片的全部潜力。与之不同的是,GPU具有高并行结构,在处理图形数据和复杂算法方面拥有比CPU更高的效率。对比GPU和CPU在结构上的差异,CPU大部分面积为控制器和寄存器,而GPU拥有更ALU(ARITHMETICLOGICUNIT,逻辑运算单元)用于数据处理,这样的结构适合对密集型数据进行并行处理,CPU与GPU的结构对比如图所示。程序在GPU系统上的运行速度相较于单核CPU往往提升几十倍乃至上千倍。随着英伟达、AMD等公司不断推进其对GPU大规模并行架构的支持,面向通用计算的GPU(即GPGPU,GENERALPURPOSEGPU,通用计算图形处理器)已成为加速可并行应用程序的重要手段。
GPU的发展历程可分为3个阶段,发展历程如图所示:
第一代GPU(1999年以前),部分功能从CPU分离,实现硬件加速,以GE(GEOMETRYENGINE)为代表,只能起到3D图像处理的加速作用,不具有软件编程特性。
第二代GPU(1999-2005年),实现进一步的硬件加速和有限的编程性。1999年,英伟达发布了“专为执行复杂的数学和几何计算的”GeForce256图像处理芯片,将更多的晶体管用作执行单元,而不是像CPU那样用作复杂的控制单元和缓存,将T&L(TRANSFORMANDLIGHTING)等功能从CPU分离出来,实现了快速变换,这成为GPU真正出现的标志。之后几年,GPU技术快速发展,运算速度迅速超过CPU。2001年英伟达和ATI分别推出的GEFORCE3和RADEON8500,图形硬件的流水线被定义为流处理器,出现了顶点级可编程性,同时像素级也具有有限的编程性,但GPU的整体编程性仍然比较有限。
第三代GPU(2006年以后),GPU实现方便的编程环境创建,可以直接编写程序。2006年英伟达与ATI分别推出了CUDA(ComputeUnitedDeviceArchitecture,计算统一设备架构)编程环境和CTM(CLOSETOTHEMETAL)编程环境,使得GPU打破图形语言的局限成为真正的并行数据处理超级加速器。
2008年,苹果公司提出一个通用的并行计算编程平台OPENCL(OPENCOMPUTINGLANGUAGE,开放运算语言),与CUDA绑定在英伟达的显卡上不同,OPENCL和具体的计算设备无关。
目前,GPU已经发展到较为成熟的阶段。谷歌、FACEBOOK、微软、TWITTER和百度等公司都在使用GPU分析图片、视频和音频文件,以改进搜索和图像标签等应用功能。此外,很多汽车生产商也在使用GPU芯片发展无人驾驶。不仅如此,GPU也被应用于VR/AR相关的产业。
但是GPU也有一定的局限性。深度学习算法分为训练和推断两部分,GPU平台在算法训练上非常高效。但在推断中对于单项输入进行处理的时候,并行计算的优势不能完全发挥出来。
3、半定制化的FPGA
FPGA是在PAL、GAL、CPLD等可编程器件基础上进一步发展的产物。用户可以通过烧入FPGA配置文件来定义这些门电路以及存储器之间的连线。这种烧入不是一次性的,比如用户可以把FPGA配置成一个微控制器MCU,使用完毕后可以编辑配置文件把同一个FPGA配置成一个音频编解码器。因此,它既解决了定制电路灵活性的不足,又克服了原有可编程器件门电路数有限的缺点。
FPGA可同时进行数据并行和任务并行计算,在处理特定应用时有更加明显的效率提升。对于某个特定运算,通用CPU可能需要多个时钟周期;而FPGA可以通过编程重组电路,直接生成专用电路,仅消耗少量甚至一次时钟周期就可完成运算。
此外,由于FPGA的灵活性,很多使用通用处理器或ASIC难以实现的底层硬件控制操作技术,利用FPGA可以很方便的实现。这个特性为算法的功能实现和优化留出了更大空间。同时FPGA一次性成本(光刻掩模制作成本)远低于ASIC,在芯片需求还未成规模、深度学习算法暂未稳定,需要不断迭代改进的情况下,利用FPGA芯片具备可重构的特性来实现半定制的人工智能芯片是最佳选择之一。
功耗方面,从体系结构而言,FPGA也具有天生的优势。传统的冯氏结构中,执行单元(如CPU核)执行任意指令,都需要有指令存储器、译码器、各种指令的运算器及分支跳转处理逻辑参与运行,而FPGA每个逻辑单元的功能在重编程(即烧入)时就已经确定,不需要指令,无需共享内存,从而可以极大的降低单位执行的功耗,提高整体的能耗比。
由于FPGA具备灵活快速的特点,因此在众多领域都有替代ASIC的趋势。FPGA在人工智能领域的应用如图所示。
4、全定制化的ASIC
目前以深度学习为代表的人工智能计算需求,主要采用GPU、FPGA等已有的适合并行计算的通用芯片来实现加速。在产业应用没有大规模兴起之时,使用这类已有的通用芯片可以避免专门研发定制芯片(ASIC)的高投入和高风险。但是,由于这类通用芯片设计初衷并非专门针对深度学习,因而天然存在性能、功耗等方面的局限性。随着人工智能应用规模的扩大,这类问题日益突显。
GPU作为图像处理器,设计初衷是为了应对图像处理中的大规模并行计算。因此,在应用于深度学习算法时,有三个方面的局限性:
第一,应用过程中无法充分发挥并行计算优势。深度学习包含训练和推断两个计算环节,GPU在深度学习算法训练上非常高效,但对于单一输入进行推断的场合,并行度的优势不能完全发挥。
第二,无法灵活配置硬件结构。GPU采用SIMT计算模式,硬件结构相对固定。
目前深度学习算法还未完全稳定,若深度学习算法发生大的变化,GPU无法像FPGA一样可以灵活的配制硬件结构。第三,运行深度学习算法能效低于FPGA。
尽管FPGA倍受看好,甚至新一代百度大脑也是基于FPGA平台研发,但其毕竟不是专门为了适用深度学习算法而研发,实际应用中也存在诸多局限:
第一,基本单元的计算能力有限。为了实现可重构特性,FPGA内部有大量极细粒度的基本单元,但是每个单元的计算能力(主要依靠LUT查找表)都远远低于CPU和GPU中的ALU模块;
第二、计算资源占比相对较低。为实现可重构特性,FPGA内部大量资源被用于可配置的片上路由与连线;
第三,速度和功耗相对专用定制芯片(ASIC)仍然存在不小差距;
第四,FPGA价格较为昂贵,在规模放量的情况下单块FPGA的成本要远高于专用定制芯片。
因此,随着人工智能算法和应用技术的日益发展,以及人工智能专用芯片ASIC产业环境的逐渐成熟,全定制化人工智能ASIC也逐步体现出自身的优势,从事此类芯片研发与应用的国内外比较有代表性的公司如图所示。
深度学习算法稳定后,AI芯片可采用ASIC设计方法进行全定制,使性能、功耗和面积等指标面向深度学习算法做到最优。
5、类脑芯片
类脑芯片不采用经典的冯·诺依曼架构,而是基于神经形态架构设计,以IBMTruenorth为代表。IBM研究人员将存储单元作为突触、计算单元作为神经元、传输单元作为轴突搭建了神经芯片的原型。
目前,Truenorth用三星28nm功耗工艺技术,由54亿个晶体管组成的芯片构成的片上网络有4096个神经突触核心,实时作业功耗仅为70mW。由于神经突触要求权重可变且要有记忆功能,IBM采用与CMOS工艺兼容的相变非挥发存储器(PCM)的技术实验性的实现了新型突触,加快了商业化进程。
三、AI芯片产业及趋势
1、AI芯片应用领域
随着人工智能芯片的持续发展,应用领域会随时间推移而不断向多维方向发展,这里我们选择目前发展比较集中的几个行业做相关的介绍。
AI芯片目前比较集中的应用领域
(1)智能手机
2017年9月,华为在德国柏林消费电子展发布了麒麟970芯片,该芯片搭载了寒武纪的NPU,成为“全球首款智能手机移动端AI芯片”;2017年10月中旬Mate10系列新品(该系列手机的处理器为麒麟970)上市。搭载了NPU的华为Mate10系列智能手机具备了较强的深度学习、本地端推断能力,让各类基于深度神经网络的摄影、图像处理应用能够为用户提供更加完美的体验。
而苹果发布以iPhoneX为代表的手机及它们内置的A11Bionic芯片。A11Bionic中自主研发的双核架构NeuralEngine(神经网络处理引擎),它每秒处理相应神经网络计算需求的次数可达6000亿次。这个NeuralEngine的出现,让A11Bionic成为一块真正的AI芯片。A11Bionic大大提升了iPhoneX在拍照方面的使用体验,并提供了一些富有创意的新用法。
(2)ADAS(高级辅助驾驶系统)
ADAS是最吸引大众眼球的人工智能应用之一,它需要处理海量的由激光雷达、毫米波雷达、摄像头等传感器采集的实时数据。相对于传统的车辆控制方法,智能控制方法主要体现在对控制对象模型的运用和综合信息学习运用上,包括神经网络控制和深度学习方法等,得益于AI芯片的飞速发展,这些算法已逐步在车辆控制中得到应用。
(3)CV(计算机视觉(ComputerVision)设备
需要使用计算机视觉技术的设备,如智能摄像头、无人机、行车记录仪、人脸识别迎宾机器人以及智能手写板等设备,往往都具有本地端推断的需要,如果仅能在联网下工作,无疑将带来糟糕的体验。而计算机视觉技术目前看来将会成为人工智能应用的沃土之一,计算机视觉芯片将拥有广阔的市场前景。
(4)VR设备
VR设备芯片的代表为HPU芯片,是微软为自身VR设备Hololens研发定制的。这颗由台积电代工的芯片能同时处理来自5个摄像头、1个深度传感器以及运动传感器的数据,并具备计算机视觉的矩阵运算和CNN运算的加速功能。这使得VR设备可重建高质量的人像3D影像,并实时传送到任何地方。
(5)语音交互设备
语音交互设备芯片方面,国内有启英泰伦以及云知声两家公司,其提供的芯片方案均内置了为语音识别而优化的深度神经网络加速方案,实现设备的语音离线识别。稳定的识别能力为语音技术的落地提供了可能;与此同时,语音交互的核心环节也取得重大突破。语音识别环节突破了单点能力,从远场识别,到语音分析和语义理解有了重大突破,呈现出一种整体的交互方案。
(6)机器人
无论是家居机器人还是商用服务机器人均需要专用软件+芯片的人工智能解决方案,这方面典型公司有由前百度深度学习实验室负责人余凯创办的地平线机器人,当然地平线机器人除此之外,还提供ADAS、智能家居等其他嵌入式人工智能解决方案。
2、AI芯片国内外代表性企业
本篇将介绍目前人工智能芯片技术领域的国内外代表性企业。文中排名不分先后。人工智能芯片技术领域的国内代表性企业包括中科寒武纪、中星微、地平线机器人、深鉴科技、灵汐科技、启英泰伦、百度、华为等,国外包括英伟达、AMD、Google、高通、NervanaSystems、Movidius、IBM、ARM、CEVA、MIT/Eyeriss、苹果、三星等。
中科寒武纪
寒武纪科技成立于2016年,总部在北京,创始人是中科院计算所的陈天石、陈云霁兄弟,公司致力于打造各类智能云服务器、智能终端以及智能机器人的核心处理器芯片。阿里巴巴创投、联想创投、国科投资、中科图灵、元禾原点、涌铧投资联合投资,为全球AI芯片领域第一个独角兽初创公司。
寒武纪是全球第一个成功流片并拥有成熟产品的AI芯片公司,拥有终端AI处理器IP和云端高性能AI芯片两条产品线。2016年发布的寒武纪1A处理器(Cambricon-1A)是世界首款商用深度学习专用处理器,面向智能手机、安防监控、无人机、可穿戴设备以及智能驾驶等各类终端设备,在运行主流智能算法时性能功耗比全面超越传统处理器。
中星微
1999年,由多位来自硅谷的博士企业家在北京中关村科技园区创建了中星微电子有限公司,启动并承担了国家战略项目——“星光中国芯工程”,致力于数字多媒体芯片的开发、设计和产业化。
2016年初,中星微推出了全球首款集成了神经网络处理器(NPU)的SVAC视频编解码SoC,使得智能分析结果可以与视频数据同时编码,形成结构化的视频码流。该技术被广泛应用于视频监控摄像头,开启了安防监控智能化的新时代。自主设计的嵌入式神经网络处理器(NPU)采用了“数据驱动并行计算”架构,专门针对深度学习算法进行了优化,具备高性能、低功耗、高集成度、小尺寸等特点,特别适合物联网前端智能的需求。
地平线机器人(HorizonRobotics)
地平线机器人成立于2015年,总部在北京,创始人是前百度深度学习研究院负责人余凯。BPU(BrainProcessingUnit)是地平线机器人自主设计研发的高效人工智能处理器架构IP,支持ARM/GPU/FPGA/ASIC实现,专注于自动驾驶、人脸图像辨识等专用领域。
2017年,地平线发布基于高斯架构的嵌入式人工智能解决方案,将在智能驾驶、智能生活、公共安防三个领域进行应用,第一代BPU芯片“盘古”目前已进入流片阶段,预计在2018年下半年推出,能支持1080P的高清图像输入,每秒钟处理30帧,检测跟踪数百个目标。地平线的第一代BPU采用TSMC的40nm工艺,相对于传统CPU/GPU,能效可以提升2~3个数量级(100~1,000倍左右)。
深鉴科技
深鉴科技成立于2016年,总部在北京。由清华大学与斯坦福大学的世界顶尖深度学习硬件研究者创立。深鉴科技于2018年7月被赛灵思收购。深鉴科技将其开发的基于FPGA的神经网络处理器称为DPU。
到目前为止,深鉴公开发布了两款DPU:亚里士多德架构和笛卡尔架构,其中,亚里士多德架构是针对卷积神经网络CNN而设计;笛卡尔架构专为处理DNN/RNN网络而设计,可对经过结构压缩后的稀疏神经网络进行极致高效的硬件加速。相对于IntelXeonCPU与NvidiaTitanXGPU,应用笛卡尔架构的处理器在计算速度上分别提高189倍与13倍,具有24,000倍与3,000倍的更高能效。
灵汐科技
灵汐科技于2018年1月在北京成立,联合创始人包括清华大学的世界顶尖类脑计算研究者。
公司致力于新一代神经网络处理器(Tianjic)开发,特点在于既能够高效支撑现有流行的机器学习算法(包括CNN,MLP,LSTM等网络架构),也能够支撑更仿脑的、更具成长潜力的脉冲神经网络算法;使芯片具有高计算力、高多任务并行度和较低功耗等优点。软件工具链方面支持由Caffe、TensorFlow等算法平台直接进行神经网络的映射编译,开发友善的用户交互界面。Tianjic可用于云端计算和终端应用场景,助力人工智能的落地和推广。
启英泰伦
启英泰伦于2015年11月在成都成立,是一家语音识别芯片研发商。启英泰伦的CI1006是基于ASIC架构的人工智能语音识别芯片,包含了脑神经网络处理硬件单元,能够完美支持DNN运算架构,进行高性能的数据并行计算,可极大的提高人工智能深度学习语音技术对大量数据的处理效率。
百度
百度2017年8月HotChips大会上发布了XPU,这是一款256核、基于FPGA的云计算加速芯片。合作伙伴是赛思灵(Xilinx)。XPU采用新一代AI处理架构,拥有GPU的通用性和FPGA的高效率和低能耗,对百度的深度学习平台PaddlePaddle做了高度的优化和加速。据介绍,XPU关注计算密集型、基于规则的多样化计算任务,希望提高效率和性能,并带来类似CPU的灵活性。
华为
麒麟970搭载的神经网络处理器NPU采用了寒武纪IP,如图12所示。麒麟970采用了TSMC10nm工艺制程,拥有55亿个晶体管,功耗相比上一代芯片降低20%。CPU架构方面为4核A73+4核A53组成8核心,能耗同比上一代芯片得到20%的提升;GPU方面采用了12核MaliG72MP12GPU,在图形处理以及能效两项关键指标方面分别提升20%和50%;NPU采用HiAI移动计算架构,在FP16下提供的运算性能可以达到1.92TFLOPs,相比四个Cortex-A73核心,处理同样的AI任务,有大约具备50倍能效和25倍性能优势。
英伟达(Nvidia)
英伟达创立于1993年,总部位于美国加利福尼亚州圣克拉拉市。早在1999年,英伟达发明了GPU,重新定义了现代计算机图形技术,彻底改变了并行计算。深度学习对计算速度有非常苛刻的要求,而英伟达的GPU芯片可以让大量处理器并行运算,速度比CPU快十倍甚至几十倍,因而成为绝大部分人工智能研究者和开发者的首选。自从GoogleBrain采用1.6万个GPU核训练DNN模型,并在语音和图像识别等领域获得巨大成功以来,英伟达已成为AI芯片市场中无可争议的领导者。
AMD
美国AMD半导体公司专门为计算机、通信和消费电子行业设计和制造各种创新的微处理器(CPU、GPU、APU、主板芯片组、电视卡芯片等),以及提供闪存和低功率处理器解决方案,公司成立于1969年。AMD致力为技术用户——从企业、政府机构到个人消费者——提供基于标准的、以客户为中心的解决方案。
2017年12月Intel和AMD宣布将联手推出一款结合英特尔处理器和AMD图形单元的笔记本电脑芯片。目前AMD拥有针对AI和机器学习的高性能RadeonInstinc加速卡,开放式软件平台ROCm等。
Google在2016年宣布独立开发一种名为TPU的全新的处理系统。TPU是专门为机器学习应用而设计的专用芯片。通过降低芯片的计算精度,减少实现每个计算操作所需晶体管数量的方式,让芯片的每秒运行的操作个数更高,这样经过精细调优的机器学习模型就能在芯片上运行得更快,进而更快地让用户得到更智能的结果。
在2016年3月打败了李世石和2017年5月打败了柯杰的阿尔法狗,就是采用了谷歌的TPU系列芯片。
GoogleI/O-2018开发者大会期间,正式发布了第三代人工智能学习专用处理器TPU3.0。TPU3.0采用8位低精度计算以节省晶体管数量,对精度影响很小但可以大幅节约功耗、加快速度,同时还有脉动阵列设计,优化矩阵乘法与卷积运算,并使用更大的片上内存,减少对系统内存的依赖。速度能加快到最高100PFlops(每秒1000万亿次浮点计算)。
高通
在智能手机芯片市场占据绝对优势的高通公司,也在人工智能芯片方面积极布局。据高通提供的资料显示,其在人工智能方面已投资了Clarifai公司和中国“专注于物联网人工智能服务”的云知声。而早在2015年CES上,高通就已推出了一款搭载骁龙SoC的飞行机器人——SnapdragonCargo。
高通认为在工业、农业的监测以及航拍对拍照、摄像以及视频新需求上,公司恰好可以发挥其在计算机视觉领域的能力。此外,高通的骁龙820芯片也被应用于VR头盔中。事实上,高通已经在研发可以在本地完成深度学习的移动端设备芯片。
NervanaSystems
Nervana创立于2014年,公司推出的TheNervanaEngine是一个为深度学习专门定制和优化的ASIC芯片。这个方案的实现得益于一项叫做HighBandwidthMemory的新型内存技术,这项技术同时拥有高容量和高速度,提供32GB的片上储存和8TB每秒的内存访问速度。该公司目前提供一个人工智能服务“inthecloud”,他们声称这是世界上最快的且目前已被金融服务机构、医疗保健提供者和政府机构所使用的服务。他们的新型芯片将会保证Nervana云平台在未来的几年内仍保持最快的速度。
Movidius(被Intel收购)
2016年9月,Intel发表声明收购了Movidius。Movidius专注于研发高性能视觉处理芯片。其最新一代的Myriad2视觉处理器主要由SPARC处理器作为主控制器,加上专门的DSP处理器和硬件加速电路来处理专门的视觉和图像信号。这是一款以DSP架构为基础的视觉处理器,在视觉相关的应用领域有极高的能耗比,可以将视觉计算普及到几乎所有的嵌入式系统中。
该芯片已被大量应用在Google3D项目的Tango手机、大疆无人机、FLIR智能红外摄像机、海康深眸系列摄像机、华睿智能工业相机等产品中。
IBM
IBM很早以前就发布过watson,投入了很多的实际应用。除此之外,还启动了类脑芯片的研发,即TrueNorth。TrueNorth是IBM参与DARPA的研究项目SyNapse的最新成果。
SyNapse全称是SystemsofNeuromorphicAdaptivePlasticScalableElectronics(自适应可塑可伸缩电子神经系统,而SyNapse正好是突触的意思),其终极目标是开发出打破冯·诺依曼体系结构的计算机体系结构。
ARM
ARM推出全新芯片架构DynamIQ,通过这项技术,AI芯片的性能有望在未来三到五年内提升50倍。
ARM的新CPU架构将会通过为不同部分配置软件的方式将多个处理核心集聚在一起,这其中包括一个专门为AI算法设计的处理器。芯片厂商将可以为新处理器配置最多8个核心。同时为了能让主流AI在自己的处理器上更好地运行,ARM还将推出一系列软件库。
CEVA
CEVA是专注于DSP的IP供应商,拥有众多的产品线。其中,图像和计算机视觉DSP产品CEVA-XM4是第一个支持深度学习的可编程DSP,而其发布的新一代型号CEVA-XM6,具有更优的性能、更强大的计算能力以及更低的能耗。CEVA指出,智能手机、汽车、安全和商业应用,如无人机、自动化将是其业务开展的主要目标。
MIT/Eyeriss
Eyeriss事实上是MIT的一个项目,还不是一个公司,从长远来看,如果进展顺利,很可能孵化出一个新的公司。Eyeriss是一个高效能的深度卷积神经网络(CNN)加速器硬件,该芯片内建168个核心,专门用来部署神经网路(neuralnetwork),效能为一般GPU的10倍。其技术关键在于最小化GPU核心和记忆体之间交换数据的频率(此运作过程通常会消耗大量的时间与能量):一般GPU内的核心通常共享单一记忆体,但Eyeriss的每个核心拥有属于自己的记忆体。
目前,Eyeriss主要定位在人脸识别和语音识别,可应用在智能手机、穿戴式设备、机器人、自动驾驶车与其他物联网应用装置上。
苹果
在iPhone8和iPhoneX的发布会上,苹果明确表示其中所使用的A11处理器集成了一个专用于机器学习的硬件——“神经网络引擎(NeuralEngine)”,每秒运算次数最高可达6000亿次。这块芯片将能够改进苹果设备在处理需要人工智能的任务时的表现,比如面部识别和语音识别等。
三星
2017年,华为海思推出了麒麟970芯片,据知情人士透露,为了对标华为,三星已经研发了许多种类的人工智能芯片。三星计划在未来三年内新上市的智能手机中都采用人工智能芯片,并且他们还将为人工智能设备建立新的组件业务。三星还投资了Graphcore、深鉴科技等人工智能芯片企业。
3、技术趋势
目前主流AI芯片的核心主要是利用MAC(MultiplierandAccumulation,乘加计算)加速阵列来实现对CNN(卷积神经网络)中最主要的卷积运算的加速。这一代AI芯片主要有如下3个方面的问题。
(1)深度学习计算所需数据量巨大,造成内存带宽成为整个系统的瓶颈,即所谓“memorywall”问题。
(2)与第一个问题相关,内存大量访问和MAC阵列的大量运算,造成AI芯片整体功耗的增加。
(3)深度学习对算力要求很高,要提升算力,最好的方法是做硬件加速,但是同时深度学习算法的发展也是日新月异,新的算法可能在已经固化的硬件加速器上无法得到很好的支持,即性能和灵活度之间的平衡问题。
因此,可以预见下一代AI芯片将有如下的五个发展趋势。
(1)更高效的大卷积解构/复用
在标准SIMD的基础上,CNN由于其特殊的复用机制,可以进一步减少总线上的数据通信。而复用这一概念,在超大型神经网络中就显得格外重要。如何合理地分解、映射这些超大卷积到有效的硬件上成为了一个值得研究的方向,
(2)更低的Inference计算/存储位宽
AI芯片最大的演进方向之一可能就是神经网络参数/计算位宽的迅速减少——从32位浮点到16位浮点/定点、8位定点,甚至是4位定点。在理论计算领域,2位甚至1位参数位宽,都已经逐渐进入实践领域。
(3)更多样的存储器定制设计
当计算部件不再成为神经网络加速器的设计瓶颈时,如何减少存储器的访问延时将会成为下一个研究方向。通常,离计算越近的存储器速度越快,每字节的成本也越高,同时容量也越受限,因此新型的存储结构也将应运而生。
(4)更稀疏的大规模向量实现
神经网络虽然大,但是,实际上有很多以零为输入的情况,此时稀疏计算可以高效的减少无用能效。来自哈佛大学的团队就该问题提出了优化的五级流水线结,在最后一级输出了触发信号。在Activation层后对下一次计算的必要性进行预先判断,如果发现这是一个稀疏节点,则触发SKIP信号,避免乘法运算的功耗,以达到减少无用功耗的目的。
(5)计算和存储一体化
计算和存储一体化(process-in-memory)技术,其要点是通过使用新型非易失性存储(如ReRAM)器件,在存储阵列里面加上神经网络计算功能,从而省去数据搬移操作,即实现了计算存储一体化的神经网络处理,在功耗性能方面可以获得显著提升。
结尾:
近几年,AI技术不断取得突破性进展。作为AI技术的重要物理基础,AI芯片拥有巨大的产业价值和战略地位。
但从大趋势来看,目前尚处于AI芯片发展的初级阶段,无论是科研还是产业应用都有巨大的创新空间。
现在不仅英伟达、谷歌等国际巨头相继推出新产品,国内百度、阿里等纷纷布局这一领域,也诞生了寒武纪等AI芯片创业公司。
在CPU、GPU等传统芯片领域与国际相差较多的情况下,中国AI芯片被寄望能实现弯道超车。
未来智能实验室是人工智能学家与科学院相关机构联合成立的人工智能,互联网和脑科学交叉研究机构。
未来智能实验室的主要工作包括:建立AI智能系统智商评测体系,开展世界人工智能智商评测;开展互联网(城市)云脑研究计划,构建互联网(城市)云脑技术和企业图谱,为提升企业,行业与城市的智能水平服务。
如果您对实验室的研究感兴趣,欢迎加入未来智能实验室线上平台。扫描以下二维码或点击本文左下角“阅读原文”
2023年中国人工智能芯片行业市场现状及发展前景分析 AI浪潮催生市场新增长点
人工智能芯片行业基本概况分析
人工智能(AI)芯片是支撑人工智能技术和产业发展的关键基础设施,具有重要的战略地位。目前人工智能技术与产业持续高速发展,已经基本形成了由芯片、数据、开发框架、算法、应用组成的技术产业生态。
人工智能运算主要指以深度学习为代表的神经网络运算,具有独特的计算密集、存储密集特点,对芯片性能提出了新的要求。为满足需求,GPU、FPGA、ASIC等架构芯片都面向人工智能计算进行新的设计,使得芯片能够高效处理大量文本、视频、图片、语音等非结构化数据,对人工智能运算提供有力支持,具有较强的独特性和基础性,战略地位凸显。
1、AI芯片技术产业高速发展
人工智能芯片产业规模高速增长。人工智能发展浪潮催生芯片市场新的增长点,人工智能芯片市场保持强劲增长能力,根据IDC数据显示,2017年全球整体AI芯片市场规模达到40亿美元,到2022年,整体AI芯片市场规模将会达到352亿美元,CAGR大于55%。
我国人工智能芯片市场同样发展良好,根据调研数据机构赛迪顾问在2019世界人工智能大会上发布的《中国人工智能芯片产业发展白皮书》的数据显示,2018年中国AI芯片市场继续保持高速增长,整体市场规模达到80.08亿元,同比增长50.2%。受宏观政策环境、技术进步与升级、人工智能应用普及等众多利好因素的影响,中国AI芯片市场将进一步发展成熟。预计未来几年内,中国芯片市场规模将保持40%-50%的增长速度,2024年,市场将达785亿。
人工智能芯片处于技术与市场成熟前期。人工智能芯片相对其他计算机芯片明显起步较晚,但得益于人工智能技术产业发展较快,目前人工智能芯片已经处于技术与市场成熟前期。
具体来说,在技术与产品方面,人工智能芯片实现了从通用向定制、专用方向演化,产品在云端、自动驾驶、智慧安防、移动互联网等场景中均获得了较好地应用。在产业方面,当前英伟达、华为海思、寒武纪、比特大陆等一批企业经过前期积累,已经逐渐将产品投入市场,并获得了较好的反馈,人工智能芯片产业已经进入成熟前期。
各企业围绕自身优势迅速推出人工智能芯片产品,抢占市场先机。目前人工智能芯片产品主要涵盖云端训练、云端推理、终端推理三个领域。
在云端训练领域,模型训练需实现高性能、高精度、通用化的计算能力,英伟达凭借其GPU产业生态在云端训练市场占据绝对优势,谷歌、英特尔研发ASIC芯片发起挑战;
在云端推理领域,高能效GPU、FPGA、ASIC成为各企业布局方案,谷歌、英特尔、赛灵思等厂商纷纷布局,未来市场格局未定;
在终端推理领域,芯片需满足低时延或低功耗等差异化场景需求,细分市场众多,ASIC芯片逐渐成为主流路径,图像识别、语音识别是重点应用领域,参与者不仅包括高通、英特尔、英伟达等传统芯片巨头,也包括谷歌、海思、寒武纪、地平线等新进入者。
2、AI芯片应用创新活跃
目前人工智能芯片主要应用于云端训练、云端推理、终端推理领域,在云计算、自动驾驶、智能安防、智能手机等领域已经实现了较为广泛的应用,未来市场前景广阔。
1)在云计算领域,GPU仍占据市场主流,但市场份额将逐渐下降。目前GPU因其通用性好、性能强、编程环境优良、生态成熟等因素在云端训练市场占据主流,但GPU存在投资研发成本较高、生态构建较难等问题,谷歌、微软、华为、百度等国内外科技公司开始尝试布局云端专用芯片以提高效率、抢占市场。
目前谷歌推出的ASIC架构芯片TPU3.0算力达到90TELOPS,功耗仅为200W。未来像谷歌TPU3.0这样能有效降低能耗、节约部署成本、提高开发易用性,并继承GPU高性能、通用性强的可编程ASIC芯片及其配套开发平台将成为云端AI芯片的发展趋势。
2)在自动驾驶领域,主控芯片算力需求持续增长,带动车载AI芯片市场进一步扩大。近年来车企纷纷将目光瞄向更高等级的自动驾驶技术,高级别自动驾驶渗透率逐步提升,自动驾驶市场持续扩大,自动驾驶对车载芯片算力需求呈指数级增长,传统MCU已经难以胜任,高性能专用车载人工智能芯片迎来机会。
在产品方面,英伟达、英特尔等公司近年先后针对高级自动驾驶推出高算力(100TOPS以上)主控芯片,我国的华为MDC600、黑芝麻科技华山2号等芯片算力均达到100TOPS以上,均能满足L3级别以上自动驾驶需求。随着汽车进入L3级以上高级别自动驾驶时代,分布式电子系统难以对大量、多元的传感器数据进行高效融合处理,处理过程将依赖于CPU、GPU、FPGA等的协调合作。未来行业主流核心处理芯片将多采用SoC设计,集成GPU、AI加速器等人工智能计算处理单元。
3)智能安防领域需求最为明确,技术商业落地快,市场容量大。安防市场是人工智能最为确定的市场,以图像识别和视频处理为代表的人工智能应用正在全面影响安防产业,其中人工智能芯片是核心支撑,安防人工智能芯片市场呈现出技术商业落地发展快,市场容量大的特点。
智能安防产业参与者众多、市场大、赛道长,各环节门槛较低,生态较为开放,我国已经构建起较为完整的产业生态,产业各环节都有国内企业深度参与,其中海思已经带来了20余款IPC芯片,在IPC芯片市场一度占到国内70%以上的份额。未来“云边结合”对前端设备的计算能力提出了更高的要求,成本、效率、功耗是关键问题。
4)在智能手机领域,人工智能芯片为智能手机市场带来变革。全球智能手机市场仍保持较高出货量,为手机人工智能芯片带来较大市场空间,同时人工智能芯片应用也为智能手机市场带来新的增长空间。
未来搭载人工智能芯片的智能手机出货量占比将持续提升,国产手机厂商迎来了新的发展机遇。传统智能手机虽然可以运行人工智能应用,但在流畅度和能耗方面不能满足用户更高层次的需求,打造一款被市场认可的AI手机,成为手机厂商下一轮竞逐的方向,高通、苹果、华为等巨头厂商在其中扮演了引领者的角色,分别推出骁龙855、A13、麒麟990等高端处理器,积极推动AI手机落地。
3、产业发展需打牢根基
现阶段,我国人工智能应用市场规模庞大,智能终端、智能安防、自动驾驶等智能应用日渐深入生活,人工智能产业生态体系处于加速完备阶段,为以人工智能芯片为代表的人工智能基础产业创造了巨大的发展空间。
但我们也要看到,我国芯片技术发展长期落后于海外,产业链生态不完善,在制造、封测、EDA软件等领域需求和短板明显,使我国在发展人工智能芯片产业时,出现上游底层技术严重依赖海外的情况。
未来,我国在发展布局物联网、人工智能等新兴产业时,应吸取教训,提前布局、研发相关领域的通信、计算芯片等底层技术,遵循行业客观发展规律,确保长期稳定投入,打牢产业发展基础,实现相关产业高质量发展。
更多数据来源及分析请参考于前瞻产业研究院《中国人工智能芯片行业市场需求分析与投资前景预测》,同时前瞻产业研究院提供产业大数据、产业规划、产业申报、产业园区规划、产业招商引资等解决方案。
(文章来源:人民邮电报——人工智能浪潮催生芯片市场新增长点)
2023年中国人工智能芯片行业发展现状分析 行业处于萌芽期【组图】
转自:前瞻产业研究院
行业主要上市公司:目前国内人工智能芯片产业的上市公司主要有寒武纪(688256)、四维图新(002405)、北京君正(300223)、芯原股份(688521)等。本文核心数据:2017-2025年中国人工智能芯片市场规模情况中国人工智能产业焕发芯片活力随着人工智能的快速发展,机器学习、算法水平的不断提升,云计算、大数据、物联网、自动驾驶等产业对人工智能芯片的数量以及性能要求不断加大,带动人工智能芯片产业不断发展。人工智能核心技术板块包括人工智能芯片、集成电路、计算机视觉、机器学习、自然语言、生物识别技术、大数据处理等,而人工智能芯片就是建立在人工智能与半导体芯片基础上的新兴产业;其中,2021年,中国人工智能产业规模为7442亿元,带动产业市场规模1513亿元。中国人工智能芯片渗透多个行业人工智能芯片包含计算机科学领域和半导体芯片领域;计算机科学领域是指高效率的智能算法,即软件;半导体芯片领域是指将算法有效地在硅片上实现,最终变成能和配套配套软件结合的实体产品。当前,人工智能芯片根据其技术架构可以分为CPU、GPU、FPGA、ASIC、类脑芯片;按照其在网络中的位置可以分为云端AI芯片、边缘AI芯片、终端AI芯片;根据其在实践中的目标可以分为训练芯片和推理芯片。人工智能芯片凭借强大的算法承载力和超高的处理速度,广泛应用于多种场景,比如智能人脸识别或智能语音识别,处理超高数据库的服务器大数据分析,随时处理变化的交通信息及各类传感器信息的自动驾驶领域,以及机器人的智能化等。中国人工智能芯片行业起步晚发展快中国人工智能芯片起步晚,发展快,主要得益于政策的大力支持以及产学研结合的模式,2016年人工智能AlphaGo打败围棋大师李世石,支撑人工智能算力的AI芯片备受关注,中国本土涌现许多人工智能科技公司,其中就包括中科寒武纪;2017年人工智能推理芯片助力推出世界首款搭载寒武纪高性能机器学习处理器芯片的推理服务器;2018年中国AI芯片占据全球25.9%的市场份额,首次超越美国;到2022年,中国AI芯片在性能、处理速度、利用率上实现单点突破。目前,我国人工智能芯片与国际先进水平相比还有一定距离,所取得成就仅是在部分领域,整个行业还处于生命周期的萌芽期,需要更多的投入和努力。互联网科技巨头纷纷跨界发力我国人工智能芯片行业还处于生命周期的萌芽期,市场增长较快,但由于人工智能芯片行业技术壁垒较高,芯片研发周期长,研发要求高,风险较大,目前人工智能芯片行业的融资轮次仍然处于早期阶段,C轮后的融资数量较少。其中,多家科技巨头纷纷跨界参与芯片研发,主要代表性企业有百度的昆仑芯、阿里的平头哥、华为的海思半导体等。中国人工智能芯片市场规模逐年上涨人工智能芯片产业是信息产业的核心,是引领新一轮科技革命和产业变革的关键力量。近年来,随着大数据、云计算、物联网、自动驾驶领域的飞速发展,市场需求逐年扩大,根据赛迪披露的数据,2021年,我国人工智能芯片市场规模达到310.6亿元;前瞻初步预测,2022年,我国人工智能芯片市场规模将达到465.9亿元。更多本行业研究分析详见前瞻产业研究院《中国人工智能芯片(AI芯片)行业发展前景预测与投资战略规划分析报告》,同时前瞻产业研究院还提供产业大数据、产业研究、政策研究、产业链咨询、产业图谱、产业规划、园区规划、产业招商引资、IPO募投可研、IPO业务与技术撰写、IPO工作底稿咨询等解决方案。更多深度行业分析尽在【前瞻经济学人APP】,还可以与500+经济学家/资深行业研究员交流互动。海量资讯、精准解读,尽在新浪财经APP预见2023:2023年中国人工智能芯片行业市场规模、竞争格局及发展前景预测 未来市场规模将近3000亿元
行业主要上市公司:目前国内人工智能芯片产业的上市公司主要有寒武纪(688256)、四维图新(002405)、北京君正(300223)、芯原股份(688521)等。
本文核心数据:2017-2025年中国人工智能芯片市场规模情况
1、人工智能芯片行业概况
——人工智能芯片定义及分类
人工智能芯片也被称为AI加速器或计算卡,即专门用于处理人工智能应用中的大量计算任务的模块。人工智能芯片包含计算机科学领域和半导体芯片领域;计算机科学领域是指高效率的智能算法,即软件;半导体芯片领域是指将算法有效地在硅片上实现,最终变成能和配套配套软件结合的实体产品。
当前,人工智能芯片根据其技术架构可以分为CPU、GPU、FPGA、ASIC、类脑芯片;按照其在网络中的位置可以分为云端AI芯片、边缘AI芯片、终端AI芯片;根据其在实践中的目标可以分为训练芯片和推理芯片。
2)人工智能芯片行业产业链剖析:产业链条短
人工智能芯片产业链结构清晰,链条较短,主要分为上游的材料与设备,中游的产品制造,下游的应用市场;上游的材料与设备主要指半导体材料和半导体设备,半导体材料包括单晶硅、单晶锗、砷化镓、晶体管等材料,半导体设备包括光刻机、等离子刻蚀机等设备;中游的产品制造包括芯片设计和芯片制造,芯片设计的流程主要是通过EDA进行系统设计、RTL设计、物理设计等过程,芯片制造包括晶圆加工、晶圆测试、晶片切割、芯片封装等过程;下游的应用市场主要有云计算、自动驾驶、智能手机、无人机、智能音箱、智能安防等。
我国人工智能芯片行业产业链完善,各产业链环节均有许多业绩优秀的企业,注重研发和产品品质,上游为半导体材料与设备,代表性企业有立昂科技、中环股份、神工半导体等;中游为芯片设计与制作,代表性企业游寒武纪、地平线、华为海思等;下游应用市场广阔,代表性企业有腾讯、商汤、中国移动等。
2、中国人工智能芯片行业发展历程:行业处于萌芽蓄力期
中国人工智能芯片起步晚,发展快,主要得益于政策的大力支持以及产学研结合的模式,2016年人工智能AlphaGo打败围棋大师李世石,支撑人工智能算力的AI芯片备受关注,中国本土涌现许多人工智能科技公司,其中就包括中科寒武纪;2017年人工智能推理芯片助力推出世界首款搭载寒武纪高性能机器学习处理器芯片的推理服务器;2018年中国AI芯片占据全球25.9%的市场份额,首次超越美国;到2022年,中国AI芯片在性能、处理速度、利用率上实现单点突破。
目前,我国人工智能芯片与国际先进水平相比还有一定距离,所取得成就仅是在部分领域,整个行业还处于生命周期的萌芽期,需要更多的投入和努力。
3、中国人工智能芯片行业政策背景:政策加持,人工智能芯片发展持续加力
人工智能芯片产业是信息产业的核心,是引领新一轮科技革命和产业变革的关键力量。从我国“十三五”至“十四五”规划时期,我国人工智能芯片产业在政策的扶持下,逐渐发展壮大,渗透入各行各业,在基础算法领域相较其他国家略胜一筹。
“十三五”规划时期,第一次将人工智能芯片列入国家发展规划中,之后出台《新一代人工智能产业发展三年行动计划2018-2020》,提出重点扶持神经网络芯片,推动人工智能芯片在国内实现规模化应用。到2022年,“十四五”规划提出重点发展数字技术创新,提高人工智能芯片的研发和应用;同时,“十四五“国民健康规划提出大力推广人工智能芯片在医疗、卫生等公共领域的应用,切实保障民生,助力人工智能芯片从研发落地到应用。
4、中国人工智能芯片行业发展现状分析
——中国人工智能芯片市场规模逐年上涨
人工智能芯片产业是信息产业的核心,是引领新一轮科技革命和产业变革的关键力量。近年来,随着大数据、云计算、物联网、自动驾驶领域的飞速发展,市场需求逐年扩大,根据赛迪披露的数据,2021年,我国人工智能芯片市场规模达到310.6亿元;前瞻初步预测,2022年,我国人工智能芯片市场规模将达到465.9亿元。
2)中国人工智能芯片市场云端芯片所占市场份额最大
随着人工智能芯片的大规模应用,各地政府加快推进对人工智能芯片发展的支持力度,2021年中国云端训练芯片市场份额达到51%,可见中国人工智能芯片市场规模以云端训练芯片占据主要的市场份额。随着中国人工智能应用需求的不断落地,未来终端芯片也将会有更广阔的发展空间。
3)中国人工智能芯片投资额整体上涨
我国人工智能芯片行业起步晚,但发展迅速;2016年,我国人工智能芯片行业投融资事件只有2起,随着大数据、云计算、物联网、自动驾驶领域的飞速发展,市场需求逐年扩大,我国人工智能行业投融资市场也逐渐活跃,到2021年达到近年来的顶峰,融资金额176.46亿元,投融资事件达到44起;2021年后我国人工智能芯片行业开始遇冷,融资事件数开始下降,融资金额同时下跌。2022年我国人工智能芯片行业发生融资事件22起,较上年下降50%;融资金额为112.48亿元,较上年下降36%。主要原因是受宏观环境影响,原材料价格上涨,上游半导体设备供应不足,导致芯片产能下降,技术瓶颈制约作用显著,导致中国人工智能芯片产业在2022年出现明显下降。
5、中国人工智能芯片行业竞争格局分析
——中国人工智能芯片行业区域竞争格局:上海代表性企业最集中
从我国人工智能芯片产业链企业区域分布来看,人工智能芯片产业产业链企业主要分布在北京、上海、广东等地,其次是江苏、浙江、四川,新疆、西藏等省份,虽然有企业分布,但是数量极少。
从互联周刊发布的TOP50榜单企业分布情况来看,北京、上海、广东等地代表性企业较多;其中,上海拥有较多代表性企业,如联发科、天数智芯、依图、黑芝麻智能等,主要是因为上海拥有较多的高新技术企业,如云计算、大数据、自动驾驶等领域的互联网科技公司,人工智能芯片市场较活跃,有持续稳定的市场需求,能够促进新兴人工智能芯片企业的萌芽和发展。在互联网周刊发布的中国人工智能芯片TOP50企业榜单中,企业数量排名前三的省市分别是上海、广东、北京;其中,上海市拥有18家,占比36%,广东省拥有11家,占比22%;北京市拥有10家,占比20%。
2)中国人工智能芯片行业企业竞争格局:上市公司数量较少,科技巨头跨界发力
我国人工智能芯片行业还处于生命周期的萌芽期,市场增长较快,但由于人工智能芯片行业技术壁垒较高,芯片研发周期长,研发要求高,风险较大,目前人工智能芯片行业的融资轮次仍然处于早期阶段,C轮后的融资数量较少。根据互联网周刊发布的“2022年中国人工智能芯片企业TOP50榜单”,AI芯片市场涵盖了下游应用市场的家居、安防、交通、医疗、工业等多个领域,其中海思半导体、联发科、地平线机器人、寒武纪、中星微电子等知名企业均入选名单。
6、中国人工智能芯片行业发展前景及趋势预测
——“十四五”建设打造数字经济,聚焦人工智能芯片领域
人工智能芯片产业是信息产业的核心,是引领新一轮科技革命和产业变革的关键力量。随着云计算、大数据、物联网、自动驾驶等领域的飞速发展,更复杂的场景处理要求更高的算力基础,对人工智能芯片的数量以及性能需求加大,芯片成为硬件中最核心的部分,是产业互联网最核心的基础设施。
此外,国家“十四五”规划明确提出打造数字经济新优势,加强关键数字技术创新应用。加快推进高端芯片、操作系统、人工智能关键算法、传感器、通用处理器等领域研发突破和迭代应用。未来五年,中国将在研发领域持续投入充足的经费,力争在人工智能芯片、量子计算等先进技术领域走在国际前列。
2)中国人工智能芯片市场需求广阔
随着第三代半导体技术的逐步发展,算力水平和终端应用逐渐落地;当前,我国人工智能芯片的发展尚处在生命周期的萌芽期,技术研发和终端应用的落地还有广阔的发展空间。未来,在政策、市场、技术等合力的作用下,中国人工智能芯片行业将持续稳步增长,预计2024年市场规模有望突破1000亿元;到2027年,中国人工智能芯片市场规模达到2881.9亿元。
更多本行业研究分析详见前瞻产业研究院《中国人工智能芯片(AI芯片)行业发展前景预测与投资战略规划分析报告》,同时前瞻产业研究院还提供产业大数据、产业研究、产业规划、园区规划、产业招商、产业图谱、产业链咨询、技术咨询、IPO募投可研、IPO业务与技术撰写、IPO工作底稿咨询等解决方案。