详解两类AI芯片架构和关键技术
戳蓝字“CSDN云计算”关注我们哦!
作者| 架构师技术联盟
责编|阿秃
人工智能芯片目前有两种发展路径:一种是延续传统计算架构,加速硬件计算能力,主要以3种类型的芯片为代表,即GPU、FPGA、ASIC,但CPU依旧发挥着不可替代的作用;另一种是颠覆型的经典的冯·诺依曼计算架构,采用类脑神经结构来提升计算能力,这类以IBMTrueNorth芯片为代表。
1、传统CPU计算机工业从1960年代早期开始使用CPU这个术语。迄今为止,CPU从形态、设计到实现都已发生了巨大的变化,但是其基本工作原理却一直没有大的改变。通常CPU由控制器和运算器这两个主要部件组成。传统的CPU内部结构图如图所示:
传统CPU内部结构图(ALU计算模块)
从图中我们可以看到:实质上仅单独的ALU模块(逻辑运算单元)是用来完成数据计算的,其他各个模块的存在都是为了保证指令能够一条接一条的有序执行。这种通用性结构对于传统的编程计算模式非常适合,同时可以通过提升CPU主频(提升单位时间内执行指令的条数)来提升计算速度。
但对于深度学习中的并不需要太多的程序指令、却需要海量数据运算的计算需求,这种结构就显得有些力不从心。尤其是在功耗限制下,无法通过无限制的提升CPU和内存的工作频率来加快指令执行速度,这种情况导致CPU系统的发展遇到不可逾越的瓶颈。
2、并行加速计算的GPUGPU作为最早从事并行加速计算的处理器,相比CPU速度快,同时比其他加速器芯片编程灵活简单。
传统的CPU之所以不适合人工智能算法的执行,主要原因在于其计算指令遵循串行执行的方式,没能发挥出芯片的全部潜力。与之不同的是,GPU具有高并行结构,在处理图形数据和复杂算法方面拥有比CPU更高的效率。对比GPU和CPU在结构上的差异,CPU大部分面积为控制器和寄存器,而GPU拥有更ALU(逻辑运算单元)用于数据处理,这样的结构适合对密集型数据进行并行处理,CPU与GPU的结构对比如图所示。
CPU及GPU结构对比图
程序在GPU系统上的运行速度相较于单核CPU往往提升几十倍乃至上千倍。随着英伟达、AMD等公司不断推进其对GPU大规模并行架构的支持,面向通用计算的GPU(即GPGPU,通用计算图形处理器)已成为加速可并行应用程序的重要手段,GPU的发展历程可分为3个阶段:
第一代GPU(1999年以前),部分功能从CPU分离,实现硬件加速,以GE(GEOMETRYENGINE)为代表,只能起到3D图像处理的加速作用,不具有软件编程特性。
第二代GPU(1999-2005年),实现进一步的硬件加速和有限的编程性。1999年,英伟达发布了“专为执行复杂的数学和几何计算的”GeForce256图像处理芯片,将更多的晶体管用作执行单元,而不是像CPU那样用作复杂的控制单元和缓存,将(TRANSFORMANDLIGHTING) 等功能从CPU分离出来,实现了快速变换,这成为GPU真正出现的标志。
之后几年,GPU技术快速发展,运算速度迅速超过CPU。2001年英伟达和ATI分别推出的GEFORCE3和RADEON8500,图形硬件的流水线被定义为流处理器,出现了顶点级可编程性,同时像素级也具有有限的编程性,但GPU的整体编程性仍然比较有限。
第三代GPU(2006年以后),GPU实现方便的编程环境创建,可以直接编写程序。2006年英伟达与ATI分别推出了CUDA(ComputeUnitedDeviceArchitecture,计算统一设备架构)编程环境和CTM(CLOSETOTHEMETAL)编程环境,使得GPU打破图形语言的局限成为真正的并行数据处理超级加速器。
2008年,苹果公司提出一个通用的并行计算编程平台OPENCL(开放运算语言),与CUDA绑定在英伟达的显卡上不同,OPENCL和具体的计算设备无关。
GPU芯片的发展阶段
目前,GPU已经发展到较为成熟的阶段。谷歌、FACEBOOK、微软、Twtter和百度等公司都在使用GPU分析图片、视频和音频文件,以改进搜索和图像标签等应用功能。此外,很多汽车生产商也在使用GPU芯片发展无人驾驶。不仅如此,GPU也被应用于VR/AR相关的产业。
但是GPU也有一定的局限性。深度学习算法分为训练和推断两部分,GPU平台在算法训练上非常高效。但在推断中对于单项输入进行处理的时候,并行计算的优势不能完全发挥出来。
3、半定制化的FPGAFPGA是在PAL、GAL、CPLD等可编程器件基础上进一步发展的产物。用户可以通过烧入FPGA配置文件来定义这些门电路以及存储器之间的连线。这种烧入不是一次性的,比如用户可以把FPGA配置成一个微控制器MCU,使用完毕后可以编辑配置文件把同一个FPGA配置成一个音频编解码器。因此,它既解决了定制电路灵活性的不足,又克服了原有可编程器件门电路数有限的缺点。
FPGA可同时进行数据并行和任务并行计算,在处理特定应用时有更加明显的效率提升。对于某个特定运算,通用CPU可能需要多个时钟周期,而FPGA可以通过编程重组电路,直接生成专用电路,仅消耗少量甚至一次时钟周期就可完成运算。
此外,由于FPGA的灵活性,很多使用通用处理器或ASIC难以实现的底层硬件控制操作技术,利用FPGA可以很方便的实现。这个特性为算法的功能实现和优化留出了更大空间。同时FPGA一次性成本(光刻掩模制作成本)远低于ASIC,在芯片需求还未成规模、深度学习算法暂未稳定,需要不断迭代改进的情况下,利用FPGA芯片具备可重构的特性来实现半定制的人工智能芯片是最佳选择之一。
功耗方面,从体系结构而言,FPGA也具有天生的优势。传统的冯氏结构中,执行单元(如CPU核)执行任意指令,都需要有指令存储器、译码器、各种指令的运算器及分支跳转处理逻辑参与运行,而FPGA每个逻辑单元的功能在重编程(即烧入)时就已经确定,不需要指令,无需共享内存,从而可以极大的降低单位执行的功耗,提高整体的能耗比。
由于FPGA具备灵活快速的特点,因此在众多领域都有替代ASIC的趋势。FPGA在人工智能领域的应用如图所示。
FPGA在人工智能领域的应用
4、全定制化的ASIC目前以深度学习为代表的人工智能计算需求,主要采用GPU、FPGA等已有的适合并行计算的通用芯片来实现加速。在产业应用没有大规模兴起之时,使用这类已有的通用芯片可以避免专门研发定制芯片(ASIC)的高投入和高风险。但是,由于这类通用芯片设计初衷并非专门针对深度学习,因而天然存在性能、功耗等方面的局限性。随着人工智能应用规模的扩大,这类问题日益突显。
GPU作为图像处理器,设计初衷是为了应对图像处理中的大规模并行计算。因此,在应用于深度学习算法时,有三个方面的局限性:
第一:应用过程中无法充分发挥并行计算优势。深度学习包含训练和推断两个计算环节,GPU在深度学习算法训练上非常高效,但对于单一输入进行推断的场合,并行度的优势不能完全发挥。
第二:无法灵活配置硬件结构。GPU采用SIMT计算模式,硬件结构相对固定。目前深度学习算法还未完全稳定,若深度学习算法发生大的变化,GPU无法像FPGA一样可以灵活的配制硬件结构。
第三:运行深度学习算法能效低于FPGA。
尽管FPGA倍受看好,甚至新一代百度大脑也是基于FPGA平台研发,但其毕竟不是专门为了适用深度学习算法而研发,实际应用中也存在诸多局限:
第一:基本单元的计算能力有限。为了实现可重构特性,FPGA内部有大量极细粒度的基本单元,但是每个单元的计算能力(主要依靠LUT查找表)都远远低于CPU和GPU中的ALU模块。
第二:计算资源占比相对较低。为实现可重构特性,FPGA内部大量资源被用于可配置的片上路由与连线。
第三:速度和功耗相对专用定制芯片(ASIC)仍然存在不小差距。
第四,:FPGA价格较为昂贵。在规模放量的情况下单块FPGA的成本要远高于专用定制芯片。
因此,随着人工智能算法和应用技术的日益发展,以及人工智能专用芯片ASIC产业环境的逐渐成熟,全定制化人工智能ASIC也逐步体现出自身的优势,从事此类芯片研发与应用的国内外比较有代表性的公司如图所示。
人工智能专用芯片研发情况一览
深度学习算法稳定后,AI芯片可采用ASIC设计方法进行全定制,使性能、功耗和面积等指标面向深度学习算法做到最优。
5、类脑芯片类脑芯片不采用经典的冯·诺依曼架构,而是基于神经形态架构设计,以IBMTruenorth为代表。IBM研究人员将存储单元作为突触、计算单元作为神经元、传输单元作为轴突搭建了神经芯片的原型。
目前,Truenorth用三星28nm功耗工艺技术,由54亿个晶体管组成的芯片构成的片上网络有4096个神经突触核心,实时作业功耗仅为70mW。由于神经突触要求权重可变且要有记忆功能,IBM采用与CMOS工艺兼容的相变非易失存储器(PCM)的技术实验性的实现了新型突触,加快了商业化进程。
来源:清华2018人工智能芯片研究报告
福利扫描添加小编微信,备注“姓名+公司职位”,加入【云计算学习交流群】,和志同道合的朋友们共同打卡学习!推荐阅读:详解CPU几个重点基础知识
爆料:美国宣布限制AI软件出口中国;小米回应设备被谷歌禁用:已修复Bug,适时上线;Imagination欲重夺GPU市场……
腾讯内部鄙视链!!!
“一百万行Python代码对任何人都足够了”达摩院2020预测:工业互联网超融合来袭!万字长文回望2019:影响区块链行业发展的9大事件真香,朕在看了!
AI芯片最强科普
AI的三大关键基础要素是数据、算法和算力。随着云计算的广泛应用,特别是深度学习成为当前AI研究和运用的主流方式,AI对于算力的要求不断快速提升。
AI的许多数据处理涉及矩阵乘法和加法。AI算法,在图像识别等领域,常用的是CNN;语音识别、自然语言处理等领域,主要是RNN,这是两类有区别的算法;但是,他们本质上,都是矩阵或vector的乘法、加法,然后配合一些除法、指数等算法。
CPU可以拿来执行AI算法,但因为内部有大量其他逻辑,而这些逻辑对于目前的AI算法来说是完全用不上的,所以,自然造成CPU并不能达到最优的性价比。因此,具有海量并行计算能力、能够加速AI计算的AI芯片应运而生。
一般的说,AI芯片被称为AI加速器或计算卡,即专门用于加速AI应用中的大量计算任务的模块(其他非计算任务仍由CPU负责)。
而从广义范畴上讲,面向AI计算应用的芯片都可以称为AI芯片。除了以GPU、FPGA、ASIC为代表的AI加速芯片(基于传统芯片架构,对某类特定算法或者场景进行AI计算加速),还有比较前沿性的研究,例如类脑芯片、可重构通用AI芯片等(但距离大规模商用还有较长距离)。
以GPU、FPGA、ASIC为代表的AI芯片,是目前可大规模商用的技术路线,是AI芯片的主战场,本文以下主要讨论的就是这类AI芯片。
AI芯片的分类和市场划分
一、从两个维度对AI芯片进行分类
维度1:部署位置(云端、终端)
AI芯片部署的位置有两种:云端、终端。所以根据部署的位置不同,AI芯片可以分为:云AI芯片、端AI芯片。
云端,即数据中心,在深度学习的训练阶段需要极大的数据量和大运算量,单一处理器无法独立完成,因此训练环节只能在云端实现。
终端,即手机、安防摄像头、汽车、智能家居设备、各种IoT设备等执行边缘计算的智能设备。终端的数量庞大,而且需求差异较大。
云AI芯片的特点是性能强大、能够同时支持大量运算、并且能够灵活地支持图片、语音、视频等不同AI应用。基于云AI芯片的技术,能够让各种智能设备和云端服务器进行快速的连接,并且连接能够保持最大的稳定。
端AI芯片的特点是体积小、耗电少,而且性能不需要特别强大,通常只需要支持一两种AI能力。
相比于云AI芯片来说,端AI芯片是需要嵌入进设备内部的,当在设备内部中嵌入了端AI芯片之后,能够让设备的AI能力进一步提升,并且让设备在没有联网的情况之下也能够使用相应的AI能力,这样AI的覆盖变得更为全面。
维度2:承担任务(训练、推理)
AI的实现包括两个环节:训练、推理。所以根据承担任务的不同,AI芯片可以分为:用于构建神经网络模型的训练芯片,利用神经网络模型进行推理预测的推理芯片。
训练,是指通过大数据训练出一个复杂的神经网络模型,即用大量标记过的数据来“训练”相应的系统,使之可以适应特定的功能。训练需要极高的计算性能,需要较高的精度,需要能处理海量的数据,需要有一定的通用性,以便完成各种各样的学习任务。
推理,是指利用训练好的模型,使用新数据推理出各种结论。即借助现有神经网络模型进行运算,利用新的输入数据来一次性获得正确结论的过程。也有叫做预测或推断。
训练芯片,注重绝对的计算能力,而推断芯片更注重综合指标,单位能耗算力、时延、成本等都要考虑。
训练将在很长一段时间里集中在云端,推理的完成目前也主要集中在云端,但随着越来越多厂商的努力,很多的应用将逐渐转移到终端。
推理相对来说对性能的要求并不高,对精度要求也要更低,在特定的场景下,对通用性要求也低,能完成特定任务即可,但因为推理的结果直接提供给终端用户,所以更关注用户体验方面的优化。
二、AI芯片市场划分
以部署位置(云端、终端)和承担任务(训练、推理)为横纵坐标,可以清晰的划分出AI芯片的市场领域,上表,列出了适用于各个市场的技术路线及相应厂商。
1、云端训练
训练芯片受算力约束,一般只在云端部署。
CPU由于计算单元少,并行计算能力较弱,不适合直接执行训练任务,因此训练一般采用“CPU+加速芯片”的异构计算模式。目前NVIDIA的GPU+CUDA计算平台是最成熟的AI训练方案,除此还有两种方案:
第三方异构计算平台OpenCL+AMDGPU或OpenCL+Intel/XilinxFPGA
云计算服务商自研加速芯片(如Google的TPU)
训练市场目前能与NVIDIA竞争的就是Google,传统CPU/GPU厂家Intel和AMD也在努力进入训练市场。
2、云端推理
如果说云端训练芯片是NVIDIA一家独大,那云端推理芯片则是百家争鸣,各有千秋。
相比训练芯片,推理芯片考虑的因素更加综合:单位功耗算力,时延,成本等等。AI发展初期推理也采用GPU进行加速,目前来看,竞争态势中英伟达依然占大头,但由于应用场景的特殊性,依据具体神经网络算法优化会带来更高的效率,FPGA/ASIC的表现可能更突出。除了Nvidia、Google、Xilinx、Altera(Intel)等传统芯片大厂涉足云端推理芯片以外,Wavecomputing、Groq等初创公司也加入竞争。中国公司里,寒武纪、比特大陆等同样积极布局云端芯片业务。
3、终端推理
在面向智能手机、智能摄像头、机器人/无人机、自动驾驶、VR、智能家居设备、各种IoT设备等设备的终端推理AI芯片方面,目前多采用ASIC,还未形成一家独大的态势。
终端的数量庞大,而且需求差异较大。AI芯片厂商可发挥市场作用,面向各个细分市场,研究应用场景,以应用带动芯片。
传统芯片大厂如NVIDIA、Intel、ARM、高通等都积极布局,中国芯片创业企业,如寒武纪、地平线等,也有不俗表现,在一些细分市场领域颇有建树。
AI芯片技术路线
一、AI芯片主要技术路线
目前,作为加速应用的AI芯片,主要的技术路线有三种:GPU、FPGA、ASIC。
1、GPU
GPU(GraphicsProcessingUnit),即图形处理器,是一种由大量核心组成的大规模并行计算架构,专为同时处理多重任务而设计。GPU是专门处理图像计算的,包括各种特效的显示,更加针对图像的渲染等计算算法。这些算法与深度学习的算法还是有比较大的区别。当然,GPU非常适合做并行计算,也可以用来给AI加速。
GPU因良好的矩阵计算能力和并行计算优势,最早被用于AI计算,在数据中心中获得大量应用。GPU采用并行架构,超过80%部分为运算单元,具备较高性能运算速度。相比较下,CPU仅有20%为运算单元,更多的是逻辑单元,因此CPU擅长逻辑控制与串行运算,而GPU擅长大规模并行运算。GPU最早作为深度学习算法的芯片被引入人工智能领域,因其良好的浮点计算能力适用于矩阵计算,且相比CPU具有明显的数据吞吐量和并行计算优势。
2011年谷歌大脑率先应用GPU芯片,当时12颗英伟达的GPU可以提供约等于2000颗CPU的深度学习性能,展示了其惊人的运算能力。目前GPU已经成为人工智能领域最普遍最成熟的智能芯片,应用于数据中心加速和部分智能终端领域,在深度学习的训练阶段其性能更是无所匹敌。
在深度学习上游训练端(主要用在云计算数据中心里),GPU是当仁不让的第一选择。目前GPU的市场格局以英伟达为主(超过70%),AMD为辅,预计未来几年内GPU仍然是深度学习训练市场的第一选择。
另外,GPU无法单独工作,必须由CPU进行控制调用才能工作。CPU可单独作用,处理复杂的逻辑运算和不同的数据类型,当需要大量的处理类型统一的数据时,则可调用GPU进行并行计算。
2、FPGA
FPGA(Field-ProgrammableGateArray),即现场可编程门阵列,作为专用集成电路领域中的一种半定制电路出现。FPGA利用门电路直接运算,速度快,而用户可以自由定义这些门电路和存储器之间的布线,改变执行方案,以期得到最佳效果。
FPGA可以采用OpenCL等更高效的编程语言,降低了硬件编程的难度,还可以集成重要的控制功能,整合系统模块,提高了应用的灵活性,与GPU相比,FPGA具备更强的平均计算能力和更低的功耗。
FPGA适用于多指令,单数据流的分析,与GPU相反,因此常用于推理阶段。FPGA是用硬件实现软件算法,因此在实现复杂算法方面有一定的难度,缺点是价格比较高。
FPGA因其在灵活性和效率上的优势,适用于虚拟化云平台和推理阶段,在2015年后异军突起。2015年Intel收购FPGA市场第二大企业Altera,开始了FPGA在人工智能领域的应用热潮。因为FPGA灵活性较好、处理简单指令重复计算比较强,用在云计算架构形成CPU+FPGA的混合异构中相比GPU更加的低功效和高性能,适用于高密度计算,在深度学习的推理阶段有着更高的效率和更低的成本,使得全球科技巨头纷纷布局云端FPGA生态。
国外包括亚马逊、微软都推出了基于FPGA的云计算服务,而国内包括腾讯云、阿里云均在2017年推出了基于FPGA的服务,百度大脑也使用了FPGA芯片。中国刚刚被Xilinx收购的深鉴科技也是基于FPGA来设计深度学习的加速器架构,可以灵活扩展用于服务器端和嵌入式端。
3、ASIC
ASIC(ApplicationSpecificIntegratedCircuits),即专用集成电路,是一种为专用目的设计的,面向特定用户需求的定制芯片,在大规模量产的情况下具备性能更强、体积更小、功耗更低、成本更低、可靠性更髙等优点。
ASIC与GPU和FPGA不同,GPU和FPGA除了是一种技术路线之外,还是实实在在的确定的产品,而ASIC就是一种技术路线或者方案,其呈现出的最终形态与功能也是多种多样的。
近年来越来越多的公司开始采用ASIC芯片进行深度学习算法加速,其中表现最为突出的是Google的TPU。TPU比同时期的GPU或CPU平均提速15~30倍,能效比提升30~80倍。相比FPGA,ASIC芯片具备更低的能耗与更高的计算效率。但是ASIC研发周期较长、商业应用风险较大等不足也使得只有大企业或背靠大企业的团队愿意投入到它的完整开发中。
AlphaGo就使用TPU,同时TPU也支持着Google的CloudTPU平台和基于此的机器学习超级计算机。此外,国内企业寒武纪开发的Cambricon系列芯片受到广泛关注。华为的麒麟980处理器所搭载的NPU就是寒武纪的处理器。
二、AI芯片技术路线走向
1、短期:GPU仍延续AI芯片的领导地位,FPGA增长较快
GPU短期将延续AI芯片的领导地位。目前GPU是市场上用于AI计算最成熟应用最广泛的通用型芯片,在算法技术和应用层次尚浅时期,GPU由于其强大的计算能力、较低的研发成本和通用性将继续占领AI芯片的主要市场份额。GPU的领军厂商英伟达仍在不断探寻GPU的技术突破,新推出的Volta架构使得GPU一定程度上克服了在深度学习推理阶段的短板,在效率要求和场景应用进一步深入之前,作为数据中心和大型计算力支撑的主力军,GPU仍具有很大的优势。
FPGA是目前增长点,FPGA的最大优势在于可编程带来的配置灵活性,在目前技术与运用都在快速更迭的时期具有巨大的实用性,而且FPGA还具有比GPU更高的功效能耗比。企业通过FPGA可以有效降低研发调试成本,提高市场响应能力,推出差异化产品。在专业芯片发展得足够重要之前,FPGA是最好的过渡产品,所以科技巨头纷纷布局云计算+FPGA的平台。随着FPGA的开发者生态逐渐丰富,适用的编程语言增加,FPGA运用会更加广泛。因此短期内,FPGA作为兼顾效率和灵活性的硬件选择仍将是热点所在。
2、长期:三大类技术路线各有优劣,会长期并存
1)GPU主攻高级复杂算法和通用型人工智能平台
GPU未来的进化路线可能会逐渐发展为两条路,一条主攻高端复杂算法的实现,由于GPU相比FPGA和ASIC高性能计算能力较强,同时对于指令的逻辑控制上也更复杂一些,在面临需求通用型AI计算的应用方面具有较大优势。第二条路则是通型人工智能平台,GPU由于设计方面,通用性强,性能较高,应用于大型人工智能平台够高效地完成不同种类的调用需求。
2)FPGA适用变化多的垂直细分行业
FPGA具有独一无二的灵活性优势,对于部分市场变化迅速的行业非常适用。同时,FPGA的高端器件中也可以逐渐增加DSP、ARM核等高级模块,以实现较为复杂的算法。FPGA以及新一代ACAP芯片,具备了高度的灵活性,可以根据需求定义计算架构,开发周期远远小于设计一款专用芯片,更适用于各种细分的行业。ACAP的出现,引入了AI核的优点,势必会进一步拉近与专用芯片的差距。随着FPGA应用生态的逐步成熟,FPGA的优势也会逐渐为更多用户所了解。
3)ASIC芯片是全定制芯片,长远看适用于人工智能
因为算法复杂度越强,越需要一套专用的芯片架构与其进行对应,而ASIC基于人工智能算法进行定制,其发展前景看好。ASIC是AI领域未来潜力较大的芯片,AI算法厂商有望通过算法嵌入切入该领域。ASIC具有高性能低消耗的特点,可以基于多个人工智算法进行定制,其定制化的特点使其能够针对不同环境达到最佳适应,在深度学习的训练和推理阶段皆能占据一定地位。目前由于人工智能产业仍处在发展的初期,较高的研发成本和变幻莫测的市场使得很多企业望而却步。未来当人工智能技术、平台和终端的发展达到足够成熟度,人工智能应用的普及程使得专用芯片能够达到量产水平,此时ASIC芯片的发展将更上一层楼。
此外,AI算法提供商也有望将已经优化设计好的算法直接烧录进芯片,从而实现算法IP的芯片化,这将为AI芯片的发展注入新的动力。
AI芯片市场分析
一、AI芯片市场概览
2018年全球AI芯片市场规模预计将超过20亿美元,随着包括谷歌、Facebook、微软、亚马逊以及百度、阿里、腾讯在内的互联网巨头相继入局,预计到2020年全球市场规模将超过100亿美元,其中中国的市场规模近25亿美元,增长非常迅猛,发展空间巨大。
目前全球各大芯片公司都在积极进行AI芯片的布局。在云端,Nvidia的GPU芯片被广泛应用于深度神经网络的训练和推理。GoogleTPU通过云服务CloudTPU的形式把TPU开放商用。老牌芯片巨头Intel推出了NervanaNeuralNetworkProcessors(NNP)。而初创公司如WaveComputing、Groq、寒武纪、比特大陆等也加入了竞争的行列,陆续推出了针对AI的芯片和硬件系统。
智能手机是目前应用最为广泛的边缘计算终端设备,包括三星、苹果、华为、高通、联发科在内的手机芯片厂商纷纷推出或者正在研发专门适应AI应用的芯片产品。另外,也有很多初创公司加入这个领域,为包括智能手机在内的众多类型边缘计算设备提供芯片和系统方案,比如寒武纪、地平线等。传统的IP厂商,包括ARM、Synopsys、Cadence等公司也都为手机、平板电脑、智能摄像头、无人机、工业和服务机器人、智能音箱等边缘计算设备开发专用IP产品。此外在终端应用中还蕴藏着IoT这一金矿,AI芯片只有实现从云端走向终端,才能真正赋予“万物智能”。
二、四大场景的芯片赛道
1、数据中心
在云计算数据中心,上游训练端GPU是当仁不让的第一选择。目前GPU的市场格局以英伟达为主(超过70%),AMD为辅,预计未来几年GPU仍然是深度学习市场的第一选择。
下游推理端更接近终端应用,更关注响应时间而不是吞吐率,需求更加细分,除了主流的GPU芯片之外,下游推理端可容纳FPGA、ASIC等芯片。竞争态势中英伟达依然占大头,但随着AI的发展,FPGA的低延迟、低功耗、可编程性(适用于传感器数据预处理工作以及小型开发试错升级迭代阶段)和ASIC的特定优化和效能优势(适用于在确定性执行模型)将凸显出来。
2、自动驾驶
自动驾驶对芯片算力有很高的要求,而受限于时延及可靠性,有关自动驾驶的计算不能在云端进行,因此终端推理芯片升级势在必行。根据丰田公司的统计数据,实现L5级完全自动驾驶,至少需要12TOPS的推理算力,按照NvidiaPX2自动驾驶平台测算,差不多需要15块PX2车载计算机,才能满足完全自动驾驶的需求。
目前,自动驾驶上游系统解决方案逐渐形成英伟达与英特尔-Mobileye联盟两大竞争者。
除了上述两大主力汽车芯片竞争方,百度虽然与英伟达合作密切(Apollo开放平台从数据中心到自动驾驶都将使用英伟达技术,包括TeslaGPU和DRIVEPX2,以及CUDA和TensorRT在内的英伟达软件),却也采用Xilinx的FPGA芯片加速机器学习,用于语音识别和汽车自动驾驶。
3、安防
AI正在以极其声势浩大的节奏全面“入侵”整个安防产业。作为这一波人工智能浪潮最大落地领域——安防,是必争之地。一大批AI芯片厂商扎堆涌入,其中既有AI芯片创业玩家,也有传统安防芯片霸主海思的强势入局。
总的来说,寒武纪、地平线等AI芯片公司提供的安防AI芯片属于协处理器,需要搭配其他公司的摄像机SoC芯片使用。而海思的安防AI芯片本身就是安防摄像机SoC芯片,只是新加入了AI模块——这也是海思安防AI芯片的最大竞争力。
也要看到,AI与AI芯片离大规模快速落地仍有距离,其中一大原因就是工程化困难——尤其是在安防这种产业链漫长而复杂的产业,新技术落地需要长时间的积累与打磨,以及人力资源的不断投入,这些都是摆在AI与AI芯片企业面前的难题。
4、手机终端AI
手机芯片市场的玩家定位包括:
采用芯片+整机垂直商业模式的厂商:苹果,三星,华为等
独立芯片供应商:高通,联发科,展锐等
向芯片企业提供独立IP授权的供应商:ARM,Synopsys,Cadence,寒武纪等
采用垂直商业模式厂商的芯片不对外发售,只服务于自身品牌的整机,性能针对自身软件做出了特殊优化,靠效率取胜。独立芯片供应商以相对更强的性能指标,来获得剩余厂商的市场份额。
从2017年开始,苹果、华为海思、高通、联发科等主要芯片厂商相继发布支持AI加速功能的新一代芯片,AI芯片逐渐向中端产品渗透。由于手机空间有限,独立的AI芯片很难被手机厂商采用。在AI加速芯片设计能力上有先发优势的企业(如寒武纪)一般通过IP授权的方式切入。
高通很有可能在手机AI赛道延续优势地位。近日发布的骁龙855被称为当前最强AI芯片,比起苹果A12、华为麒麟980,性能提升1倍,并将成为全球第一款商用5G芯片。
AI芯片主要厂商介绍
在AI芯片领域,国外芯片巨头占据了绝大部分市场份额,不论是在人才聚集还是公司合并等方面,都具有领先优势。尤其是美国巨头企业,凭借芯片领域多年的领先地位,迅速切入AI领域,积极布局,四处开花,目前处于引领产业发展的地位,并且在GPU和FPGA方面是完全垄断地位。国内AI芯片公司多为中小型初创公司,在一些细分市场也有建树,诞生了多个独角兽企业。
一、国外主要厂商
1、NVIDIA英伟达
目前AI芯片领域主要的供应商仍然是英伟达,占全球AI芯片50%以上市场份额。英伟达保持了极大的投入力度,快速提高GPU的核心性能,增加新型功能,保持了在AI训练市场的霸主地位,并积极拓展终端嵌入式产品形态,推出Xavier系列。
英伟达旗下产品线遍布自动驾驶汽车、高性能计算、机器人、医疗保健、云计算、游戏视频等众多领域。
英伟达拥有目前最为成熟的开发生态环境——CUDA,因其统一而完整的开发套件,丰富的库以及对英伟达GPU的原生支持而成为开发主流,目前已开发至第9代,开发者人数超过51万。
英伟达还将联合芯片巨头ARM打造IoT设备的AI芯片专用IP,这款机器学习IP集成到ARM的ProjectTrillium平台上,以实现机器学习,其技术源于英伟达Xavier芯片以及去年开源的DLA深度学习加速器项目。
2、Intel英特尔
英特尔作为传统PC芯片的老大,也在积极向PC以外的市场转型。
为了加强在AI芯片领域的实力,英特尔收购FPGA生产商Altera,收购自动驾驶技术公司Mobileye,以及机器视觉公司Movidius和为自动驾驶汽车芯片提供安全工具的公司Yogitech,收购人工智能软硬件创业公司Nervana。在数据中心、自动驾驶等重要领域布局扎实。
3、Google谷歌
Google在2016年宣布独立开发一种名为TPU的全新处理系统。在2016年3月打败了李世石和2017年5月打败了柯杰的的AlphaGo,就是采用了谷歌的TPU系列芯片。
TPU是专门为机器学习应用而设计的专用芯片。通过降低芯片的计算精度,减少实现每个计算操作所需的晶体管数量,从而能让芯片的每秒运行的操作个数更高,这样经过精细调优的机器学习模型就能在芯片上运行得更快,加深了人工智能在训练和推理方面的能力,进而更快地让用户得到更智能的结果。
2018年3月GoogleI/O大会推出TPU3.0。据官方数据,TPU3.0的性能是TPU2.0的八倍,高达100petaflops。
CloudTPU是谷歌设计的硬件加速器,为加速、拓展特定tensorflow机器学习workload而优化。每个TPU里内置了四个定制ASIC,单块板卡的计算能力达每秒180teraflops,高带宽内存有64GB。这些板卡既能单独使用,也可通过超高速专用网络连接从而形成“TPUpod”。谷歌已在谷歌云(GCP)开放CloudTPU的计算能力,帮助机器学习专家更快速训练和运行模型。
EdgeTPU的尺寸约为1美分硬币的1/8大小,它可以在较小的物理尺寸以及功耗范围内提供不错的性能,支持PCIe以及USB接口。EdgeTPU优势在于可以加速设备上的机器学习推理,或者也可以与GoogleCloud配对以创建完整的云端到边缘机器学习堆栈。
4、Xilinx赛灵思
2018年3月,赛灵思宣布推出一款超越FPGA功能的新产品——ACAP(自适应计算加速平台)。其核心是新一代的FPGA架构。10月,发布最新基于7nm工艺的ACAP平台的第一款处理器——Versal。其使用多种计算加速技术,可以为任何应用程序提供强大的异构加速。VersalPrime系列和VersalAICore系列产品也将于2019年推出。
Xilinx和Intel两家不约而同把FPGA未来市场重心放到数据中心市场。
二、国内主要厂商
国内AI芯片厂商以中小公司为主,没有巨头,多集中于设备端AIASIC的开发,并已有所建树,如寒武纪成为全球AI芯片领域第一个独角兽初创公司,其NPUIP已被应用于全球首款手机AI芯片——麒麟970。
但是,中国在FPGA、GPU领域缺乏有竞争力的原创产品,只是基于FPGA/GPU做进一步开发,这主要与我国在芯片领域一直缺乏关键核心自主技术有关,FPGA/GPU的技术壁垒已很高,很难有所突破。
1、寒武纪Cambricon
寒武纪创立于2016年3月,是中科院孵化的高科技企业。
2018年5月,寒武纪推出第一款智能处理板卡,搭载了寒武纪MLU100芯片,为云端推理提供强大的运算能力支撑。等效理论计算能力高达128TOPS,支持4通道64bitECCDDR4内存,并支持多种容量。
1M是寒武纪第三代机器学习专用芯片,使用TSMC7nm工艺生产,其8位运算效能比达5Tops/watt(每瓦5万亿次运算)。寒武纪1M处理器延续了前两代IP产品(1H/1A)的完备性,可支持CNN、RNN、SOM等多种深度学习模型,又进一步支持了SVM、K-NN、K-Means、决策树等经典机器学习算法的加速。这款芯片支持帮助终端设备进行本地训练,可为视觉、语音、自然语言处理等任务提供高效计算平台。
寒武纪也推出了面向开发者的寒武纪人工智能软件平台CambriconNeuWare,这是在终端和云端的AI芯片共享的软件接口和生态,包含开发、调试和调优三大部分,体现了创始人陈天石提出的“端云一体”的思路。
2、华为海思Hisilicon
海思半导体成立于2004年10月,是华为集团的全资子公司。
麒麟970集成NPU神经处理单元,是全球第一款手机AI芯片,它在处理静态神经网络模型方面有得天独厚的优势;新一代的麒麟980用于最新的Mate20系列和荣耀Magic2。二者均采用寒武纪的AIIP。
安防是一众AI芯片公司纷纷瞄准的重要落地场景,作为传统安防芯片霸主,海思表示以后的所有IPC芯片新品,都将搭载专用AI模块。
华为近期提出了全栈全场景AI解决方案,发布了两款AI芯片,昇腾910和昇腾310。昇腾910是目前单芯片计算密度最大的芯片,计算力远超谷歌及英伟达,而昇腾310芯片的最大功耗仅8W,是极致高效计算低功耗AI芯片。
3、地平线HorizonRobotics
地平线成立于2015年7月,是一家注重软硬件结合的AI初创公司,由Intel、嘉实资本、高瓴资本领投。
2017年12月,地平线自主设计研发了中国首款嵌入式人工智能视觉芯片——旭日1.0和征程1.0。
旭日1.0是面向智能摄像头的处理器,具备在前端实现大规模人脸检测跟踪、视频结构化的处理能力,可广泛用于智能城市、智能商业等场景。
征程1.0是面向自动驾驶的处理器,可同时对行人、机动车、非机动车、车道线交通标识等多类目标进行精准的实时监测和识别,实现FCW/LDW/JACC等高级别辅助驾驶功能。
地平线今年又推出了基于旭日(Sunrise)2.0的架构(BPU2.0,伯努利架构)的XForce边缘AI计算平台,其主芯片为IntelA10FPGA,典型功耗35W,可用于视频人脸识别、人体分割、肢体检测等功能。
4、比特大陆Bitmain
比特大陆成立于2013年10月,是全球第一大比特币矿机公司,目前占领了全球比特币矿机70%以上的市场。并已将业务拓展至AI领域,于2017年推出云端AI芯片BM1680,支持训练和推断。目前已推出第二代产品BM1682,相较上一代性能提升5倍以上。
BM1880是比特大陆首款面向边缘端计算的低功耗AI协处理器,采用28nm工艺,ARMA53双核架构,RISC-VCPU,其典型功耗2W,int8精度算力能够达到1Tops。
比特大陆提供端云一体化的AI解决方案,与终端AI芯片不同,比特大陆的云端AI芯片将不会单独发售,只搭载在板卡、云服务器中提供给合作伙伴。
比特大陆将其AI芯片落地产业拓展到了四大类,分别是:安防、园区、智慧城市、互联网。
三、互联网巨头入局与新模式
1、互联网巨头入局
全球互联网巨头纷纷高调宣布进入半导体行业,阿里、微软、Google、Facebook、亚马逊等都宣布在芯片领域的动作。当互联网巨头开始进入芯片市场时,会对芯片行业产生巨大的影响。
首先,互联网巨头追求硬件能实现极致化的性能以实现差异化用户体验用来吸引用户。在摩尔定律即将遇到瓶颈之际,想要追求极致体验需要走异构计算,自己定制化芯片的道路,光靠采购传统半导体厂商的芯片,已经没法满足互联网巨头对于硬件的需求,至少在核心芯片部分是这样。因此,Facebook、Google、阿里等互联网巨头都是异构计算的积极拥护者,为了自己的硬件布局或计划设计芯片,或已经开始设计芯片。这么一来,原来是半导体公司下游客户的互联网公司现在不需要从半导体公司采购芯片了,这样的产业分工变化会引起行业巨变。
其次,互联网巨头制造硬件的目的只是为了吸引用户进入自己的生态,使用自己的服务,其最终盈利点并不在贩卖硬件上而是在增值服务上。因此,互联网巨头在为了自己的硬件设计芯片时可以不计成本。
从另一个角度来说,一旦自己设计核心芯片的互联网公司进入同一个领域,那些靠采购半导体公司标准芯片搭硬件系统的公司,就完全没有竞争力了,无论是从售价还是性能,拥有自己核心芯片的互联网巨头都能实施降维打击。一旦这些硬件公司失去竞争力,那么依赖于这些客户的半导体公司的生存空间又会进一步被压缩。
总而言之,互联网巨头进入芯片领域,首先出于性能考虑不再从半导体公司采购核心芯片,这冲击了传统行业分工,使传统芯片公司失去了一类大客户;另一方面互联网巨头的生态式打法可以让自研硬件芯片不考虑成本,这又冲击了那些从半导体公司采购芯片的传统硬件公司,从而进一步压缩了半导体公司的市场。在这两个作用下,半导体芯片公司的传统经营模式必须发生改变才能追上新的潮流。
2、Designless-Fabless模式
目前,半导体行业领域的分工,大概可以分为定义、设计、设计定案、制造等几个环节。
今天的半导体行业,最为大家熟知的是Fabless模式,即芯片设计公司负责定义、设计和设计定案,而制造则是在提供代工的Fab完成;如高通,是Fabless的典型代表。
在互联网巨头入局半导体行业后,又出现了一种新的模式,即互联网公司负责定义芯片、完成小部分设计、并花钱完成设计定案流片,设计服务公司负责大部分设计,而代工厂负责芯片制造。这种新模式可以称为Designless-Fabless模式。
历史上,半导体公司从传统的IDM走到Fabless模式,主要是因为Fab开销过高,成为了半导体公司发展的包袱,而代工厂则提供了一个非常灵活的选项。
今天,互联网公司入局半导体后走Designless-Fabless模式,把大量设计外包,则主要是因为时间成本。互联网巨头做芯片,追求的除了极致性能之外,还有快速的上市时间。对于他们来说,如果要像传统半导体公司一样,需要从头开始培养自己的前端+后端设计团队,从头开始积累模块IP,恐怕第一块芯片上市要到数年之后。这样的节奏,是跟不上互联网公司的快速迭代节奏的。
那么如何实现高性能加快速上市呢?最佳方案就是这些巨头自己招募芯片架构设计团队做芯片定义,用有丰富经验的业界老兵来根据需求定制架构以满足性能需求,而具体的实现,包括物理版图设计甚至前端电路设计都可以交给设计服务公司去做。半导体芯片的一个重要特点就是细节非常重要,ESD、散热、IRDrop等一个小细节出错就可能导致芯片性能大打折扣无法达到需求。因此,如果把具体设计工作交给有丰富经验的设计服务公司,就可以大大减少细节出错的风险,从而减小芯片需要重新设计延误上市时间的风险。
随着分工的进一步细化,原先起辅助作用的设计服务公司,将越来越重要,能够与互联网巨头产生互补效应。不少半导体公司也注意到了设计服务的潮流,并开始向设计服务靠拢。联发科前一阵高调公开设计服务业务,就是半导体公司转向的重要标志。
对于国内的AI芯片初创公司来说,善用这种Designless-Fabless模式,对于缩短产品研发周期,提升产品设计水平,都有很大帮助。
AI芯片展望
一、AI芯片发展面临的问题
目前,AI芯片发展速度虽然很快,但是现在的人工智能新算法也是层出不穷的,这样一来就没有一个具体的标准,也没有对相应的规格进行固定。
其次,现在的人工智能算法都仅仅只是针对于单个应用进行研发的,并没有能够覆盖全方位,所以鲜有杀手级别的AI应用。
在发展过程中,AI芯片首要解决的问题就是要适应现在人工智能算法的演进速度,并且要进行适应,这样才能够保证匹配发展。
此外,AI芯片也要适当的对架构进行创新兼容,让其能够兼容适应更多的应用,这样能够开发出更好的包容性应用。
目前全球人工智能产业还处在高速变化发展中,广泛的行业分布为人工智能的应用提供了广阔的市场前景,快速迭代的算法推动人工智能技术快速走向商用,AI芯片是算法实现的硬件基础,也是未来人工智能时代的战略制高点,但由于目前的AI算法往往都各具优劣,只有给它们设定一个合适的场景才能最好地发挥其作用,因此,确定应用领域就成为发展AI芯片的重要前提。
从芯片发展的大趋势来看,现在还是AI芯片的初级阶段。无论是科研还是产业应用都有巨大的创新空间。从确定算法、应用场景的AI加速芯片向具备更高灵活性、适应性的通用智能芯片发展是技术发展的必然方向。未来几年AI芯片产业将持续火热,公司扎堆进入,但也很可能会出现一批出局者,行业洗牌,最终的成功与否则将取决于各家公司技术路径的选择和产品落地的速度。
二、半导体行业周期:下一个黄金十年
分析半导体市场的历史(如下图),我们会看到典型的周期性现象,即每个周期都会有一个明星应用作为引擎驱动半导体市场快速上升,而在该明星应用的驱动力不足时半导体市场就会陷入原地踏步甚至衰退,直到下一个明星应用出现再次引领增长。这些明星应用包括90年代的PC,21世纪第一个十年的手机移动通信,以及2010年前后开始的智能手机。在两个明星应用之间则可以看到明显的半导体市场回调,例如1996-1999年之间那段时间处于PC和手机之间的青黄不接,而2008-2009年则是传统移动通信和智能手机之间的调整。
半导体过去的十年,是以iPhone为首的智能手机带动的黄金十年。现在的半导体行业,即将进入两个明星应用出现之间的调整期。
谁将成为引领半导体下一个黄金十年的明星应用?
一个应用对于整个半导体行业的驱动作用可以分为两部分,即应用的芯片出货量以及技术驱动力。
半导体行业是一个十分看重出货量的领域,只有应用的芯片出货量足够大时,这个市场才能容下足够多的竞争公司,从而驱动半导体行业。有些应用市场总额很大,但是其走的是高售价高利润率的模式,芯片出货量反而不大,这样的话其对于半导体行业的驱动作用就有限。
除了出货量之外,另一个重要因素是应用的技术驱动力,即该应用是否对于半导体技术的更新有着强烈而持续的要求,因为只有当半导体技术一直在快速更新迭代时,半导体行业才能是一个高附加值的朝阳行业,才能吸引最好的人才以及资本进入,否则一旦半导体技术更新缓慢,整个行业就会陷入僵化的局面。PC时代的PC机就是对半导体有强烈技术驱动力的典型,PC上的多媒体应用对于处理器速度有着永不满足的需求,而这又转化成了对于处理器相关半导体技术强烈而持续的更新需求,直接推动了摩尔定律和半导体行业在90年代的黄金时期。反之,有一些应用的出货量很大但是其对于半导体的技术驱动力并不大,例如传统家电中的主控MCU芯片,这些MCU芯片出货量很大,但是在技术上并没有强烈的进步需求,不少传统家电多年如一日一直在用成熟半导体工艺实现的8位MCU,那么这样的应用对于半导体来说实质上引领作用也比较有限。
应用出货量决定了半导体行业的横向市场规模,而技术驱动力则决定了半导体技术的纵向进化动能。回顾之前几个成为半导体行业引擎的明星应用,无不是出货量和技术驱动力双双领先。PC出货量(在当时)很大,且是当年摩尔定律黄金时代的主推者;移动手机在出货量很大的同时还推动了CMOS/III-V族工艺射频相关电路设计技术的大幅进展;智能手机则更是驱动了多项半导体芯片相关技术的发展,例如2.5D高级封装,用于3D识别的激光模组,触摸屏和指纹相关芯片等,而一个智能手机中包含的半导体芯片数量从射频前端、存储器到惯性传感器数量也极多,因此其能撑起半导体的上一个黄金十年。
所以,能撑起下一个半导体黄金十年的应用,必然在芯片出货量和技术驱动力,这两个维度上都有强劲的动力。
从这个观点出发,可以发现:
只存在于云端的云AI芯片,是作为一种基础设施出现的,归根到底是服务2B客户,因此云AI芯片的出货量相比智能手机这样的智能设备要小很多。技术驱动力很强,但是出货量相对较小。
IoT的出货量很大,但是对于半导体技术发展的驱动力就比较有限。
汽车电子的增长点主要还是汽车的智能化,包括自动驾驶,车联网等等,但是汽车电子的出货量比起智能手机设备少很多。
以上三种应用虽然有巨大的空间,但还不能成为支撑力量。
能够起到支撑作用的,推测应该是在当前智能手机基础上发展起来的下一代个人智能设备,可能是以AI手机的形势呈现。手机首先出货量很大,几乎人手一个;此外AI手机上运行的应用程序的不断更新迭代对于手机中的芯片技术提出了强烈而持续的技术进化需求,因此其对于半导体行业的技术驱动力极强。
附1、未来两种可能的通用AI芯片技术路线介绍
一、类脑芯片
这类AI芯片属于神经拟态芯片,从结构层面去模拟大脑,参考人脑神经元结构和人脑感知认知方式来设计芯片,俗称“类脑芯片”。
类脑芯片在架构上直接通过模仿大脑结构进行神经拟态计算,完全开辟了另一条实现人工智能的道路,而不是作为人工神经网络或深度学习的加速器存在。类脑芯片可以将内存、CPU和通信部件完全集成在一起,实现极高的通信效率和极低的能耗。目前该类芯片还只是小规模研究与应用,低能耗的优势也带来预测精度不高等问题,没有高效的学习算法支持使得类脑芯片的进化较慢,还不能真正实现商用。
目前神经拟态芯片的设计方法主要分为非硅和硅技术。非硅主要指采用忆阻器等新型材料和器件搭建的神经形态芯片,还处于研究阶段。硅技术包括模拟和数字两种。模拟集成电路的代表是瑞士苏黎世联邦理工学院的ROLLS芯片和海德堡大学的BrainScales芯片。数字集成电路又分为异步同步混合和纯同步两种。其中异步(无全局时钟)数字电路的代表是IBM的TrueNorth,纯同步的数字电路代表是清华大学的“天机”系列芯片。
另外,对于片上自学习能力,最近Intel推出了Loihi芯片,带有自主片上学习能力,通过脉冲或尖峰传递信息,并自动调节突触强度,能够通过环境中的各种反馈信息进行自主学习。中国研究类脑芯片的企业还有:西井科技,灵汐科技,深思创芯等。
二、可重构通用AI芯片
这类AI芯片遵循软件定义芯片思想,是基于可重构计算架构的芯片,兼具处理器的通用性和ASIC的高性能与低功耗,是未来通用AI芯片的方向之一。
可重构计算技术允许硬件架构和功能随软件变化而变化,兼具处理器的通用性和ASIC的高性能和低功耗,是实现软件定义芯片的核心,被公认为是突破性的下一代集成电路技术。清华大学微电子学研究所设计的AI芯片Thinker,采用可重构计算架构,能够支持卷积神经网络、全连接神经网络和递归神经网络等多种AI算法。
值得一提的是,DARPA在电子振兴计划(ERI)中提出了三个支柱:材料、架构、设计,用于支撑美国2025-2030年之间的国家电子设计能力。这其中每一个方向都设置了一个课题,其中一个课题在架构中提出了软件定义硬件的概念,也就是SoftwaredefinesHardware。
ERI中讲道:所谓要建立运行时可以实时重新配置的硬件和软件,他们具备像ASIC一样的性能,而没有牺牲数据密集型计算的可编程性。
现今的AI芯片在某些具体任务上可以大幅超越人的能力,但究其通用性与适应性,与人类智能相比差距甚远,大多处于对特定算法的加速阶段。而AI芯片的最终成果将是通用AI芯片,并且最好是淡化人工干预的自学习、自适应芯片。因此未来通用AI芯片应包含以下特征。
1)可编程性:适应算法的演进和应用的多样性。
2)架构的动态可变性:能适应不同的算法,实现高效计算。
3)高效的架构重构能力或自学习能力。
4)高计算效率:避免使用指令这类低效率的架构。
5)高能量效率:能耗比大于5Tops/W(即每瓦特进行5×10^12次运算)。
6)低成本低功耗:能够进入物联网设备及消费类电子中。
7)体积小:能够加载在移动终端上。
8)应用开发简便:不需要用户具备芯片设计方面的知识。
对于可重构架构,大家可能觉得FPGA早就可以这样做了,但实际上FPGA有很多局限性,包括以下这些:
细粒度:由于要实现比特级运算,运算颗粒度必须为细粒度;
配置信息量大:通常为几兆到十几兆字节;
配置时间长:通常需要十几毫秒到几十毫秒;
静态编程:一旦配置完成,不可更改。如果要改变FPGA的功能,只能下电或在线重新载入配置信息;
逻辑不可复用:所有电路必须全部装入FPGA,复用性为零;
面积效率低:每个LUT只能实现一位运算,面积效率只有5%。一个千万级的FPGA只能实现几十万门的逻辑电路;
能量效率低:由于逻辑利用率低,引发无效功耗巨大;
需要特种工艺:FPGA往往需要最先进的制造工艺,且需对工艺进行特别调整;
电路设计技术:应用者必须具备电路设计知识和经验;
成本高昂:目前的FPGA价格为几千到几万美元一片。
目前尚没有真正意义上的通用AI芯片诞生,而基于可重构计算架构的软件定义芯片(softwaredefinedchip)或许是通用AI芯片的出路。
附2:参考文章
[1]AI芯片和传统芯片有何区别?,EETOP,2018-7-20
[2]AI芯片的“战国时代”:计算力将会驶向何方?,AI科技大本营,2018-11-6
[3]16位AI芯片玩家疯狂涌入!安博会成AI芯片阅兵场,智东西,2018-10-24
[4]五大趋势看透2018安博会!AI芯片扎堆涌入,人脸识别成小儿科,智东西,2018-10-23
[5]比特大陆推首款低功耗边缘AI芯片主攻安防场景,智东西,2018-10-17
[6]半导体下一个黄金十年,谁主沉浮?,矽说,2018-11-15
[7]互联网巨头入局芯片,将给半导体产业带来深远变化,矽说,2018-6-24
[8]人工智能芯片发展的现状及趋势,科技导报,2018-9-29
[9]中美AI芯片发展现状与趋势,微言创新,2017-11-02
[10]一文看懂所有类型的AI芯片!(附全球最顶尖AI芯片的企业名录),IT大佬,2018-6-11
[11]AI芯片:一块价值146亿美元的蛋糕,被三大门派四大场景瓜分,IT大佬,2017-12-06
[12]250多位专家对AI芯片未来发展的预测,半导体行业观察,2018-9-30
[13]【世经研究】AI芯片行业发展正当时,世经未来,2018-7-11
[14]AI芯片最新格局分析,半导体行业观察,2018-9-9
[15]AI芯片届巨震!英伟达ARM联手打造数十亿AI芯片|GTC2018,智东西,2018-3-28
[16]华为大转型!AI战略重磅发布,两颗AI芯片问世,算力超谷歌英伟达!,新智元,2018-10-10
[17]华为秘密“达芬奇计划”首曝光!自研AI芯片或重创英伟达,新智元,2018-7-13
[18]独角兽寒武纪已生变数,中国AI芯片抢跑者前路未明,DeepTech深科技,2018-10-11
[19]甲小姐对话陈天石:AI芯片市场广阔,寒武纪朋友遍天下,甲子光年,2018-10-12
[20]清华魏少军:大部分AI芯片创业者将成为这场变革中的先烈,AI科技大本营,2018-3-25
[21]人工智能芯片行业深度研究,天风证券,2017-11-29
[22]碾压华为苹果的AI芯片问世!高通发布全球首款5G芯片骁龙855,新智元,2018-12-5
作者简介:
黄钊hanniman,图灵机器人-人才战略官,前腾讯产品经理,6年AI实战经验,9年互联网背景。
垂直于“AI产品经理”的第一自媒体,微信公众号/知乎/人人都是产品经理等平台ID均为“hanniman”,关注人数近3万;
行业内第一个AI产品经理的成长交流社区-饭团“AI产品经理大本营”的创建者,已运营1年半,成员700人;
200页PPT《人工智能产品经理的新起点》被业内广泛好评,下载量1万+。