博舍

人工智能芯片发展 (1 人工智能芯片发展历程简述怎么写

人工智能芯片发展 (1

人工智能技术随着以深度学习为核心算法的大力发展,目前已经在场景识别,语音识别等方面迅猛发展;

影响人工智能的三大要素:数据算法算力

其中算力是实现算法的重要基础,人工智能芯片也处于这个时代的战略至高点。

目前人工智能芯片分为三类:

a.AI加速芯片-(GPU,FPGA,DSP,ASIC等)

b.类脑仿生芯片

c.通用AI芯片

 

AI加速芯片

用于机器学习,特别是深度学习的网络训练和推理使用;是在现有芯片架构的基础上,对某类特定的算法和场景进行加速---考虑因素计算速度,功耗,成本等

设计思路:

利用已有的GPU,DSP,众核处理器等芯片以异构计算的方式实现;2.

设计专用的ASIC芯片;

注:异构计算(HeterogeneousComputing)是指使用一种以上处理器的系统,如CPU+GPU;

1.GPU

gpu,是一种由大量核组成的大规模并行处理框架,用于处理图形显示的任务。

深度学习中神经网络训练过程计算量极大,而且数据和运算是可以并行的,GPU具备这种能力,并且为浮点矢量计算配备计算资源,两者有共同点。因此最先被考虑。

缺点:不能支持复杂程序逻辑控制,需要CPU配合完成完整的计算系统;

2.DSP

DSP,大规模集成电路芯片。用于完成某种信号处理任务的处理器,针对滤波,矩阵运算,FFT等需要大量乘法加法运算的特点,DSP内部配有独立的乘法器加法器,提高运算速度。

因此,可以在dsp内部加入针对神经网络的加速部件,如矩阵乘和累加器/全连接的激活层和池化层等;

优点:高速/灵活/体积小/低功耗/可编程--适合用于终端设备,如手机/摄像头

3.众核处理器

众核处理器是将多个处理器整合到单个芯片上。例:inter的MIC架构,应用场景:高性能计算/工作站/数据中心

特点:核增多会增加芯片面积和功耗,但是性能会提高/增加运算部件和指令发射带宽会增加面积,也会拉长信号传输线路,增加延迟;

4.ASIC

asic,为专门目的设计的,面向用户特定需求的定制芯片;分为全定制和半定制;

半定制是使用库中标准逻辑单元,设计时从库中选择门电路/加法器/比较器/数据通路/存储器/IP核等;

目前大多公司采用的都是ASIC芯片进行深度学习加速,比如google的TPU,寒武纪的AI芯片(与华为合作,NPU)也是;

 

类脑仿生芯片

区别于冯诺依曼架构,采用人脑神经元结构设计芯片来提升计算能力,以完全拟人化为目标,追求在芯片架构上不断逼近人脑,这类芯片成为类脑芯片。

神经元接受刺激,其细胞膜内外带电离子分布发生变化,形成电位差,电位差沿着神经细胞轴突/树突双向传导,形成脉冲电流。而当电信号传递到突触时,突触前神经元释放神经递质由突触后神经元接受神经递质产生兴奋,并向下传递作用于人体发生反应。

类脑芯片架构就是模拟人脑的神经突触传递结构,每个神经元的计算都是在本地进行的,且只负责自己的一小部分。

目前相对还处于概念阶段,已经有的比如:IBMTrueNorth,浙大的达尔文;

 

参考文档:https://www.ednchina.com/news/20180131AI.html

 

通用AI芯片

目前没有真正意义上的通用AI芯片,都是基于重构计算架构的软件定义芯片;

软件定义芯片,就是让芯片根据软件进行适应和调整,就是将软件通过不同的管道输送到硬件中来执行功能,使芯片能够实时的根据软件、产品、应用场景的需求改变架构和功能,实现更加灵活的芯片设计。

例:清华大学微电子学院研究所设计的AI芯片Thinker

 

参考论文:人工智能芯片发展的现状及趋势—尹首一

人工智能(AI)的简介及AI芯片的现状发展

人工智能(AI)简介及AI芯片现状发展

人工智能(ArtificialIntelligence),英文缩写为AI。它是研究、开发用于模拟、延伸和扩展人的智能的理论、方法、技术及应用系统的一门新的技术科学。

人工智能是研究使计算机来模拟人的某些思维过程和智能行为(如学习、推理、思考、规划等)的学科,主要包括计算机实现智能的原理、制造类似于人脑智能的计算机,使计算机能实现更高层次的应用。人工智能将涉及到计算机科学、心理学、哲学和语言学等学科。可以说几乎是自然科学和社会科学的所有学科,其范围已远远超出了计算机科学的范畴,人工智能与思维科学的关系是实践和理论的关系,人工智能是处于思维科学的技术应用层次,是它的一个应用分支。从思维观点看,人工智能不仅限于逻辑思维,要考虑形象思维、灵感思维才能促进人工智能的突破性的发展,数学常被认为是多种学科的基础科学,数学也进入语言、思维领域,人工智能学科也必须借用数学工具,数学不仅在标准逻辑、模糊数学等范围发挥作用,数学进入人工智能学科,它们将互相促进而更快地发展。

深度学习作为人工智能研究的一个重要课题,其经常涉及到训练(Training)和推断(Inference)这两个词。

在学校中学习——我们可以将其看作是深度神经网络经历「学习」阶段的一种类比。神经网络和大多数人一样——为了完成一项工作,需要接受教育。更具体地说,经过训练(training)的神经网络可以将其所学到的知识应用于数字世界的任务——识别图像、口语词、血液疾病,或推荐某人之后可能会购买的鞋子等各种各样的应用。神经网络的这种更快更高效的版本可以基于其所训练的内容对其所获得的新数据进行「推导」,用人工智能领域的术语来说是「推理(inference)」。

推理(Inference),就是深度学习把从训练中学习到的能力应用到工作中去。推理无需训练也能发生。这当然说得通,因为我们人类大多时候就是这样获取和使用知识的。正如我们不需要一直围着老师、满载的书架或红砖校舍转也能阅读莎士比亚的十四行诗一样,推理并不需要其训练方案的所有基础设施就能做得很好。

训练需要密集的计算,如果该算法告诉神经网络它错了,它依然不知道什么才是正确的答案。这个错误会通过网络的层反向传播回来,该网络则须做出新的猜测。在每一次尝试中,它都必须考虑其它属性——在我们的例子中是「猫」的属性——并为每一层所检查的属性调整权重高低。然后它再次做出猜测,一次又一次……直到其得到正确的权重配置,从而最终可以在所有的尝试中都能几乎得到正确的答案,知道这是一只猫。

GPU具备并行计算(同时进行多个计算)能力,既擅长训练,也擅长推理。使用GPU训练的系统可以让计算机在某些案例中实现超过人类水平的模式识别和对象检测。训练完成后,该网络可被部署在需要“推理”(对数据分类以“推理”出一个结果)的领域中。而具备并行计算能力的GPU可以基于训练过的网络运行数十亿的计算,从而快速识别出已知的模式或对象。

你可以看到这些模型和应用将会越来越聪明、越来越快和越来越准确。训练将越来越简单,推理也将为我们生活的方方面面带来新的应用。人工智能芯片是人工智能发展的基石;是驱动智能产品的大脑;是数据、算法、算力在各类场景应用落地的基础依托。“无芯片不AI”的观念已经深入人心,成为业界共识。随着人工智能产业的持续高速发展,AI在智能安防、无人驾驶、智能手机、智慧零售零售、智能机器人等几大行业不断落地,工信部提前发放5G商用牌照,人工智能和5G将引爆下一轮智能化热潮。

近年来,传统芯片厂商、科技巨头、应用层厂商及初创企业纷纷开始涉足其中,不仅力求加快芯片国产化进程,也试图抢占市场主动。同时,对于国内厂商来说,在芯片产业链,甚至整个AI行业格局未定的态势下,一旦通过AI芯片实现“弯道超车”,杀出重围,将有机会成为行业领军者,其诱惑可谓巨大。

在国内,以华为海思、寒武纪、地平线、阿里平头哥等为代表的“造芯新势力”已经崛起。华为海思凭借多年自主研发和经验积累,整合NPU的麒麟系列SOC芯片已经成为全球炙手可热的AI计算平台和解决方案。阿里凭借“平头哥”填补了自己在AI芯片上的空白,并已推出首款“含光800”云端推理芯片,上升势头迅猛,是国内不可轻视的一股新兴力量。同时,寒武纪、地平线等厂商也相当活跃,陆续推出自研芯片产品,成为国内AI芯片阵营中的佼佼者。此外,百度、依图、云知声、思必驰、出门问问、Rokid等应用层厂商,也不在拘泥于算法,而是积极向产业链上游靠拢,或是联合芯片厂商研发芯片,或是自研芯片,以提升自身竞争力。

从公司总部所在地来看,北京有11家AI芯片公司,其中包括互联网巨头百度、老牌微处理器芯片设计公司北京君正,以及科创板上市的寒武纪。上海有9家,包括无线通信处理器厂商紫光展锐,以及融资超过20亿的初创公司壁仞科技。深圳有4家,包括华为海思,以及“AI四小龙”之一的云天励飞。此外,珠海和杭州各有2家,福州有1家。

从AI应用场景来看,智能安防、物联网和智能语音是最为热门的应用。云端AI训练和推理对算力性能和设计团队的要求比较高,相应的AI处理器设计公司也不多。除了百度和阿里等互联网巨头外,遂原科技和天数智芯是针对这一高性能计算领域的初创公司。

一些AI芯片初创公司相信,其产品无论是在成本、效率、性能还是在深度学习工作负载的灵活性方面,它们都可以超越芯片巨头。

研究公司GlobalMarketInsights今年的一份报告显示,全球人工智能加速芯片的市场规模预计将以每年35%的速度增长,从2019年的80亿美元增长到2026年的700亿美元。在国外,龙头老大Nvidia已经占据了人工智能算力领域的主导位置。在数据中心领域,即使有一些初创公司推出训练和推理加速芯片,但是想要取代Nvidia需要相当长的时间。首先,大规模部署芯片对于产品的可靠性有相当高的需求,而且分布式系统是一个系统工程,需要芯片在各类指标上(不只是算力,还包括通信,接口带宽等)都达到优秀的指标,光这一点就需要初创公司相当多的时间去打磨。此外,Nvidia更高的壁垒在于开发者生态,需要开发出一个易用的编程模型和相关编译器的难度并不亚于设计芯片,而要孵化开发者生态则需要更多的时间。我们认为,至少在未来3-5年内,Nvidia在数据中心的地位难以被撼动。

2000年之后,全球GPU市场中只剩下NVIDIA和AMD两个玩家,AMD也只在2004-2005年市场份额短暂超过NVIDIA,其余时间NVIDIA一直相对AMD保持着巨大的优势。数据显示,在2018年第四季度,两者的差距扩大到了极致,在当时的GPU市场中,NVIDIA份额超过81%,而AMD的市场份额只有19%。绝对的市场主导地位,让NVIDIA直接把RTX2000系列的高端消费级显卡卖到了上万元。然而到了2019年,AMD率先推出全球首款7nm游戏显卡AMDRadeon™Ⅶ,一举扭转了局势。2019年的GPU市场,AMD的份额上涨了近10个百分点,相应的NVIDIA的市场份额下降了近10个百分点,2020年这个趋势仍在持续。

目前来看,虽然Intel、AMD和NVIDIA都是三家美国企业,但对他们之间的竞争态势,我们却不能只是看热闹。

一方面,我们目前无法摆脱对这些通用芯片巨头的依赖。无论是CPU还是GPU,目前全球也只有这三家公司能够设计生产,国产自研芯片虽然有了一些成果并且已经可以投入市场,但想要做到完全替代Intel、AMD和NVIDIA的产品,目前还并不现实。而这些通用芯片除了应用于消费级市场,用在台式机电脑和笔记本电脑上,还被大规模的应用于服务器中。更进一步说,其实目前蓬勃发展的云计算技术,就需要大量的服务器支持,并不能摆脱对Intel、AMD和NVIDIA这些通用芯片巨头的依赖。

另一方面,这些通用芯片巨头早已不是单纯只做通用芯片。Intel、AMD和NVIDIA三大通用芯片巨头固然是做CPU、GPU这类通用芯片起家的,目前主要做得也还是这些,但却绝不局限于此。Intel从2014年就开始做AI芯片,目前其AI芯片发展已经进入成熟阶段。除了自研基于CPU、GPU的AI芯片外,还收购了Moviduis、Nervana及Habana等AI芯片公司。AMD在AI芯片方面同样也在努力进取。NVIDIA的GPU之前被大量应用于人工智能计算,目前NVIDIA无论硬件、抑或软件算法在人工智能领域都颇为领先。除此之外,NVIDIA近期努力推进收购ARM的事项,一旦NVIDIA完成对ARM的收购,那么国产自研基于ARM指令集的芯片都会大受影响。

总之,我们既没有摆脱对这些通用芯片巨头的依赖,Intel、AMD和NVIDIA三巨头的影响力又不仅限于通用芯片。三巨头之间的大战,最后终将对我国产生直接影响。而要想摆脱这种局面,归根结底还是需要国产芯片、国产半导体产业尽快发展。

fqj

版权声明:本文内容由互联网用户自发贡献,该文观点仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌抄袭侵权/违法违规的内容,一经查实,本站将立刻删除。

上一篇

下一篇