Omdia发布《中国人工智能框架市场调研报告》
行业研究机构Omdia(Informatech集团旗下)发布《中国人工智能框架市场调研报告》,指出中国AI框架市场竞争格局与创新趋势。Omdia调研发现,PyTorch、TensorFlow与MindSpore在知名度与市场份额上处于第一梯队。
人工智能随着技术的发展逐渐出现在大众眼前,作为新兴产业,市场规模不断扩大,应用场景也随着人工智能技术的成熟而扩展。从科研创新到产业应用落地,预训练大模型、AIforScience、负责任的AI等已成为全球学术界、产业界的焦点。AI框架是模型算法开发的核心,是支撑人工产业繁荣发展的基础,因此Omdia深入研究了AI框架的发展与产业趋势。
时下,以ChatGPT为代表的大模型获得的瞩目已经超越学术界、产业界,成为所有人的关注的创新成果,而大模型需要有强大的AI框架技术支撑。报告指出预训练大模型的三大趋势:第一,大模型参数量继续呈指数增长态势,“大模型”正走向“超大模型”;第二,大模型正从单模态走向多模态、多任务融合;第三,人工智能框架对大模型的训练有关键性的技术支撑作用。
在支持超大规模模型训练开发方面,全球领先的人工智能框架TensorFlow和PyTorch仍然占据领导地位;同时,开发者认为在中国本土人工智能框架中昇思MindSpore已占据优势地位,原生支持大模型,并孵化出了一系列创新大模型。
Omdia通过与专家深度访谈,发现TensorFlow由于有了JAX这一新生框架的融入,给业界带来更多期待;PyTorch则是依托第三方并行算法库补充了大模型支持能力;在中国本土市场上,百度飞桨和昇思MindSpore由于有独特的中国本土语言和数据优势,更能在支持本土预训练大模型方面取得成功。
在以ChatGPT为代表的AIGC火爆的背后,也出现了“造假”等AI伦理道德问题,人工智能开发者和机构越来越关注“负责任的人工智能”。 Omdia在对开发者的调研中发现,在所有主流人工智能框架中,TensorFlow与MindSpore对“负责任的人工智能”提供的支持能力最好,分别是第一与第二名。
同时,《中国人工智能框架市场调研报告》指出,“负责任的人工智能”既是一套道德准则,又是一套技术体系。“负责任的人工智能”是以安全、可靠和合乎道德的方式开发、评估、部署和规模化人工智能系统的方法。人工智能框架引入众多的技术手段和可信AI功能模块,帮助开发者打造可信AI,帮助开发者和机构解决人工智能的安全隐私等合规性问题,实现人工智能的可持续发展。
在科研创新领域,“AIforScience”也是人工智能行业的前沿热点,人工智能与科学的深度融合正在推动科研范式的创新,给科研领域带来了新的发展机遇。Omdia的分析师认为,与大模型类似,“AIforScience”是AI创新发展的新的重要方向,而人工智能框架对“AIforScience”的发展起着关键的技术支撑作用。“AIforScience”的发展对人工智能框架提出了更高的要求,调研发现,中国的人工智能开发者认为昇思MindSpore是最适合做“AIforScience”项目的国产人工智能框架,其对“AIforScience”的支持能力甚至超过了PyTorch,并有赶超TensorFlow的趋势。
人工智能框架作为AI创新的重要基础,将助力行业加速智能化转型升级。更多人工智能框架调研发现,请查看《中国人工智能框架市场调研报告》。
AI框架:支撑人工智能产业创新
今年以来,大模型带火通用人工智能(AI)赛道。作为人工智能领域的根技术,AI框架相当于AI领域的操作系统。6月16日,以“一起昇思,无尽创新”为主题的人工智能框架生态峰会在上海举行,业界围绕大模型与科学智能领域AI框架技术展开深度交流,共同探讨AI技术创新与行业融合大背景下的AI框架生态模式与场景应用,力图推动人工智能产业创新。
大模型展现产业应用前景
“我是昇思开源社区的一名开发者,‘紫东太初’能否以中国国画的形式现场生成一幅竹林图片?”当一位现场观众提出要求,几秒钟后大屏幕上就出现了一幅竹林水墨画……峰会上,中科院自动化研究所发布的全模态大模型“紫东太初”2.0现场展示的图像生成能力令人惊叹。
除了支持图像生成,“紫东太初”2.0还支持多轮问答、文本创作、3D理解、信号分析等跨模态任务,例如在三维场景里实现精准定位、通过图像与声音的结合完成场景分析等。
中科院自动化研究所所长徐波介绍,“紫东太初”全模态大模型是在多模态大模型“紫东太初”1.0基础上升级打造的2.0版本,在语音、图像和文本三模态的基础上,加入视频、信号、3D点云等模态数据,突破了认知增强的多模态关联等关键技术,具备全模态理解能力、生成能力和关联能力。
“紫东太初”2.0可以理解三维场景、信号等数字物联时代的重要信息,完成了音乐、图片和视频等数据之间的跨模态对齐,能够处理音乐视频分析、三维导航等多模态关联应用需求,并可实现音乐、视频等多模态内容理解和生成。本届峰会首次对外实时展示了该模型在音乐理解与生成、三维场景导航、信号理解、多模态对话等方面的全新功能。
“从1.0到2.0,‘紫东太初’大模型打通了感知、认知乃至决策的交互屏障,使人工智能进一步感知世界、认知世界,从而延伸出更加强大的通用能力。”徐波说。
目前,“紫东太初”大模型在神经外科手术导航、短视频内容审核、法律咨询、医疗多模态鉴别诊断、交通违规图像研读等领域展现出一定的产业应用前景。例如在医疗场景,“紫东太初”大模型部署于神经外科机器人MicroNeuro,可实现在术中实时融合视觉、触觉等多模态信息,协助医生对手术场景进行实时推理判断。
据徐波介绍,基于“紫东太初”2.0的全栈国产化、低代码一站式开发的“紫东太初”开放服务平台已上线,支持公有云、私有云一键部署,使能行业大模型高效率开发。“未来3至5年,包括‘紫东太初’在内的我国大模型技术,将在促进数字经济发展方面发挥重要作用,进一步提升各行业的劳动生产率。”
AI框架支撑大模型“快跑”
“从算法到硬件、算力,‘紫东太初’都是‘中国造’。”中科院自动化研究所紫东太初大模型研究中心常务副主任王金桥介绍,大模型算法为中科院自动化研究所自研,以国产化人工智能硬件和框架作为基础,算力则由武汉人工智能计算中心提供支持,“在国产软硬件的支撑下,我们的大模型一样能跑得很好、很快。”
支撑“紫东太初”的人工智能框架正是华为公司的昇思。据昇思开源社区理事长丁诚介绍:“人工智能框架是人工智能技术体系的核心中坚,向下赋能多样化算力,通过高效调度发挥系统最佳性能;向上孵化各类创新算法模型,给用户提供便捷的操作接口。”
本届峰会上,上海昇思人工智能框架和大模型创新中心正式启动。该创新中心的定位是以华为公司的人工智能框架昇思为基础,支持全国范围的人工智能技术企业、高校与科研院所孵化大模型、研究科学智能技术,进而在互联网、金融、教育等关键产业方向上打造富有竞争力的人工智能应用场景,推动产业集聚。上海人工智能实验室、上海交通大学、中国商飞上海飞机设计研究院、中国科学院上海药物研究所、云从科技等首批22家单位正式入驻创新中心。入驻单位将联合昇思开源社区进行大模型创新与人工智能产学研转化,助力创新中心成为人工智能技术与应用创新的“发源地”。
数据显示,华为昇思自2020年3月28日开源以来,社区已累计1.3万贡献者、474万下载量,服务企业数量5500家、开源模型400多个,与240家科研院所展开合作,发表顶级会议论文超过900篇。具体来看,昇思一方面依托大模型和科学智能创新成果,成立了遥感、流体、多模态三大产业联合体,加速技术成果转化;另一方面向端、边、云全场景开放,适配国内主流的人工智能芯片和硬件设备超过20款。
峰会上,丁诚介绍了昇思开源社区面向未来的四大创新方向,包括基于“构建大模型全流程使能、科学计算新范式”的技术创新,以加速AI新应用的孵化;基于“大模型平台、StudyGroup、极客周、全球开源生态”的运营创新,让社区成果更高效地推广到用户;基于“面向学习、成长、研究的不同阶段开发者提供不同培养模式”的人才创新,培育AI产业土壤;以及基于“建立产业联合体、行业专区等新手段,持续完善多样化算力和硬件支持”的生态创新。
“科学智能”成下一个“爆点”
“作为后发框架,要想技术超越或者领先,核心就是找到AI技术变革的下一条新赛道,只有当新赛道出现的时候才有超车的机会。”丁诚表示。
相对于国际上较早开源的AI框架,昇思的确是后来者。早在三年之前,昇思就开始布局大模型技术,也获得了一系列大模型原生生态创新成果。那么在下一个时代,新赛道是什么?答案很可能是“科学智能”。
“在每一个科学问题里可能都包含着一个基本的数学方程。例如在流体力学计算中会大量消耗算力,但其实数学原理很简单,就是一个纳维-斯托克斯方程的求解。如果用传统方法计算可能需要几十年、上百年算不完的问题,用AI的方式就有可能10倍或者100倍地加速求解。”丁诚解释。
据业内人士介绍,从最新的国际顶级期刊不难发现,从人工智能驱动的蛋白质功能机理探索和理性设计,到基于人工智能的药物发现和药物优化,从酶改造与生物基化学品的生成,再到科学育种与气象预测——不论是微观世界的多尺度探索,还是宏观、微观科学成果的应用,人工智能求解高维函数、解决复杂问题的优势正在持续释放。从生命体的基本组成到世界工业的基本要素,人工智能不仅是解决具体问题的有力工具,更成为重新定义科学问题的系统性思路。
本届峰会上,中国科学院张东辉院士的主题演讲《关于昇思MindSpore在计算化学中应用的设想》介绍了与昇思团队合作研发高性能水团簇分子势能模型,借助AI之力揭示水的种种特性。
“在昇思发布的2.0版本当中提出了科学计算融合架构,目的就是在这个新赛道里获得更多的技术领先机会,打造自己的原生生态。”丁诚表示。
人工智能主流框架简介
转载:https://blog.csdn.net/lyq_csdn/article/details/80632852
一、TensorFlow:
TensorFlow是谷歌基于DistBelief进行研发的第二代人工智能学习系统,其命名来源于本身的运行原理。Tensor(张量)意味着N维数组,Flow(流)意味着基于数据流图的计算,TensorFlow为张量从流图的一端流动到另一端计算过程。TensorFlow是将复杂的数据结构传输至人工智能神经网中进行分析和处理过程的系统。
TensorFlow可被用于语音识别或图像识别等多项机器学习和深度学习领域。
CNN,卷及神经网络。
其实TensorFlow大部分内核并不是用Python编写的:它是高度优化了C++和CUDA(Nvidia用于编程GPU的语言)的组合。相反,通常它是使用了Eigen(高性能C++和CUDA库)和NVidia的cuDNN(用于NVidiaGPU的非常优化的DNN库,用于卷积等功能)。
TensorFlow的模型是程序员用“一种语言”(很可能是Python!)来表达。
所以说,我们再说一下这个问题:为什么TensorFlow选择Python作为表达和控制模型训练而且支持的非常好的语言?答案很简单:Python可能是大量数据科学家和机器学习专家用的最舒适的语言,也是易于集成和控制C++后端的语言,同时也是广泛使用与谷歌的公司内外和他们的开源产品。鉴于使用TensorFlow的基本模型,Python的性能并不重要,这是一个很自然的契合。NumPy也是一个巨大的加分,它可以很容易地在Python中进行预处理(也是高性能),然后将它们提供给TensorFlow,以获得真正CPU-heavy的东西。
二、Caffe(卷积神经网络框架,ConvolutionalArchitectureforFastFeatureEmbedding)
caffe是一个清晰,可读性高,快速的深度学习框架。作者是贾扬清,加州大学伯克利的ph.D,现就职于Facebook。
Caffe的全称应该是ConvolutionalArchitectureforFastFeatureEmbedding,它是一个清晰、高效的深度学习框架,它是开源的,核心语言是C++,它支持命令行、Python和Matlab接口,它既可以在CPU上运行也可以在GPU上运行。它的license是BSD2-Clause。
DeepLearning比较流行的一个原因,主要是因为它能够自主地从数据上学到有用的feature。特别是对于一些不知道如何设计feature的场合,比如说图像和speech。
Caffe的设计:基本上,Caffefollow了神经网络的一个简单假设----所有的计算都是以layer的形式表示的,layer做的事情就是take一些数据,然后输出一些计算以后的结果,比如说卷积,就是输入一个图像,然后和这一层的参数(filter)做卷积,然后输出卷积的结果。
三、MXNet
亚马逊将MXNet指定为官方深度学习平台
目前支持以下的语言:
python
R
C++
Julia
Scala
比较项CaffeTorchTheanoTensorFlowMXNet主语言C++/cudaC++/Lua/cudaPython/c++/cudaC++/cudaC++/cuda从语言Python/Matlab--PythonPython/R/Julia/Go硬件CPU/GPUCPU/GPU/FPGACPU/GPUCPU/GPU/MobileCPU/GPU/Mobile分布式NNNY(未开源)Y速度快快中等中等快灵活性一般好好好好文档全面全面中等中等全面适合模型CNNCNN/RNNCNN/RNNCNN/RNNCNN/RNN?操作系统所有系统Linux,OSX所有系统Linux,OSX所有系统命令式NYNNY声明式YNYYY接口protobufLuaPythonC++/PythonPython/R/Julia/Go网络结构分层方法分层方法符号张量图符号张量图NDArray