2023年中国人工智能基础层行业研究报告
2021年中国人工智能基础层行业研究报告原创艾瑞艾瑞咨询
核心摘要:
算力、算法、数据是人工智能产业发展的三大要素。基于此,艾瑞定义人工智能基础层是支撑AI应用模型开发及落地的必要资源,主要包括智能计算集群、智能模型敏捷开发工具、数据基础服务与治理平台三大模块。发展人工智能基础层可多环节提效AI技术价值的释放,解决需求方人工智能生产力稀缺问题,且依托AI基础层资源,AI企业可有效应对下游客户的长尾应用需求,将其高频应用转化为新主营业务,寻找业务增长突破点。此外,基础层工具属性标志着AI产业社会化分工的出现,AI产业正逐步进入各产业深度参与、双向共建的效率化生产阶段。据艾瑞测算,2020年人工智能基础层市场规模为497亿元,为AI产业总规模的33%,AI芯片的高增长是产业规模增长的主要拉动力。未来,伴随各行业智能化转型的迫切需求,艾瑞认为人工智能基础层的各模块工具有望走向集约型的生产模式,更多企业将自研开源框架,国产的操作系统与数据库等软件配套设施将稳步崛起,算力模块的智能服务器国产化率也将逐步提升。
人工智能基础层定义
支撑各类人工智能应用开发与运行的资源和平台
算力、算法、数据是人工智能产业发展的三大要素。据此,人工智能基础层主要包括智能计算集群、智能模型敏捷开发工具、数据基础服务与治理平台三个模块。智能计算集群提供支撑AI模型开发、训练或推理的算力资源,包括系统级AI芯片和异构智能计算服务器,以及下游的人工智能计算中心等;智能模型敏捷开发工具模块主要实现AI应用模型的生产,包括开源算法框架,提供语音、图像等AI技术能力调用的AI开放平台和AI应用模型效率化生产平台;数据基础服务与治理平台模块则实现AI应用所需的数据资源生产与治理,提供AI基础数据服务及面向AI的数据治理平台。AI基础层企业通过提供AI算力、开发工具或数据资源助力人工智能应用在各行业领域、各应用场景落地,支撑人工智能产业健康稳定发展。
人工智能基础层价值
AI基础层是支撑AI应用模型开发及落地的必要资源
开发一项人工智能模型并上线应用大致需经历从业务理解、数据采标及处理、模型训练与测试到运维监控等一系列流程。过程中需要大量的AI算力、高质量数据源、AI应用算法研发及AI技术人员的支持,但大部分中小企业用户并不具备在“算力、数据、算法”三维度从0到1部署的能力,而财力雄厚的大型企业亦需高性价比的AI开发部署方案。依靠AI基础层资源,需求企业可降低资源浪费情况、规避试错成本、提高部署应用速度。作为支撑AI模型开发及落地的必要资源,AI基础层可在多环节提效AI技术价值的释放;其工具属性也标志着AI产业社会化分工的出现,AI产业正逐步进入低技术门槛、低部署成本、各产业深度参与双向共建的效率化生产阶段。
人工智能基础层进阶之路
粗放式单点工具向集约型、精细化资源演进
智能化转型趋势下,企业部署AI项目的需求正经历着变化,对数据质量、模型生产周期、模型自学习水平、模型可解释性、云边端多样部署方式、人力成本及资金投入、投资回报率等的要求都逐步走高。在上述需求特点及自动机器学习、AI芯片硬件架构等技术发展的共同推动下,AI基础层资源的整体效能水平也在不断进化,以有效降低需求企业的AI开发成本。大致涵盖相互交融的三个阶段:雏形期,算法/算力/数据各模块多为粗放式的单点工具,新兴产品及赛道逐步出现;快速发展期,各赛道活跃度显著提升,参与者积极探索产品形态与商业模式,基础层服务体系逐步完善、资源价值凸显;最后则向成熟阶段过渡,各赛道内企业竞争加剧,逐步跑出头部企业。同时各赛道间企业生态合作增多,一站式工具平台出现。
基础层初步成型是AI产业链成熟的标志
基础层资源促进AI产业链各环节价值传导顺畅、分工明确
现阶段,已初步成型的AI基础层资源可有效缓解下游行业用户逐渐增长的、从感知到认知多类型的AI应用模型开发及部署需求。细看基础层内部,一方面,数据资源、算力资源和算法开发资源三者之间的分工更为明确和有序。数据基础服务及治理平台企业为AI产业链供应数据生产资料;智能计算集群产出高质效的生产力;智能模型敏捷开发工具则负责模型开发及模型训练等,输出AI技术服务能力,提高AI应用模型在各行业的渗透速率与价值空间。另一方面,基础层厂商的数量保持增长、厂商业务范围持续扩大,可提供专业定制化或一站式的基础资源服务。由此,基础层完成AI工业化生产准备,通过直接供应和间接供应的形式,将基础层资源传送到下游的AI应用需求端,产业链向顺畅的资源输送及价值传导方向演进。
AI基础层解决人工智能生产力稀缺问题
基础层资源缓解甲方在对待人工智能投资上的“矛盾”
根据艾瑞2020年执行的CTO调研,2019年超过51%的样本企业AI相关研发费用占总研发费用比重在10%以上,2020年65.9%的企业AI研发占比达到10%以上。一方面是甲方企业不断增长的对智能化转型的强劲需求,一方面则是在AI应用开发与部署过程中企业普遍面临的数据质量(49%)、技术人才(51%)等基础资源配置难点。且目前只有少数企业可以完成AI项目实施前设定的全部投资回报率(ROI)标准,因此甲方企业在投资AI项目时相对审慎。AI基础层资源则可有效缓解甲方利用AI技术重塑自身业务时的投资矛盾,提升模型生产效率,降低部署成本:数据资源集群具备数据采标与数据治理能力,且一站式的数据平台可对实时数据进行统一管理,提高数据利用率;高效的AI算力集群与调度系统可满足模型训练与推理需求,降低总拥有成本(TCO,TotalCostofOwnership);基于算法开发平台演化出的语音识别、计算机视觉、机器学习等专业的AI模型生产平台,可提供高效、一站式的AI模型生产服务。
人工智能基础层产业图谱
人工智能基础层市场规模
AI企业业务突破、智能化转型趋势等多因素驱动产业规模增长
AI企业突破业务增长瓶颈的需求是人工智能基础层发展的驱动力之一。当前人工智能核心产业规模保持线性增长态势,且增速趋于平稳与常态化。为寻求产值增长突破点,AI企业发力探索开拓市场的有效手段。依托人工智能基础层资源建设,AI企业可有效应对下游客户的长尾应用需求,再将高频应用转化为新主营业务。此外“新基建”、半导体自主可控等相关政策扶持、传统行业智能化转型等因素也都在助推人工智能基础层资源的发展。据艾瑞测算,2021-2025年,人工智能基础层市场规模CAGR为38%,整体产业规模发展速度较快、空间较为广阔,总体呈现持续增长的走势。2020年,中国人工智能基础层市场规模为497亿元,为人工智能产业总规模的33%,市场规模相较去年同比增长76%,AI应用模型效率化生产平台创收增长、AI芯片市场规模随着云端训练需求出现较高增长等是同比增速的主要拉动力;2021-2024年同比增速趋于平缓下降,市场开始恢复稳步增长态势。到2025年,中国人工智能基础层市场规模将达到2475亿元,云端推理与端侧推理芯片市场持续走高使得人工智能基础层整体市场同比增速稍有抬升。
算力:超算/数据中心的存量与增量判断
从算力需求与节能减排规定看存量替换与增量增长
现有的超算/数据中心以建设单位为标准,可分为两类:1)以国家或地方为建设单位的G端超算中心,服务对象主要为国家牵头的重点科研单位、高校研究院等,此类超算中心是解决国家安全、科学进步、经济发展与国防建设等重大挑战性问题的重要手段,近两年受国家与地方的高度重视与扶持,建设与升级超算中心的趋势愈加明朗。但由于数据网络安全与计算精度要求高,建设周期较长,此类超算中心的数量在中短期内增长缓慢,长期来看则会成为替换存量与增量增长的贡献主力之一。2)以智能云厂商或IDC服务商为建设供应主体的B端超算/数据中心,为互联网公司、其他类型的企业或事业单位提供主机托管、资源出租、增值或应用服务,是存量与增量市场变化主要推力。
从市场变化趋势来看:1)存量市场:日渐增加的AI计算负载需要处理力更强、能耗承受度更大的数据中心,同时,一系列有关控制数据中心PUE值的节能审查规定相继出台,一味盲目扩建、新建数据中心已难合时宜,促进老旧数据中心绿色化改造的减量替代方案因此诞生。微型、中小型数据中心会逐渐被改造为集约型的大型数据中心,符合节能减排相关标准、机柜数量与异构组合增多的集约型超算/数据中心将在存量市场中占据主流。2)增量市场:考虑到边缘计算可分担AI计算任务、兼具低延时优势,管理边缘计算中心则需要布局相应的大型云端数据中心,故增量市场会被异构的边缘计算数据中心与云端超算或大型数据中心扩充。
算力:云化AI算力
开放共享虚拟AI算力资源,实现AI模型海量训练与推理
AI是一种高资源消耗、强计算的技术,AI算力的强弱直接关联到AI模型训练的精度与实时推理的结果。若企业独立部署AI算力,不仅需要建设或租用机房这类重资产与网络宽带资源,还需要购置物理机、内存、硬盘等硬件设备,而且购置设备存在采购周期不确定、硬件资源过度铺张、专业管理团队缺乏等问题。所以,独立部署AI算力资源是一项耗时耗力的工作。将AI算力云化是一种高效能、低成本的有力解决方案。具备先天性业务优势的云服务商搭建数据中心,先将AI服务器算力资源虚拟化,开放给AI模型开发者,做到按需分配,如给短视频业务的开发者优先配备CPU+GPU方案,而后对算力资源的调度工作进行统一管理。由此,“物美价廉”的算力有序注入各行各业的AI模型中,减轻了井喷式数据爆发所带来的模型训练负担,并能及时根据用户使用情况弹性扩充或缩减虚拟算力资源空间,达到方便、灵活、降本增效的效果。
算力:端-边-云的算力协同
端-边-云实现AI算力泛在,加速AI模型训练与推理
在人工智能与5G等技术的冲击下,设备端产生大量实时数据,若直接上传到云端处理,会对云端的带宽、算力、存储空间等造成巨大压力,同时也存在延时长、数据传输安全性等问题。因此,为缓解云端的工作负载,云计算在云与端之间新增了若干个边缘计算节点,从而衍生出端-边-云的资源、数据与算力协同。在算力协同的业务模式下,靠近云端的云计算中心承担更多的模型训练任务,贴近端侧的各设备主要进行模型推理,而二者之间的边缘侧则负责通用模型的转移学习,帮助云端分散通用模型训练任务、处理实时计算的同时,也解决了终端算力不足、计算功耗大的难题。未来,边缘计算的发展会催生出更适宜边缘计算场景的算力集群异构设计,其异构化程度将会高于传统的数据中心,异构设计的突破将会进一步提高端-边-云的整体计算效能,进而加速AI模型的训练与推理。
算力:AI芯片市场规模
当前以训练需求为主,推理需求将成为未来市场主要增长动力
AI芯片是人工智能产业的关键硬件,也是AI加速服务器中用于AI训练与推理的核心计算硬件,被广泛应用于人工智能、云计算、数据中心、边缘计算、移动终端等领域。当前,我国的AI芯片行业仍处于起步期,市场空间有待探索与开拓。据艾瑞统计与预测,2020年我国AI芯片市场规模为197亿元,到2025年,我国AI芯片市场规模将达到1385亿元,2021-2025年的相关CAGR=47%,市场整体增速较快。从AI芯片的计算功能来看,一开始,因AI应用模型首先要在云端经过训练、调优与测试,计算的数据量与执行的任务量数以万计,故云端训练需求是AI芯片市场的主流需求。而在后期,训练好的AI应用模型转移到端侧,结合实时数据进行推理运算、释放AI功能,推理需求逐渐取代训练需求,带动推理芯片市场崛起。2025年,云端推理与端侧推理成为市场规模增长的主要拉动力,提升了逐渐下滑的AI芯片市场规模同比增速。
算法:智能模型敏捷开发工具商业价值分析
API规模经济+AI应用模型效率化生产平台的杠杆增效
智能模型敏捷开发工具的出现与驱动AI业务的外因以及企业自身的内因紧密相关。从外因看,规模化多场景的业务不断衍生出长尾需求,原有的应用需及时更新;从内因看,囿于开发企业有限的经营成本与AI技术人才,其资源主要投放到现阶段的主营业务,现有人员难以推动业务的智能化改造。对此,可有效解决AI应用模型设计与开发过程中通用或特有问题的智能模型敏捷开发工具逐步成为备选方案。AI开放平台与AI应用模型效率化生产平台作为其中的代表性工具,不仅能减少由0到1的开发成本,而且可降低人工智能市场的参与门槛,提升开发效果。AI开放平台属于API资源的一种,其可帮助技术领先企业开放AI能力与先进资源,从而延伸价值链,形成规模经济与长尾经济,利用开发者的创新应用来反哺开放平台。AI应用模型效率化生产平台可提供较为前沿的技术、经济合理的模型生产经验以及为实现敏捷开发而打包的数据、算力与算法资源。具体而言,其采用自动机器学习技术,很大程度上降低了机器学习的编程工作量、节约了AI开发时间、减轻了对专业数据科学家与算法工程师的依赖,让缺乏机器学习经验的开发者用上AI,加快开发效率。
算法:智能模型敏捷开发工具增长模型
API与定制方案共拓产业广度与深度,AI柔性生产贴近需求
在人工智能产业发展的过程中,智能模型敏捷开发工具可持续拓宽与深挖AI业务的广度和深度。从广度讲,AI开放平台形成平台效应,调用平台API的开发者聚集创新,针对不同业务场景的开发成果数量逐渐增多,提高了技术产品的利用率,打造出轻量化的输出模式、降低单位开发成本,并且构建出动态更新的服务池;与此同时,一站式AI应用模型效率化生产平台逐步填充因场景多元化而衍生出的长尾业务模型,丰富模型供应市场的种类与数量。从深度讲,二者均从业务前端发掘潜在或外显的市场需求,针对刚需应用与高价值环节延伸出多条增量建设与运行需求业务线,瞄准市场风口的同时,敏捷、经济地消化个性化或碎片化需求,根据需求柔性匹配生产。
算法:AI技术开放平台市场规模
产业受API经济带动,主要收入贡献来源为计算机视觉类
随着数据量与AI算力的提升,可落地的场景与算法的交互变得愈加频繁,二者结合开发出的AI应用模型就需要更大量地通过API调用AI技术开放平台的AI技术能力。据艾瑞统计与预测,2020年我国AI技术开放平台市场规模为225亿元,到2025年,相应规模可达到730亿元,2021-2025年的相关CAGR=26%。受API经济兴起的影响,2020年市场规模同比增速走高较快,2021年下滑后恢复平稳态势。按AI技术能力划分,计算机视觉类与语音技术类收入占比达72.2%,是收入的主要贡献来源。人脸识别、人体识别、OCR文字识别、图像识别等构成了计算机视觉类业务的主要技术能力,且计算机视觉类的技术价格相较于其他技术而言更高,应用领域也更为广泛。现阶段的市场集中度相对分散,未来,能持续投入成本、研发出强劲算法的厂商有望占领更多的市场份额,市场集中度亦会因此提升。
算法:AI应用模型效率化生产平台市场规模
集成式的模型开发工具包,产业恰逢伊始,前景有待开拓
AI应用模型效率化生产平台是全栈式的、可实现流水线开发的AI应用模型生产工具。假若每次开发模型都需要算法工程师单独完成从生产到上线的全流程搭建,就会导致很多时间的耗损与AI模型开发成本的浪费。集成了数据、算法与算力的相应开发工具的模型开发工具包——AI应用模型效率化生产平台应运而生。据艾瑞统计与预测,2020年我国AI应用模型效率化生产平台市场规模为23亿元;到2025年,相应规模可达到204亿元,2021-2025年的相关CAGR=49%。2020年,AI应用模型效率化生产平台相关业务拓展相对较快、产品恰逢创收伊始阶段,故同比增速增幅较快。与此同时,因参与技术门槛偏高,具备能力的厂商较少,市场尚未形成稳定状态,市场集中度偏高。
数据:人工智能数据基础服务定义
以AI训练与调优为目的提供的数据采集、标注与质检等服务
人工智能基础数据服务是指为各业务场景中的AI算法训练与调优而提供的数据库设计、数据采集、数据清洗、数据标注与数据质检服务。整个基础数据服务流程围绕着客户需求而展开,最终产出产品以数据集与数据资源定制服务为主,为AI模型训练提供可靠、可用的数据。数据采集、数据标注与数据质检是较为重要的三个环节。数据采集是数据挖掘的基础,提供多源的一手数据和二手数据;数据标注对数据进行归类与标记,为待标注数据增加标签,生产满足机器学习训练要求的机器可读数据编码。数据质检为数据的客观性和准确性设置检验标准,从而为AI算法的性能提供保障。AI基础数据服务商可着重在以上三个环节建立壁垒,以巩固行业地位。
数据:AI基础数据服务市场规模
行业规模稳步向前,图像、语音类内容继续向新兴场景开拓
高质量的数据是提高AI应用模型训练速度与精度的必要准备之一,而行之有效的AI基础数据服务又为提高数据质量奠定了坚实的基础。因而,提供通用化、精细化、场景化的AI基础数据服务才能满足日渐增长的AI应用模型训练需求。据艾瑞统计与预测,2020年我国AI基础数据服务市场规模(含数据采集与标注)为37亿元,到2025年,相应规模可达到107亿元,2021-2025年的相关CAGR=25%,整体增速呈现稳步提升的趋势。从市场细分收入结构来看,图像类与语音类收入占总收入规模的88.8%,是业务的主要构成部分;图像类与语音类收入基本持平,图像类业务以智能驾驶与安防为主,而语音类业务以中英大语种、中国本土方言以及外国小语种为主。目前,行业中也相应地分成了以图像类或语音类为主的供应商阵营,各类供应商将会继续立足于主营业务,深挖现有应用场景的业务细分需求,从而带动未来收入的增长。
数据:面向人工智能的数据治理定义
产生于业务,围绕于AI,追溯于治理
在大数据时代背景下,金融、零售、公安、工业等不同行业的业务场景衍生出诸多应用,多元的AI模型开发需求因此产生。AI模型开发的原材料是数据,但在挖掘模型数据时,往往面临模型与数据无法拉齐的问题,所以需要溯源到前置环节,从一开始就把数据治理的工作做好,面向AI的数据治理这一概念也就由此出现。面向AI的数据治理是指,以具体业务产生的AI模型开发与训练为目的,使用各个数据组件与人工智能技术,对数据进行针对性与持续性的诊治与管理。相比于传统的数据治理,其更新了数据接入、数据汇聚、数据分析的功能,并新增了AI模型开发与应用组件,以应对海量实时数据迸发、模型需及时对接数据等情形。面向AI的数据治理的特点在于,其对接企业现有的数据、积累新的AI数据而非重新进行AI数据的数据库建设,而且提供针对实时数据的处理办法、优先解决业务落地的困难,并持续挖掘具体业务的数据资产价值。
数据:面向AI业务的数据积累与治理模型
锚准方向,双轮驱动为智能化转型速度与质量赋能
在大数据应用的驱动下,具有相当数据规模的企业的多条业务条线往往会产生大量的结构化与非结构化数据,愈加需要企业内部的数据及时融通,但企业不可能完全抛弃现有的数据库系统、更换一套完全符合面向AI业务开发的数据治理系统;另一方面,智能化转型浪潮推动着企业的AI应用开发需求增长,但数据开发缺少统一标准、数据与业务场景割裂,让面向AI的数据治理的工作面临两难的局面。对此,艾瑞认为面向AI的数据治理并非完全舍弃已有的数据治理结构,而是在原有的基础上,进行数据治理结构的改造,让治理工作更多为AI开发服务,从而完成AI业务数据的积累。面向AI的数据治理工作完成后,才能驱动AI应用模型开发高效、高质运行,而模型开发反过来会为面向AI的数据治理工作提供指导。业务系统与数据系统像两个锚准工作方向的齿轮,共同滚动。符合业务场景需求的AI应用模型、MLKGNLP等AI技术加速促进两个齿轮的转动,使企业的业务系统运转效率向高质高效发展,为企业带来更可观的智能化转型业务发展速度与业务服务质量。
数据:面向AI的数据治理市场规模
存在数据中台带来的业务冲击,后期恢复稳步爬坡态势
在数字化转型与智能化转型的大趋势下,数据治理工作一般伴随着数据中台的搭建以及AI应用模型的开发而展开。数据治理属于数据中台的构成组件,数据治理的工作与服务则属于数据中台建设、运营与维护中不可缺少的环节。与此同时,以AI应用模型所需的数据标准去治理数据,结合AI技术提升数据的可用度与模型的训练效率,才能够更好更快地为人工智能业务前端服务,改善供应商的业务流程与消费者的消费体验。据艾瑞统计与预测,2020年我国面向AI的数据治理市场规模为14亿元,到2025年,相应规模可达到50亿元,2021-2025年的相关CAGR=28%。2018年,数据中台概念兴起,其规模在2020年处于爆发点,而数据治理作为数据中台的组件,也于同期迎来增长爆发点,从而带动面向AI的数据治理。2020年后,数据中台市场规模增速开始降温,数据治理也随之回落,面向AI的应用模型开发业务在该过程中的带动作用有限,故2021年的业务同比增速出现拐点。后期,面向AI的应用模型开发业务的带动效应逐步凸显,规模增速呈现稳步爬坡态势。
一站式基础层资源平台
泛在需求下AI模型生产模式的变迁与资源集成
在人工智能由技术落地应用阶段向效率化生产阶段转变的背景下,艾瑞认为人工智能基础层的各模块工具有望走向集约型的生产模式。该模式主要能赋予开发企业以下价值:1)开发方式改进:从客户需求分析到解决方案部署形成独立的闭环,构建端到端的工作流。在强大算力的支持下,完成数据采集、数据标注、数据治理、数据应用、模型设计、参数调优、模型训练、模型测试、模型推理的全栈式流水线生产。2)管理效率提升:将数据、算法与算力委托给专业的服务商,实现一站式托管,打通三者之间的衔接壁垒,提高交互友好性,让开发者专注于业务。3)部署成本降低:集成数据、算法、算力的各个软件与硬件,企业可在一个平台内按需选择自己所缺失的模块组件并自由搭配,有效避免因采购不同供应商的产品或服务而带来的隐性成本损失与显性成本损失。
基础层全栈自主可控展望
自主可控稳步向前,内外兼修
信创产业涉及到核心技术问题,受到国家的大力扶持。比如,2020年12月,财政部、发改委、工信部等部门就联合发布了《关于促进集成电路产业和软件产业高质量发展企业所得税政策的公告》,文中明确指出:国家鼓励的集成电路线宽小于130纳米(含),且经营期在10年以上的集成电路生产企业或项目,第一年至第二年免征企业所得税,可见国家对国产芯片的重视。在信创产业稳步推广的的趋势下,人工智能基础层的各模块也在逐个突破“卡脖子”的关键点,朝着全栈国产化的方向迈进。算法模块相对其他两个模块而言,因开源框架协助,算法开发相对容易,但依然面临开源框架商用版限制的潜在风险,同时,使用开源框架难以友好对接到AI企业的业务逻辑,基于这两点,部分企业已开始自研开源框架并取得一定成效;数据模块的各类操作系统与应用软件在较大程度上仍以国外企业为主导,而国产的操作系统与数据库等软件配套设施正在稳步崛起,已存在相应的产品与服务可供客户选择;算力模块的智能服务器的国产化率逐步提升,AI芯片虽然仍以英伟达的GPU为主导,但国内部分企业开始自研AI芯片,产生了一批针对通用GPU、ASIC与FPGA的先行玩家。总的来说,基础层全栈的自主可控建设还处在萌芽阶段,未来将在“可用”的建设要求上打好根基,向“好用”的状态演变,并且从以政府政策引导为主的局面向以企业产品自由竞争的局面转变。
原标题:《2021年中国人工智能基础层行业研究报告》
阅读原文
AI科普报告(2023):算法、算力、数据和应用
大模型是AI开发的新范式,是人工智能迈向通用智能的里程碑:大模型指通过在大规模宽泛的数据上进行训练后能适应一系列下游任务的模型,本质依旧是基于统计学的语言模型,只不过“突现能力”赋予其强大的推理能力。
大模型的训练和推理都会用到AI芯片的算力支持,在数据和算法相同情况下,算力是大模型发展的关键,是人工智能时代的“石油”。
下载链接:《70+篇半导体行业“研究框架”合集》《42份智能网卡和DPU合集》清华大学:AIGC发展研究1.0版中国AIGC商用场景趋势捕捉指北(2023)通用AI,通用技术,通向何方(2023)276份重磅ChatGPT专业报告AI科普报告:围绕算法、算力、数据和应用(2023)电信网络AI技术白皮书多模态AI研究框架(2023)
大模型算力需求驱动AI服务器行业高景气(2023)
“机器人+”系列:机器人研究框架(2023)
《人工智能AI大模型技术合集》1.算法:大模型——人工智能迈向通用智能的里程碑
大模型就是FoundationModel(基础模型),指通过在大规模宽泛的数据上进行训练后能适应一系列下游任务的模型。大模型兼具“大规模”和“预训练”两种属性,面向实际任务建模前需在海量通用数据上进行预先训练,能大幅提升人工智能的泛化性、通用性、实用性,是人工智能迈向通用智能的里程碑技术。
大模型的本质依旧是基于统计学的语言模型,“突现能力”赋予其强大的推理能力。当前几乎所有参数规模超过千亿的大语言模型都采取GPT模式。近些年来,大型语言模型研究的发展主要有三条技术路线:Bert模式、GPT模式以及混合模式。Bert模式适用于理解类、做理解类、某个场景的具体任务,专而轻,2019年后基本上就没有什么标志性的新模型出现;混合模式大部分则是由国内采用;多数主流大语言模型走的还是GPT模式,2022年底在GPT-3.5的基础上产生了ChatGPT,GPT技术路线愈发趋于繁荣。
GPT4作为人工智能领域最先进的语言模型,在如下四个方面有较大的改进。
1)多模态:GPT4可以接受文本和图像形式的prompt,在人类给定由散布的文本和图像组成的输入的情况下生成相应的文本输出(自然语言、代码等);
2)多语言:在测试的26种语言的24种中,GPT-4优于GPT-3.5和其他大语言模型(Chinchilla,PaLM)的英语语言性能;
3)“记忆力”:GPT-4的最大token数为32,768,即2^15,相当于大约64,000个单词或50页的文字,远超GPT-3.5和旧版ChatGPT的4,096个token;
4)个性化:GPT-4比GPT-3.5更原生地集成了可控性,用户将能够将“具有固定冗长、语气和风格的经典ChatGPT个性”更改为更适合他们需要的东西。
2.算力:AI训练的基础设施
大模型算力成本主要分为初始训练成本和后续运营成本。
初始训练:根据openAI官网数据,每个token(token是服务端生成的一串字符串,以作客户端进行请求的一个令牌)的训练成本通常约为6NFLOPS(FLOPS指每秒浮点运算次数,理解为计算速度,可以用来衡量硬件的性能),其中N是LLM(大型语言模型)的参数数量。1750亿参数模型的GPT-3是在3000亿token上进行训练的。根据openAI官网数据,在训练过程中,模型的FLOPS利用率为46.2%。我们假设训练时间为1个月,采用英伟达A100进行训练计算(峰值计算能力为312TFLOPSFP16/FP32),则测算结果为需要843颗英伟达A100芯片。
运营(推理)成本:运营阶段所需算力量与使用者数量紧密相关。根据openAI官网数据,每个token的推理成本通常约为2NFLOPS,其中N是LLM的参数数量。根据openAI官网数据,在训练过程中,模型的FLOPS利用率为21.3%。同样采用英伟达A100进行推理计算(峰值计算能力为312TFLOPSFP16/FP32)。我们假设GPT-3每日5000万活跃用户,每个用户提10个问题,每个问题回答400字,则测算结果为需要16255颗英伟达A100芯片。
GPT-4为多模态大模型,对算力要求相比GPT-3会提升10倍。GPT-4的收费是8k context为$0.03/1ktoken,是GPT-3.5-turbo收费的15倍($0.002/1Ktokens),因此我们推断GPT-4的参数量是GPT-3的10倍以上,预计GPT-4的算力需求是GPT-3的10倍以上。
国产大模型有望带动国内新增A100出货量超200万颗,使得中国算力市场空间增加2倍以上。我们假设国内百度,华为,阿里,腾讯,字节等前10位头部大厂都会发布自己的大模型。
加速卡国产化率较低,美国制裁加速。根据IDC数据,2021年,中国加速卡市场中Nvidia占据超过80%市场份额。
英伟达推出中国特供版A800,算力与A100基本一致。2022年11月8日,英伟达推出A800GPU,将是面向中国客户的A100GPU的替代产品。A800符合美国政府关于减少出口管制的明确测试,并且不能通过编程来超过它。A800GPU在算力上与A100保持一致,但增加了40GB显存的PCIe版本,但在NVLink互联速度上,A800相较于A100下降了200GB/s的速度。同时,A80080GBSXM版本目前已经不支持16块GPU的成套系统,上限被限制在8块。总的来看,A800能够满足国内市场需求,是A100的平替版本。
3.数据:AI发展的驱动力
数据资源是AI产业发展的重要驱动力之一。数据集作为数据资源的核心组成部分,是指经过专业化设计、采集、清洗、标注和管理,生产出来的专供人工智能算法模型训练的数据。
大模型的训练数据主要来自于维基百科、书籍、期刊、Reddit社交新闻站点、CommonCrawl和其他数据集。OpenAI虽没有直接公开ChatGPT的相关训练数据来源和细节,但可以从近些年业界公布过的其他大模型的训练数据推测出ChatGPT的训练数据来源,近几年大模型训练采用的数据来源基本类似。国内大模型的数据来源和自身优势业务有较强相关性,如百度文心一言大模型的来源主要基于互联网公开数据,包括网页、搜索、图片、语音日均调用数据,以及知识图谱等。
GPT4依靠大量多模态数据训练。GPT4是一个大规模的多模态模型,相比于此前的语言生成模型,数据方面最大的改进之一就是突破纯文字的模态,增加了图像模态的输入,具有强大的图像理解能力,即在预练习阶段输入任意顺序的文本和图画,图画经过VisionEncoder向量化、文本经过普通transformer向量化,两者组成多模的句向量,练习目标仍为next-wordgeneration。根据腾讯云开发者推测,GPT4训练数据中还额外增加了包含正误数学问题、强弱推理、矛盾一致陈述及各种意识形态的数据,数据量可能是GPT3.5(45TB数据)的190倍。
4.应用:AI的星辰大海
AI时代已经来临,最大的市场将是被AI赋能的下游应用市场。如果说AI是第四次工业革命,那么正如前三次工业革命,最大的市场将是被AI赋能的下游应用市场。本轮革命性的产品ChatGPT将极大地提升内容生产力,率先落地于AIGC领域,打开其产业的想象边界。文本生成、代码生成、图像生成以及智能客服将是能直接赋予给下游行业的能力,打开其产业想象的边界。
最直接的应用在内容创作领域。ChatGPT的功能核心是基于文本的理解和分析,与内容创作行业趋同。ChatGPT可用于创建新闻文章、博客文章甚至小说等内容,它可以生成原创且连贯的内容,为内容创作者节省时间和资源。整体生成式AI已用于创建图像,视频,3D对象,Skyboxes等。这大大节省了创作时间,同时带来了多样的创作风格。
ChatGPT解决了机器人的痛点。ChatGPT开启了一种新的机器人范式,允许潜在的非技术型用户参与到回路之中,ChatGPT可以为机器人场景生成代码。在没有任何微调的情况下,利用LLM的知识来控制不同的机器人动作,以完成各种任务。ChatGPT大大改善了机器人对指令的理解,并且不同于以前单一、明确的任务,机器人可以执行复合型的任务。
ChatGPT在芯片设计领域的应用。传统的芯片设计强烈依赖模板而忽视了大量可以复用的优秀数据,同时数据量大导致ChatGPT泛化性更好。此外芯片硬件模块相对单一,有一些成熟范式,芯片设计代码复杂但人工不足,这些都与ChatGPT有很好的互补。AI使得芯片开发成本降低、周期缩短,具备足够多训练数据和AI能力的芯片设计公司竞争优势可能会扩大。
下载链接:走进芯时代(60):AI算力GPU,AI产业化再加速,智能大时代已开启走进芯时代(58):高性能模拟替代渐入深水区,工业汽车重点突破走进芯时代(57):算力大时代,处理器SOC厂商综合对比走进芯时代(49):“AI芯片”,AI领强算力时代,GPU启新场景落地走进芯时代(46):“新能源芯”,乘碳中和之风,基础元件腾飞走进芯时代(43):显示驱动芯—面板国产化最后一公里走进芯时代(40):半导体设备,再迎黄金时代本号资料全部上传至知识星球,更多内容请登录智能计算芯知识(知识星球)星球下载全部资料。免责申明:本号聚焦相关技术分享,内容观点不代表本号立场,可追溯内容均注明来源,发布文章若存在版权等问题,请留言联系删除,谢谢。温馨提示:请搜索“AI_Architect”或“扫码”关注公众号实时掌握深度技术分享,点击“阅读原文”获取更多原创技术干货。智能算力,数字经济新引擎
位于浙江杭州的算力小镇,以产学研一体的算力研究院与超算企业为抓手,有力助推城市的创新转型与发展。图为从空中俯瞰中国(杭州)算力小镇。龙巍摄
每秒百亿、千亿次的浮点运算能力,拍字节(PB)级的数据存储规模……许多人可能对这些指标没有太多概念,但如果说起春节档电影中的特效、渲染和人脸识别、智能客服、语音翻译等应用,大家应该不会感到陌生。
看得见的应用背后,是看不见的智能算力在支撑。基于最新人工智能理论、采用领先人工智能计算架构,提供算力服务、数据服务和算法服务的智能计算中心(简称“智算中心”),在推进人工智能和数字经济发展中发挥着重要作用。近日,由国家信息中心联合浪潮信息发布的《智能计算中心创新发展指南》(以下简称《指南》)显示,全国目前有超过30个城市正在建设或提出建设智算中心,整体布局以东部地区为主,并逐渐向中西部地区拓展。智算中心的创新发展,有望成为带动人工智能及相关产业快速发展的新引擎。
算力资源是数字经济发展的重要底座
前不久,位于浙江宁波高新区的人工智能超算中心(一期)项目正式上线运营,可提供100P(即PFLOPS,1PFLOPS=1千万亿次浮点运算/秒)的半精度人工智能算力;在天津,智能计算中心项目一期工程于去年底完工,项目覆盖850余家企业及科研院所,达成意向合作算力空间120P;去年5月正式上线的成都智算中心,近期集中签约多个项目,聚焦智慧医疗、智慧办公等应用场景……
算力资源是数字经济发展的重要底座。随着数字经济蓬勃发展,数字化新事物、新业态、新模式推动应用场景向多元化发展,算力规模不断扩大,算力需求持续攀升。工信部日前发布的数据显示,2022年,全国在用数据中心机架总规模超过650万标准机架;近5年,算力总规模年均增速超过25%。
当算力在千行百业落地应用时,不同精度的算力需要“适配”多样化的应用场景。特别是随着人工智能技术的高速发展,算力结构也随之演化,对智能算力的需求与日俱增。
“通用计算的概念区别于智能计算、超级计算等专用计算,是指原有CPU和GPU协同工作提供的通用型算力,其中CPU承担主计算工作,GPU用于图像处理,适用范围更广。但在人工智能计算场景下,其计算效率较低,相同浮点运算次数下,需要消耗更多算力资源。”阿里云相关技术专家介绍,智能计算则是以异构计算资源为核心,通常面向人工智能训练和推理的需求,因其专用性,在面向人工智能场景时性能和能耗更优。
国际数据公司(IDC)等发布的数据显示,2022年,我国智能算力规模达到268百亿亿次/秒(EFLOPS),超过通用算力规模;预计未来5年,我国智能算力规模的年复合增长率将达52.3%。“智能算力规模持续快速增长,智算中心适应产业需求的变化,提供一种更好更新的计算力供给模式。未来,智算中心将成为智慧时代主要的计算力生产中心和供应中心。”国家信息中心信息化和产业发展部主任单志广认为。
智算中心发展呈现新趋势,为各类技术创新提供支撑
近年来,从国家到地方再到各类市场主体,都在大力推进算力资源布局建设,智算中心发展呈现算力的规模需求快速增加、围绕算法的服务模式持续完善、普适朴实普惠的服务生态逐步构建、绿色低碳的发展格局加速形成等新趋势。
单志广解释,智算中心能够提供大规模数据处理和高性能智能计算支撑,将经济、社会、产业中各种模型和经验“固化”下来,形成了新的生产力;大规模、大参数量预训练模型的出现,又使“预训练大模型+下游任务微调”的新范式,成为解决人工智能技术落地难问题的突破口;智算中心形成集算力、算法、数据、运营于一体的服务生态,加快了人工智能的普惠化;随着人工智能服务器功率密度的提升和应用场景的不断拓展,液冷等节能降耗新技术将得到进一步推广应用。
过去一年,人工智能应用向纵深发展:利用AI技术自动生成内容的生产方式(AIGC)打造的“数字人”效果媲美真人水平;人工智能预测蛋白质结构给基础研究带来全新的研究手段;人工智能驱动的聊天机器人能够学习和理解人类的语言并与人类进行对话;华为云开发的“盘古气象大模型”在预报台风轨迹和登陆时间方面大显身手……
人工智能是创新的加速器,智算中心则可以为各类技术创新提供支撑。一方面,智算中心可以为构建安全可信、可复用的技术研发环境提供算力设施支撑,为各领域科技研发提供智能计算服务,加速科技研发的进程;另一方面,智算中心是新一代信息技术的集成应用载体,智算中心的快速建设推广与规模化应用将推动通信服务网络、大数据、人工智能等技术的快速迭代,从而促进技术创新。
2022年8月,阿里云推出全栈智能计算解决方案“飞天智算平台”,支撑建设两座超大规模智算中心。其中,张北智算中心算力建设规模为12百亿亿次/秒,乌兰察布智算中心建设规模为3百亿亿次/秒,为用户提供智能计算服务、支撑行业创新。北京大学化学与分子工程学院靶向药物研究就受益于此。研究团队通过应用智能计算解决方案,构建了“超大规模蛋白—配体复合物动力学”数据集,计算效率大为提升,为人工智能辅助的活性预测模型提供了数据基础。
智算中心还为新业态提供了土壤。比如,智能网联汽车行业就在智能算力的支撑下驶上“快车道”。今年1月,毫末智行科技有限公司建立每秒浮点运算达到67亿亿次的智算中心,有效降低了自动驾驶模型训练成本,大幅提升了计算效率,车端感知架构实现升级。根据《指南》的测算,“十四五”期间,在智算中心实现80%应用水平的情况下,城市对智算中心的投资,可带动人工智能核心产业增长约2.9至3.4倍;智算中心能够带动人工智能及相关产业倍速增长,成为经济增长的新动力。
以应用为导向,坚持开源开放、集约高效、绿色普惠原则建设智算中心
从政策层面看,我国高度重视人工智能产业发展,智能算力发展的基础逐渐夯实。
2017年出台的《新一代人工智能发展规划》就提出“建立人工智能超级计算中心”;2020年,国家发改委将“以数据中心、智能计算中心为代表的算力基础设施”纳入新型基础设施建设;2021年7月印发的《新型数据中心发展三年行动计划(2021—2023年》提出“加快高性能、智能计算中心部署”;2022年1月,国务院印发《“十四五”数字经济发展规划》提出“打造智能算力、通用算法和开发平台一体化的新型智能基础设施”;随着“东数西算”工程全面实施,智算中心建设也进入了加快发展的新阶段。
单志广认为,智算中心在发展过程中也存在概念认知不清晰、建设标准不统一、应用场景不丰富、运营模式不成熟等问题。“比如,智能计算中心建设的架构体系、数据接口、信息安全、软硬件规范等方面仍缺少较为通用的标准体系,将带来属地化、碎片化风险,不利于跨区域协同创新和生态构建。”他举例说。
针对智算中心发展的新形势和挑战,单志广表示,智算中心应以应用为导向,坚持开源开放、集约高效、绿色普惠的建设原则。一方面,智算中心的建设要以开放硬件和开源软件为主,融合多元算力,实现算力的聚合、调度、释放,让智算中心“用起来、用得好”;另一方面,要朝着标准化、集约化、低门槛和绿色低碳方向发展,通过算力+算法的一体化、基建化,发挥出智算中心普惠高效的赋能效果。“要让智能算力像水、电一样,成为城市的公共基础资源,为用户提供功能丰富、使用便捷的智能算力、算法服务和个性化开发服务,实现‘带着数据来、拿着成果走’。”单志广说。
浪潮信息高级副总裁刘军认为,智算中心的很多“技术组件”已经具备了一定的发展基础,关键是如何基于已有的技术基础进行相应集成与融合,面向人工智能应用提供算力、算法以及相应的服务。
算力就是生产力,智能算力就是创新力。单志广表示:“新基建要通过打通数据流、打通信息的‘大动脉’来支撑各类创新。智能计算将为经济增长提供数字转型、智能升级、融合创新的新动力。”
《人民日报》(2023年02月06日19版)
(谷业凯)
【责任编辑:程尔凡】