《AI算力产业链全景梳理(研究报告).docx》由会员分享,可在线阅读,更多相关《AI算力产业链全景梳理(研究报告).docx(20页珍藏版)》请在第一文库网上搜索。
1、A1算力产业链全景梳理(研究报告)一.AI有望明显拉动算力基础设施投资1.1 ChatGPT爆红引发了人们对于人工智能发展的高度关注人工智能(AI)是指由机器展示的智能,即计算机基于大数据模拟人脑的各项功能,例如推理、视觉识别、语义理解、学习能力及规划与决策能力等。人工智能生成内容(AIGC)是指利用人工智能技术来生成内容,包括绘画、作曲、剪辑、写作等。AIGC的萌芽可追溯到上世纪50年代,90年代从实验性向实用性逐渐转变,但受限于算法瓶颈,无法直接生成内容,从21世纪10年代开始,随着以生成对抗网络(GAN)为代表的深度学习算法的提出和迭代,AIGC迎来了快速发展阶段。市场需求推动AIGC技
2、术加速落地。1)降低人力和时间成本:AIGC可以帮助人们完成许多繁琐工作,从而节省人力资本和工作时间,并可以在相同的时间内产出更多内容。2)改善内容质量。AIGC被认为是继专业生产内容(PGC)、用户生产内容(UGC)之后的新型内容生产方式。尽管PGC和UGC的内容更具多元化、个性化,但受限于激励措施和创作者自身因素影响,市场存在供给不足的现象。3)促进产业数字化,助力数字经济发展。产业数字化是数字经济的融合部分,是传统产业应用数字技术所带来的生产数量和效率提升,其新增产出构成数字经济的重要组成部分,AIGC为数字经济提供了重要的数据要素。ChatGPT的爆红引发了人们对于人工智能发展的高度关
3、注。2023年11月30日,OpenAI发布语言模型ChatGPTo该模型采用对话的形式与人进行交互,可以回答后续问题、承认错误、挑战不正确的前提、拒绝不适当的请求。ChatGPT不仅在日常对话、专业问题回答、信息检索、内容续写、文学创作、音乐创作等方面展现出强大的能力,还具有生成代码、调试代码、为代码生成注释的能力。1.2 人工智能需要强大算力支撑以ChatGPT为代表的人工智能应用在运行背后需要强大的算力支撑。OpenAI在2018年推出的GPT参数量为1.17亿,预训练数据量约5GB,而GPT-3参数量达1750亿,预训练数据量达45TBo在模型训练阶段,ChatGPT的总算力消耗约为3
4、640PF-days,总训练成本为1200万美元,在服务访问阶段则会有更大消耗。效舶来源:OpenAI.中信建投刎NVIDtA,中值建投IDC数据显示:2023年全球人工智能IT投资额为929.5亿美元,预计2026年将增至3014.3亿美元,复合年增长率约26.5%o2026年中国市场AI投资预计将达266.9亿美元,约占全球投资8.9%,居世界第二位,复合年增长率约21.7%o未来五年,硬件将成为中国人工智能最大的细分市场,占人工智能总投资的50%以上。IDC预测,2026年,中国在人工智能硬件市场的IT投资将超过150亿美元,接近美国人工智能硬件的市场规模,五年复合年增长率16.5%o服
5、务器作为硬件市场的主要组成部分,预计将占总投入的80%以上。人工智能的发展将对算力提出更高要求,算力网络基础设施需求有望持续提升。根据中国信通院数据,2023年全球计算设备算力总规模达到615EFIops(每秒浮点运算次数),同比增长44%,其中基础算力规模为369EF1oPs,智能算力规模为232EFIops,超算算力规模为14EFIops,预计2030年全球算力规模将达到56ZFIps,平均年均增长65%o我国智能算力规模持续高速增长,2023年智能算力规模已经超过通用算力。根据中国信通院数据,我国计算设备算力总规模达到202EFIops,全球占比约为33%,保持50%以上的高速增长态势,
6、增速高于全球,其中智能算力增长迅速,增速为85%,在我国算力中的占比超过50%o1.3 AI算力产业链涉及环节较多,行业需求有望全面提升AI算力产业链涉及环节较多,按照算力基础设施构成来看,包括AI芯片及服务器、交换机及光模块、IDC机房及上游产业链等。其中,随着训练和推理需求提升,AI芯片及服务器需求将率先放量;AI算力对数据中心内部数据流量较大,光模块速率及数量均有显著提升,交换机的端口数及端口速率也有相应的增长;IDC也有望进入需求释放阶段,预计液冷温控渗透率将快速提升,海底数据中心也可能将迎来产业化的关键节点。1、AI芯片和服务器需求将率先放量根据测算,2023年-2027年全球大模型
7、训练端峰值算力需求量的年复合增长率为78.0%o2023年全球大模型训练端所需全部算力换算成的A1OO总量超过200万张。从云端推理所需算力角度测算,2023年-2027年,全球大模型云端推理的峰值算力需求量的年复合增长率为113%,如果考虑边缘端AI推理的应用,推理端算力规模将进一步扩大。2、AI算力改变数据中心内部网络架构,光模块和交换机速率及需求提升AI数据中心中,由于内部数据流量较大,因此无阻塞的胖树网络架构成了重要需求之一,光模块速率及数量均有显著提升,交换机的端口数及端口速率也有相应的增长。800G光模块2023年底开始小批量出货,2023年需求主要来自于英伟达和谷歌,2024年有
8、望大规模出货,并存在时间前移的可能。从交换机的电口来看,SerDes通道的速率每四年翻倍,数量每两年翻倍,交换机的带宽每两年翻倍;从光口来看,光模块每4年升级一次,实际出货时间是晚于电口SerDes及交换机芯片新版发布的时间。2019年作为IOOG光模块升级的时间点,市场分成了200G和400G两条升级路径。但是在2023年这个时间点,市场下一代高速率光模块均指向800G光模块,叠加AIGC带来的算力和模型竞赛,我们预计北美各大云厂商和相关科技巨头均有望在2024年大量采购800G光模块,同时2023年也可能提前采购。3、IDC需求有望释放,AI服务器高功率密度或将推升液冷渗透率IDC作为算力
9、基础设施产业链的关键环节,也有望进入需求释放阶段。在过去两年半,受多重因素影响下,云计算需求景气度下行,但IDC建设与供给未出现明显放缓,2023年和2023年分别新增机柜数量120万架和150万架,因此短期内出现供需失衡情况(核心区域供需状况相对良好),部分地区上电率情况一般。所以IDC公司2023年业绩普遍承压。随着平台经济发展恢复以及AI等拉动,IDC需求有望逐步释放,叠加2023新增供给量有望较2023年减少(例如三大运营商2023年新增IDC机柜15.6万架,2023年计划新增11.4万架)。人工智能大模型训练和推理运算所用的GPU服务器的功率密度将大幅提升,以英伟达DGXA1OO服
10、务器为例,其单机最大功率约可以达到6.5kW,大幅超过单台普通CPU服务器500w左右的功率水平。在此情况下,一方面需要新建超大功率的机柜,另一方面为降低PUEz预计液冷温控渗透率将快速提升,海底数据中心也可能将迎来产业化的关键节点。二、AI芯片需求爆发式增长2.1 AI大规模落地应用对AI芯片性能、数量提出全方位要求从广义上讲,能运行AI算法的芯片都叫AI芯片。CPU、GPU、FPGA.NPUxASIC都能执行AI算法,但在执行效率层面上有巨大的差异。CPU可以快速执行复杂的数学计算,但同时执行多项任务时,CPU性能开始下降,目前行业内基本确认CPU不适用于AI计算。CPUxPU的异构方案成
11、为大算力场景标配,GPU为应用最广泛的AI芯片。目前业内广泛认同的AI芯片类型包括GPU.FPGAxNPU等。由于CPU负责对计算机的硬件资源进行控制调配,也要负责操作系统的运行,在现代计算系统中仍是不可或缺的。GPU、FPGA等芯片都是作为CPU的加速器而存在,因此目前主流的AI计算系统均为CPUxP的异构并行。CPU+GPU是目前最流行的异构计算系统,在HPC、图形图像处理以及AI训练/推理等场景为主流选择。IDC数据显示,2023年中国AI芯片市场中,GPU市占率为89%o图和CPU+AI芯片的异构计算图表小2023年中国AI芯片市场规模占比贵料泉源:华为.中信H投责料东源:IDC.中慎
12、建投2.1.1 GPU性能、功能经历长期迭代升级,成为AI芯片中应用最广泛的选择GPU能够进行并行计算,设计初衷是加速图形渲染。NVIDIA在1999年发布GeForce256图形处理芯片时首先提出GPU(GraphicProcessingUnit)的概念,并将其定义为具有集成转换、照明、三角形设置/裁剪和渲染引擎的单芯片处理器,能够每秒处理至少1000万个多边形。从计算资源占比角度看,CPU包含大量的控制单元和缓存单元,实际运算单元占比较小。GPU则使用大量的运算单元,少量的控制单元和缓存单元。GPU的架构使其能够进行规模化并行计算,尤其适合逻辑简单运算量大的任务。GPU通过从CPU承担一些
13、计算密集型功能(例如渲染)来提高计算机性能,加快应用程序的处理速度,这也是GPU早期的功能定位。GPU性能提升与功能丰富逐步满足AI运算需要。2010年NVIDIA提出的Fermi架构是首个完整的GPU计算架构,其中提出的许多新概念沿用至今。Kep1er架构在硬件上拥有了双精度计算单元(FP64),并提出GPUDirect技术,绕过CPU/SystemMemory,与其他GPU直接进行数据交互。Pasca1架构应用了第一代NV1inkoVo1ta架构开始应用TenSOrCore,对AI计算加速具有重要意义。简要回顾Nvidiagpu硬件变革历程,工艺、计算核心数增加等基础特性的升级持续推动性能
14、提升,同时每一代架构所包含的功能特性也在不资料来源hud,中信建投资料来源:(EfficientMethodandHardwareforDeep1earning),中(S建投图费17:NVID1A数据中心GPU支持的比特位宽变化NVIDIATfttaP4SuppotedCUDACorePrc*omSppotdTensorCorePrecisionsFPFP16FP32FPMMT1KT4*T8TF32BF16FP8FP16FP32FP64INT1INT4INT8TF32BF16NONOYeSY8NONOYESNONONONONONONONONONONONVXXAPIOONOYESYESYESNO
15、NONONONONONONONONONONONONOnvxxavoNOYESYESYESNONOYESNONONOYESNONONONONONOHONVMMATuringNOYESYESYESNONOYESNONONOYESNONOYESYESYESNONONgAAIOONOYESNOYESNONOYESYESYESNOYESNOYESYESYESYESYESYESNVOAHIOONOYESNOYESNONOYeSYESYESYESYES-YESNOHOYESYESYES资料来源INVIDIA.中信建投均衡分配资源的前提下,处理低精度的硬件单元数量更多,表现更高的算力性能。GPU作为加速器得到广泛应用一定程度上得益于它的通用性,为了在不同精度的数据类型上具有良好的性能,以兼顾A1科学计算等不同场景的需要,英伟达在分配处理不同数据类型的硬件单元时大体上保持均衡。因为低精度数据类型的计算占用更少的硬件资源,同一款GPU中的处理低精度数据类型的硬件单元的数量较多,