数据中心产业链分析.docx

上传人:lao****ou 文档编号:451963 上传时间:2023-11-23 格式:DOCX 页数:25 大小:273.66KB
下载 相关 举报
数据中心产业链分析.docx_第1页
第1页 / 共25页
数据中心产业链分析.docx_第2页
第2页 / 共25页
数据中心产业链分析.docx_第3页
第3页 / 共25页
数据中心产业链分析.docx_第4页
第4页 / 共25页
数据中心产业链分析.docx_第5页
第5页 / 共25页
亲,该文档总共25页,到这儿已超出免费预览范围,如果喜欢就下载吧!
资源描述

《数据中心产业链分析.docx》由会员分享,可在线阅读,更多相关《数据中心产业链分析.docx(25页珍藏版)》请在第一文库网上搜索。

1、数据中心产业链分析一、算力密度提升叠加能耗指标要求,驱动冷却市场创新升级1JAI等应用带动功率密度升高,风冷达到功率上限A1应用加速数据中心向高密化趋势演进。面对A1带来的数据量和计算量的爆发式增长,在数据中心资源尤其是一线城市资源日趋紧张的情况下,只有通过提高机房单位面积内的算力、存储以及传输能力,才能最大程度发挥数据中心的价值。高算力A1芯片导入将加速服务器高功率密度演进趋势。据全球数据中心调查报告显示,2023年全球数据中心平均单机架功率为84kW机架,相比于2017年的5.6kW机架有明显的提高。其中,14kw占25%,5-9kw占46%,1019kw占13%,中国目前与全球水平仍有差

2、距。据CDCC调研,国内全行业数据中心中8kW功率密度以上的机柜占比由21年的11%提升至22年的25%,高功率机柜占比提升明显。未来,随着人工智能模型训练推理等应用增加,多样化算力协同成为常态,单IT机柜主流功率密度将从6-8KW/柜提高到1215KW/柜,超算、智算中心功率密度将提升至30kW以上。大数据生成、业务模式变迁强调实时业务的重要性,导致高性能计算集群对于散热的要求提升。随着ChatGPT引爆新一轮人工智能应用的热情,海内外数据中心、云业务厂商纷纷开始推动A1基础设施建设,A1服务器出货量在全部服务器中的占比逐渐提高。根据TrendForce的数据,2023年搭载GPGPU的A1

3、服务器年出货量占全部服务器的比重接近1%,2023年在ChatGPT等人工智能应用加持下,A1服务器出货量有望同比增长8%,2023-2026年出货量CAGR有望达10.8%,AI服务器用GPU,主要以英伟达H1o0、A1O0、A800(主要出货中国)以及AMDM1250、MI250X系列为主,而英伟达与AMD的占比约8:2o图哀5:英伟达GPU功耗发展V(Miaznm20W201920232071XP?2073汕人工智能芯片多用传统型芯片,或用昂贵的图形处理器(GPU),或用现场可编程门阵列芯片配合中央处理器(FPGA+CPU)为主,用以在云端数据中心的深度学习训练和推理,通用/专用型A1芯

4、片(AS1C),也就是张量处理器或特定用途集成电路(AS1C),主要是针对具体应用场景,三类芯片短期内将共存并在不同应用场景形成互补。摩尔定律发展晶体管数量增多,产品功耗瓦数升高,对于散热的要求提升。随着IC制程、晶片效能、小型化升级,芯片瓦数大幅提升,表面高单位密度发热,对于导热、散热的要求提升。以主流厂商为例,InteHOnm以下制程需采均热片以解决发热问题,AMD7nm制程使用均热片,5nm则必须采用均热片进行散热。未来随着先进制程比如3nm推进,同时搭配3D封装,对于散热效率的要求更高。芯片级散热的方式是通过热传导原理,将芯片不断产出的热能持续地传导至散热元件,热能量传递通常是在非常接

5、近热源的散热器上进行的。以笔记本电脑为例,电子产品朝轻薄化、高性能化方向发展,晶片功能需要大幅增加,晶体管数量增多,对于散热要求提升。电子设备CPU硅半导体不耐热,在过高温度下无法作为电子电路发挥作用。中央处理器和集成电路向电机等发出操作命令,产生的大部分能量都转化为热量。小型化使得能量越集中,温度越高,发热密度更高。早期笔记本散热模组使用2根热管,现在增加为4至6根,高端的产品使用均热板。风机转速超过4000rmin后对热阻的效用是有限的。根据CNK1风冷系统中,风机转速从IoooI7min提高到4000rmin,芯片散热中对流占主导,流速增加对流换热系数显著增加,风冷方式能有效改善芯片散热

6、问题。而当风机转速超过4000rmin后,传热热阻下降比较平缓,转速增加只能改善与空气的导热传热,散热效果降低。芯片级液冷是未来发展趋势。服务器2U空间下,250W大约是风冷解热极限;4U以上风冷可以解到400-600W;A1芯片TDP普遍超过400W,大多使用4-8U。根据CNKI,芯片的平均热流密度将达到500W/cm2,局部热点热流密度将会超过10OOW/cm2,传统风冷散热已经达到极限。而芯片温度的控制对于稳定持续工作尤为重要,最高温度不能超过85,温度过高会导致芯片损坏,在7080。C内,单个电子元件的温度每升高10,系统可靠性降低50%,因此在功率提升的背景下,散热系统将向芯片级液

7、冷升级。风冷达到功率上限后性价比下降,液体吸热能力更强。根据20232023年度中国数据中心基础设施产品市场总报告,2023年我国单机柜功率在IokW以上的数据中心市场规模增速超过10%,其中30kW以上增速达31%。据预测,2025年全球数据中心平均功率提升至25kWoTGG认为每机柜15-25kW的功率密度作为“未使用背板换热器等其他制冷设备”的风冷解决方案的上限,当前自然风冷的数据中心单机柜密度一般只支持81OkW,冷热风道隔离的微模块加水冷空调水平制冷在机柜功率超过15kW后性价比大幅下降。在同样单位体积下,液体吸收热量的能力更高。因此液冷技术能够更高效地散热,以及让芯片能够更高效地工

8、作。SW:液体吸热能力更软,水的热导率是空气的23倍以上I点空气*25t下的导热率(W3*K)0.0260.6089密度(KGe3)1.291比热客(kJ(kg*K)1.0044.2单位体积的热容量(kJ/(m3*)1.34200比我基德324公1.2液冷降低能耗压力,满足数据中心能耗要求随着相关政策的制定、建设布局政策出台,节能减排、高质量发展成为共识。作为散热厂家主要关注的是PUE和WUE指标。在绿色低碳目标下,东部地区对数据中心提出规划方案,多地明确提出加大节能技术改造力度,新建数据中心PUE限制在1.3以下,存量数据中心PUE不高于1.4。数据中心PUE下降趋势放缓,亟需新节能技术改造

9、。根据UPtimeinstitute跟踪的PUE数据显示,经过2007-2010年代大幅度效率提升后,PUE降幅趋缓。相比风冷,液冷除了能够满足高功率密度机柜的散热要求,还能实现较低的PUE和较高的出电率(GUE)。相比于传统风冷,冷板式液冷PUE普遍在1.1x,GUE可达75%以上,而浸没式液冷PUE可低至1.0x,GUE可达80%以上。同时使用液冷技术可以去除部分甚至全部的IT设备风扇(通常风扇能耗也计算在服务器设备能耗中),对于浸没式液冷,去除服务器风扇可以将服务器能耗降低大约4%15%。图表13:不同热处理方式的PUE比技1.3风冷VS液冷成本测算:液冷价值量高且能降低数据中心建设TC

10、O制冷系统是IDC前期建设和后期运营的主要成本来源之一。根据施耐德电气,制冷系统(传统风冷方案,包含冷冻水机组、精密空调和冷却塔)在数据中心CAPEX占比在20-25%。电力成本在数据中心OPEX中占比超过50%,根据国际能源署的研究数据,2023年全球数据中心用电量为220-320TWh,约占全球最终电力需求的0.9-1.3%,而其中冷却系统电力成本占比达到40%,仅次于IT设备。市场普遍认为,液冷服务器需深入定制,初始投资较高,且后期维护较复杂,但我们根据施耐德电气测算发现,虽然液冷设备的前期成本较高,但液冷数据中心建设能够通过去掉冷冻水机组、减少机架、节省IDC占地面积等方式降低IDC前

11、期整体建设成本(CAPEX),同时液冷更加节能,节省电费进一步减少运营成本(OPEX):1)CAPEX对比:我们选取常见风冷冷冻水机组和基于IT机箱的浸没式液冷架构,在相同功率密度下对数据中心CAPEX进行测算。假设数据中心总容量为2MW,单机架功率密度为IokW,制冷冗余均为N+1。液冷降低数据中心CAPEX,提升制冷系统价值量。测算表明,在功率密度为IOkW/机架,风冷和液冷数据中心的投资成本大致相等(7美元kw)。在提升数据中心功率密度时,液冷数据中心在节省占地空间和机架数量的成本优势愈发明显,提升2倍功率密度(每机架20kW)可使初投资可降低10%。如果提升4倍功率密度(每机架40kW

12、),可节省高达14%的投资成本。同时制冷系统在整个前期CAPEX占比由风冷的15%提升至液冷的30%,对应制冷系统价值量由0.98美元/W提升至1.83美元/W。2) OPEX对比:液冷数据中心PUE可降至1.2以下,可节省电费,降低数据中心运行成本。根据中兴通讯冷却技术白皮书数据显示,以规模为IOMW的数据中心为例,比较液冷方案(PUE1.15)和风冷/冷冻水方案(PUE1.35):风冷、冷板式液冷和浸没式液冷一年的电费分别为841/196/56万元。二、散热市场向液冷+芯片级演进2.1 冷板式成熟度高,浸没式冷却效率高,成本有望进一步优化液冷技术分为接触式及非接触式两种,接触式液冷是指将冷

13、却液体与发热器件直接接触的一种液冷实现方式,包括浸没式和喷淋式液冷等具体方案。非接触式液冷是指冷却液体与发热器件不直接接触的一种液冷实现方式,包括冷板式等具体方案。其中,冷板式液冷采用微通道强化换热技术具有极高的散热性能,目前行业成熟度最高;而浸没式和喷淋式液冷实现了100%液体冷却,具有更优的节能效果。冷板式液冷成熟度高。冷板式液冷是通过液冷板将发热器件的热量间接传递给封闭在循环管路中的冷却液体,系统主要由冷却塔、CDU、一次侧&二次侧液冷管路、冷却介质、液冷机柜组成;芯片设备热量通过热传导传递到液冷板,工质在CDU循环泵的驱动下进入冷板,图表21:唯淋式液冷示意图京外偏室内例淋式液冷机柜之

14、后在液冷板内通过强化对流换热吸收热量温度升高,高温工质通过CDU换热器将热量传递到一次侧冷却液,温度降低;低温的工质再进入循环泵,一次侧冷却液最终通过冷却塔将热量排至大气环境中。喷淋式液冷是面向芯片级器件精准喷淋,通过重力或系统压力直接将冷却液喷洒至发热器件或与之连接的导热元件上的液冷形式,属于直接接触式液冷。喷淋式液冷系统主要由冷却塔、CDU.一次侧&二次侧液冷管路、冷却介质和喷淋式液冷机柜组成;其中喷淋式液冷机柜通常包含管路系统、布液系统、喷淋模块、回液系统等。*I,t*I1I1浸没式液冷技术通过浸没发热器件,使得器件与液体直接接触,进而进行热交换。浸没式液冷技术主要由冷却液、腔体结构、换

15、热模块及相关的连接管道等设施构成。其中,冷却液为数据中心的换热介质,具有高绝缘、低黏度以及超强的兼容特性,是浸没式液冷技术的主要媒介。液冷市场需求保持逐年增长状态,冷板式液冷和浸没式液冷是行业内目前共存的两条主流技术路线;伴随国家双碳节能政策驱动,市场对液冷的需求将逐步提升。考虑到技术成熟度、可靠性、技术通用性、结构颠覆性等多个方面,当前液冷数据中心仍以冷板式液冷占据主流地位。2.2风冷为芯片级散热主要方案,功耗上限在800W左右芯片级散热包含导热、散热两大环节,目前以风冷系统为主。芯片散热风冷系统主要由散热模组、系统风扇组成。其中,散热模组负责导热,将热量从芯片发热源头转移到散热端,散热端主

16、要是风扇通过空气流动排出热量。相较于液冷方案(通过液体流通将热量吸走),风冷方案成本更低、技术相对成熟、维护方便,但是能够覆盖的散热功耗有限且风扇会发出噪声,而液冷散热效率更高、噪音更小、散热功耗覆盖范围更高,但是成本更高、维护困难。芯片级散热系统核心为由热管、均热板构成的散热模组。一般来说,服务器散热系统的作用是将内部热量发散到机柜之外,而其中芯片是最主要的发热源。芯片散热模块原理即为将芯片热量通过热管、均热片等导热材料传导,沿着导热环节到达散热鳍片位置。散热鳍片是纯铜制造,多褶结构,与空气接触面积大,传导至散热环节通过启动风扇进行主动散热,风扇的转速会根据散热量的多少自动调节,从而完成导热至散热的环节。图表25:散

展开阅读全文
相关资源
猜你喜欢
相关搜索

当前位置:首页 > 应用文档 > 工作总结

copyright@ 2008-2022 001doc.com网站版权所有   

经营许可证编号:宁ICP备2022001085号

本站为文档C2C交易模式,即用户上传的文档直接被用户下载,本站只是中间服务平台,本站所有文档下载所得的收益归上传人(含作者)所有,必要时第一文库网拥有上传用户文档的转载和下载权。第一文库网仅提供信息存储空间,仅对用户上传内容的表现方式做保护处理,对上载内容本身不做任何修改或编辑。若文档所含内容侵犯了您的版权或隐私,请立即通知第一文库网,我们立即给予删除!



客服