信息机

计算机温控行业专题报告AIGC加速芯片级

发布时间:2024/11/1 12:04:42   
刘军连治疗hpv怎么样 https://m.39.net/disease/a_9393604.html

(报告出品方/作者:浙商证券,张建民,汪洁)

核心观点:

AIGC拉动算力需求高增长。AIGC以大模型、大数据为基础。AIGC中的生成式模型/多模态主要为对智能算力的需求。年全球计算设备算力总规模/智能算力规模/EFlops,年有望增至56/52.5ZFlops,CAGR65%/80%;平均算力翻倍时间缩至9.9个月。

芯片级液冷成主流散热方案。功耗增加驱动散热需求升级:IntelCPU功耗突破W/英伟达GPU功耗突破W,AI集群算力密度普遍达到50kW/柜。风冷散热已趋于能力天花板:机柜功率超过15kW是风冷能力天花板,液体导热性能是空气的15-25倍,升级液冷需求迫切。散热越来越贴近核心发热源:预计将从房间级、机柜级、服务器级向芯片级演进。政策监管趋严加速液冷渗透:温控系统的能耗是降低PUE关键因素之一,双碳背景下东数西算节点PUE要求1.25/1.2以下。

芯片级液冷开启百亿级市场。年全球AI服务器市场规模亿美元,预计到年达亿美元,CAGR19.5%;年中国AI服务器市场规模亿元,预计年达亿元,CAGR19.0%;AIGC有望进一步拉动增速。AI服务器芯片级液冷需求百亿级:匡算年全球、中国AI服务器液冷市场规模-亿元、72-亿元;通用服务器进一步带来弹性:匡算年通用市场液冷规模,全球保守-亿元/全球乐观-亿元;国内保守78-亿元/国内乐观-亿元。

1、AIGC拉动算力需求高增长

算力规模未来高速增长,AIGC拉动算力需求

AIGC以大模型、大数据为基础。大模型是指通过在大规模宽泛的数据上进行训练后能适应下游任务的模型,大模型出现后:模型参数量级式提升:ChatGPT是OpenAI对其年发布的GPT-3模型微调后开发出的对话机器人,GPT-3模型参数量亿,年6月推出的GPT-1、年2月推出的GPT2模型参数量仅1.17亿、15亿,年1月Google推出的SwitchTransformer模型参数量进一步提升到1.6万亿。需求多元化加速算力多样化升级:算力按照需求匹配,可分为基础算力、智能算力及超算算力。未来,全球扩增的数据中80%以上都是非结构化数据(文本、图片、语音、视频等)。AIGC中的生成式模型/多模态,主要为对智能算力的需求。

全球算力高速发展态势:年,全球计算设备算力总规模达到EFlops,增速44%。年,有望增至56ZFlops,CAGR达到65%,其中智能算力由EFlops增至52.5ZFlops,CAGR超过80%;算力翻倍时间明显缩短:大模型出现后,带来了新的算力增长趋势,平均算力翻倍时间为9.9个月。

2、芯片级液冷成主流散热方案

2.1算力提升,散热需求升级

算力提升的背后,芯片必须具备更高计算效率,在更短时间内完成更多运算,因而必然伴随芯片能耗的加大:ODCC《冷板式液冷服务器可靠性白皮书》信息,年Intel第四代服务器处理器单CPU功耗已突破瓦,英伟达单GPU芯片功耗突破瓦,AI集群算力密度普遍达到50kW/柜。芯片工作温度会显著影响性能,功率密度的增加使芯片的热流密度显著升高使芯片温度升高。传统芯片中,用于冷却的体积占98%,只有2%用于计算运行,但是依然很难解决现在存在的散热问题,随着芯片性能的持续快速提升,散热问题将愈加突出。

2.2散热向芯片级演进趋势

散热设备越来越贴近芯片等核心发热源是重要趋势,未来散热预计将从房间级、机柜级、服务器级向芯片级演进,通过散热部件与芯片表面直接接触实现更好的芯片散热。

2.3采用更加高效的冷却介质

而在冷却介质的选择上,也进一步趋于选择冷却效率更好的冷却介质。CDCC数据,液体的导热性能是空气的15~25倍,随着热密度的提升,液冷有望替代风冷实现更高效散热。英特尔《绿色数据中心创新实践--冷板液冷系统设计参考》白皮书信息,采用风冷的数据中心通常可以解决12kW以内的机柜制冷,机柜功率超过15kW,相对于现有的风冷数据中心,已经到了空气对流散热能力的天花板,液冷技术作为一种散热能力更强的技术,可以支持更高的功率密度。

2.4PUE趋严,进一步要求散热效率

温控系统能耗占数据中心非IT能耗的80%,温控系统的能耗是PUE是否能降低到合理水平的关键因素之一。双碳背景下,PUE要求持续趋严。东数西算数据中心集群起步区建设目标:京津冀、长三角、粤港澳大湾区、成渝节点的起步区数据中心电能利用效率指标控制在1.25以下,内蒙古、贵州、甘肃、宁夏节点的数据中心电能利用指标控制在1.2以下。

2.5芯片级液冷有望成为未来主流

当前芯片级散热方案主要涵盖液冷技术、相变储热散热技术、蒸发冷却技术等,液冷技术是芯片级散热重要方案之一,有望成为未来主流。液冷技术中,涵盖冷板、浸没、喷淋等。当前来看,冷板式和浸没式较喷淋式发展相对成熟。英特尔发布冷板液冷白皮书。年8月英特尔中国数据中心合作伙伴技术峰会上,英特尔发布《绿色数据中心创新实践--冷板液冷系统设计参考》白皮书,分享冷板液冷技术关键部件的最新研究进展,有望加速芯片级液冷的产业发展。

3、芯片级液冷开启百亿级市场

3.1AIGC将拉动AI服务器增长

AIGC带动,未来AI服务器增长持续乐观。参考IDC数据,年全球AI服务器市场规模亿美元,预计到年全球AI智能服务器市场将达到亿美元,CAGR19.5%;年中国AI服务器市场规模达亿元,预计年中国AI服务器市场规模将达到亿元,CAGR19.0%。AIGC有望进一步加速拉动AI服务器增长。

3.2匡算25年AI服务器芯片级液冷需求百亿级

我们匡算年全球、中国AI服务器液冷市场规模-亿元、72-亿元:AI服务器选取高性能GPU等,年3月英伟达H功耗已经W,结合GPU/CPU功耗,以及浪潮等服务器产品规格信息,综合假设单台服务器功耗5kw,假设功耗每年提升30%;中国移动年至年人工智能通用计算设备集采价格,台AI服务器合计中标金额11.63亿,单台价格26.4万元;假设当前风冷成本元/kw,冷板式液冷元/kw,浸没式液冷元/kw(《基于价值工程的数据中心液冷与风冷比较分析》,山东科普Keputech);参考通信行业设备规律,假设冷板式年降5-10%,浸没式年降20-30%。

3.3通用服务器进一步带来弹性

匡算年通用市场液冷规模,全球保守-亿元、全球乐观-亿元;国内保守78-亿元,中国乐观-亿元:IDC数据,年全球、国内服务器出货、万台;DigitimesResearch预计年-27年全球服务器出货量复合年均增长率6.1%;当前小型服务器功率小型服务器功耗约-w,假设单机柜安装15台服务器,对应功率6-7.5kw,假设保守、乐观每年功耗提升20%、30%,预计年单机柜服务器规模将分别达到14.9-18.7kw(保守)、22.3-27.8kw(乐观),预计将大幅应用液冷。

4、重点企业分析

4.1英维克:端到端全链条液冷前瞻布局

英维克是温控行业龙头,研究全系统电子散热解决方案,在液冷领域端到端布局,并且针对液冷服务器厂商推出服务器级散热、机柜级散热、一体化机柜级散热、数据中心级散热、风冷散热部分的高效冷却方案、浸没液冷方案6大解决方案。公司已经在冷板式液冷赢得一些重要项目,开始为超聚变提供全链条液冷解决方案;与英特尔等联合发布《绿色数据中心创新实践冷板液冷系统设计参考》白皮书,进一步印证公司实力,有望充分受益,打开新的成长空间。预计-24年归母净利润2.36亿元、3.31亿元、4.68亿元,同比增15%、40%、42%,对应PE67、48、34倍,芯片级液冷带来新弹性。

4.2高澜股份:已实现相关产品的样件及小批量供货

公司是国内领先的液冷解决方案提供商,特高压直流、海风柔直、储能、数据中心等领域发展预期乐观,有望推动公司年业绩明显改善。公司可提供冷板式液冷服务器热管理解决方案、浸没式液冷服务器热管理解决方案以及集装箱液冷数据中心解决方案,服务器液冷产品涵盖了服务器的冷板、水泵、户外机房、冷却塔和空冷器等,基本覆盖服务器液冷全链条的产品需求;公司已与国产GPU企业芯动科技达成战略合作;目前已实现服务器液冷相关产品的样件及小批量供货。22Q3合同负债0.87亿同比增%,主要系服务器液冷产品预收款增加所致。第一大股东一致行动人拟全额认购定增,增厚公司未来发展信心和决心;预计-24年归母净利润1.34、1.80亿元;PE32、24倍。

报告节选:

(本文仅供参考,不代表我们的任何投资建议。如需使用相关信息,请参阅报告原文。)

精选报告来源:



转载请注明:http://www.aideyishus.com/lkyy/7328.html
------分隔线----------------------------