智算中心已经离不开液冷?

液冷技术正迅速成为智算中心制冷的最佳解决方案。英伟达创始人黄仁勋在演讲中提到,液冷技术将成为AI算力的下一个趋势性领域。随着生成式AI技术及应用的快速推广,AI大算力等大功率应用场景持续落地,对智算中心冷却设备与技术提出了更高要求。传统风冷技术在高热密度场景中已显现出瓶颈。为什么智算中心已经离不开液冷?








液冷散热势在必行

随着人工智能的发展,芯片的功耗越来越高。高算力应用场景不断涌现,AI芯片迭代加速,芯片功耗逐代提升。例如,英伟达最新的GPU一颗功耗达700瓦,下一代更是达到1200瓦。传统风冷方式已经无法满足高功耗芯片的散热需求,液冷技术因此成为市场的新宠。科智咨询预计,到2025年单机柜功率密度将向20kW演进,液冷散热势在必行。

传统数据中心有40%左右的能耗用于空调系统,而液冷服务器的散热耗电占比将会下降到20%以内。这一优势使得液冷技术成为绿色数据中心建设的重要手段。

图片


冷板式占比90%

目前,液冷技术主要有两种流派:冷板式和浸没式。

冷板式液冷是最早采用的液冷方式,成熟度较高,价格相对较低。根据研究数据,冷板式液冷在中国市场占据了90%的份额。冷板式液冷通过把冷板与发热器件紧密固定,将发热器件的热量传导给冷板中的冷却液,简单粗暴但有效。

浸没式液冷系统虽然初期投资较高,但其运行3-5年后,整体成本将低于风冷系统。浸没式液冷技术可以将数据中心PUE降到1.2以下,联合其他技术,可以趋近于1。

科智咨询预测,未来五年,冷板式液冷智算中心仍将是市场应用主流,市场规模保持50%以上增长。冷板式液冷的成本优势及系统的多样性、便利性是用户选择采用冷板式液冷方案的主要因素,随着冷板标准走向统一,产量提升有望继续带来成本下降。

浸没式液冷在智算中心应用市场也将持续发展,浸没式液冷商业化应用主要面临成本和可靠性问题,目前国内厂商积极发力冷却液市场,开展兼容性及可靠性测试,有望解决商业化难题。随着芯片功率和单机柜密度的持续提升,以及规模试点项目取得进展,浸没式液冷将凭借更加高效的散热能力,实现规模商用及市场规模的较快增长。

图片


液冷应用随智算建设加速

目前,液冷技术已经在一些领先的智算中心中得到了应用。例如,谷歌和微软等科技巨头已经开始在其数据中心中试点液冷技术,以提升能源效率和降低运营成本。国内,以阿里为代表的科技企业以及以移动、电信、联通为代表的三大运营商也在尝试液冷的应用。2023年6月,三大运营商联合发布《电信运营商液冷技术白皮书》,计划于2025年实现50%以上项目应用液冷技术。

当前,国内外AI逻辑不断强化,AI算力投资已逐渐步入正循环。高算力需求下,算力芯片热功率不断攀升,传统风冷散热模组已达瓶颈。新一代算力芯片如B200、GB200、Gaudi3以及部分国产芯片已切换至液冷板散热模组。液冷技术不仅能有效解决散热问题,还能大幅提高能效。

目前已经有多个液冷智算项目落地(了解智算中心详情请点击283个智算中心都建在哪?),产业链上下游企业积攒更多行业经验,产业生态成熟是液冷市场爆发性增长的重要节点。

国内液冷智算中心加速建设

图片


未来市场前景:液冷加速渗透

根据科智咨询,预计到2027年,AI大模型商用落地,液冷生态趋于成熟,市场规模有望达到1020亿元,2022-2027年CAGR达59%。液冷技术的市场前景一片光明。

液冷是解决“算力热”与“散热焦虑”问题的最优解。目前,全球AI算力快速增长,且芯片TDP功率持续提升,AI算力到2026年将超40GW,占数据中心总能耗超40%,将成为数据中心能耗爆发的主要推手。有研究机构认为,从TCO角度来看,当前冷板液冷综合OPEX较风冷已具备优势;且政策对数据中心PUE要求趋于严格,液冷作为最优解有望迎来加速渗透,以H100机柜为例,液冷方案下PUE仅为1.1,较风冷降低约27%,3年周期下液冷方案可较风冷节省成本约6万美元。

智算中心需要液冷技术。随着市场的快速发展和技术的不断进步,液冷技术必将在智算中心的绿色变革中发挥更大的作用。液冷技术的绿色变革之路才刚刚开始,未来的智算中心将更加环保、高效,让我们拭目以待。


Contact Us
联系我们
电话:13711778911
邮箱:413289913@qq.com 地址:广东省广州市黄埔区科丰路33号20栋535
总部:浙江省宁波市国家高新区菁华路350号

 联系方式
客服热线:13711778911
website qrcode

德塔森特欢迎您!

热线:13711778911
会员登录
登录
其他账号登录:
留言
回到顶部