ChatGPT与AIGC大火带动液冷服务器技术 阿里、腾讯抢先布局

最新信息

ChatGPT与AIGC大火带动液冷服务器技术 阿里、腾讯抢先布局
2023-02-21 08:31:00
《科创板日报》2月20日讯(记者黄心怡)随着双碳政策全面实施,节能型产品升级、余热利用、提升数据中心能效、降低PUE是数据中心发展的必然趋势,而发展液冷技术逐渐成为数据中心的攻克重点,甚至得到影视作品的关注。
  在春节档热映电影《流浪地球2》里,全球根服务器所在地——中国互联网中心北京基地(旧址),成为拯救地球的关键。记者在观影中注意到,在2058年的北京,该基地被称为是全球最大的液冷服务器集群。
  近日,更有多家券商在研报中指出,如若AIGC、ChatGPT相关应用的一旦爆发,将进一步拉动算力需求的高增长。随着服务器功耗增加,驱动散热需求升级,未来升级液冷需求将更为迫切
  不过,液冷要进一步普及,仍面临诸多瓶颈。多名服务器技术人士告诉《科创板日报》记者,相比风冷,液冷仍需将进一步降低TCO(总体拥有成本),而这依赖于整个液冷生态的完善
image  快装移动式液冷集群
  ▍芯片级液冷或开启百亿级市场
  中国信通院发布的《中国算力发展指数白皮书(2022年)》指出,全球算力进入新一轮快速发展期。全球算力规模保持高速稳定增长态势,2021年全球计算设备算力总规模达到615EFlops(每秒浮点运算次数),增速达到44%。据预计,2030年全球算力规模将达到56ZFlps,平均年均增长65%。
  浙商证券认为,AIGC以大模型、大数据为基础,主要为对智能算力的需求。大模型出现后,带来了新的算力增长趋势,平均算力翻倍时间为9.9个月。而随着算力提升,散热需求升级也将升级。未来液冷有望替代风冷实现更高效散热
  国信证券也在近期研报中指出,ChatGPT推广有望进一步带动AI等超算应用场景的推广,带动液冷技术的进一步推广与应用。
  随着摩尔定律变缓,芯片算力与功耗同步大幅提升。2022年英特尔第四代服务器处理器单CPU功耗已突破350瓦,英伟达单GPU芯片功耗突破700瓦,AI集群算力密度普遍达到50kW/柜,随着算力的持续增长,风冷散热技术面临极大的挑战。
  因此,液冷技术应用必要性持续上升。国信证券认为,与一般的风冷散热器相比,液冷能够大幅提高降温效果,液冷技术现主要应用在超高算力密度场景
  在英特尔《绿色数据中心创新实践--冷板液冷系统设计参考》白皮书中提到,采用风冷的数据中心通常可以解决12kW以内的机柜制冷,机柜功率超过15kW,相对于现有的风冷数据中心,已经到了空气对流散热能力的天花板,液冷技术作为一种散热能力更强的技术,可以支持更高的功率密度。
  浙商证券分析称,英特尔在冷板液冷技术关键部件的最新研究进展,有望加速芯片级液冷的产业发展。未来AI服务器芯片级液冷需求或达到百亿级。预计到2025年全球AI服务器液冷市场规模223-333亿元。
  ▍阿里、腾讯等大厂已率先布局
  当前在液冷技术中,冷板式和浸没式较喷淋式发展相对成熟。国内阿里、腾讯等互联网大厂均纷纷开启液冷数据中心的探索。此前,阿里巴巴在杭州的首座云计算数据中心——全球规模最大的全浸没式液冷数据中心仁和数据中心已正式投入运营。
  阿里云智能服务器研发资深架构师刘礼寅对《科创板日报》记者表示,阿里云对液冷的探索在整个行业里是走得比较早的。早在2016年就与英特尔在液冷方面开展了合作,目前拥有国内规模最大的单相浸没式液冷集群的部署。
  “当时我们认为芯片的TDP(散热设计功耗)一定会往上走,最终从散热方案来看,液冷一定是比风冷更有效的解决方案。目前,有的产品在浸没式液冷会有非常明显的收益。比如GPU芯片,采用了浸没式液冷降低功耗,性能可以提上去,这样就产生非常大的价值,从而促进液冷更大规模地落地。”
  目前,英特尔最新推出的第四代至强可扩展处理器,最高TDP已达到350瓦。“从长期来看,350瓦不是尽头,未来一定会有更高的TDP.届时,浸没式技术、冷板技术都可以为PUE的降低提供散热支撑。” 刘礼寅指出。
  浪潮、曙光等服务器厂商也都纷纷入局液冷市场。《流浪地球2》中的液冷服务器集群即为曙光产品。
  浪潮信息则官宣了All in 液冷战略。浪潮信息副总裁、AI&HPC产品线总经理刘军此前在接受《科创板日报》记者采访时表示,未来的数据中心只有一种冷却叫“液冷”。“这一天到来的时间或快或慢,但是最终的形式就是走向液冷。”
  ▍液冷部署成本仍有待降低
  不过,液冷技术的普及过程中仍需要面临漏液性检测、长效运维、长时可靠等问题,而且相比风冷,其部署和改造成本依然较高。
  腾讯云星星海实验室研发总监曾钦杵介绍,腾讯云早在Ice Lake就与英特尔展开液冷的合作,就目前的生态而言,冷板液冷相对于风冷方案,是有成本增加的,浸没式方案的成本增幅则更大。而数据中心从风冷到液冷的转变则是一个相当复杂的系统工程。展望未来,浸没式液冷部署比例增长是一个长期趋势
  英特尔相关技术专家则认为,要解决液冷成本较高的问题,需要联合产业上下游,一起把成本降低。
  “有关冷板液冷系统设计参考的白皮书,是我们跟业界20多家合作伙伴、客户一起共同贡献的结果。未来,我们第一做的是冷板式液冷,比如像CDU、快接头、分水器、监控系统,我们会把整个冷板上的各个部件都标准化,都做一些参考设计,从而把成本降下来。”
  亚信科技网络智能化首席专家王希栋对《科创板日报》记者表示,液冷成本降低的关键在于向重要组件发力。“比如液冷的液体非常贵,怎么寻找更有效的,或者是性价比更高的液体。另外,在整个系统架构层面进行一些创新,也可以降低一些成本。”
(文章来源:科创板日报)
免责申明: 本站部分内容转载自国内知名媒体,如有侵权请联系客服删除。

ChatGPT与AIGC大火带动液冷服务器技术 阿里、腾讯抢先布局

sitemap.xml sitemap2.xml sitemap3.xml sitemap4.xml