欢迎光临散文网 会员登陆 & 注册

当 AI 服务器对散热技术需求变高!为何趋势从“气冷”走向“液冷”

2023-06-13 09:02 作者:爱分享的Tony老师  | 我要投稿



英伟达(NVIDA)执行长黄仁勋今年在 COMPUTEX 2023,特地为美超微(SUPERMICRO)董事长梁见后的演说站台,双鸿董事长林育申指出,舞台上所展示的服务器产品,几乎都是双鸿做的水冷散热模组,而双鸿布局水冷散热模组多年,正好为这股 AI 浪潮抢占先机,但是 AI 服务器对散热要求越来越高,为何趋势从「气冷」走向「液冷」?

高速运转使散热从“气冷”走向“液冷”

从散热技术来说,林育申指出,目前散热模组是以含有热导管技术的主被动混合式散热技术为主,热管散热模组是将风散、散热片、热导管等元件设计组合而成,能使内部电子零组件享有均温散热的运作环境,使电子设备运作更趋稳定,但是现在下游终端电子产品走向多功能与轻薄化,使得散热模组厂转而设计以均热板、热导管为主的散热解决方案。

目前散热模组分为「气冷散热」和「液冷散热」两种,其中气冷散热就是用空气作为媒介,透过热接口材料、均热片(VC)或热导管等中间材料,由散热片或风扇与空气对流进行散热,而「液冷散热」则是透过,或浸没式散热,主要就是透过与液体热对流散热,进而使晶片降温,但是随着晶片发热量的增加与体积的缩小,芯片热设计功耗(TDP)的提高, 气冷散热逐渐不敷使用。

随着ChatGPT的崛起,生成式AI更是带动服务器的出货上扬,连带要求散热模组的规格升级,推动散热模组走向液冷方案升级,以满足服务器对散热性和稳定性的严格要求,林育申指出,双鸿从气冷散热技术开始,早在10年前就透过IBM技转液冷散热技术,并提供水冷背门,让客户可以不用改变现有的数据中心基础建设,就能直接加挂水冷背门到机柜使用。

2025年将走向气冷、液冷并行时代

受到AI应用带动相关半导体技术发展,ChatGPT的GPT-3导入更是让AI算法参数量成长到1750亿,使得GPU运算力要成长百倍目前业界多以液冷中的单相浸没式冷却技术,解决高密度发热的服务器或零件散热问题,但仍有600W的上限值,因为ChatGPT或更高阶的服务器散热能力须高于700W才足以因应。

随着物联网、边缘运算、5G应用的发展,数据AI带动全球算力进入高速成长期,下一代的散热模组设计,主要有两大方向,ㄧ是使用3D均热板(3DVC)升级现有散热模块,二是导入液冷散热系统,改用液体当作热对流介质,提升散热效率,因此2023年液冷测试案量显著增加,但是3DVC终究只是过渡方案,预估2024年到2025年将进入气冷、 液冷并行的时代。

根据研究机构TrendForce的统计,2022年搭载GPGPU(General Purpose GPU)的AI服务器出货量比重约1%,但是2023年受到ChatGPT应用的带动,预期AI服务器出货量将成长38.4%,整体2022年到2026年的AI服务器出货量年复合成长率达29%。

「液冷」散热将成 AI 芯片主流

由于新一代服务器TDP提升到接近气冷散热的极限,因此电子科技大厂纷纷开始测试液冷散热,或增加散热空间,像是英特尔(Intel)的Eagle Stream、超微(AMD)的Genoa TDP 350-400W就达气冷极限,使得液冷散热成为AI芯片主流,像是NVIDA H100的TDP就达700W,气冷采3DVC,普遍需4U以上空间, 并不符合高密度部署架构。

以散热系统占数据中心总耗能约33%来看,减少总用电量降低电力使用效率(Power Usage Effectiveness)的方式,包含改善散热系统、信息设备,并使用再生能源,而水的热容量是空气的4倍,因此导入液冷散热系统,液冷板只需要1U的空间,根据NVIDIA测试,若要达到相同算力,液冷所需的机柜量可减少66%、能耗可减少28%、 PUE可由1.6降到1.15,并可提升运算效能。

美超微都用双鸿散热模组的关键

液冷又分为「水冷」和「油冷」,目前使用最大量的为水冷,林育申指出,现在 AI 服务器几乎都采用水冷散热方案,像是 NVIDIA GH100 的 TDP 超过 700W 就必须使用水冷散热,虽然目前占双鸿营收比重仍小,但是 AI 服务器与传统服务器的平均销售单价(ASP)相差达 10 倍,因此将有助于双鸿下半年产品结构的转变,预估 2023 年 AI 服务器将可占到 5~10%。

林育申指出,能让SUPERMICRO采用NVIDIA GH100 GPU的AI服务器,其水冷散热模组几乎都是由双鸿供应主要的关键,就在于双鸿耕耘水冷散热解决方案已经超过10年,由于导入水冷的困难就在于成本和漏水,但是双鸿以研究水冷超过10年的经验,已经可以逐步克服漏水的问题,而双鸿布局水冷散热模组多年,正好为这股AI浪潮抢占先机。

林育申强调,高速运算导致TDP不断提升,AI服务器对散热的要求越高,传统热导管散热已接近极限,势必要导入水冷散热模组,目前双鸿已有不少客户导入,包括SUPERMICRO、META,以目前的产业市况来看,虽然水冷散热导入得比预期快,但是要在2023年全面导入水冷还不太可能,预估应该要到2024年,并将在2025年迎来大爆发。


当 AI 服务器对散热技术需求变高!为何趋势从“气冷”走向“液冷”的评论 (共 条)

分享到微博请遵守国家法律