戴尔科技多样化散热解决方案 帮助应对能耗焦虑
作者:IT资讯 来源:系统运维 浏览: 【大中小】 发布时间:2025-11-26 23:25:37 评论数:
几年前,戴尔多样对每到电商大促、科技春晚红包等重大节点 ,化散耗焦宕机和救火几乎是热解从不缺席的戏份。你经常可以经历或听闻剁手时提交不了订单、决方无法付款的案帮情况 。
然而近两年,戴尔多样对却是科技另外一番景象 :
即便在618大促这样的流量波峰 ,大多数电商平台都顶住了高并发压力 ,化散耗焦平稳渡过年中狂欢 ,热解除了大促时间从一个日子延长到一段日子外 ,决方算力的免费模板案帮迅猛增长也是其中一个重要原因 。

可以看到,戴尔多样对算力正进入“基建化”时代 。科技正如中国信通院在一份研究报告中所揭示的化散耗焦:2016年到2020年期间 ,中国的算力规模平均每年增长42% ,其中2020年的算力总规模已经达到135EFlops,并仍在保持55%的高速增长速度。
不过,算力高速增长的同时 ,也带来了新的亿华云问题。
01计算与散热的“零和博弈”对不少人来说,“计算”早已不是什么新概念。每一次打开“绿码” ,每一次视频会议 ,每一次搜索点击……都离不开数据中心的处理计算。“计算”在日常生活中的无缝渗透 ,勾勒出多彩的数字世界。
可当计算量越来越大 ,功耗也随之上升 。以全球最为知名的源码下载预训练大模型「GPT-3」为例,GPT-3每次训练都要消耗巨量算力 ,需用掉约19万度电力、产生85万吨二氧化碳 ,可谓“耗电怪兽”。

倘若这些电力用在“计算”本身,或许不是什么坏消息。毕竟数字经济时代有个著名的经济学解释,即算力上每投入一元,将带动3-4元的经济产出,“性价比”远高于传统的农牧业和工业生产 。
然而现实的香港云服务器情况却并不乐观。根据开源证券研究所的统计结果,在一个数据中心的能耗分布中,散热系统的占比高达40%。也就是说,数据中心每耗费一度电,只有一半用在了“计算”上 ,其他的则浪费在了散热、照明等方面 。
计算和散热几乎陷入了一场零和博弈 ,计算量越大散热消耗的高防服务器电量越大,可是如果不付出足够的能源支撑散热 ,又将直接影响数据中心的性能 、密度和可靠性。
业内也由此流行起了「PUE」的概念 ,即电源使用效率,用来测算数据中心消耗的所有能源与IT负载消耗的能源的比值 ,被视为评价数据中心能源效率的重要指标。云计算PUE值越接近1,表明非IT设备的耗能越少,数据中心的能效水平越高 。目前国内大型数据中心的平均PUE值为1.55,超大型数据中心平均PUE值也只有1.46。

2020年国内数据中心用电量已超过2000亿千瓦时 ,占到用电总量的2.7%,预计2023年数据中心的能耗就将超过2500亿千瓦时,2030年时将超过4000亿千瓦时 ,用电量占比也将上升到3.7%。就这个角度而言,解决数据中心的能耗问题 ,已经是摆在案前的棘手挑战 。
02被捧上神坛的“液冷”技术传统的数据中心散热方案以「风冷」为主,以空气作为冷媒,把服务器主板 、CPU等散发出的热量传递给散热器模块 ,再利用风扇或空调制冷等方式将热量吹走,这也是散热系统消耗数据中心近半电力的主要诱因。
当PUE值被严格限定,绿色计算渐渐深入人心,上世纪80年代就开始尝试的“液冷”技术迅速成为产业上下游的新焦点。其实“液冷”技术的原理并不复杂,简单来说就是利用矿物油 、氟化液等绝缘低沸点的冷却液作为冷媒,通过热交换将服务器的热量排出,并演变出了冷板式 、喷淋式、浸没式等多种散热方案。

液冷看似只是“冷媒”的改变 ,却为数据中心的节能降耗带来了诸多可能:
比如风冷热传导存在过程复杂、热阻总和大 、换热效率较低等痛点,很大程度上制约了数据中心的算力密度 ,并且常常会产生巨大噪音 。对比之下,液冷技术所呈现出的节能降耗 、减少噪声 、节约空间的特性,不可谓不诱人。
一个直接的例子就是「普渡大学的Bell集群」
