
最近和几位在苏黎世搞数据中心的朋友聊天,他们提到一个挺有意思的现象。现在欧洲那边,尤其是搞AI和高性能计算的公司,对新建的万卡级别GPU集群的能耗和PUE(电源使用效率)盯得是越来越紧了。这倒不是单纯为了环保口号,而是实实在在的成本和法规压力。你看,训练一个大模型,电费可能比硬件本身还贵,这哪能吃得消?
这个现象背后,其实是一组蛮扎劲的数据。根据Uptime Institute的报告,全球数据中心平均PUE大概在1.55左右,而领先的云服务商能把超大规模数据中心的PUE做到1.1甚至更低。这里头的差距,主要就体现在冷却系统和供电损耗上。对于动辄数万张GPU的集群来说,PUE每降低0.1,一年省下的电费可能就是个天文数字,足够再买好多张卡了。所以,提升能效已经从“加分项”变成了“生存项”。
那么,具体怎么落地呢?这就引出了一个很实际的案例。我们知道,像美国《通胀削减法案》(IRA)这样的政策,它提供的税收抵免和补贴,核心是鼓励本土的清洁能源制造和应用。虽然法案本身针对美国,但其底层逻辑——通过经济激励推动高能效技术和可再生能源的使用——正在全球形成示范效应。欧洲的运营商在规划GPU集群时,也在积极借鉴这种“绿色经济”思路,把能效提升方案和未来的政策适应性捆绑考虑。
比如,我了解到的一个规划中的案例(基于公开信息整合),某机构计划在北欧建设一个用于气候科研的AI计算中心。他们面临的核心挑战,是如何利用当地的寒冷气候进行自然冷却,同时整合风电和光伏,来为这个耗电巨兽供电。他们的目标是将设计PUE压到1.15以下,并且让可再生能源供电比例超过70%。这个方案的精妙之处在于,它不仅仅是在机房内部做文章,而是把整个站点的能源供应、存储和管理作为一个整体来优化。这恰恰是站点能源解决方案的核心思想。
说到这里,就不得不提我们海集能的专长了。我们自2005年在上海成立以来,近二十年一直深耕新能源储能和数字能源解决方案。特别是在站点能源这个板块,我们为全球的通信基站、边缘计算节点等关键设施提供“光储柴”一体化的绿色能源方案。你可能会问,这和庞大的GPU集群有什么关系?道理是相通的。无论是偏远地区的一个5G微站,还是城市郊区的一个AI算力中心,它们本质上都是一个需要极高供电可靠性和能效的“站点”。我们南通基地的定制化能力,可以针对特殊的冷却需求(如液冷背板供电)设计储能和电能质量管理模块;而连云港基地的标准化产品,则为大规模部署提供了可靠且成本优化的基础。我们从电芯到系统集成再到智能运维的全产业链把控,确保交付的是真正高效、智能的“交钥匙”方案。
所以,我的见解是,未来大型算力中心的竞争,很大程度上会是能源利用效率的竞争。提升PUE不能只盯着空调,更要看整个能源链路。从引入可再生能源,到利用储能系统进行“削峰填谷”降低电费支出,再到智能管理系统根据电网电价和算力任务动态调整能耗,这是一个系统工程。美国IRA法案的补贴逻辑,其实是指明了一个方向:投资于能提升能效和整合可再生能源的硬件与解决方案,长期看不仅能享受政策红利,更能构筑根本性的成本优势。欧洲的先行实践,已经证明了这条路径的可行性。
这对于我们行业内的伙伴意味着什么?或许可以思考一下:在规划你的下一个算力设施时,是否将储能和智能能源管理作为与GPU、服务器同等重要的基础设施来考量?当你在评估总拥有成本(TCO)时,是否充分计算了未来十年能源价格波动和潜在碳成本带来的风险?我们很乐意与您探讨,如何将我们在全球多个严苛环境项目中积累的站点能源经验,转化为支撑您算力雄心的高效、绿色基石。您认为,在您当前的业务版图中,最大的能源挑战和潜在的优化机会在哪里?
——END——