最近,在和张江几位老朋友喝咖啡时,大家聊起一个蛮有意思的话题。你们晓得伐,现在那些做大模型训练的公司,动辄就是上万张GPU卡组成的集群。这东西,算力是上去了,但用电量也真是“辣手”。一个这样的集群,峰值功率可能轻松突破几兆瓦,相当于一个大型工厂的负荷。许多园区或数据中心的市电容量,当初设计时根本没想到会有这样的“电老虎”,扩容又涉及复杂的审批和漫长的基建周期,成了制约AI算力发展的隐形瓶颈。