众力资讯网

AI的发展逻辑正在发生根本性的改变。过去我们迷信“缩放法则”(Scaling L

AI的发展逻辑正在发生根本性的改变。过去我们迷信“缩放法则”(Scaling Law),认为只要堆叠更多的参数、更多的数据,模型就会变得更聪明。但这个过程伴随着惊人的能源消耗: 指数级的能耗增长: 数据显示,前沿AI模型训练的峰值电力需求每年以 2.1倍 的速度增长。相比之下,芯片能效的提升速度(每年约40%)远远赶不上电力需求的爆炸。 从“训练”到“推理”的双重挤压: 训练端: 像xAI的Grok-3在训练时峰值功率达到了150MW,这相当于同时给10万个家庭供电。 推理端: 这才是未来的“隐形杀手”。当AI像水电一样普及,每一次搜索、每一次对话都是在消耗电力。有预测认为,推理的耗电量最终将是训练的10倍甚至20倍。