2 min read

Google揭秘AI能耗全景:支撑设施成关键变量

Google通过一项新研究披露了其AI模型每次查询的能耗细节,首次揭示了除AI芯片外,支撑AI硬件所需基础设施的能耗占比。研究显示,AI芯片(TPUs)占总能耗的58%,而主机CPU及内存、备用设备和数据中心运营(如冷却、电力转换)分别占25%、10%和8%。这一全面分析填补了行业研究的空白,为AI能源消耗的量化提供了关键数据。该研究由Google首席科学家Jeff Dean主导,旨在提供一个包含所有支撑硬件在内的综合能耗视图,这对于理解AI的真实能源足迹至关重要。

此项研究的战略意义在于,它为AI能源效率的研究树立了标杆,并可能推动行业内对更高效数据中心设计和运营的关注。Google提供的详细能耗构成,特别是将非AI芯片部分的能耗量化,有助于研究人员和政策制定者更准确地评估AI技术的环境影响。这项工作被视为AI能源领域的“基石”,预示着未来AI能源消耗的透明度和可量化性将成为行业竞争和监管的重要考量因素。Google的这一数据代表了其AI模型(如Gemini)的平均查询能耗,而非所有查询的上限,体现了其在能耗管理上的细致考量。

In a first, Google has released data on how much energy an AI prompt uses
It’s the most transparent estimate yet from one of the big AI companies, and a long-awaited peek behind the curtain for researchers.
订阅情报