算力巨兽能耗惊人:英伟达 H100 AI 芯片总耗电量将超欧洲小国
注意到,法国施耐德电气公司早在去年 10 月就估计,用于 AI 应用的数据中心的总功耗已经与塞浦路斯全国相当。那么,最热门的 AI 处理器之一 —— 英伟达的 H100,功耗究竟几何?
微软数据中心技术治理和战略部门首席电气工程师保罗・楚诺克(Paul Churnock)预测,到 2024 年底,当数百万块 H100 部署完毕时,其总功耗将超过美国亚利桑那州凤凰城所有家庭的用电量,但仍低于得克萨斯州休斯敦等更大的城市。
楚诺克在领英上发帖称:“英伟达的 H100 GPU 峰值功耗为 700 瓦,按照 61% 的年利用率计算,相当于一个美国家庭的平均功耗(假设每个家庭 2.51 人)。英伟达预计,2024 年 H100 的销量将在 150 万到 200 万块之间。按城市居民用电量排名,H100 的总功耗将位居全美第五,仅次于休斯敦,排在凤凰城之前。”
按照 61% 的年利用率,每块 H100 每年将消耗约 3740 千瓦时 (kWh) 的电量。如果英伟达在 2023 年售出 150 万块 H100,2024 年售出 200 万块,到 2024 年底,将有 350 万块 H100 芯片被部署。这些芯片的总年耗电量将达到惊人的 130.91 亿千瓦时,即 13091.82 吉瓦时 (GWh)。
相比之下,格鲁吉亚、立陶宛或危地马拉等国家的年均电力消耗也大约为 13092 吉瓦时。虽然 H100 的功耗令人震惊,但值得注意的是,AI 和高性能计算 (HPC) GPU 的效率正在不断提高。因此,虽然英伟达下一代 Blackwell 架构的 B100 芯片的功耗可能会超过 H100,但它也将提供更高的性能,从而以更少的单位功耗完成更多工作。
随着 AI 技术的发展,如何平衡算力与能耗之间的矛盾,将成为未来亟需解决的重要课题。
免责声明:本文为转载,非本网原创内容,不代表本网观点。其原创性以及文中陈述文字和内容未经本站证实,对本文以及其中全部或者部分内容、文字的真实性、完整性、及时性本站不作任何保证或承诺,请读者仅作参考,并请自行核实相关内容。