用一次AI有多少碳排放?
AI工具到底会消耗多少电能,又会造成多少碳排放,这其实是一个很难回答的问题。
最主要的困难在于信息不透明。提供AI服务的大公司往往不会公布详细的能耗数据,研究者经常只能通过间接估算进行分析——例如,他们有时会通过英伟达服务器的需求量对AI能耗规模进行计算。
这些估算存在很多假设,其结果的可靠程度也比较有限。有时,不同来源的估算会得出差异较大的结论:例如一项估算认为,每使用一次ChatGPT平均会消耗2.9 瓦时的电力[1],而另一项估算则认为每次查询平均仅需要0.3瓦时电力[2],二者相差了将近10倍。
除此之外,研究者还有另一种方法获得数据:他们可以亲自下载并运行AI模型,让它们执行标准化的任务,然后测量由此产生的电能消耗。结合当地电网中火力发电的占比,人们还可以进一步计算出耗电背后的碳排放。这样得出的数据更加准确,但它只适用于开源模型,依然不足以揭示AI环境影响的全貌。
在最近发表的研究中,德国科学家就对14个开源大语言模型进行了这样的分析[3]。研究发现,不同模型在回答相同问题时的能耗与碳排放差异极大,最大与最小的数据之间甚至相差了50倍以上。
扩大参数规模、采用逐步推理可以提升AI的表现,但这些因素也增加了运算量,导致碳排放大幅增加。在这项研究的测试范围内,碳排放最多的AI模型是Deepseek R1 70B,让它回答60万个问题所产生的碳排放,相当于乘飞机在伦敦与纽约之间往返一次[4]。
单次使用AI的碳排放并不算大,但考虑到热门AI工具有着上亿规模的访问量,相关碳排放总数依然相当可观。在此之外,AI模型的训练、硬件生产、服务器冷却等环节还有很多额外的环境成本——但由于数据不足,这些成本的总和究竟有多大同样是个谜。