你对AI说过谢谢吗?
几个月前,OpenAI的CEO山姆·奥特曼(Sam Altman)在一条推文中提到,用户对AI说“请”和“谢谢”这类礼貌用语,可能让公司额外付出了“数千万美元”的电费。这不仅意味着巨大的经济成本,也反映出AI因为人类的礼貌行为消耗了更多电力,进而加剧了对环境的影响。
AI作为一项工具,本可助力环保研究和可持续发展,但其研发和运营本身却是高度能耗密集型活动。更关键的是,我们至今仍难以准确量化AI到底带来了多少碳排放。
想要让AI变得更环保,问题远不止于用户是否说“请”和“谢谢”这么简单。
▷用一次AI,碳排放多少?
AI工具究竟消耗多少电能、产生多少碳排放,目前仍是一个复杂且缺乏明确答案的问题。
主要困难在于信息不透明。大多数提供AI服务的大型科技公司并未公开详细的能耗数据,研究者通常只能借助间接方法进行估算——比如通过英伟达服务器的需求量推断AI的总体能耗规模。
这类估算往往建立在较多假设之上,结果可信度有限。不同研究之间的结论也可能大相径庭:例如,有研究认为每使用一次ChatGPT平均消耗2.9瓦时电力[1],而另一项估算则显示每次查询仅需0.3瓦时[2],相差近十倍。
一项估算指出,每次ChatGPT查询平均耗电2.9瓦时,是传统搜索引擎的10倍——但这些数字的准确性仍存疑 | 图片来源:pexels
另一种获取数据的方式是研究者自行运行AI模型,通过标准化任务实测其电能消耗,再结合当地电网的火电比例推算碳排放。这种方法结果更准确,但仅适用于开源模型,仍难以全面反映AI的真实环境影响。
在近期一项研究中,德国科学家对14个开源大语言模型展开了此类分析[3]。结果发现,不同模型在处理相同问题时的能耗与碳排放差异巨大,最多可相差50倍以上。
参数规模的扩大、逐步推理技术的使用,虽然提升了AI性能,却也显著增加了计算量和碳排放。在该研究中,碳排放最高的模型是Deepseek R1 70B——回答60万个问题所产生的碳足迹,相当于乘飞机在伦敦与纽约之间往返一次[4]。
目前仍有较大比例电力依赖化石能源,因此AI运行不仅耗电,也会间接造成二氧化碳排放 | 图片来源:Wikipedia
单次使用AI的碳排放或许不大,但考虑到热门AI工具有数亿用户访问,其总排放量依然相当可观。此外,AI模型的训练、硬件制造、服务器冷却等环节还存在大量隐性环境成本——受限于数据匮乏,这些环节的总体影响仍然成谜。
▷整体占比不高,但局部影响显著
AI计算大多集中在大型数据中心。尽管AI行业扩张迅速,数据中心的用电需求近年来急剧上升,但其在全球总能耗和碳排放中的占比仍相对较小。
根据国际能源署(IEA)的数据,2024年全球数据中心总用电量约为415太瓦时,占全球电力消耗的1.5%,相应的二氧化碳排放约1.8亿吨,占化石燃料燃烧排放总量的0.5%[5]。
IEA预计,到2030年,数据中心的用电量可能翻倍,达到945太瓦时。尽管涨幅显著,届时这一数字也仅占全球总电力需求的约3%[5]。
然而,数据中心具有明显的区域集聚特点,因此即使全球占比不高,局部地区的压力仍可能非常突出。企业倾向于将数据中心集中建设,以提高信息传输效率、共享电力和冷却资源。这种做法虽提升了运营便利性,却也可能对区域电网带来巨大负担。
与炼钢厂等传统高耗能设施相比,数据中心在空间上更为密集 | 图片来源:cisco
在某些地区,数据中心的影响远高于全球平均水平。例如,美国弗吉尼亚州目前已有340座数据中心,用电量占全州总用电量的四分之一以上[6]。
尽管建设仍在加速,电力供应已显现不足。AI带来的新增电力需求,可能不得不依靠新建大型燃气电厂来满足——这无疑会进一步推高碳排放。
▷为AI减碳,不说“谢谢”有用吗?
在讨论如何降低AI的碳足迹时,不少人建议“不对AI说谢谢”,这确实有一定依据。
大语言模型在处理用户指令时,会先将文本拆解成基本单元——“词元”(token)。词元数量直接影响AI的计算工作量,进而关联能耗与排放。减少“谢谢”这类非必要文本,确实能轻微降低词元量,节省一点电力。
但相比客套话,更大的影响因素是AI的推理模式。前述德国研究显示,启用逐步推理功能的大模型,其碳排放可能达到普通模式的4–6倍[3]。因为展示“思考过程”会生成更多中间文本,大幅增加需处理的词元数量。
精简提问、合理选择AI模型,固然有助于减排,但最终不能仅靠用户主动约束。提升AI算法能效、提高清洁电力比例、优化数据中心布局,才是应对AI环境挑战的根本途径——而这需要企业与政府层面的共同推动。
参考文献
[1] https://www.sciencedirect.com/science/article/pii/S2542435123003653
[2] https://epoch.ai/gradient-updates/how-much-energy-does-chatgpt-use
[3] https://www.frontiersin.org/journals/communication/articles/10.3389/fcomm.2025.1572947/full
[4] https://www.eurekalert.org/news-releases/1086116
[5] https://www.iea.org/reports/energy-and-ai
[6] https://www.nature.com/articles/d41586-025-00616-z
作者:窗敲雨
编辑:麦麦。所以说你们用智能体的时候,点名公司要扣除一定的点币。这个是能理解的,因为没有借口让点名公司免费使用
目录
你对AI说过谢谢吗?
几个月前,OpenAI的CEO山姆·奥特曼(Sam Altman)在一条推文中提到,用户对AI说“请”和“谢谢”这类礼貌用语,可能让公司额外付出了“数千万美元”的电费。这不仅意味着巨大的经济成本,也反映出AI因为人类的礼貌行为消耗了更多电力,进而加剧了对环境的影响。
AI作为一项工具,本可助力环保研究和可持续发展,但其研发和运营本身却是高度能耗密集型活动。更关键的是,我们至今仍难以准确量化AI到底带来了多少碳排放。
想要让AI变得更环保,问题远不止于用户是否说“请”和“谢谢”这么简单。
▷用一次AI,碳排放多少?
AI工具究竟消耗多少电能、产生多少碳排放,目前仍是一个复杂且缺乏明确答案的问题。
主要困难在于信息不透明。大多数提供AI服务的大型科技公司并未公开详细的能耗数据,研究者通常只能借助间接方法进行估算——比如通过英伟达服务器的需求量推断AI的总体能耗规模。
这类估算往往建立在较多假设之上,结果可信度有限。不同研究之间的结论也可能大相径庭:例如,有研究认为每使用一次ChatGPT平均消耗2.9瓦时电力[1],而另一项估算则显示每次查询仅需0.3瓦时[2],相差近十倍。
一项估算指出,每次ChatGPT查询平均耗电2.9瓦时,是传统搜索引擎的10倍——但这些数字的准确性仍存疑 | 图片来源:pexels
另一种获取数据的方式是研究者自行运行AI模型,通过标准化任务实测其电能消耗,再结合当地电网的火电比例推算碳排放。这种方法结果更准确,但仅适用于开源模型,仍难以全面反映AI的真实环境影响。
在近期一项研究中,德国科学家对14个开源大语言模型展开了此类分析[3]。结果发现,不同模型在处理相同问题时的能耗与碳排放差异巨大,最多可相差50倍以上。
参数规模的扩大、逐步推理技术的使用,虽然提升了AI性能,却也显著增加了计算量和碳排放。在该研究中,碳排放最高的模型是Deepseek R1 70B——回答60万个问题所产生的碳足迹,相当于乘飞机在伦敦与纽约之间往返一次[4]。
目前仍有较大比例电力依赖化石能源,因此AI运行不仅耗电,也会间接造成二氧化碳排放 | 图片来源:Wikipedia
单次使用AI的碳排放或许不大,但考虑到热门AI工具有数亿用户访问,其总排放量依然相当可观。此外,AI模型的训练、硬件制造、服务器冷却等环节还存在大量隐性环境成本——受限于数据匮乏,这些环节的总体影响仍然成谜。
▷整体占比不高,但局部影响显著
AI计算大多集中在大型数据中心。尽管AI行业扩张迅速,数据中心的用电需求近年来急剧上升,但其在全球总能耗和碳排放中的占比仍相对较小。
根据国际能源署(IEA)的数据,2024年全球数据中心总用电量约为415太瓦时,占全球电力消耗的1.5%,相应的二氧化碳排放约1.8亿吨,占化石燃料燃烧排放总量的0.5%[5]。
IEA预计,到2030年,数据中心的用电量可能翻倍,达到945太瓦时。尽管涨幅显著,届时这一数字也仅占全球总电力需求的约3%[5]。
然而,数据中心具有明显的区域集聚特点,因此即使全球占比不高,局部地区的压力仍可能非常突出。企业倾向于将数据中心集中建设,以提高信息传输效率、共享电力和冷却资源。这种做法虽提升了运营便利性,却也可能对区域电网带来巨大负担。
与炼钢厂等传统高耗能设施相比,数据中心在空间上更为密集 | 图片来源:cisco
在某些地区,数据中心的影响远高于全球平均水平。例如,美国弗吉尼亚州目前已有340座数据中心,用电量占全州总用电量的四分之一以上[6]。
尽管建设仍在加速,电力供应已显现不足。AI带来的新增电力需求,可能不得不依靠新建大型燃气电厂来满足——这无疑会进一步推高碳排放。
▷为AI减碳,不说“谢谢”有用吗?
在讨论如何降低AI的碳足迹时,不少人建议“不对AI说谢谢”,这确实有一定依据。
大语言模型在处理用户指令时,会先将文本拆解成基本单元——“词元”(token)。词元数量直接影响AI的计算工作量,进而关联能耗与排放。减少“谢谢”这类非必要文本,确实能轻微降低词元量,节省一点电力。
但相比客套话,更大的影响因素是AI的推理模式。前述德国研究显示,启用逐步推理功能的大模型,其碳排放可能达到普通模式的4–6倍[3]。因为展示“思考过程”会生成更多中间文本,大幅增加需处理的词元数量。
精简提问、合理选择AI模型,固然有助于减排,但最终不能仅靠用户主动约束。提升AI算法能效、提高清洁电力比例、优化数据中心布局,才是应对AI环境挑战的根本途径——而这需要企业与政府层面的共同推动。
参考文献
[1] https://www.sciencedirect.com/science/article/pii/S2542435123003653
[2] https://epoch.ai/gradient-updates/how-much-energy-does-chatgpt-use
[3] https://www.frontiersin.org/journals/communication/articles/10.3389/fcomm.2025.1572947/full
[4] https://www.eurekalert.org/news-releases/1086116
[5] https://www.iea.org/reports/energy-and-ai
[6] https://www.nature.com/articles/d41586-025-00616-z
作者:窗敲雨
编辑:麦麦。所以说你们用智能体的时候,点名公司要扣除一定的点币。这个是能理解的,因为没有借口让点名公司免费使用