TL;DR:
面对AI是“吞金兽”的指责,Sam Altman在印度掏出了他的“人肉成本论”:养个孩子变聪明要20年饭钱,AI训练那点能耗算什么?虽然奥总极力通过重新定义“效率”来化解环境焦虑,但由于OpenAI能耗数据依旧是个“黑盒”,这笔环保账恐怕还没那么容易算清。
最近,OpenAI的首席执行官山姆·奥特曼(Sam Altman)又开启了他在全球范围内的“逻辑鬼才”模式。在印度举行的AI影响力峰会上,面对台下关于“AI是不是在烧掉整个地球”的灵魂拷问,奥总没有正面回答电表转得有多快,而是反手扔出了一个让所有家长都陷入沉思的比喻。1
别拿训练说事,你还没AI“省油”?
奥特曼在会上表示,大家总是盯着训练一个大模型花了多少电,这很不公平。他提出了一个生动的对比:“人们总说训练AI模型要多少能源,但训练一个人类也需要很多能量。你要活20年,吃掉这期间所有的食物,才能变得聪明。”12
简单来说,奥总觉得:既然培养一个大学生需要20年的“生物燃料”(碳水化合物),那凭什么要求AI几天就能速成还滴油不进?
这种“人肉成本论”迅速在社交媒体上引发了热议。有开发者调侃称,按这个逻辑,他得感谢公司没用AI换掉他,毕竟他的“训练成本”确实挺高。3 奥特曼的核心论点是:一旦模型训练完成,AI回答一个问题的能源效率,可能已经赶上甚至超过了人类思考同样问题所消耗的生物能。2
技术大揭秘:这玩意儿到底有多“渴”?
除了电,AI的“用水量”也是最近环保组织死磕的焦点。此前有传闻称,ChatGPT每查询一次就要“喝掉”17加仑(约64升)的水。奥特曼在印度直接开怼,称这种说法“完全不实且荒谬”,简直是与现实脱节。1
他解释说,早期的冷却是靠蒸发水,现在的现代数据中心早就进化到了更高效的闭环冷却系统。1 话虽如此,但根据罗德岛大学的估算,即便冷却技术在进步,大模型的胃口依然惊人:
- GPT-4o: 算是OpenAI家族里的“节能标兵”。
- GPT-5(预估): 生成1000个Token的能效最高可达40瓦时,相当于微波炉全火力转一分多钟。4
- 对比: 谷歌的Gemini中位查询耗电仅0.24瓦时。4
显然,随着模型规模像吹气球一样膨胀,能源消耗正在呈指数级增长。所谓的“专家混合架构”虽然能让查询时只激活部分参数,但更复杂的推理过程意味着GPU需要运转更久,这账怎么算都不便宜。4
行业“地震”:是能源危机还是转机?
面对日益增长的能源压力,科技巨头们现在的画风非常统一:AI的尽头是核能。
奥特曼在会上大声疾呼,世界需要“非常快速”地转向核能、太阳能和风能。1 这不只是说说而已,OpenAI已经把原本宏大的1.4万亿美元基础设施计划,悄悄缩减到了更“务实”的6000亿美元。3 毕竟,即便是世界最顶尖的科技公司,也得在昂贵的能源账单面前低头。
更有趣的是,这场能源辩论还带出了一些八卦。在峰会现场,奥特曼与Anthropic的CEO Dario Amodei之间微妙的竞争氛围,以及OpenAI拒绝披露具体能耗数据的强硬态度,都让这场“环保讨论”充满了博弈色彩。34
调侃式点评: 奥总这一套“人肉比AI费资源”的逻辑,虽然听着像是在狡辩,但也确实捅破了人类认知的窗户纸。只不过,人类吃饭是为了活命,AI吃电是为了帮人写周报,这两者的“必要性”在监管者眼里,可完全不是一码事。
未来预测:下一个“风口”是能源套利?
虽然奥特曼试图把AI塑造成比人类更高效的“智慧体”,但真相往往藏在财报里。OpenAI拒绝披露GPT-5的具体能耗,或许是因为数据实在太惊人,怕吓跑了那些追求ESG(环境、社会和治理)指标的机构投资者。4
未来,AI公司的核心竞争力可能不再是算法多精妙,而是谁能搞到更便宜、更清洁的电。当科技CEO开始跨界当“能源大亨”,我们或许真的离“AI发电,AI用电,AI再帮人类省电”的闭环不远了。
引用
-
Sam Altman defends AI’s energy toll by saying it also takes a lot to ‘train a human’ · The Guardian · (2026/2/23) · 检索日期2026/2/24 ↩︎ ↩︎ ↩︎ ↩︎ ↩︎
-
AI 超耗能?OpanAI 執行長Altman 駁:人類學習也要消耗 20 年食物等 ... · INSIDE · (2026/2/23) · 检索日期2026/2/24 ↩︎ ↩︎
-
20年生命vs2小时训练,Sam Altman 开始算“人肉成本” · 虎嗅 · 极客公园 · (2026/2/24) · 检索日期2026/2/24 ↩︎ ↩︎ ↩︎
-
巨型吞金兽!OpenAI拒绝披露能耗数据!日耗=150万美国家庭电量? · 观察者网 · 大眼联盟 · (2026/2/24) · 检索日期2026/2/24 ↩︎ ↩︎ ↩︎ ↩︎ ↩︎