TL;DR:
AI 还没进化成天网,可能先要把电网给整“炸”了。英国监管机构 Ofgem 报警称,140 多个 AI 数据中心正排队等着“插电”,总需求高达 50GW,这胃口大到能直接吞掉全英国的电力峰值。
当我们在用 ChatGPT 写周报、用 Midjourney 画猫片时,远在大洋彼岸的英国电网工人们可能正看着仪表盘流冷汗。
根据英国能源监管机构 Ofgem 的最新警告,受人工智能热潮驱动,英国目前有约 140 个处于提案阶段的数据中心项目。这些项目的总电力需求预计将达到惊人的 50 吉瓦(GW)。1
这是一个什么概念?目前英国全国的最高用电需求峰值也才 45GW 左右。换句话说,光是这些还没落地的“新邻居”,就打算把整个英国的电网负荷再翻一倍。
140 个“电老虎”排队:电网直呼“我太难了”
现在的 AI 数据中心,早已不是当年那个只要吹吹风扇就能干活的“乖宝宝”了。由于 AI 模型训练需要成千上万块 GPU 并行运转,这些机器不仅贵,而且极其“口渴”。
“这哪是数据中心,这简直是插在电网上的超级‘抽电器’。” —— 某不愿透露姓名的电网工程师(调侃点评)
Ofgem 的数据显示,这 50GW 的电力缺口如果全部兑现,将对英国的能源基础设施构成前所未有的挑战。1 实际上,这不仅仅是英国的烦恼。国际能源署(IEA)此前就预测,到 2030 年,全球数据中心的电力需求将翻一番,达到约 945 太瓦时,相当于日本全国的用电量。2
目前在英国,排队等待接入电网的申请已经排到了十年后。像 Segro 这样的地产巨头,其数据中心扩建计划就因为拿不到电力配额而陷入僵局;甚至连微软这样“财大气粗”的主儿,其 32 亿美元的投资计划也得看电网的脸色。3
技术大揭秘:AI 到底是怎么把电“吃”掉的?
为什么 AI 比传统计算更费电?答案藏在功率密度里。
传统的服务器机架功率通常在 150W 到 300W 之间,但现在的 AI 训练服务器,单机功耗已经飙升到了 2000W 以上。4
- 算力即电力: 每一枚英伟达 H100 芯片都是一个微型发热体。
- 冷却“死循环”: 机器运行产生热量,为了不让它们烧坏,必须消耗更多的电力去运行空调或液冷系统。
- 24/7 全天候: 不同于办公室用电有高峰低谷,AI 训练是全天候“拉满”运行,对电网的基荷压力巨大。5
这种“暴力美学”式的算力增长,让电网就像一个被强行接上了 140 个工业级大功率吹风机的老旧插线板,随时面临跳闸的风险。
未来预测:一边是“碳中和”,一边是“算力荒”
现在的问题很尴尬:一方面,英国政府正雄心勃勃地推进减排目标;另一方面,AI 产业却像个贪婪的“大胃王”,张嘴就要掉翻倍的电力供应。
为了破局,科技公司和能源厂商正在各显神通。英飞凌等半导体巨头正试图通过更高效的电源管理芯片来“节流”,4 而一些数据中心干脆考虑直接搬到核电站旁边,或者自建小型模块化反应堆(SMR)来“开源”。
如果电网升级的速度跟不上大模型进化的速度,未来我们可能真的要面临一个终极选择:是保住家里的热水壶和暖气,还是保住那个能帮你写代码的 AI 助手?
毕竟,当电网负荷翻倍时,最先“断气”的可能不只是算力,还有投资者的信心。
引用
-
New datacentres risk doubling UK electricity use, regulator says · The Guardian (2026/2/23) · 检索日期2026/2/24 ↩︎ ↩︎
-
国际能源署:到2030年,数据中心将导致全球电力需求增加一倍 · 国际能源署 (2025/4/14) · 检索日期2026/2/24 ↩︎
-
AI热潮引发电网危机:英国数据中心连接需求暴增 · 新浪财经 (2025/11/07) · 检索日期2026/2/24 ↩︎
-
AI数据中心的能耗危机与英飞凌的破局之道 · 知乎专栏 (2024/10/30) · 检索日期2026/2/24 ↩︎ ↩︎
-
AI将使全球数据中心能耗增加一倍 · 中国科学报社 (2024/1/30) · 检索日期2026/2/24 ↩︎