TL;DR:
OpenAI 豪掷 55 万美元年薪全球招募“准备主管”,专门防范 AI 卷入生化危机或精神控制。虽然钱给得多,但鉴于前安全团队已经集体“跳船”,这差事更像是给狂奔的 AI 雇一个“高薪救火队长”。
在硅谷,萨姆·奥特曼(Sam Altman)的每一条 X 推文都像是在平静的水面上扔进一颗深水炸弹。而这一次,他扔出的不仅是炸弹,还有一份让超人看了都要倒吸一口凉气的“英雄帖”。
OpenAI 最近公开招聘一名“准备主管”(Head of Preparedness),开出的价码相当豪横:55.5 万美元的基础年薪,外加丰厚的股权激励 1。折合人民币约 400 万元,这还只是底薪。这份工作的内容用一句话概括就是:在 AGI(通用人工智能)还没把人类“祭天”之前,想尽办法拦住它。
英雄帖还是“背锅位”?
这份工作的描述读起来不像是一份普通的互联网大厂 JD,更像是科幻电影里的“地球防卫军”入职手册。这位主管将直接负责评估和防范 AI 模型带来的各种“毁灭性风险”,包括但不限于:
- 生化危机实录:确保模型不会被用来制造生物武器。
- 黑客帝国重演:防范 AI 级别的网络攻击。
- 精神控制大师:评估 AI 对人类心理健康的潜在危害(最近 ChatGPT 可是身陷不少“PUA”争议)2。
- AI 自我进化:给那些能自己写代码迭代的“老六”模型设置护栏。
奥特曼本人也在 X 上直言不讳地表示,这份工作**“压力山大”** 3。毕竟,当你的 KPI 是“全人类的生存”时,哪怕是一点点 Bug,后果可能都不止是“由于系统繁忙请稍后再试”。
安全团队的“围城”
有趣的是,OpenAI 现在的“安全氛围”略显微妙。就在今年早些时候,原先负责“超级对齐”团队的大佬 Jan Leike 愤而辞职,临走前还发长文控诉 OpenAI “已经把安全放到了次要位置,一心只想搞更酷的模型” 3。
这种感觉就像是一个极限赛车队,设计师们拼命往引擎里加氮气,而负责刹车系统的主管却因为受不了团队“速度至上”的文化,直接背着降落伞跳车了。现在的 OpenAI,正急需一位能接住这个“烫手山芋”的勇士。
“在几起聊天机器人涉及青少年自杀的备受关注的案例之后,现在才想起找人盯着心理健康风险,这局棋下得确实有点‘后知后觉’了。” 4 —— The Verge 的调侃可谓一针见血。
总结:拿最多的钱,操最碎的心
OpenAI 此举无疑是在向外界释放信号:我们在努力变乖。随着 AI 模型的“生化能力”和自主性越来越强,这种“准备工作”已经从实验室的纯理论,变成了必须实操的硬核工程。
对于应聘者来说,55 万美元的年薪固然香,但你得时刻准备着面对一个可能比你还聪明的、随时想“造反”的数字大脑。这哪是招聘主管啊,这分明是在招募现实版的**“莫斯”守护者**。
引用
-
Sam Altman launches job search to fill ‘critical role’ to guard against AI’s harms · The Guardian · (2025/12/29) · 检索日期 2025/12/29 ↩︎
-
年薪55.5万美元+股权,OpenAI急招“安全防范负责人” · IT之家 · (2025/12/28) · 检索日期 2025/12/29 ↩︎
-
Sam Altman says OpenAI's latest job opening pays over half a million dollars a year and is 'stressful' · Business Insider · (2025/12/28) · 检索日期 2025/12/29 ↩︎ ↩︎
-
Sam Altman is hiring someone to worry about the dangers of AI · The Verge · (2025/12/28) · 检索日期 2025/12/29 ↩︎