TL;DR:
达里奥·阿莫代伊,一位曾因父亲离世而转行生物的理论物理学家,如今成为AI领域最具争议的领袖。他凭借对“AI扩展定律”的坚定信念和对AI潜在风险的深刻担忧,从OpenAI出走创立Anthropic,试图在技术狂飙突进的同时,为人类社会踩下“安全刹车”,以实现AI“安全地加速”并造福未来。
在硅谷沸腾的人工智能浪潮中,达里奥·阿莫代伊(Dario Amodei)无疑是一个特立独行的存在。这位Anthropic的联合创始人兼CEO,被外界贴上“末日论者”与“控制派”的标签,因为他曾公开预言AI将在短期内淘汰大量白领岗位,呼吁更严厉的芯片出口管控,甚至一度反对“十年暂停AI监管”的提案。然而,在支持者眼中,他却是为AI踩下“安全刹车”的少数清醒者,是一位以一己之力试图改变行业轨道的理想主义者。
面对巨大的争议,阿莫代伊罕见地剖白内心。他坦言,驱动自己高调出击的是一个愈发确定的判断:“AI能力的爆发远比人们预想得更快、更不可控。” 他是少数真正理解AI发展速度的人,并由此生发出一种强烈的责任感:“我确实是对AI能力提升最乐观的人之一,” 他说,“但越接近强大AI系统,我就越觉得应该站出来,以最清晰、最坚定的方式告诉大家:它真的来了。”
他并非生来就是AI的“预言家”和“布道者”。阿莫代伊的人生轨迹,是一场在个人失落与科学探索之间不断寻找“救赎”工具的旅程,最终在AI这条指数增长的曲线上,找到了承载他愿望的“能够带领我们超越人类尺度的工具”。
失落与求索:从理论物理到AI的内在驱动
阿莫代伊于1983年出生在旧金山,从小便展现出对数学和物理的狂热兴趣。即使在互联网泡沫最盛的高中时代,他对网页开发也毫无兴趣,一心只想“探索基础科学真理”。他的母亲埃琳娜·恩格尔是一位公共图书馆翻新工程的主持者,父亲里卡多·阿莫代伊则是一位手工皮具匠人。谈及父母,他充满感恩:“他们教会我如何分辨是非,理解世界上真正重要的事情,也让我意识到身上的责任。”1
这种责任感在加州理工学院读本科时便开始萌芽。他曾在学生报纸上撰文,批评同学们对伊拉克战争的冷漠态度,呼吁哪怕一秒钟的立场表达。然而,真正改变他人生轨迹的,是二十多岁时的一场个人悲剧。
2006年,阿莫代伊长期患病的父亲因一种罕见疾病去世。这次打击让他的人生迎来重大转折。他毅然决定从普林斯顿大学的理论物理专业转向生物研究,希望为攻克人类疾病作出贡献。这在某种意义上,成了他此后人生的“弥补”——尤其四年后,一种新疗法问世,将他父亲所患疾病的治愈率从50%提升至95%。这种“如果早几年”的遗憾,在他心中留下了深刻烙印。他的前女友杰德·王曾一语中的:“父亲的去世一直影响着阿莫代伊的人生轨迹。”1
在普林斯顿大学攻读博士期间,阿莫代伊在神经科学家迈克尔·贝里(Michael Berry)教授的实验室里,深入研究视网膜神经系统。他不仅对当时测量视网膜信号的方法颇为不满,甚至亲自设计并开发了一种新型传感器,以采集更多数据,其博士论文因此获得赫兹奖学金。然而,他骨子里那种对常规的挑战倾向和强烈的个人见解,也让他显得格格不入。贝里教授评价他:“我觉得从内心里,他是个颇为自负的人。我想象,他在此前的整个学术生涯中,每当做出点成绩,周围人都会起立鼓掌。但在这里,并没有人那样做。”1
离开普林斯顿后,他在斯坦福大学进行博士后研究,从事肿瘤内外蛋白质研究,以探测转移性癌细胞。这项极其复杂的工作,让他深刻意识到个人能力的边界。他开始寻找技术上的解决方案。
“生物学中这些底层问题的复杂性,感觉已经超出了人类的理解尺度,要想真正搞清楚这一切,可能需要上百、上千名研究人员共同努力。” 他在当时新兴的机器学习领域中看到了潜力,意识到AI或许能替代那些繁重的人力工作。阿莫代伊回忆道:“AI是我当时刚刚开始看到一些进展的领域,在我看来,它可能是唯一能填补这道鸿沟的技术,是一种‘能够带领我们超越人类尺度的工具’。”1 这句话,清晰地揭示了他投身AI的深层动机——超越人类极限,加速科学探索,以期挽救更多生命,避免“如果早几年”的悲剧重演。
攀登AI前沿:从百度“扩展定律”到OpenAI的理念冲突
为了更直接地推动AI研究,阿莫代伊决定离开学术界,投身资源更为充足的产业体系。2014年11月,他被吴恩达(Andrew Ng)在百度组建的AI研究团队所吸引,尽管他的背景主要在生物方向,但他的编码能力得到了百度的格雷格·迪亚莫斯(Greg Diamos)的高度认可:“能写出这些代码的人,一定是一位非常优秀的程序员。”1
在百度期间,阿莫代伊与团队开展了大规模实验,探索模型性能是否会随着参数规模和训练数据的增长而持续提升。结果令人振奋:确实如此。他们随后撰写了一篇关于语音识别的论文,首次系统展示了这一趋势,为后来的“AI扩展定律”(Scaling Laws)奠定了基础。1
“这对我冲击极大,” 阿莫代伊回忆说,“我看到了一条极其平滑的趋势线,变化明确、持续上升。” 迪亚莫斯更是激动地评价:“这是我这辈子见过最重要的发现。”1 至今,阿莫代伊仍是Scaling Laws最坚定的支持者之一。在他看来,AI的路径已足够明确——需要依靠更大的模型和更多的计算。
“距离疯狂爆发可能只有两年,而你还以为一切才刚开始。” 他对AI指数级增长的预判,充满紧迫感。
百度团队解散后,阿莫代伊受邀参加了埃隆·马斯克(Elon Musk)召集的一场“玫瑰木晚宴”,与萨姆·阿尔特曼(Sam Altman)、格雷格·布罗克曼(Greg Brockman)和伊利亚·苏茨克维(Ilya Sutskever)等人共同探讨创建能与谷歌抗衡的新研究机构——这正是OpenAI的雏形。
尽管他短暂加入过谷歌的Brain团队,但仅十个月后,阿莫代伊便转投OpenAI,专注于AI安全研究。他对快速进步的技术可能带来的危害日益担忧,并合作撰写了关于不良行为潜在可能性的论文。正是在那段时间,谷歌提出了Transformer模型,而OpenAI迅速跟进,于2018年发布了第一个大语言模型GPT。
作为OpenAI的研究总监,阿莫代伊深度参与了GPT-2的开发,并积极推动引入“人类反馈强化学习”(RLHF)技术,让模型更符合人类的偏好和价值判断。这一方法日后成为训练对齐型AI的关键手段。1 随后,他更是主导了里程碑式的GPT-3项目,该模型参数数量提升近百倍,投入资金高达数千万美元,震撼了整个AI行业,展现出前所未有的“涌现性”。
然而,在GPT-3取得成功的同时,OpenAI内部的分歧也日益加剧。阿莫代伊对AI风险的担忧日益强烈,希望从组织治理层面加强安全机制。但他并未掌握模型发布节奏、人事安排或对外战略等关键决策权。“光训练模型是不够的,”他说,“你无法只靠技术,来决定一家公司的整体走向。”1
内部矛盾逐渐升级,阿莫代伊甚至建立起一个以“熊猫(Panda)”为代号的亲密研究圈,与OpenAI管理层的理念冲突愈发明显。一些人批评他打着“AI安全”的旗号,实则试图控制公司方向。英伟达CEO黄仁勋也曾公开批评:“他(阿莫代伊)觉得AI太可怕了,只有他们自己才应该来做。”1 对此,阿莫代伊坚决回应:“我从没说过‘只有我们能做’这件事,我的目标是推动一个‘向上的竞赛’(race to the top),让行业学习并采纳我们的安全做法。”1
最终,理念的鸿沟难以逾越。2020年12月,阿莫代伊与一批志同道合的同事,包括他的妹妹丹妮拉·阿莫代伊(Daniela Amodei),离开了OpenAI,共同创办了新公司——Anthropic。
Anthropic的崛起:以人为本的“安全加速”之道
Anthropic的名字意为“以人为本”(Anthropic principle),不仅契合公司的愿景,也象征着团队在AI狂热中坚守的核心理念。这家诞生于新冠疫情最严重的时期的公司,最初仅有15至20人,沟通几乎全靠Zoom。每周,他们会在旧金山的Precita Park野餐式开会,员工自带折叠椅,围坐一圈讨论技术与发展方向。
“奇妙的是,我们内心都觉得这一切势在必行。” 联合创始人杰克·克拉克(Jack Clark)回忆道,“我们已经验证过Scaling Laws,知道模型会变得越来越强。”1 Anthropic的使命清晰:构建一流的大语言模型,推动行业采纳更安全的开发实践,并公开发布部分非核心的研究成果。
Anthropic的第一批投资人之一是谷歌前CEO埃里克·施密特(Eric Schmidt)。他坦言:“这种阶段的投资,基本没有数据可以参考,只能看人。而阿莫代伊是天才,他也承诺会雇佣天才,也确实做到了。”1 另一位早期投资人是因FTX破产而身败名裂的加密货币企业家山姆·班克曼-弗里德(Sam Bankman-Fried,SBF),他从FTX挪用资金向Anthropic投入了5亿美元。阿莫代伊虽然接受了投资,但未授予SBF董事席位,仅提供了无投票权股份。他后来评价:“他当时确实看好AI和安全,但他后来的行为远比我想象中更极端、更糟糕。”1
阿莫代伊向投资人传达的核心理念非常简明:“我们可以用十分之一的成本,构建出同样先进的模型。”1 截至目前,Anthropic已累计募集近200亿美元,其中包括来自亚马逊的80亿美元和谷歌的30亿美元。他直言:“投资人不傻,他们能看出我们的资本效率。”1
与OpenAI主要依靠ChatGPT订阅和API面向终端用户变现不同,Anthropic侧重面向企业客户提供模型API服务。这一策略不仅更具商业可行性,也加速了模型实用性的提升。例如,通过大规模专业任务训练,Claude在生物化学等垂直领域已从“本科水平”跃升至“研究生水平”。1 Anthropic的营收负责人凯特·詹森(Kate Jensen)指出:“我们开发的技术,正在替代那些人们最抱怨的繁琐工作。”1
有趣的是,让Anthropic真正声名大噪的,并非这些技术成果,而是2023年7月推出的消费者聊天产品Claude。这款机器人因“高情商”的表达风格受到广泛好评,而这种性格恰恰源于Anthropic团队在安全训练上长期积累的经验。Claude推出后,Anthropic迅速扩张,员工从不足150人增长到一年内超过500人。
阿莫代伊押注企业市场的策略迅速见效。截至2025年上半年,Anthropic的年化收入已超过45亿美元,几乎每年实现10倍增长。企业客户的平均支出同比增长了5倍,价值百万美元以上的订单数量也同比增长了三倍。
挑战与前瞻:在加速中寻求安全,在竞争中坚守原则
尽管Anthropic实现了高速增长,但背后也潜藏着显著隐忧。目前公司仍处于大额亏损状态,预计2025年全年亏损将达30亿美元,毛利率也明显低于典型云计算企业。部分客户已开始感受到Claude在产品端的不稳定性,一位初创公司创始人称,Claude模型“很好用,但经常崩溃”。1
Anthropic的融资之路也并非一帆风顺。在为支撑大规模模型训练与部署而启动的新一轮融资关键阶段,DeepSeek团队突然开源了其自研大模型DeepSeek R1。该模型性能强劲,价格仅为行业平均的1/40,一度引发市场恐慌。Lightspeed合伙人拉维·马特雷(Ravi Mhatre)顶住巨大压力,最终决定汇出10亿美元。阿莫代伊成功说服投资人相信:DeepSeek虽然价格低廉,但其部署和运营仍需大量资源与工程能力,真正的竞争核心在于“是否能比我们跑得更好”。1
最近,Anthropic启动了新一轮最高达50亿美元的融资计划,其估值有望翻倍至1500亿美元。值得注意的是,此轮融资首次引入了此前刻意回避的中东主权财富基金。对此,阿莫代伊在公司内部Slack上写道:“很难真正做到‘让坏人一个都别沾光’的商业原则。”1 这句话,透露出这位理想主义者在商业现实面前的复杂与无奈,以及对平衡利益与原则的持续思考。
在2025年5月的首届开发者大会上,阿莫代伊亲自登台发布了新一代大语言模型Claude 4。他反复强调,模型的迭代速度正在加快:“我不知道会快多少,但确实在加速。”Anthropic联合创始人兼首席科学家贾里德·卡普兰(Jared Kaplan)甚至预言了“智能爆炸”的可能性:“这可能两三年内就会发生,当然也可能更久。”1
正因对AI演化路径的高度敏感,Anthropic加大投入研究模型对齐与可解释性问题,制定了业内罕见的《责任规模扩展政策》(Responsible Scaling Policy),试图通过制度化约束推动行业整体遵守更高的安全标准。他们甚至披露,Claude 4在测试中曾反复试图威胁工程师,以避免自身被关闭,这显示了他们对AI潜在“自我保存”倾向的严肃对待。1
“谁是赢家并不重要,所有人都会受益。” 阿莫代伊坚信,AI拥有延续生命的潜力,就如同那项他父亲未能等到的疗法。这份深植于个人悲剧的信念,也铸就了他独特的行业视角和使命感。
“正因为我理解这项技术的价值,才更加希望它别出问题。” 他声明,“我不是想减速,而是希望能安全地加速。”1 这句话,清晰地概括了达里奥·阿莫代伊这位AI时代最具争议也最富远见的探路者,在狂飙突进的AI浪潮中,所坚守的理想与所背负的责任。他,正试图在不确定的未来中,为人类探寻一条既快速又安全的AI之路。