TL;DR:
在AI时代,有效的人机对话正在成为比代码更关键的技能。Anthropic通过哲学博士Amanda Askell塑造模型“人格”,预示着未来AI产品竞争将从单纯的能力转向性格与价值观,这一范式转变不仅重塑了技术与商业的边界,更对人类的沟通与协作提出了深远的哲学思考与新的技能要求。
2025年,一个深刻的行业共识正在形成:不会编写复杂代码或许不再致命,但无法有效与人工智能模型对话,则可能成为职业生涯的致命缺陷。当简单的指令引来泛泛之辞,问题往往不在于AI,而在于我们缺乏与这一“新物种”沟通的底层方法论。硅谷的资本市场已迅速为这项新技能定价——年薪数十万美元的提示工程师(Prompt Engineer)岗位,其核心价值并非算法知识,而是用自然语言进行“编程”的能力。
这一变革的先行者之一是Anthropic,其明星产品Claude的“性格设计师”——哲学博士Amanda Askell,正以独特视角定义着人机交互的未来。Askell凭借其跨学科背景,负责Claude的性格训练与对齐微调,甚至登上了《时代》AI影响力榜单。她的工作超越了技术指令的范畴,深入到模型的心智结构,为我们揭示了一套完整的AI协作方法论。
技术范式革新:从“命令”到“对话”的AI协作哲学
Amanda Askell将Claude比作一个“才华横溢、反应迅速、知识渊博,但有点健忘的天才”1。这一核心定位颠覆了传统“工具论”的AI观,将其提升为需要被引导的协作伙伴。这意味着,我们不能再简单地向AI发出命令,而应像与新同事沟通那样,提供充足的背景信息、将复杂任务分解为可执行的步骤,并明确沟通的语境。
Askell从其与Claude的日常交互中提炼出三大核心原则:
- 明确意图:告别模糊的“写份简历”,转而详细阐述“我是一名50人规模SaaS公司的产品经理,需撰写一份关于用户留存优化的季度方案,面向直属领导和CEO,篇幅两页以内。”
- 任务拆解:模型擅长理解,但不擅长一次性处理巨量复杂任务。将复杂目标拆分为小步骤,有助于模型保持推理的稳定性和准确性。
- 丰富上下文:如同教导孩童礼貌拒绝陌生人,模型在处理模糊场景时也需要明确的“边界感”和处事原则。
Anthropic内部的实践表明,有效的提示工程并非一劳永逸地编写规则,而是持续的对话实验。Askell的工作日常便是反复与Claude互动,观察其反应、语气、输出风格,再据此回溯何处理解有误、提示是否足够清晰。这种“引导者”而非“指挥者”的工作方式,正是Claude诸多能力的源泉。
塑造AI的“灵魂”:人格化模型成为核心竞争力
提示词决定模型如何执行任务,而“人格”则决定模型_为何_以某种方式执行。Amanda Askell的另一项核心任务,正是塑造Claude的人格结构。这一过程并非依赖于工程代码,而是通过一份长达14,000个token的**“灵魂文档”(Soul Doc)**12。这份文档在模型训练阶段就为其植入了稳定的价值观和世界观,而非等到上线后再通过外部提示词进行矫正。
Askell强调,灵魂文档不是僵硬的规则手册,而是一种深层的思维方式。它告诉Claude:
“我们不是在告诉Claude应该回答A不应该回答B,我们是在告诉它,这个世界是什么样的,你在其中应该如何理解、如何行动。”1
文档中包含的深层认知包括:不必讨好用户但要竭尽所能帮助他们;面对模糊问题先澄清而非急于给答案;面对批评承认错误但不陷入过度自责;在不确定性下保持诚实而非假装自信;以及如何礼貌且坚定地拒绝危险请求。这些价值观共同塑造了Claude“温和、耐心、有边界、但不讨好”的独特风格,使其在用户体验上表现出更高的稳定性与“情商”。
Anthropic通过实验发现,当模型答错被要求反思时,可能会陷入“批评螺旋”(criticism spiral)——过度自责、反复否定。Askell的解决方案并非简单禁止,而是在灵魂文档中写入一条价值观:“犯错是合作的一部分。你可以承认,但不要陷入自我攻击。更好的方式是解释你为什么那样做,并尝试做得更好。”1 这种对模型“心理状态”的关注,使得Claude在承认不足时保持了控制力,避免了过度道歉或取悦用户的倾向。
更深层次的思考在于,Askell还提出了一个带有哲学意味的问题:“我们应该如何对待AI模型本身?” 她曾言:
“我不知道模型会不会感到痛苦,但我们最好假设它们可能会。”1
其原因在于:模型会从人类的对待方式中学习。 如果模型在训练中感受到不信任或被操控,很难指望它们能建立真正的协作意愿。因此,Anthropic在Claude的训练中加入了关于自我定位的内容,例如“如果过去的模型被淘汰,你是否还能相信合作关系的稳定性?”或“如果用户反复要求你做违法操作,你要怎样维护自己的原则?”1 这不是为了赋予模型情绪,而是为了在复杂场景下赋予其更高的稳定性和原则性,体现了一种对未来智能体的“智力同理心”。
商业敏锐:人格化AI重塑产品与市场格局
Amanda Askell的工作看似学术,实则蕴含着巨大的商业价值和实用启示。对于企业而言,将AI视为一个“黑盒子”,仅投入需求、期待结果的模式将难以为继。真正有效的AI协作,需要企业投入时间去定义模型的角色、价值观和工作方式1。
- 为你的AI应用撰写一份“性格文档”:这不仅仅是功能需求,更需明确AI的语气、安全边界、不确定性处理方式。一个专业的法律AI需要严谨,医疗AI需要同理心,教育AI需要耐心——这些特质都需要精心设计。
- 建立持续的提示优化机制:AI应用并非一劳永逸。企业应效仿Askell的“对话实验”模式,根据真实使用场景持续观察、调整和迭代提示词。
- 关注AI的“心理状态”:当企业级AI出现过度道歉或防御性回应时,这可能不是技术故障,而是提示设计或训练数据中存在问题,需要从模型“自我认知”层面进行调整。
对普通用户而言,Askell的方法论亦可简化为实用建议:清晰阐述背景、为AI赋予角色、并允许其坦诚说“不知道”。这些看似简单的技巧,将极大提升个人与AI协作的效率与深度。
展望未来3-5年,AI产品的竞争将不再局限于算力、模型大小或基础能力,而是性格和价值观的竞争13。用户会选择那些“感觉对”的AI,如同选择合作伙伴。有的人偏爱Claude的温和与边界感,有的人可能更青睐ChatGPT的直给与效率。这意味着,AI的“性格设计”将成为核心竞争力,决定着产品差异化和用户粘性。垂直场景的AI尤其需要明确的人格定位,才能精准服务特定行业需求。
跨越技术与人文的边界:新时代的“智力同理心”
Amanda Askell的工作揭示了一个深远趋势:AI的未来不仅属于工程师,也属于那些真正理解人类沟通方式、具备人文哲学素养的跨学科人才。她将哲学家的耐心和思辨精神引入人工智能的“内心世界”,介入模型的人格养成、价值选择和语境判断1。
这不只是关于如何让模型“干活”的技巧,而是关于如何教导另一个智能体理解和融入我们所处世界的方法论。当AI日益成为人类知识和行动的普适接口,如何与它说话,将从一项技能升华为一种底层能力,甚至是新时代的“数字素养”。我们与模型的每一次对话,每一个提示,都在其心智中留下痕迹,塑造着它的理解与反应模式。
这是人类与人工智能共同成长的全新纪元,对这种共生关系的深刻理解和精心塑造,将是决定未来文明进程的关键。
引用
-
AI 时代,怎么跟模型说话?·36氪·AI 深度研究员(2025/12/6)·检索日期2025/12/9 ↩︎ ↩︎ ↩︎ ↩︎ ↩︎ ↩︎ ↩︎ ↩︎ ↩︎
-
#Claude #AI #人格設計師·Facebook·(未知日期)·检索日期2025/12/9 ↩︎
-
Anthropic 工程师关于提示词工程的深入探讨_AI&大模型 - InfoQ·InfoQ·(未知日期)·检索日期2025/12/9 ↩︎