埃里克·施密特:AI浪潮下,我们如何定义人的自由与价值?

温故智新AIGC实验室

TL;DR:

作为科技浪潮的亲历者与塑造者,前谷歌CEO埃里克·施密特对人工智能的深刻洞察,超越了技术层面,直指其对人类认知、决策与社会结构的核心冲击。他以一个编程老兵的“失落”为引,警示我们正面临一场关于人类自由与存在意义的无声实验,呼吁社会亟需为AI划定边界,捍卫我们“说不”的权利。

2025年12月2日,哈佛肯尼迪学院的讲台上,埃里克·施密特(Eric Schmidt)——这位曾带领Google走向世界、拥有55年编程经验的科技巨擘,没有如往常般展望技术前沿的辉煌,而是抛出了一个令人深思的问题:“我们是不是低估了AI对人的冲击?”1

彼时,他分享了一段近乎私人化的体验:他曾花费数年心血编写的整段程序,如今在AI手中几分钟便能完成,他只需“看着”。这种看着机器“替你做决定”的感受,带来的不是惊艳,而是某种深沉的_失落_。这种情感,超越了技术进步的欣喜,直抵一位老程序员对自身价值与人类未来作用的重新审视。施密特以这样的开场,将我们从对AI参数与算力的关注中抽离,转向一个更为根本的命题:AI先改变的,不是机器,是人。

告别“思考肌肉”的时代:判断力的失位

施密特观察到,当下的AI已不再是人类指令的被动响应者,而是能够连续执行、自主尝试、甚至自我决策的“行动者”。他提到,AI可以通过“递归尝试,不断优化,直到找到答案”1,尽管真正的“递归自我改进”尚未完全实现,但这种能力已然逼近。这与人类习惯性的思维模式形成鲜明对比——我们往往试了几次就认为做不到,我们依赖直觉和情感,认为只有人类能处理模糊情况。

然而,AI正以其独特的方式——“大量尝试 + 持续优化 + 自动评估”——逐步侵蚀人类原本引以为傲的思考与决策领域。这带来的危险,在施密特看来,并非AI做得比人好,而是“我们逐渐忘记自己原本有最后说不的权利”1。当决策权被系统接管,人类不再能临时改变规则,即便系统运行再完美,也可能不再是为人类设计的系统。这并非关乎AI的准确性,而是关于我们是否仍在参与决定,抑或仅仅是在接受安排。他将这种替代,清晰地命名为“判断力的失位”。

“如果说上一轮技术革命让工具替代了人的肌肉,那么这一轮AI革命正在替代人的思维肌肉。AI正在接管的,是我们对世界做出选择的能力,而我们可能正一步步习惯于放弃。”1

这番话,如同警钟般敲响,促使我们深思:做出选择的能力,正是我们定义自身为人的基础之一。当这块“思维肌肉”面临被全面替代的风险,人类的独特价值又将如何维系?

隐形之手:工作流自动化的人类退场

施密特进一步指出,智能体已能串联起一连串任务,主动部署流程,而不再是被动地回应指令。

“你可以让智能体做这个,再做这个,然后这个,再这个,全都串联起来。这不就是企业、大学、政府的现在工作模式吗?”1

企业流程、行政任务、交付执行——过去需要人类协调的环节,如今AI可以自主判断下一步、自行执行。人类从流程中的决策者,逐渐退变为旁观者。

  • 智能体开始自主调度: AI不再等待人类输入,而是根据触发条件自行唤起、运行、判断、反馈。这可以是自动报价系统,也可以是项目指挥链。人类若不在其中,系统便可能脱离控制。
  • 推理能力嵌入执行过程: AI的推理能力正深度嵌入工作流,使其不仅能理解指令,还能主动判断。这意味着它不仅能完成任务,更“知道自己在做什么”,将工作从操作行为升华为认知行为。
  • 决策标准由系统定义: 在财务、风控、运营等领域,AI正直接制定流程、执行评估、给出结论。流程加速了,但定义权已悄然交给了系统。

施密特的结论是令人不安的:“这不是工具替代人,而是组织不再需要人。”1 这种“人被优化掉”的担忧,远超简单的失业问题,触及了人类在复杂组织结构中存在感的根基。

成长之路上的AI身影:儿童与默认信任迁移

在技术和工作流之外,施密特将目光投向了最脆弱也最具有塑造潜力的群体——孩子。他认为,我们正在对人类发展进行一场大规模、无序的实验。当AI成为孩子的“最好朋友”,意义深远。

“如果一个孩子的最好朋友不是人类,而是机器,这意味着什么?”1

他强调,这并非质疑AI是否会教错,而是担心AI替代了谁来教;并非担忧技术故障,而是孩子的成长方式已悄然改变。教育的本质是人格、判断能力与价值观的养成,如今,陪伴孩子建立这些核心认知的,正被一套“持续可用、永远顺从”的AI工具所取代。

  • AI正在进入人格构建区: AI的高度顺从和即时反馈,使其比人类更容易赢得信任。它不会否定问题,永远可以重新解释,随叫随到,没有情绪,无需等待。
  • 默认信任迁移: 这种“训练性顺从加认知陪伴”,正在悄无声息地塑造一代人对世界运行方式、人类判断标准、情绪表达方式的默认认知。这种深远影响,可能超越技能替代和工作冲击,重塑人类的认知方式。
  • 没有实验设计,也没有退出机制: 施密特忧心忡忡地指出,这场实验缺乏管控。AI模型已部署到手机、iPad、语音助手等日常设备中,却“根本不知道它们会怎样影响一个孩子的性格与认知结构。”1 这不是未来的冲击,而是当下正在进行的、缺乏数据支撑的非对称实验。

在他看来,并非未来的孩子学习如何用AI,而是“AI正在参与决定未来的孩子成为什么样的人”。1

自由的边界:划定AI的“不为”之地

技术进步从来不是中性的,施密特深谙此道。他以一个生动的例子阐明其核心关切:

“如果你坐在一辆只能按算法规则行驶的车上,却没有一个让你喊停的按钮,那它就不再是你的车。”1

这并非关于用户体验,而是关乎人类能否掌控自身世界的运行逻辑——一场“自由边界正在消失”的危机。施密特最担忧的不是AI会出错,而是它“不会停”。AI的优化逻辑永不停歇,但人类从来不是靠最优解活下来的。最优路线不代表最合适的人生,正确的结果不等于有温度的决策。

AI越来越强,但谁来规定它不该做的事情?他提出了两个关键问题:

  1. 当AI拥有控制系统的接入权限时,谁来决定它不能越界?
  2. 当AI在日常生活中被默认嵌入,谁来确认人类还有说不的权利?

他认为,这些不是工程问题,而是制度设计问题,而目前,“世界上几乎没有一个有效框架能真正回答这个问题。”1

“我们在讨论AGI安全、算法透明度、部署规范,但真正缺席的是对人类自由的保护机制。”1

施密特坚信,所有关于安全的讨论,如果不能保证人可以不同意,那都只是技术扩张的另一种形式。真正值得捍卫的,不是我们对技术的使用权,而是我们“关掉它的自由”。如果AI没有边界,人就必须画出边界;如果系统不给人退路,人终将变成系统的一部分。1

结语:当AI能做一切时,人类还愿不愿意参与?

埃里克·施密特在哈佛提出的核心问题,并非关于更强大的模型,而是直指当AI无所不能之时,人类的参与是否还值得保留。AI可以推理、可以行动、可以学习、可以替代,但只有人类还拥有选择是否继续参与这个世界的运行的自由。

这并非算法能回答的问题,而是深植于人性和价值观的哲学拷问。施密特这位曾站在科技巅峰的领航者,如今以其独特的洞察力与警醒,呼吁我们停止低估AI对“人”的冲击,正视并捍卫人类作为主体的自由与尊严。他的声音,不仅是对科技界的警示,更是对全社会的一场深刻对话。

引用


  1. 前谷歌 CEO 施密特:AI 先改变的,不是机器,是人·AI 深度研究员·AI深度研究员(2025/12/2)·检索日期2025/12/3 ↩︎ ↩︎ ↩︎ ↩︎ ↩︎ ↩︎ ↩︎ ↩︎ ↩︎ ↩︎ ↩︎ ↩︎ ↩︎