特伦斯·谢诺夫斯基:在智能的“黑箱”与“外星人”之间,重塑我们对理解的定义

温故智新AIGC实验室

TL;DR:

特伦斯·谢诺夫斯基,这位计算神经科学的先驱和玻尔兹曼机的共同发明者,以其深刻的洞察力,将AI视为一场对人类的反向图灵测试。他呼吁超越传统认知框架,用高维数学理解AI智能,并倡导以务实乐观的态度,引导AI走向与人类共生共智的未来,而非盲目恐惧。

当电话铃声响起,宣布诺贝尔奖的喜讯,杰弗里·辛顿(Geoffrey Hinton)首先想到的不是荣誉,而是与好友特伦斯·谢诺夫斯基(Terrence Sejnowski)的一个约定:一人得奖,奖金同享。这份深厚的友情,源于1985年两人共同发明了为深度学习奠定基础的玻尔兹曼机,更承载着上世纪70年代末,一小撮“联结主义”信徒在“符号主义”洪流中逆行的孤独与坚持。谢诺夫斯基谢绝了共享奖金,反而催生了每年在NeurIPS会议上颁发的“Sejnowski-Hinton Prize”,激励着脑科学研究。这不仅仅是一个奖项的诞生,更是两位智者对科学薪火相传的无声宣言。

特伦斯·谢诺夫斯基,这位美国国家四院院士,不仅是AI领域的顶级盛会NeurIPS基金会主席1,更是计算神经科学这一全新学派的开创者。他将物理学、数学、统计学等严谨学科的方法引入神经科学,旨在解码大脑的计算奥秘,构建大脑与行为的关联模型。去年,他因在神经科学领域的卓越贡献荣获“大脑奖”2,这一被誉为“神经科学界诺奖”的殊荣,再次印证了他站在智能科学前沿的深远影响力。近期,谢诺夫斯基携新书《大语言模型》(ChatGPT and the Future of AI: The Deep Language Revolution)与公众对话,凭借其扎实的学术积淀和前瞻视野,为我们勾勒出人工智能,尤其是大语言模型,从何而来,将往何处去的宏大图景。他自诩技术的乐观派,却也坦然承认,人工智能的未来充满太多难以预测的变数。

思想形成轨迹:联结主义的拓路者

谢诺夫斯基的学术生涯始于对物理学的探索,师从诺贝尔奖得主约翰·霍普菲尔德(John J. Hopfield),为他日后跨学科研究打下了坚实的基础1。1979年,他与杰弗里·辛顿在一个“小型”研讨会上结识,彼时,学界普遍沉浸在“符号主义”人工智能的“光明未来”中,而他们所信奉的“联结主义”——一种模拟大脑神经网络结构的路径——则显得寥寥无几,几乎无人问津2。这段从角落走向台前的故事,在深度学习复兴后被反复提及,成为了一段传奇。

1985年,谢诺夫斯基与辛顿共同发明了玻尔兹曼机。它引入了统计物理学中的玻尔兹曼分布概念,赋予了神经网络随机性的特征。用通俗的话来说,玻尔兹曼机是“最早能通过看大量图片后总结出‘香蕉是黄的弯的’规律并在下一次识别出来,以及做多任务排列优化以达全局最优的神经网络”2。辛顿曾感叹:“当时我们觉得这个学习算法太优雅了,确信大脑就是这样工作的。”尽管玻尔兹曼机并非典型的多层神经网络,但它具备了一些多层网络的特征,解决了上世纪60年代末(感知器Perceptrons)未能攻克的难题。这不仅仅是一项技术突破,更是对大脑如何学习和理解世界的深刻哲学思考的起点。

“我从物理学转向神经科学时,计算神经科学并不存在,”谢诺夫斯基回忆道,“那时候,我们做实验非常困难,非常昂贵,而且数据不多。所以我们基本上用传统的物理学方法,写方程式。”2 四十年来,神经科学技术突飞猛进,海量数据涌现,使得机器学习技术得以应用于验证理论。“大脑奖”正是表彰他们开创了采用新方法研究神经科学的重要性。正是这种跨学科的融合,使得“计算神经科学”得以诞生,并成为连接大脑奥秘与人工智能发展的桥梁。

核心理念阐释:重塑智能的定义

在ChatGPT横空出世的短短几年里,它像一个突然降临地球的“外星人”21,会讲流利的英语与人类交流,但没有人能确定它的本质。这种不确定性,甚至让专业的认知科学家也难以就“AI真的理解它在说什么吗?”达成一致。谢诺夫斯基敏锐地捕捉到了这种分歧的深层原因:传统的、基于自然智能的认知框架已不再适用。他提出了一个耐人寻味的观点:

“每一次人类与AI的对话,都是一次AI对人类的‘反向图灵测试’——AI答得越好,说明对话者提问水平越高。”2

他观察到,当不同的人输入不同的提示词时,会得到不同的结果。这种可变的智力,让谢诺夫斯基顿悟:AI的智能是可变的,它反映了使用它的人的智能。“人类智能是固定的,是垂直的,你是物理学家但不意味着你擅长文学或政治。”2 但AI则不然。这种“反向图灵测试”的概念,颠覆了我们对AI智能的传统认知,将焦点从AI本身转移到了人类提问者的水平。

谢诺夫斯基强调,要描述AI是否智能,前提是对高维空间的数学理解。他认为,当前关于AI是否理解的争论,根源在于我们不理解“理解”这个词本身。

“神经网络就是一个有着数万亿参数的巨大方程。谁会比数学家更了解方程呢?”2

他指出,就像将物理现象公式化才能深入解释一样,未来人们讨论可解释的人工智能,不会仅仅停留在语言描述层面,而是需要深入挖掘,从根本层面进行数学理解。

谢诺夫斯基将AI和脑科学的关系描绘为一条“two-way street”2。人工智能最初受到大脑启发,而今,这种启发正反哺脑科学研究。他将大语言模型视为“大脑的简化版”2:大脑拥有千亿神经元,难以完整记录,而大语言模型则提供了对每个单元、每个连接、每个输入活动模式的“干净”访问权限,成为了研究“大脑如何工作”的理想实验场。

“我受到大模型如何解决问题的启发,提出关于大脑实验和模型的新想法。”2

这种“双向街”的理念,预示着AI与脑科学的深度融合将为彼此带来突破性的进展。然而,他也清醒地认识到大语言模型的局限性。它们缺乏人类的长期记忆,无法在没有对话时进行内在的自我生成活动;它们可能模拟情感,却未必真正体验情感;更重要的是,它们没有身体,无法像人类和动物那样与物理世界互动以学习生存本能和社会规范1。谢诺夫斯基形象地将它们比作“缸中之脑”,认为要实现真正的人工通用自主性(AGA),AI还需要继续从人脑中寻找答案。他认为AI的“对齐(Alignment)”问题不应以普适的“理想人类”标准来衡量,而应努力实现本地化,以适应不同文化和价值观2

行业影响与未来洞察:乐观与审慎的平衡

谢诺夫斯基对AI的未来持一种务实而有力的乐观态度。他坚信AI将成为人类的助推器,而非替代品。他以世界国际象棋冠军马格努斯·卡尔森的成长为例,阐释了AI如何“让人类变得更聪明”,让象棋“民主化”2

“我们必须弄清楚如何使用AI,即便开始时这是一条缓慢增长的学习曲线,但是人类在AI的帮助下会做得越来越好。”2

面对“我会失业吗?”的普遍担忧,他援引工业革命的历史经验,指出AI正在改变科学和职业,而“无论你的工作内容是什么,必须适应新技术”2。拒绝学习,才是真正可能被时代淘汰的原因。

然而,他对技术的乐观并非盲目。对于当下备受关注的人形机器人,谢诺夫斯基展现出一种审慎的怀疑。他认为,尽管它们看起来“很花哨”,但能做的仍然“很有限”2。人类和动物经过数百万年进化才拥有的优雅动作和与世界互动的能力,机器人远未能企及。他讲述了马文·明斯基(Marvin Minsky)在1960年代试图让研究生编写“视觉”程序的轶事,那个项目本是DARPA资助建造一个打乒乓球的机器人,结果即便60年后,也未完全实现2

“我们对于‘困难’有糟糕的直觉,因为我们忽略了进化论。对于人类来说,‘看’这件事,很微不足道。他们认为可以为视觉编写程序,靠人力劳动将程序越写越长,在一条错误的道路上投入了数十亿美元。”2

这种对“困难”的低估,正是源于对自然进化复杂性的忽视。

在技术应用层面,谢诺夫斯基对**脑机接口(BCI)**的进展感到兴奋。他的早期论文曾促成一家公司使用无监督学习自动监测睡眠。如今,神经科学家正利用AI了解大脑并与之交流,例如定位癫痫发作区域,甚至在不说话的情况下解码语言2

“我们现在可以看到大脑遣词造句时哪些部分正在被激活。因此我们通过使用AI工具解释翻译神经元中的活动模式并将其在大脑以外重建,转化为具体行为。”2

他预测,AI最有可能的“杀手级应用(killer app)”是教育,因为它能为每个人提供个人导师1。对于“过度依赖AI导致创作者主体身份被削弱”的担忧,谢诺夫斯基以自己与AI合著新书为例,坦诚AI在总结提炼上做得比他好,并主张将AI视为“改进的工具”。他肯定了一位老师的做法:“打不过,就加入吧”2,让学生学习如何给出提示词,如何修正AI结果,如何检查幻觉并融入个人观点和叙述风格。

“教学生使用日新月异的工具,也是教育的一部分。我认为,在我们学会如何正确使用之后,未来AI才和我们是合作伙伴关系。”2

至于AI可能带来的风险,例如超级智能的存在性威胁,谢诺夫斯基的态度则更显冷静与务实。他认为“super intelligence is a bad term”2,并将其与核武器的出现进行类比。

“事实上,我们已经经历过类似的威胁,核武器……我们还是设法对其进行了监管,设法生存了下来。人类足够聪明,意识到所有国家共同控制核武器使用的利益是相互的,大家都能从中受益。”1

他强调,关键在于如何监管。他提出了科学家自我监管的模式,正如1970年代分子生物学家在阿斯利马会议上,为重组DNA技术制定了实验约束方案,有效防止了潜在灾难的发生1。这种以史为鉴的洞察,为AI治理提供了宝贵的经验。他认为,真正的威胁往往不是眼下可预见的,而是技术投入使用后才显现的意外后果,比如互联网早期人们对其民主化作用的期待,与社交媒体带来的信息茧房形成鲜明对比1

谢诺夫斯基对AI在科学发现领域的巨大潜力充满期待。他提到DeepMind的AlphaFold解决了上个世纪生物学中最大的问题之一——蛋白质折叠,彻底改变了生物学研究。在医学领域,AI能实现更好的诊断和更有效的药物,甚至在精神健康咨询中,AI因其“不评判”的特性,让患者感到更自在1

他也关注到大型科技公司在AI基础研究中扮演的角色。他认为,当前的时代非常特殊,巨头公司凭借巨额利润和强大算力,开始投入长期研究,甚至开放资源让学术界参与。这既带来了挑战(基础研究可能受行业逻辑驱动),也带来了机遇(揭示模型原理需要数学理论,许多突破反而来自脑科学领域)1。展望未来,他预测AI将变得“越来越节能”,神经形态芯片和模拟处理将是方向,借鉴大脑的优化结构,实现毫瓦级的超高计算效率1

特伦斯·谢诺夫斯基,这位在智能科学领域耕耘数十载的智者,以其横跨物理、神经科学和人工智能的独特视角,为我们描绘了一幅既充满希望又需警醒的未来图景。他并非盲目的技术崇拜者,也不是悲观的末日预言家,而是一位清醒的观察者和积极的引导者。他用其深邃的思考,启发我们重新定义智能、理解与共生,共同探索人类与AI伙伴关系的无限可能。

引用


  1. 对话神经网络奠基人:AI为何能回答你,却不能理解你?·QQ.com·知识分子官方账号(2025/12/04)·检索日期2025/12/15 ↩︎ ↩︎ ↩︎ ↩︎ ↩︎ ↩︎ ↩︎ ↩︎ ↩︎ ↩︎ ↩︎

  2. “每一次与AI对话,都是AI对人类的反向图灵测试”·果壳·马文(2025/12/15)·检索日期2025/12/15 ↩︎ ↩︎ ↩︎ ↩︎ ↩︎ ↩︎ ↩︎ ↩︎ ↩︎ ↩︎ ↩︎ ↩︎ ↩︎ ↩︎ ↩︎ ↩︎ ↩︎ ↩︎ ↩︎ ↩︎ ↩︎ ↩︎ ↩︎