TL;DR:
ICML 2026 开启“暴力清场”模式,497 篇论文因审稿人偷用 AI 且未标注被全部“桌拒”。这波操作堪称学术界“连坐”典范:你审稿时想省事,组委会就让你投稿时想哭,主打一个“出来混迟早要还”。
今早的学术圈,不仅炸锅了,简直是直接把锅给掀了。
正当全球 AI 研究员们紧盯着屏幕,准备迎接 ICML 2026 的 Rebuttal(辩论)阶段时,一份冷冰冰的邮件直接让不少人眼前一黑。ICML 组委会正式宣布,因审稿人违规使用大语言模型(LLM)且未明确标注,共计 497 篇论文被直接“桌拒”(Desk Reject)1。
这波操作最狠的地方在于,它不是只撤销那份“水掉”的审稿意见,而是连带把违规审稿人自己投的论文也一并毙了。这种“学术连坐”机制,让不少网友直呼:ICML 这次是真的动了真格,祭出了“学术史上最严厉处罚”。
学术界“诛九族”:你审稿注水,我论文陪葬?
这次事件的起因非常简单,但后果很严重。根据 ICML 组委会的分析,共有 506 名审稿人被抓包,涉及 795 处违规行为1。这些审稿人在评审他人论文时,偷偷动用了 ChatGPT 等大模型代笔,却试图瞒天过海,没有按规定进行标注。
“由于违反了大模型政策,我们将对所有将这些审稿人列为‘互惠审稿人’的论文直接予以拒稿。” —— 一位区域主席(AC)收到的官宣邮件。
这里的核心逻辑是 “互惠审稿原则”。在 ICML 这种顶会,为了解决审稿人荒,规定只要你投了 4 篇以上论文,就必须下场当审稿人。既然你作为审稿人“不讲武德”用 AI 糊弄事,那么作为投稿人的你,也别想在学术殿堂里拿奖杯了。2
这就造成了一个极其惨烈的局面:很多博士生或研究员,辛辛苦苦改了几轮的论文,可能仅仅因为合作者或“互惠人”在审稿时偷了个懒,就被整组“连坐”,直接出局。这大约占到了总投稿量的 2%,学术界的“裁员潮”来得就是这么突如其来。1
水印“钓鱼”:大模型写的意见,真能被抓个现行?
很多人可能会纳闷:AI 检测器不是经常误判吗?ICML 哪来的底气直接封杀?
原来,ICML 这次玩了招“科技狠活”。他们并不是单纯依赖那些不靠谱的概率检测器,而是在提交的 PDF 论文中加了特殊的 “水印”1。这种水印对人类不可见,但如果审稿人直接把文本喂给 LLM,AI 输出的内容里就会携带某些特定的“特征码”或者被系统追踪到访问轨迹。
简单来说,这就是一场精心设计的“钓鱼执法”。组委会上个月就已经打过预防针,告知会对 PDF 加水印,结果还是有 500 多位勇士选择了“知法犯法”。
此外,ICML 2026 并非一刀切禁止 AI。他们今年推出了“双轨制”政策:
争议点就在这里:有研究员叫冤称,自己明明选了可以选 AI 的 B 组,结果还是被分到了严禁 AI 的 A 组,最后惨遭“误杀”1。这种“分配不均”也让 ICML 陷入了舆论的漩涡。
规则保卫战:是“技术过敏”还是“学术底线”?
对于这波大规模屠杀,学术界的评价两极分化。
以 Meta 研究员 Ravid Shwartz Ziv 为代表的反对派认为,这简直是“糟糕透顶”的决定。他质问:如果一份审稿意见本身质量很高,我们真的需要介意它是 AI 写的吗?难道下一步要禁止 AI 辅助编程吗?1
但以滑铁卢大学教授 Gautam Kamath 为代表的挺派则认为,这本质上不是“反 AI”,而是 “反契约违背”。你签了不使用 AI 的协议,转头就用 AI 糊弄,这是学术诚信问题,而非技术问题。
设身处地想一下,谁也不希望自己的心血论文被一个只会写“AI Slop(垃圾内容)”的机器人用 10 秒钟草草判了死刑。
这场风暴背后,折射出的是顶级会议在“投稿量激增”与“审稿质量崩塌”之间的深度焦虑。据统计,某些顶会的审稿意见中,完全由 AI 生成的比例已高达 21%4。如果再不祭出重典,未来的学术顶会恐怕会变成一堆机器人对着另一堆机器人“赛博互吹”。
明天,ICML 将公布更多技术细节。这场关于“学术公平”与“AI 边界”的大讨论,才刚刚开始。
引用
-
ICML暴力清场,497篇论文一夜作废,审稿人偷用AI惨遭全拒 · 新智元 · 桃子(2026/3/18) · 检索日期2026/3/18 ↩︎ ↩︎ ↩︎ ↩︎ ↩︎ ↩︎
-
一人作弊,全组「连坐」拒稿, ICML最狠新规,华人大佬挂帅严查 · 36氪 · 新智元(2026/3/18) · 检索日期2026/3/18 ↩︎
-
ICML 2026 Intro LLM Policy · ICML官网(2026/1/8) · 检索日期2026/3/18 ↩︎
-
评审用不用AI,作者说了算?ICML 2026全新评审政策出炉 · 腾讯云开发者 · 腾讯(2026/1/8) · 检索日期2026/3/18 ↩︎ ↩︎