TL;DR:
深夜AI学术圈上演“大开盒”惊魂,OpenReview平台一个bug,直接让顶会论文评审变“明牌”。审稿人身份和打分瞬间透明,吃瓜群众发现有人恶意低分给“友商让路”,甚至还有AI在“内卷”。这波操作,让学术公平的遮羞布直接被扯掉,也引发了大家对匿名审稿制度的灵魂拷问!
北京时间11月27日晚,AI学术圈彻底“炸锅”了!无数科研狗、导师们,估计都度过了一个彻夜未眠的“不眠之夜”。原因无他,审稿人身份,这个学术界长期以来的“薛定谔的猫”,被一个前端bug瞬间“开盒”,直接暴露在光天化日之下。
这可不是什么黑客高深操作,而是简单到离谱的“漏洞”。你只需要在OpenReview的网址里,替换一下论文ID和审稿人编号,瞬间就能知道是谁给你的论文判了“死刑”或送上了“高分”。这下好了,什么双盲评审,什么匿名机制,统统变成了“明牌”!
就是说,这视野开得有点太广了,直接看到了“神仙打架”的幕后真容。真正的 open review,「众神之父赐予我视野!」
瓜田李下:那些“神操作”与“小九九”
消息一传开,整个AI社区瞬间进入“调查模式”。毕竟这年头,谁还没几个被审稿人“虐”得死去活来的故事呢?这下终于可以“有冤报冤,有仇报仇”了。微信群、小红书上,各种“受害者”现身说法,有人惊呼“原来是他!”有人气得“原地爆炸”。
这波“开盒”,直接揭露了不少学术圈的“小九九”:
- 恶意打低分,给自己“让路”: 有人实锤了自己曾经被恶意打1分的论文,发现审稿人五个月后提交了一篇同赛道论文,却连作者的投稿都不愿引用。这不是明摆着“斩草除根”吗?
- “临时抱佛脚”的补救: 还有社交媒体爆料,一些疑似恶意打低分的审稿人,被“全员开盒”后,紧急大幅提高了对论文的打分。这波操作,简直是“演技拙劣”,却又“情理之中”。
- “相爱相杀”的内部剧: 甚至有组里的兄弟互相打低分,这到底是“塑料兄弟情”还是“恨铁不成钢”?估计只有当事人自己心里清楚。
吃瓜群众们纷纷表示,这一出“大开盒”,彻底把AI顶会论文审稿的“矛盾”推向了新高潮,直接从《三体》里的“黑暗森林”时代,跃迁到了“广播纪元”。正如那句老话:永远不要以为自己在互联网上真的能匿名。 这句话,在学术圈也瞬间应验。
更刺激的是,人们很快发现这个OpenReview漏洞是系统级的,换个字符,就能把往年ICLR,以及NeurIPS、ICML、ACL等一众AI顶会的审稿信息也扒个精光。这下好了,全员“裸奔”,学术界的“楚门的世界”算是彻底上线了。
“AI闭环”:当审稿人也开始“内卷”AI?
别以为这场大戏只有人类玩家。科技发展到今天,连“审稿人”这个角色,都可能不那么“纯粹”了。
你知道吗?有数据分析显示,ICLR 2026上,约21%的同行评审意见,竟然完全由人工智能生成! 甚至超过一半的评审都带有人工智能使用的痕迹 1。这还没完,同期还有199篇论文被发现完全由AI生成,9%的论文中超过50%的文本是由AI生成的 1。
这不就形成了一个完美的“AI闭环”吗?论文是LLM(大语言模型)生成的,评论也是LLM生成的,甚至元审稿人对审稿人的反馈也是LLM生成的 2。有网友调侃:
你唯一能确定自己在和作者交流的办法,就是看有没有拼写错误…… 2
这番话,听起来荒诞,却又透着一丝丝的真实与无奈。要知道,此前CVPR 2025已经有作者因用AI生成审稿意见被发现而拒稿的先例 3。AI在提高效率的同时,也带来了新的伦理挑战。它究竟是“神助攻”还是“猪队友”?
官方震怒与数据狂欢:吃瓜群众的“神助攻”
bug被紧急修复后,ICLR和OpenReview迅速发布了官方声明,语气那叫一个严厉:任何使用、暴露或分享泄露信息的人都会被拒稿,并且常年被ICLR禁入,后续还会采取进一步行动 1。这大概就是“秋后算账”的味道吧。
然而,这并没有阻止“吃瓜群众”的热情。有人甚至爬走了整份名单,搞起了数据分析。他们评选出了“打分异常低的审稿人名单”,还基于ICLR 2026前1万篇投稿的评审结果,分析了审稿人的国别平均打分习惯。结果发现:国人普遍比较“慷慨”,而韩国人则相对“严格” 1。这数据一出,估计不少人又要开始对号入座了。
连加州理工学院计算机与数学科学教授、ICLR理事会成员、ICLR 2025主席Yisong Yue都忍不住发推表示:
咱们现在要开个会,我已经麻了。 1
大佬都“麻”了,可见这次事件的影响力有多大。
匿名审稿的“潘多拉魔盒”:开还是不开?
此次ICLR泄密事件,无疑给学术界敲响了警钟。它严重损害了学术公平,审稿人匿名制的丧失,理论上会阻碍对研究的批判性输出,让作者获得额外反击的可能,从而破坏了原有的平衡。这会让接收论文的可信度大打折扣。
但另一方面,我们也要承认,原本完全匿名的审稿制度,也时常出现恶意、不负责任的评论,甚至是“公报私仇”、“打压同行”的现象。这次泄密事件瞬间激起的热度,恰恰证明了大众对学术诚信的关注,以及对现有审稿机制弊病的深切不满。
这就像一个“潘多拉魔盒”:关着的时候,里面有黑暗,有不公;打开之后,虽然放出了“希望”,但也可能带来新的混乱。
那么,在此之后,匿名审稿制度是否会有所改变? 是走向完全公开透明,还是在匿名与公开之间寻求一个微妙的平衡?是引入更严格的AI辅助审查,还是回归更纯粹的同行评议?这不仅是ICLR面临的难题,更是整个AI乃至更广泛学术界需要共同思考的“世纪难题”。毕竟,学术的信任危机,可能比任何一个bug都更难修复。