哈喽,大家好,老寰这篇评论,主要来分析引用造假还拿高分?ICLR 2026 曝学术丑闻,AI 幻觉坑惨顶会
距离 OpenReview 审稿人信息泄露事件不到两周,AI 顶会 ICLR 又爆大瓜。

AI 检测机构 GPTZero 的调查报告显示,ICLR 2026 投稿中大量论文存在 AI 幻觉问题,伪造参考文献、捏造作者等操作层出不穷,而这些问题论文竟还能拿到高分。


今年 8 月 27 日,ICLR 组委会曾发布 LLM 使用新规,要求作者对 AI 生成内容负责,严禁数据造假。
但 GPTZero 对 300 篇投稿的抽样检测发现,16% 的论文存在无法验证的引文或数据。按本届 19490 篇投稿总量推算,可能有数千篇问题论文正在评审流程中。

更离谱的是,这些本应初审直接拒稿的论文,不仅顺利过关,部分还获得了均分 8.0 的高分 —— 这在 ICLR 代表前 1.8% 的顶尖水平,有冲击口头报告的资格。

问题论文的造假手段可谓五花八门。题为 TamperTok 的 8 分论文,引用 NeurIPS 2023 某论文时,将真实作者团队全换成了无关人名。

另一篇 8 分论文 MixtureVitae 则玩起 “真假掺半”,保留被引论文前三位真实作者,后面的不是虚构就是名字拼错一半,欺骗性极强。
还有更荒诞的低级错误:6 分论文引用完全不存在的文献,《Safe-LLM》论文竟在页眉标注 “Published at ICLR 2025”,而它还在参与 2026 年评审。

IMPQ 论文的手段更隐蔽,引用的 arXiv ID 真实有效,但对应的论文标题、作者与引用信息完全不符,专门利用审稿人工作繁忙的倦怠心理。

之所以出现这种乱象,核心原因是投稿量暴增与审稿人资源不足的矛盾。

ICLR 2026 收到近 2 万篇投稿,产生超过 75000 条评审意见,但合格的审稿人数量有限,根本无法应对如此庞大的审核需求。
此前 OpenReview 信息泄露就已暴露问题:不仅论文有 AI 痕迹,21% 的评审意见可能由 AI 生成,超半数评审带有 AI 辅助痕迹。

这种 “用 AI 对抗 AI” 的循环,让真正有创新价值的研究成果,面临被模型生成的冗余信息淹没的风险。


ICLR 8 月出台的新规,本想为 AI 辅助研究设立防火墙,但现实证明这道墙不堪一击。
单纯依赖作者道德自律和事后追责,显然难以形成有效约束。现有评审流程缺乏针对 AI 幻觉的技术拦截手段,面对数万篇投稿,基础的参考文献核查都成了巨大负担。

AI 降低论文写作门槛的同时,也让学术不端的成本大幅下降。如何在鼓励技术创新的同时,守住学术诚信的底线,成为 ICLR 等顶会亟待解决的难题。
更新时间:2025-12-12
本站资料均由网友自行发布提供,仅用于学习交流。如有版权问题,请与我联系,QQ:4156828
© CopyRight 2020-=date("Y",time());?> All Rights Reserved. Powered By 61893.com 闽ICP备11008920号
闽公网安备35020302035593号