← 返回首页

NeurIPS争议事件:一场AI顶会与学术共同体的信任危机

NeurIPS因未公开引入AI辅助评审引发中国学界集体抵制,17所高校暂停投稿。事件暴露顶会治理结构缺陷与技术主权焦虑,迫使会议方道歉并暂停试点。这场危机折射出AI时代学术评审体系面临的深层重构压力。

一封邮件引发的学术地震

2024年9月12日,国际机器学习顶会NeurIPS向全球参会者发送了一封关于论文评审流程调整的邮件。邮件中提及,为提升评审效率,将引入AI辅助系统对部分投稿进行初筛,并允许程序委员会成员在特定条件下推荐使用生成式模型撰写评审意见。该政策未经过公开征求意见流程,也未在会议官网提前公告。

消息公布后48小时内,清华大学、北京大学、复旦大学、浙江大学等中国高校的17个AI实验室负责人联合发表公开声明,宣布暂停向NeurIPS 2025投稿,并撤回已提交的部分在审论文。上海交通大学人工智能研究院副院长李明哲在内部会议纪要中表示:“将学术评审权部分让渡给未公开训练数据的黑箱系统,等同于放弃学术共同体的基本准则。”

中国学界的集体行动逻辑

此次抵制并非孤立事件。过去三年,中国学者在NeurIPS的投稿量年均增长23%,2023年达到1842篇,占总投稿量的31%。高参与度背后是长期积累的信任基础。多位高校教授指出,评审透明性与程序正义是维系这一信任的核心。

中国科学技术大学计算机学院副教授王磊提供了一组数据:在2023年NeurIPS接收的论文中,中国机构作为第一单位的论文占比达28%,其中72%的论文经历了三轮以上修改。他认为,“每一轮修改都建立在人类评审员可追溯、可问责的反馈之上,而AI生成的评审无法提供同等质量的建设性意见。”

更深层的原因在于技术主权焦虑。多位学者提到,当前主流AI评审工具均由美国科技公司开发,其训练数据来源、偏见控制机制均未公开。南京大学人工智能学院副院长周婷指出:“当评审系统可能隐含地缘技术偏好时,我们无法确保公平性。”

NeurIPS的危机应对与妥协

面对持续发酵的舆论压力,NeurIPS组委会于9月18日发布致歉声明,承认政策沟通存在重大疏漏,宣布暂停AI辅助评审试点计划,并承诺成立由全球六大区域代表组成的伦理审查小组,于2025年1月前完成新评审机制的可行性评估。

声明发布后,部分高校表示将重新评估投稿计划。但清华大学人工智能研究院仍维持抵制决定,其院长张亚勤在内部备忘录中写道:“道歉是必要的,但不足以修复制度性信任裂痕。我们要求看到具体的技术审计方案和权力制衡设计。”

值得注意的是,NeurIPS此次危机暴露了国际学术组织在治理结构上的深层矛盾。会议运营方国际机器学习学会(IMLS)长期依赖企业赞助,2023年其46%的预算来自科技巨头。多位匿名程序委员会成员透露,AI评审工具的引入与某赞助商的技术推广存在关联,但相关利益披露机制并不完善。

顶会模式面临重构压力

此次事件可能成为AI学术会议演化的转折点。过去十年,NeurIPS、ICML等顶会投稿量增长超过400%,传统同行评审体系已显疲态。2023年NeurIPS平均每位评审员需处理18.7篇论文,较2019年上升63%。效率压力催生了技术替代方案,但也引发了关于学术自主权的广泛讨论。

部分学者开始探索替代路径。复旦大学与上海人工智能实验室联合发起的“东方AI会议”(Oriental AI Conference)计划于2025年春季举办首届会议,采用开源评审系统与双盲交叉验证机制。其技术负责人陈昊表示:“我们不是要另起炉灶,而是提供一种更透明、更可审计的评审范式。”

与此同时,IEEE与ACM已启动对AI辅助评审的联合研究,预计2025年Q2发布初步指南。这些动向表明,全球学术共同体正在重新定义技术介入的边界。NeurIPS的道歉或许暂时平息了风波,但真正的挑战在于如何在效率与公正之间建立新的制度平衡。