ArXiv重拳出击:AI生成论文未审即投将被禁一年

ArXiv强化审核机制:严控未经核查的AI生成内容投稿

作为全球领先的开源预印本平台,ArXiv近日推出新政策,明确禁止提交存在明显未经人工审阅的AI生成内容的论文。该举措由计算机科学领域主席托马斯·迪特里希在周四正式宣布,旨在遏制低质量、不可靠的AI辅助研究对科学传播体系造成的侵蚀。

违规行为将触发年度投稿限制

根据更新后的投稿规范,若审核团队发现作者在提交前未对大语言模型输出内容进行实质性核查,并掌握确凿证据,相关论文将被直接拒稿,且作者将被暂停在ArXiv发布任何研究成果长达一年。

禁期结束后,恢复投稿资格的前提是作者需在经过同行评审的正规学术期刊上成功发表后续研究工作,以证明其研究能力与合规性。

识别“AI滥用”的关键迹象

迪特里希指出,判定违规的核心依据包括虚构参考文献、无意义或逻辑断裂的引用,以及直接复制粘贴大语言模型生成的错误语句等典型特征。该政策并非全面禁止使用AI工具,而是要求作者对所有内容负有完全责任——无论其来源是否为算法生成。

这涵盖由AI引发的潜在剽窃、偏见表达及事实性错误等问题,凸显了人工监督在科学研究中的不可替代性。

保障知识库可信度的关键举措

ArXiv长期以来在计算机科学、数学和物理等领域扮演着前沿成果快速传播的重要角色。然而,随着生成式AI广泛应用,缺乏人工把关的投稿数量显著上升。近期一项同行评审分析显示,生物医学领域中伪造引文的现象呈上升趋势,极可能与非审慎使用大语言模型有关。

通过实施“一经查实即处罚”的机制,平台力求维护其学术资源库的可靠性。同时,政策设有申诉通道:审核人员须先行标记可疑内容,各领域主席在决定处罚前必须确认证据有效性,确保裁决公正透明。

推动学术生态向责任导向转型

此项新规反映出学界日益坚定的共识:人工智能应作为研究辅助工具,而非替代人类判断的主体。在康奈尔大学托管逾二十年后,ArXiv已转为独立非营利实体,获得更大自主权执行此类严格规范。

平台已采取多项措施防范AI滥用,例如要求首次投稿者提供学术机构背书。对研究人员而言,核心原则已清晰:允许利用AI进行初稿撰写或语言润色,但严禁提交未经事实校验与引证核实的内容。

结语:构建可信赖的数字学术基础设施

在人工智能深度嵌入科研流程的背景下,ArXiv此次禁令标志着维护预印本系统完整性的关键一步。通过对未审阅AI产出施加惩戒,平台重申“研究者终责制”这一根本原则。未来,类似防护机制有望成为全球学术出版的标准配置。

常见疑问解析

问题一:是否禁止使用AI撰写论文?
否。允许在合理范围内借助AI辅助写作,但禁止提交含有明显未经核查的生成内容(如虚构参考文献、语义混乱段落)的稿件。

问题二:如何界定“确凿证据”?
主要表现为捏造引文、引用不存在的文献来源,或直接复制大语言模型输出的错误信息,这些均可作为未进行人工审阅的有力佐证。

问题三:能否对禁令提出异议?
可以。政策包含正式申诉机制,审核人员标记问题后需经领域主席复核确认,作者有权就裁定结果发起申诉。