题图 | Jaap Arriens/NurPhoto via Getty
撰文 | 宋文法
近日,Nature杂志报道了一种令人震惊的学术不端行为,有研究人员在论文中嵌入隐藏信息,试图误导人工智能(AI)同行评审工具给出积极的审稿意见。这一现象引发了学术界对学术诚信和AI工具使用的广泛关注。
据Nature报道显示,研究人员通过在论文中插入白色文本或极小字体的指令(这些信息对人类而言几乎不可见,但AI工具可以识别),向AI同行评审工具传达特定信息,从而试图影响评审结果。
图:Nature截图
根据Nature杂志独立调查发现,目前已有18篇预印本研究论文中存在此类隐藏信息,涉及44个机构、11个国家,主要集中在计算机科学领域。
在这18篇论文中,藏有特殊的文本信息,可操纵大语言模型(LLM)。例如,在其中一篇文章中,作者使用极小的白色文本插入了186个单词的文本信息,要求AI同行评审工具强调论文的“突破性”和“影响力”,并淡化任何弱点。
对此,这篇论文作者的隶属机构表示:对此事高度重视,将根据政策进行审查,在调查结果出来之前,将撤回这篇论文。
Nature报道显示,尽管这些信息人类几乎无法发现,但通过基本搜索功能可以轻松发现。
图:Nature报道截图
研究人员警告:这应该被视为一种学术不端行为,这种行为可能会迅速扩散,从而对学术出版的诚信造成更广泛的威胁。
尽管AI工具在同行评审中的使用存在争议,但有研究人员认为,如果正确使用,AI可以提高同行评审的效率和质量,一些研究人员确实在用AI协助审稿或撰写审稿意见。
未来,学术界需要加强对AI工具使用的监管,对此现象保持警惕,并采取有效措施加以应对,以维护学术出版的诚信和公正。
参考文献:
https://www.nature.com/articles/d41586-025-02172-y
https://doi.org/10.48550/arXiv.2412.01708