首页
学习
活动
专区
圈层
工具
发布

学术不端新高度?Nature:论文私藏AI指令,诱导AI同行评审给出积极审稿意见

题图 | Jaap Arriens/NurPhoto via Getty

撰文 | 宋文法

近日,Nature杂志报道了一种令人震惊的学术不端行为,有研究人员在论文中嵌入隐藏信息,试图误导人工智能(AI)同行评审工具给出积极的审稿意见。这一现象引发了学术界对学术诚信和AI工具使用的广泛关注。

据Nature报道显示,研究人员通过在论文中插入白色文本或极小字体的指令(这些信息对人类而言几乎不可见,但AI工具可以识别),向AI同行评审工具传达特定信息,从而试图影响评审结果。

图:Nature截图

根据Nature杂志独立调查发现,目前已有18篇预印本研究论文中存在此类隐藏信息,涉及44个机构、11个国家,主要集中在计算机科学领域。

在这18篇论文中,藏有特殊的文本信息,可操纵大语言模型(LLM)。例如,在其中一篇文章中,作者使用极小的白色文本插入了186个单词的文本信息,要求AI同行评审工具强调论文的“突破性”和“影响力”,并淡化任何弱点。

对此,这篇论文作者的隶属机构表示:对此事高度重视,将根据政策进行审查,在调查结果出来之前,将撤回这篇论文。

Nature报道显示,尽管这些信息人类几乎无法发现,但通过基本搜索功能可以轻松发现。

图:Nature报道截图

研究人员警告:这应该被视为一种学术不端行为,这种行为可能会迅速扩散,从而对学术出版的诚信造成更广泛的威胁。

尽管AI工具在同行评审中的使用存在争议,但有研究人员认为,如果正确使用,AI可以提高同行评审的效率和质量,一些研究人员确实在用AI协助审稿或撰写审稿意见。

未来,学术界需要加强对AI工具使用的监管,对此现象保持警惕,并采取有效措施加以应对,以维护学术出版的诚信和公正。

参考文献:

https://www.nature.com/articles/d41586-025-02172-y

https://doi.org/10.48550/arXiv.2412.01708

  • 发表于:
  • 原文链接https://page.om.qq.com/page/O06fENyQ31XMcus54-CRyoNg0
  • 腾讯「腾讯云开发者社区」是腾讯内容开放平台帐号(企鹅号)传播渠道之一,根据《腾讯内容开放平台服务协议》转载发布内容。
  • 如有侵权,请联系 cloudcommunity@tencent.com 删除。

相关快讯

领券