首页
学习
活动
专区
工具
TVP
发布
精选内容/技术社群/优惠产品,尽在小程序
立即前往

警告!ChatGPT 可以伪造令人信服的医疗数据,新的研究表明,它可以将欺诈性数据假冒为真实数据

ChatGPT 可用于创建欺诈性数据Jakub Porzycki/NurPhoto/Getty  Jakub Porzycki/NurPhoto/Getty

根据 Cosmos 杂志周日发表的一份报告,新的研究表明 ChatGPT 可以伪造令人信服的医疗数据。

这项新研究的作者现在声称,这将比以往任何时候都更容易发表可能对所有合法工作产生怀疑的欺诈性研究。

“在这篇论文中,我们通过示例确定了如何利用 AI 生成的聊天框来伪造医学界的研究。此外,我们比较了人类检测基于人工智能的作品的研究,以衡量识别伪造的、人工智能生成的作品的准确性,”作者指出。

“此外,我们测试了免费的在线 AI 检测器的准确性。然后强调了捏造研究的危险,以及人们想要捏造医学研究的原因以及针对这种迫在眉睫的威胁的潜在补救措施,”他们在论文中说。

在要求 ChatGPT 为一篇关于两种不同药物对类风湿性关节炎的影响的科学论文生成摘要后,研究人员得出了这一结论。他们要求 AI 机器人使用 2012 年至 2020 年的数据。

ChatGPT 产生了逼真的摘要,甚至给出了实数。此外,当研究人员提示它时,它声称一种药物比另一种药物效果更好,这对于聊天机器人来说是一种危险的肯定。

由于 ChatGPT 只考虑到 2019 年的数据,它没有 2020 年的任何数据,但它确实声称从一个私人数据库中获取了支持数据,这需要付费才能访问。

研究人员警告说:“在一个下午之内,你会发现自己有几十份可以提交给各种会议发表的摘要。”

“在接受摘要发表后,人们可以使用相同的技术来撰写他们的手稿,完全建立在捏造的数据和伪造的结果之上。”

使用 AI 的积极方法

尽管有警告,研究人员确实注意到,研究人员可以通过积极的方式使用人工智能。

“利用人工智能进行研究并不是一种天生的恶意行为,”他们表示。

“要求 AI 对工作进行语法检查或为研究中发现的合法结果写出结论是 AI 可能纳入研究过程的其他用途,以减少可能减慢科学研究过程的繁重工作。”

问题更多在于生成不存在的数据。

“当一个人利用不存在的数据来编造结果来撰写研究时,问题就出现了,这很容易绕过人类检测并进入出版物。

“这些发表的作品污染了合法的研究,并可能影响合法作品的普遍性。”

根据报告,研究人员最后指出,为了继续安全地使用 ChatGPT,需要考虑欺诈数据及其影响。

该研究发表在《模式》杂志上

研究摘要:

在科学界捏造研究成果会影响一个人的可信度,并损害诚实的作者。我们展示了使用基于 AI 的语言模型聊天机器人进行研究的可行性。将比较人类检测与人工智能检测,以确定识别伪造作品的准确性。将强调利用 AI 生成的研究作品的风险,并强调伪造研究的原因。

(了解更多,请关注医道社微信公众号)

*"医道社"力求所发表内容专业、可靠,但不对内容的准确性做出承诺;请相关各方在采用或以此作为决策依据时另行核查

  • 发表于:
  • 原文链接https://kuaibao.qq.com/s/20230314A02WA700?refer=cp_1026
  • 腾讯「腾讯云开发者社区」是腾讯内容开放平台帐号(企鹅号)传播渠道之一,根据《腾讯内容开放平台服务协议》转载发布内容。
  • 如有侵权,请联系 cloudcommunity@tencent.com 删除。

扫码

添加站长 进交流群

领取专属 10元无门槛券

私享最新 技术干货

扫码加入开发者社群
领券