首页
学习
活动
专区
工具
TVP
发布
精选内容/技术社群/优惠产品,尽在小程序
立即前往

Meta 提出 CoVe 提示方法,可显著减少 ChatGPT 等聊天机器人的幻觉问题

据 The Decoder 10 月 12 日报道,Meta AI 研究人员提出了一种基于提示的方法 Chain-of-Verification (CoVe),可显著减少 ChatGPT 等聊天机器人的幻觉问题。

据悉,使用 CoVe 时,聊天机器人首先要对提示做出回应,然后根据这些输出生成问题来验证语句。然后,这些“验证问题”会作为独立于第一个输入的新提示执行,以防止第一个输出中的错误信息被采用。最后,语言模型会根据单独收集的事实来验证第一个输入。所有测试均使用 Llama 65 B 完成。

研究小组的研究表明,单个问题的答案中包含的错误明显减少,这使得 CoVe 能够显著提高提示语的最终输出。对于基于列表的问题,CoVe 可以将准确率提高一倍以上,大大降低错误率。而对于更复杂的问答场景,该方法仍能提高 23% 的准确率。不过,对于较长的内容,团队仍需检查验证答案是否前后矛盾。

  • 发表于:
  • 原文链接https://page.om.qq.com/page/O4xwXLhRsSVYSjseHnxe4Z1w0
  • 腾讯「腾讯云开发者社区」是腾讯内容开放平台帐号(企鹅号)传播渠道之一,根据《腾讯内容开放平台服务协议》转载发布内容。
  • 如有侵权,请联系 cloudcommunity@tencent.com 删除。

相关快讯

扫码

添加站长 进交流群

领取专属 10元无门槛券

私享最新 技术干货

扫码加入开发者社群
领券