首页
学习
活动
专区
工具
TVP
发布
精选内容/技术社群/优惠产品,尽在小程序
立即前往

生成式人工智能面临“胡说八道”问题,OpenAI提出解决方案

【ITBEAR科技资讯】06月01日消息,OpenAI公司近日通过一篇论文介绍了一种全新的方法,用于训练生成式人工智能语言模型。

最近,生成式人工智能技术的流行以及美国2024年总统大选初步启动,引发了对人工智能“胡说八道”问题的广泛关注和讨论。

OpenAI在去年推出的人工智能对话撰稿工具ChatGPT,基于GPT3和GPT4语言模型,取得了卓越的成绩。ChatGPT的出色表现在全球掀起了一股生成式人工智能的热潮,仅两个月时间,相关服务的月活跃用户数就突破了一亿人,创造了新的世界纪录。

OpenAI的大股东之一是微软,微软已经累计向该公司投资了130亿美元,OpenAI目前的市值约为290亿美元。

人工智能的“胡说八道”,也被称为“AI幻觉”。在回答用户提问时,ChatGPT和谷歌的Bard等工具有时会编造虚假信息,给人一种权威正确的答案。

例如,今年2月,谷歌的Bard在一个演示视频中,对美国韦伯太空望远镜的描述就存在错误。此外,最近有几位纽约的律师在使用ChatGPT撰写法律文件时,ChatGPT描述了完全虚构的案例,这些律师可能将面临处罚。

OpenAI的研究人员表示,即使是最先进的人工智能模型,在拿不准的情况下也可能编造虚假信息,尤其是在要求多步骤推理的领域。一个单一的逻辑错误可能导致整个解决方案失败。

为了解决人工智能编造虚假信息的问题,OpenAI准备采用一种名为“过程监督”的新战略。在过去,模型只有在提供正确的最终答案时才会得到鼓励,而现在,每个逻辑推理环节的正确表现都将获得鼓励反馈。这种方式将鼓励生成式人工智能像人类一样进行推理思考,使回答更加清晰合理。

OpenAI的研究人员已经发布了一个数据集,其中包括80万条人工标注数据,可用于用上述新方式训练语言模型。

然而,一些人对这种新的训练模式表示质疑。他们希望能亲自查看OpenAI的完整数据集和相关示例。他们认为,生成式人工智能目前仍处于发展初期,OpenAI的新模式尚不能实质性缓解AI编造虚假答案的问题。

OpenAI表示,他们计划将论文提交给学术会议进行同行评议。至于何时将研究成果和“过程监督”整合到ChatGPT等最终产品中,OpenAI尚未发表官方评论。

虽然人工智能公司开始着手解决虚假答案的问题,但在实现“负责任的人工智能应用”方面仍面临诸多挑战。生成式人工智能已经开始改变普通人的工作和生活方式,但要解决这些技术挑战,还需要进一步的努力。

  • 发表于:
  • 原文链接https://kuaibao.qq.com/s/20230601A026E800?refer=cp_1026
  • 腾讯「腾讯云开发者社区」是腾讯内容开放平台帐号(企鹅号)传播渠道之一,根据《腾讯内容开放平台服务协议》转载发布内容。
  • 如有侵权,请联系 cloudcommunity@tencent.com 删除。

相关快讯

扫码

添加站长 进交流群

领取专属 10元无门槛券

私享最新 技术干货

扫码加入开发者社群
领券