首页
学习
活动
专区
工具
TVP
发布
精选内容/技术社群/优惠产品,尽在小程序
立即前往

陈根:GPT-4新增审核功能,这对AI大模型意味着什么?

文/陈根

8月15日,OpenAI在官网称,其开发了一种使用GPT-4进行内容审核的解决方案,有望减轻人工审核员的负担。

OpenAI表示,将GPT-4用于内容策略开发和内容审核决策,从而实现更一致的标记、更快的策略优化反馈循环,以及减少人工审核人员的参与。

OpenAI称,内容审核在维持数字平台的健康方面发挥着至关重要的作用。使用GPT-4的内容审核系统可以更快地迭代策略更改,将周期从几个月缩短到几个小时。GPT-4还能够解释长内容策略文档中的规则和细微差别,并立即适应策略更新,从而实现更一致的标记。

生成式AI内容的审核主要是出于两方面的考虑,一方面是审核一些敏感性内容,尤其是涉及到危害社会与公共安全方面的内容;另外一方面则是通过人工审核一些特定内容,才能对模型进行进一步的优化。

这也就让我们看到,哪怕是GPT-4阶段的技术,大语言模型依然还存在着生成式内容是否正确、是否越界的问题。

在审核能力上,OpenAI认为GPT-4的标记质量与经过轻度训练的人类审核员相似,但跟经验丰富、训练有素的人类审核员相比仍然存在差距。而对于这个问题,OpenAI强调,审核的过程不应该完全自动化。

其实简单的说,大语言模型目前还不具备人类的自主、道德的判断能力。不论是GPT-4基于人工审核,还是基于自动审核系统,目前都还无法有效解决AI幻觉的问题。如果AI幻觉这个病不能得到有效的治疗,大语言模型要成为通用AI的设想将无法实现。

  • 发表于:
  • 原文链接https://page.om.qq.com/page/O6qQdYefo58lISvuX37Mw2qw0
  • 腾讯「腾讯云开发者社区」是腾讯内容开放平台帐号(企鹅号)传播渠道之一,根据《腾讯内容开放平台服务协议》转载发布内容。
  • 如有侵权,请联系 cloudcommunity@tencent.com 删除。

相关快讯

扫码

添加站长 进交流群

领取专属 10元无门槛券

私享最新 技术干货

扫码加入开发者社群
领券