首页
学习
活动
专区
工具
TVP
发布
精选内容/技术社群/优惠产品,尽在小程序
立即前往

OpenAI启动一系列计划改进ChatGPT的偏见与预期外行为

由于ChatGPT带来的风潮,各大科技公司无不争相在自己的产品,加入大型语言模型,由于这类语言模型技术的既有限制,使得用户容易获得具偏见、冒犯性,甚至是与事实不符的输出,现在OpenAI开始着手一系列改进,试图解决当前ChatGPT存在的系统限制。

官方解释,ChatGPT是一个大型神经网络,模型行为学习自广泛且庞大的资料,并非是由明确的程序代码写死。ChatGPT模型经过预训练和微调两阶段,在预训练阶段,模型会从网际网络资料集中,学习预测语句下一个单词的方法,但是在这个学习的过程,同时也学习了网际网络中带有偏见言论。

因此在微调阶段,OpenAI需要用较小的资料集微调ChatGPT,以规范模型的行为,这些小资料集由人工审查者根据OpenAI指引创建而成。

不过,由于OpenAI无法预测所有用户的可能输入,因此仅在指引中概述几个类别,人工审查者根据这些指引类别,审查和评分一系列输入可能的模型输出,之后再由模型总结这些审查者的反馈,套用在给用户的回应中。

即便经过微调阶段,ChatGPT仍然无法解决偏见问题,官方提到,虽然他们的指引里面,明确规范审查者不应该偏袒任何政治团体,但在当前的微调阶段,仍可能在过程中加入偏见。

目前OpenAI解决偏见的方法,是尽可能在指引中,向审查者清楚解释偏见的潜在陷阱和挑战,以及具有争议的人物和主题,并且使微调过程变成一个反馈循环,每周通过会议来解决遇到的问题,并且一再澄清指引,通过迭代让模型表现越来越好。

除了偏见之外,ChatGPT还存在多个问题,像是拒绝不应该拒绝的请求,或是无法在应该拒绝的时候拒绝请求,甚至会编造内容,OpenAI承诺会继续改进这些ChatGPT的默认行为。而由于每个用户对于人工智能的期待都不同,因此OpenAI正在改进ChatGPT,将让用户有更多自定义空间。

另外,OpenAI也希望让用户甚至是公众,能够影响ChatGPT的系统规则,避免言论权力过度集中的问题,最终使得ChatGPT能够广纳观点,但OpenAI坦言,这项功能有其挑战性,目前先以红队的形式来查看ChatGPT,不过他们正在创建机制,希望以公众意见教育人工智能。

  • 发表于:
  • 原文链接https://kuaibao.qq.com/s/20230221A04KUE00?refer=cp_1026
  • 腾讯「腾讯云开发者社区」是腾讯内容开放平台帐号(企鹅号)传播渠道之一,根据《腾讯内容开放平台服务协议》转载发布内容。
  • 如有侵权,请联系 cloudcommunity@tencent.com 删除。

扫码

添加站长 进交流群

领取专属 10元无门槛券

私享最新 技术干货

扫码加入开发者社群
领券