首页
学习
活动
专区
工具
TVP
发布
精选内容/技术社群/优惠产品,尽在小程序
立即前往

科企研對策消除「幻覺」

【大公報訊】事實上,AI幻覺一詞早就有相關學術文章討論,今年因為ChatGPT大熱,才開始真正引發關注和熱議。與此同時,AI出現幻覺可能產生嚴重的後果,科企們也在努力想對策消除這種「幻覺」。

今年2月,谷歌(Google)首次發布聊天機器人Bard之際,就因為宣傳視頻在回答問題時「張冠李戴」,導致谷歌的市值蒸發1000億美元。由谷歌前員工創立的新創公司Vectara研究估計,即使在對發生AI幻覺有所防備的情況下,ChatGPT也至少會有3%產生幻覺的幾率,而谷歌用於社交平台AI的Palm-Chat模型產生幻覺的幾率則高達27.2%。

各大科企同時也在研究減少幻覺的方法。谷歌表示,減少幻覺發生的一種方法是通過用戶回饋來改善AI:如果Bard產生的答案不準確,用戶應點擊「反對」按鈕並描述答案錯誤的原因,以便其可以學習和改進;OpenAI則實施了一項名為「流程監督」的策略。通過這種方法,AI模型會獎勵自己使用正確的推理來得出輸出,從而訓練模型產生人類認可的思想鏈。

OpenAI的mathgen研究員科布表示,檢測並減輕模型的邏輯錯誤或幻覺,是建構一致的通用AI的關鍵一步。

  • 发表于:
  • 原文链接https://page.om.qq.com/page/O_XKQ4VhSYfvNQbza9iKX1jQ0
  • 腾讯「腾讯云开发者社区」是腾讯内容开放平台帐号(企鹅号)传播渠道之一,根据《腾讯内容开放平台服务协议》转载发布内容。
  • 如有侵权,请联系 cloudcommunity@tencent.com 删除。

扫码

添加站长 进交流群

领取专属 10元无门槛券

私享最新 技术干货

扫码加入开发者社群
领券