首页
学习
活动
专区
工具
TVP
发布
精选内容/技术社群/优惠产品,尽在小程序
立即前往

《衛報》評論:ChatGPT撰稿助長假信息氾濫

人工智能(AI)聊天機械人ChatGPT應用範圍廣泛,更有傳媒機構嘗試由其協助撰寫新聞稿。不過哥倫比亞大學數碼新聞中心主任貝爾在《衛報》撰文提醒,AI撰寫的稿件沒有真實性保障,完全可能引述未經證實的資料,導致虛假信息氾濫,絕非傳媒機構理想的商業模式。

貝爾表示,AI聊天機械人的工作原理是利用「大型語言模型」,篩選數以億計的文章和數據庫,再模仿特定行文風格,串聯AI系統認為「正確」的詞句,從而生成文章。但AI系統引用的資料並非全數經過事實核查,系統拼湊生成的文章也可能充斥邏輯和事實錯誤,「ChatGPT可沒有承諾會提供真相。」

AI生成LinkedIn虛假個人檔案

包括科技新聞網站CNET在內,部分傳媒近期使用AI協助撰寫的新聞稿已被揭存在不少事實錯誤。英國牛津大學互聯網研究所近期訪問150多名記者和新聞出版商,多數受訪者都表示,AI有助完成相對繁瑣的數據收集工作,但檢查資料來源、確認報道可信度,避免歧視或偏見等工作,幾乎都要由記者自行完成。

貝爾更擔憂的是,AI技術發展或會讓假新聞更能以假亂真。她提及史丹福大學近期就發現,在專業社交平台LinkedIn上,有網絡團隊一直在使用AI技術生成虛假的個人檔案。貝爾警告長此下去,普通用戶使用AI稍有不慎,都或有外洩個人資料的風險。

貝爾指出,圍繞AI聊天機械人的輿論炒作甚囂塵上,資本和用戶的熱情淹沒了謹慎的聲音。正如史丹福大學人工智能實驗室主任曼寧的提醒,「生成式AI模型目前還存在很多問題,但當其投入使用,人們就會將問題拋在腦後,喜歡上AI改變的日常工作和娛樂方式。」◆綜合報道

  • 发表于:
  • 原文链接https://kuaibao.qq.com/s/20230305A00L8900?refer=cp_1026
  • 腾讯「腾讯云开发者社区」是腾讯内容开放平台帐号(企鹅号)传播渠道之一,根据《腾讯内容开放平台服务协议》转载发布内容。
  • 如有侵权,请联系 cloudcommunity@tencent.com 删除。

扫码

添加站长 进交流群

领取专属 10元无门槛券

私享最新 技术干货

扫码加入开发者社群
领券