首页
学习
活动
专区
工具
TVP
发布
精选内容/技术社群/优惠产品,尽在小程序
立即前往

新技術或加劇假信息氾濫

圖:Sora生成視頻「柯基犬在海島上自拍」截圖,圖中的手機拍攝杆位置出現「穿幫」。\網絡圖片

【大公報訊】據《華爾街日報》報道:從去年開始,隨着人工智能技術發展,假照片假視頻層出不窮,真假難辨,而不法分子利用「深度偽造」(deepfake)進行「換臉換聲」的騙案數目也激增。OpenAI推出的AI視頻生成工具Sora,大幅降低了視頻製作的門檻,無疑進一步增加被濫用風險,例如造成假信息氾濫以及違法內容的廣泛傳播。

OpenAI強調,確保Sora的安全使用是當前測試的關鍵,即所謂的「紅隊測試」的對抗性測試。在測試中,專門的測試者會試圖使AI工具出現故障、產生不當內容,以便團隊做出對應修正。該公司也正在構建專門的工具,以幫助用戶偵測誤導性內容,例如可以判斷視頻是否為Sora生成的分類器。OpenAI暫時未開放Sora予普通用戶使用。

卡內基國際事務倫理委員會高級研究員米歇爾表示,當類似Sora的工具落入心懷不軌的老練者手中時,辨別視頻的真假將會變得更加麻煩。「每當功能更強大的新產品發布,其被濫用的可能性就越大。」

不過,AI視頻或許能給電影製造帶來不少驚喜。電影導演和視覺特效專家Michael Gracey說,AI圖像生成技術一年裏就取得了如此成就,「一年之後,我們會在哪裏?」

  • 发表于:
  • 原文链接https://page.om.qq.com/page/O7DnADvWXzSmXSBc6TNH7TIQ0
  • 腾讯「腾讯云开发者社区」是腾讯内容开放平台帐号(企鹅号)传播渠道之一,根据《腾讯内容开放平台服务协议》转载发布内容。
  • 如有侵权,请联系 cloudcommunity@tencent.com 删除。

扫码

添加站长 进交流群

领取专属 10元无门槛券

私享最新 技术干货

扫码加入开发者社群
领券