2月11日,根据英国广播公司(BBC)最新发布的研究显示,当被问及新闻和时事相关问题时,包括ChatGPT、Copilot、Gemini和Perplexity在内的主流人工智能助手,其生成的回答中存在显著的事实错误和误导性内容。
该研究结果显示,超过半数的人工智能生成答案被专业记者评估为存在“重大问题”。这些错误包括错误地宣称里希·苏纳克(Rishi Sunak)仍为英国首相,尼古拉·斯特金(Nicola Sturgeon)仍担任苏格兰首席大臣;对英国国家医疗服务体系(NHS)关于电子烟的建议进行了错误的表述;以及将个人观点和历史存档资料误作为最新事实进行传播。
为进行此项研究,BBC 的研究人员要求上述四个生成式人工智能工具以 BBC 的文章为依据,回答 100 个问题。随后,由 BBC 相关领域的专业记者对这些答案进行评估。
评估结果指出,约五分之一的答案在涉及数字、日期或具体陈述时引入了事实错误;另有 13% 的引用内容被发现要么经过了篡改,要么在所引用的原始 BBC 文章中并不存在。
研究结果表明,关于时事的不准确信息在当前流行的人工智能工具中普遍存在。针对这一发现,BBC 新闻首席执行官黛博拉·特纳尼斯(Deborah Turness)警告称,“生成式AI工具正在玩火”,可能会削弱公众对事实的“脆弱信任”。
BBC 生成式人工智能项目总监彼得·阿彻(Peter Archer)强调,该研究仅揭示了问题的冰山一角,错误的规模和范围以及对可信内容的潜在扭曲程度仍需进一步研究。阿彻呼吁,媒体公司应有权控制其内容的使用方式,而人工智能公司则应公开其助手处理新闻的过程,以及它们可能产生的错误和不准确信息的规模。
他强调,这需要人工智能和媒体公司之间建立紧密的合作伙伴关系,并探索以观众利益为先、实现各方价值最大化的新工作模式。
领取专属 10元无门槛券
私享最新 技术干货