根据一个国际大屠杀研究实验室的报告,目前公共领域中的人工智能模型无法呈现"历史的复杂性和细微差别",仅能对大屠杀提供过度简化的叙述。
2024 年 11 月,萨塞克斯大学启动了 Landecker 数字记忆实验室,旨在"确保数字时代大屠杀记忆和教育的可持续发展"。
根据该实验室向国际大屠杀纪念联盟 (IHRA) 提交的一份基于研究的政策简报《AI 在大屠杀记忆未来中的地位》指出,在大屠杀记忆和教育中使用 AI 存在问题,因为主流模型(包括 ChatGPT 和 Gemini 等生成式 AI 系统)缺乏关于大屠杀的"优质数据",需要该领域专家的"正确表述"。
该实验室的首席研究员 Victoria Grace Richardson-Walden 向所有参与大屠杀记忆和教育的利益相关者以及政策制定者发出紧急呼吁,建议通过数字化数据和人类专业知识来解决问题,而不是仅仅把人们带到遗址和博物馆。
她谈到大屠杀记忆和教育领域(包括世界各地的档案馆、博物馆、纪念场所和图书馆)时说:"很少有机构有明确的数字化战略,他们只是为特定展览数字化其材料内容或证词。"
Richardson-Walden 提到乌克兰和中东的战争时说:"这对文化遗产来说是一个紧迫的问题。所有遗产、所有这些东西都面临物质风险。各方出于不同的政治目的对历史进行工具化。当这种情况在社交媒体上变得喧嚣时,细微差别就会丢失。这就是问题的紧迫所在。"
不可靠的关注点
Richardson-Walden 强调,生成式 AI 系统不是"知识机器",因为它们只是为词语和词序赋予概率数值,而不是基于历史和文化意义的价值。这导致鲜为人知的事实和故事被埋没,因为系统倾向于只重复最著名的"经典"输出,关注最知名的故事。
她描述了一个典型的 ChatGPT 回答:"它给你一个标题答案和要点。这种总结复杂历史的做法是有问题的。你无法总结一个持续六年、影响许多国家、涉及各种不同人群和施害者的事件。"
这项研究并不寻求为这个复杂问题提供答案。相反,Richardson-Walden 希望通过与信息学和工程领域的同事讨论找到替代方案。她说:"文化标识符很难编码,然后构建到训练数据中。"
Richardson-Walden 还强调了商业生成式 AI 模型需要"优质数据"的重要性,特别是在涉及种族灭绝、迫害、冲突或暴行等敏感历史主题时。
她说:"优质数据来自大屠杀组织,但首先他们需要以战略性的方式进行数字化,而且附加的元数据需要正确和标准化。"
该实验室的政策简报还指出了大多数商业图像生成式 AI 模型中预设的自我审查问题。几乎每次系统被要求生成大屠杀图像时都会拒绝,用户会看到审查指南。
简报引用了 OpenAI 的图像生成器 Dall-E 的例子:"它只能提供花环、老年人的手和铁丝网围栏的图像,或者看起来像图书馆里的幽灵的图像。"Richardson-Walden 补充说:"你最终会使大屠杀变得不可见,或者抽象到荒谬的程度。因此,在编程中加入审查这个作为道德方法的好事实际上产生了相反的效果。"
她认为,虽然这些防护措施比产生虚假或扭曲的数据要好,但它们也阻碍了人们了解历史及其教训。因此,这些模型的开发者应该在其防护措施中找到一个"中间立场",既能防止大屠杀的错误信息,又不会将其归类为禁止向依赖数字媒体的未来世代传播大屠杀信息。
Richardson-Walden 说:"中间立场通过对话而来。需要有一个空间让 OpenAI、Meta、Google 与联合国、我们实验室等机构坐下来进行更多讨论。"她补充说,Landecker 为首次参与大屠杀记忆的科技公司提供免费咨询,讨论方法。
她说:"一旦他们深入研究,就会意识到这是如此复杂和政治化,而且还有一个他们从未想过的数字伦理新领域。"
Landecker 的网站提到,大屠杀记忆数字化最突出的例子是由 USC Shoah 基金会开发的名为 Dimensions in Testimony 的 AI 模型。这是一个领域特定的生成式 AI 模型的例子,被描述为一个小型语言模型,它受到"严格监督"并依赖"大量人工干预"。用户和学者可以通过提问与之互动,模型会用幸存者的证词和输入其中的专家答案来回应。
然而,其他实验室和记忆中心可能没有与 Landecker 实验室相同的能力和资金。因此,重点应该放在资产的大规模数字化上,这些数字化资产随后可以用于负责任地为商业大语言模型提供信息。