北京时间2023年11月19日凌晨2:28,《The Information》爆料,Meta公司对其负责任人工智能(Responsible AI)团队进行了重要调整,旨在将更多资源用于发展生成式人工智能技术。原先,这个团队主要负责确保公司的AI技术既安全又符合伦理标准。
报道指出,Meta把RAI团队的大多数成员转移到了生成式AI产品团队,其余成员则参与AI基础设施的工作。尽管团队结构发生了变化,Meta依然强调其对负责任地发展AI技术的承诺。这一承诺包括了问责、透明度、安全和隐私等多个方面,这些都在公司的RAI承诺页面上有所体现。
Meta的发言人Jon Carvill表示,公司将继续把安全和负责任的AI开发放在首位。即便团队发生了调整,团队成员们依然会在Meta跨部门层面上支持负责任AI的开发和应用。
《Business Insider》此前也报道了RAI团队今年早些时候的重组情况。报道提到,该团队在经历裁员后已不如从前,自2019年成立以来,团队在推行新举措方面面临诸多限制,需要经历复杂的利益相关方协商。
负责任人工智能的目标是确保AI技术的发展既安全又符合伦理,防止诸如内容审核错误等问题的发生。对于Meta这样的科技巨头来说,这一点尤为重要,因为它们的AI系统广泛应用于社交平台,对用户体验和社会影响有着直接的影响。
Meta和微软等公司近年来的这类举措,正好赶上了全球各国政府为人工智能制定监管框架的趋势。美国政府与AI公司达成了协议,与此同时,欧盟公布了其AI原则,并在努力推进AI法案的通过。
参考信息:
Meta 解散了其负责任的 AI 团队 - The Verge
领取专属 10元无门槛券
私享最新 技术干货