前往小程序,Get更优阅读体验!
立即前往
首页
学习
活动
专区
工具
TVP
发布
社区首页 >专栏 >脸书 AI 识别翻车,误将黑人标记为「灵长类动物」

脸书 AI 识别翻车,误将黑人标记为「灵长类动物」

作者头像
AI科技大本营
发布2021-09-27 15:08:52
4260
发布2021-09-27 15:08:52
举报
整理 | 禾木木

出品 | AI科技大本营(ID:rgznai100)

最近,Facebook用户在观看一段以黑人为主角的视频时,会看到一个自动生成的提示,询问他们是否愿意“继续观看灵长类动物的视频”。

视频的内容其实是几个黑人和警察发生了争执。

这在网上引起了网友的愤怒。

Facebook发言人接受采访时表示,这是“明显不可接受的错误”,并表示涉及的推荐功能已下线。

“我们的 AI 并不完美,还需要改进”

该视频是由《每日邮报》2020年6月27日发布。

视频中有白人、黑人和警察,他们之间发生了一些争执,并且视频内容与灵长类动物无关。

针对此事,前 Facebook 内容设计经理 Darci Groves 在推特生发出该推荐提示截图,并表示这令人无法接受。Groves 还将其发布到一个面向 Facebook 现任和前任员工的产品反馈论坛。作为回应,Facebook 视频平台 Facebook Watch 的产品经理称其「不可接受」,并表示该公司正在「调查根本原因」。

Facebook 拥有世界上最大的用户上传图像存储库之一,用于训练其面部和对象识别算法。Facebook 发言人 Dani Lever 在一份声明中表示:“正如我们所说,尽管我们对人工智能进行了改进,但我们知道它并不完美,我们还有很多改进要做。我们向任何可能看到这些冒犯性推荐信息的人道歉。”

AI 种族歧视,并不是个例

可以看出,此次推荐信息的错误是来自于 AI 系统存在的偏见。

早在之前,就有谷歌、亚马逊、Flickr等多家科技公司都曾因其人工智能系统中存在的偏见,有研究表明面部识别技术因存在种族偏见导致识别困难,甚至曾有报道称黑人因 AI 存在的问题而受到歧视。

2015 年,Google 更新了其照片应用,加入了一个自动标签功能,通过机器识别照片中内容进行自动分类并打上标签,方便管理和搜索。但不成熟的技术惹了大麻烦。纽约布鲁克林的黑人程序员Jacky Alcine惊讶地发现,她和一位女性朋友(也是黑人)的自拍照标记为「大猩猩(Gorillas)」,谷歌当即深表歉意,并表示将立即解决问题。

然而两年后,《Wired》杂志发现谷歌的解决方案仅仅是防止将任何图片标记为大猩猩、黑猩猩或猴子。

随后谷歌证实,在2015 年之后,为了解决这一错误,谷歌直接从搜索结果中删除了这一词条的标签。

结 语

有人认为:这是一个复杂的计算机视觉问题。

有人评论:但是人类不会犯这种低级的错误,为什么 AI 会呢?

还有人评论:算法对于这种人脸识别的经验较少,并且不知道如何将它们归类。

对于数据及其标注的质量和公平性可能还有很长的路需要探索。

所以,AI 识别图片你怎么看呢?

参考链接:

https://news.ycombinator.com/item?id=28415582

本文参与 腾讯云自媒体分享计划,分享自微信公众号。
原始发表:2021-09-06,如有侵权请联系 cloudcommunity@tencent.com 删除

本文分享自 AI科技大本营 微信公众号,前往查看

如有侵权,请联系 cloudcommunity@tencent.com 删除。

本文参与 腾讯云自媒体分享计划  ,欢迎热爱写作的你一起参与!

评论
登录后参与评论
0 条评论
热度
最新
推荐阅读
目录
  • “我们的 AI 并不完美,还需要改进”
  • AI 种族歧视,并不是个例
  • 结 语
相关产品与服务
人脸识别
腾讯云神图·人脸识别(Face Recognition)基于腾讯优图强大的面部分析技术,提供包括人脸检测与分析、比对、搜索、验证、五官定位、活体检测等多种功能,为开发者和企业提供高性能高可用的人脸识别服务。 可应用于在线娱乐、在线身份认证等多种应用场景,充分满足各行业客户的人脸属性识别及用户身份确认等需求。
领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档