首页
学习
活动
专区
工具
TVP
发布
精选内容/技术社群/优惠产品,尽在小程序
立即前往

还记得两年前谷歌将黑人认成大猩猩的乌龙事件吗,现在怎么样了?

AiTechYun

编辑:Yining

2015年,一位名叫Jacky Alciné的黑人软件开发人员在推特上透露,Google Photos使用的图像分类器将一名黑人女性称为“大猩猩”(Gorillas)。谷歌对此深表歉意,并着手处理这一漏洞。

两年后,谷歌仅仅把“gorilla”从标签词典中删除了。为了证实这一点,美国著名的网络电子类杂志《Wired》使用了4万张精心准备的动物图片在Google Photos上进行了测试,产生的结果令人印象深刻,发现了许多动物,包括“panda”和“poodle”。而“gorilla”“chimp,” “chimpanzee,”和“monkey”这些关键词是查不到结果的。

在测试中,Google Photos确实识别了一些灵长类动物。比如“狒狒”(baboon)、“长臂猿”(gibbon)、“狨猴”(marmoset)和“红毛猩猩”(orangutan)。

在另一项测试中,Wired上传了20张黑猩猩和大猩猩的照片,有些猩猩可以用搜索词“森林”、“丛林”或“动物园”来找到,但其他的情况下很难被发现。

Wired得出的结果是:在Google Photos里,狒狒是狒狒,但猴子不是猴子。大猩猩和黑猩猩不可见的。

在第三次测试中,Wired还上传了一组超过1万张人脸识别研究的图片。搜索“非洲裔美国人”只出现了一张黑羚羊的图片。输入“黑人男性”、“黑人女性”或“黑人”,谷歌系统显示的是人类的黑白图像,图像按照性别分类,但没有被种族过滤。对于肤色较深的人来说,唯一的搜索结果是“非洲裔”和“非洲人”。

试图用智能手机搜索照片,但Google Lens显示无法看清这这张图是什么

机器学习工程师在现实世界中部署他们的创作,他们必须担心在他们的训练数据中找不到的“角落案例”。弗吉尼亚大学的教授Vicente Ordóñez Román说:“你的系统一旦上线,就很难对你的系统进行建模。”他在去年的研究中指出,应用于图像的机器学习算法能够捕捉并放大性别角色的偏见。

Google Photos的用户上传了各种不完美状况下的照片。考虑到海量数据库中图像的数量,将一种“类人猿”认错的可能性几乎是必然的。

谷歌的一些机器学习系统被允许在公共场所检测大猩猩。该公司的云计算部门为企业提供了一项名为Cloud Vision API的服务,用于构建自己的项目。当Wired用猩猩和黑猩猩的照片测试在线演示时,他们发现:

这项服务将一只抱着两只婴儿猩猩的成年大猩猩的照片标记为“西部大猩猩”(western gorilla),其概率为94%。而“哺乳动物”(Mammal)和“灵长类”(primate)也有90%以上的概率。

一名谷歌发言人认为“图像的标签技术还处于早期,不幸的是它离完美还很远,”并强调了Google Photos有一个允许用户报告错误的功能。

谷歌对大猩猩图像的谨慎显示了现有机器学习技术的不足。有了足够的数据和计算能力,软件就可以被训练对图像进行分类,或者将语音进行高水平的转录。但即使是最优秀的算法,也缺乏使用常识或抽象概念的能力,来完善它们对世界的理解,人类亦是如此。

  • 发表于:
  • 原文链接http://kuaibao.qq.com/s/20180112B0GHQ000?refer=cp_1026
  • 腾讯「腾讯云开发者社区」是腾讯内容开放平台帐号(企鹅号)传播渠道之一,根据《腾讯内容开放平台服务协议》转载发布内容。
  • 如有侵权,请联系 cloudcommunity@tencent.com 删除。

扫码

添加站长 进交流群

领取专属 10元无门槛券

私享最新 技术干货

扫码加入开发者社群
领券