如何防止AI将你认成“大猩猩”?光靠肤白可不行

【PConline 资讯】各位是否还记得、两年前谷歌将黑人认成[大猩猩]这个乌龙事件……正因此次事件造成的不良影响、让Google意识到-与其担心AI伤人、更严重的是AI偏见问题!为了防止AI[胡来]、Googl。

事情的原委是这样的、2015年、一位名叫Jacky Alciné的黑人软件开发人员在推特上透露、Google Photos使用的图像分类器将一名黑人女性称为[大猩猩](Gorillas)、引起了轩然大波!事发后、谷歌为此深表歉意。

不仅如此、谷歌还提出AI技术的开发道德准则、并且成立了专门的机器学习道德部门、对公司的产品和服务进行分析测试、提出改进意见、尽可能避免AI偏见的产生!不光是Google、从IBM到Airbnb。

为此、今年6月、Google首席执行官Sundar Pichai发布了公司的七项人工智能原则、指导谷歌在这些方面的工作和研究、包括确保Google员工不会制造或加强不公平的AI偏见、并表示A。

  • 发表于:
  • 原文链接https://kuaibao.qq.com/s/20181120A0336000?refer=cp_1026
  • 腾讯「腾讯云开发者社区」是腾讯内容开放平台帐号(企鹅号)传播渠道之一,根据《腾讯内容开放平台服务协议》转载发布内容。
  • 如有侵权,请联系 cloudcommunity@tencent.com 删除。

扫码关注云+社区

领取腾讯云代金券