首页
学习
活动
专区
工具
TVP
发布
精选内容/技术社群/优惠产品,尽在小程序
立即前往

谷歌AI工具今后不再为图像生成“男性”“女性”标签

在为开发者提供的人工智能工具中,谷歌表示今后将不会为图像添加性别方面的标签,因为他们认为一个人的性别不能仅凭他/她们在照片中的形象来确定。

今天,谷歌向开发者发出的公开信中表示将会对广泛使用的Cloud Vision API工具(主要使用AI来分析图像以识别面部、地标性建筑、可显示内容以及其他内容)进行调整。

今后谷歌会使用“Person”(人物)来标记图像,而不会使用“man”(男性)或者“woman”(女性)来识别图像,以避免人工智能算法传达出偏见。

据《商业内幕》报道,在发给开发者的电子邮件中,谷歌引用了自己的AI准则。 “鉴于无法通过外貌来推断出一个人的性别,我们决定删除这些标签,以符合Google的人工智能原则,特别是原则2:避免造成或加强不公平的偏见。”

过去,人工智能图像识别一直是Google的棘手问题。 2015年,一位软件工程师指出,Google Photos的图像识别算法将其黑人朋友归类为“大猩猩”。谷歌承诺将解决该问题,但Wired在2018年的一份后续报告中发现,谷歌已阻止其AI识别大猩猩,但是核心问题并没有得到妥善解决。

  • 发表于:
  • 原文链接https://kuaibao.qq.com/s/20200221A09FJ800?refer=cp_1026
  • 腾讯「腾讯云开发者社区」是腾讯内容开放平台帐号(企鹅号)传播渠道之一,根据《腾讯内容开放平台服务协议》转载发布内容。
  • 如有侵权,请联系 cloudcommunity@tencent.com 删除。

相关快讯

扫码

添加站长 进交流群

领取专属 10元无门槛券

私享最新 技术干货

扫码加入开发者社群
领券