首页
学习
活动
专区
工具
TVP
发布
精选内容/技术社群/优惠产品,尽在小程序
立即前往

“可怕的实验”似乎表明Twitter的裁剪工具是有种族偏见的

一名进行了“可怕实验”的程序员认为,Twitter的自动化工具更偏爱白人的脸。

推特的裁剪工具决定显示一张米奇·麦康奈尔的照片而不是巴拉克·奥巴马的照片。

在用户声称Twitter的图像裁剪功能更偏向于白人面孔后,Twitter启动了一项调查。

该社交网络的移动应用程序上有一个自动工具,可以自动裁剪大到屏幕不适合的图片,并选择图片的哪些部分应该剪掉。

但一名毕业程序员的实验似乎显示出种族偏见。

推特已经发誓要进行调查

为了看看推特的算法会选择什么,托尼·阿切里发布了一张长照,上面是参议院共和党领袖米奇·麦康奈尔,下面是美国前总统巴拉克·奥巴马,中间用空白隔开。

在第二张图片中,奥巴马的头像放在顶部,麦康奈尔的头像放在底部。

这两次,前总统都被裁掉了。

在“可怕的实验”之后,Arcieri先生写道:“推特只是种族主义在机器学习算法中体现的一个例子。”

截至发稿时,他的实验已经被转发了78000次。

推特发誓要调查此事,但在一份声明中表示:“我们的团队在发布模型之前进行了偏见测试,在我们的测试中没有发现种族或性别偏见的证据。”

“很明显,从这些例子中我们需要做更多的分析。

我们将继续分享我们学到的东西,我们采取的行动,并将我们的分析开源,以便其他人可以审查和复制。”

一位推特的代表还提到了一位卡内基梅隆大学科学家的研究,这位科学家分析了92张图片。

在那次实验中,算法偏爱黑人面孔52次。

早在2018年,该公司就表示,该工具基于一种“神经网络”,利用人工智能来预测用户对照片的哪个部分感兴趣。

人工智能研究所(AI Now Institute)联合创始人梅雷迪思•惠特克(Meredith Whittaker)对汤森路透基金会(Thomson Reuters Foundation)表示:“这是一长列令人厌倦的例子中的另一个,这些例子表明,自动化系统为种族主义、厌女症和歧视历史编码。”

  • 发表于:
  • 原文链接https://kuaibao.qq.com/s/20200922A0KZON00?refer=cp_1026
  • 腾讯「腾讯云开发者社区」是腾讯内容开放平台帐号(企鹅号)传播渠道之一,根据《腾讯内容开放平台服务协议》转载发布内容。
  • 如有侵权,请联系 cloudcommunity@tencent.com 删除。

相关快讯

扫码

添加站长 进交流群

领取专属 10元无门槛券

私享最新 技术干货

扫码加入开发者社群
领券