首页
学习
活动
专区
工具
TVP
发布
精选内容/技术社群/优惠产品,尽在小程序
立即前往

AI时代消除性别歧视我们该何去何从?

AI时代消除性别歧视我们该何去何从?

AI时代消除性别歧视我们该何去何从?

全文共2343字,阅读时长约为4分钟图片来源|网络出品|先声会本文节选、编译自Nature平台的文章谷歌翻译在将西班牙语新闻翻译成英语时,通常将提及女人的句子翻译成“单词嵌入——一个用来处理和分析大量自然语言数据的流行算法,会把

图片来源:iStock/Getty(左图)PrakashSingh/AFP/Getty(右图)在有偏差的数据集上训练出的算法通常只能将左边的图片识别为“新娘”。除此之外,人们还发现了其他很多人工智能(AI)系统性地歧视特定人群的例证。决策偏见并不是AI独有的问题,但由于AI的应用范围越来越大,解决AI偏见至关重要。

ImageNet推动了计算机视觉研究,但是其中超过图片来源:《自然》杂志由此看出,这些动物体内除了大脑,还有一个独立的系统来处理身体的变化。这些现象引发了我们的思考:机器人体内可以构建这样的系统吗?答案是——可以。缺乏地理上的多样性可以在一定程度上解释为什么计算机视觉算法会把传统的身着白色婚纱的美国新娘标注为“新娘”、“礼服”、“女人”、“婚礼”,而印度新娘的照片则会被标注为“表演”和“戏服”。

偏见的另一个来源可以归于如果训练数据集中某类人群的出现频率远多于另一人群,那么程序就会为占比更多的人群进行优化,这样才可以提高整体的准确率。更糟糕的是,每次翻译程序默认翻出“

02数据偏差来源于制度和社会在关于女性的条目中,链接到男性条目的数量远比男性条目链接到女性条目的数量要多,因此搜索引擎里就更容易找到关于男性的条目。女性条目里还包含了更多的伴侣和家人信息。因此,在构建训练数据集时必须进行技术处理,并将社会因素纳入考虑范围。我们不能局限于方便的分类方式——“

  • 发表于:
  • 原文链接https://kuaibao.qq.com/s/20180922A0GYQK00?refer=cp_1026
  • 腾讯「腾讯云开发者社区」是腾讯内容开放平台帐号(企鹅号)传播渠道之一,根据《腾讯内容开放平台服务协议》转载发布内容。
  • 如有侵权,请联系 cloudcommunity@tencent.com 删除。

相关快讯

扫码

添加站长 进交流群

领取专属 10元无门槛券

私享最新 技术干货

扫码加入开发者社群
领券