前往小程序,Get更优阅读体验!
立即前往
首页
学习
活动
专区
工具
TVP
发布
社区首页 >专栏 >Women in Machine Learning:人工智能的世界不能只有男人

Women in Machine Learning:人工智能的世界不能只有男人

作者头像
新智元
发布2018-03-22 18:08:55
1K1
发布2018-03-22 18:08:55
举报
文章被收录于专栏:新智元新智元

【新智元导读】单从性别的角度看,科技圈一直以来似乎都是男人的世界,女性存在感很低。这种性别上的失衡带来的远不止“不公平”那么简单,从人工智能的发展来看,男性数量一直占主导,会带来消极的影响:如果大家都在教计算机像男人一样处事,那么机器的世界观将会变得狭隘,可能还是充满偏见的。现在,AI领域中的女性榜样,比如李飞飞,已经开始行动,希望改变女性缺失的情况。

本月初,比尔·盖茨参加Recode大会并发表演讲。盖茨的妻子Melinda也出现在现场,他们谈到了一起做的慈善事业、移动支付以及亿万富翁放弃自己财产等话题。随后,谈话转到了人工智能,“显然,这是当下最激动人心的事”,比尔·盖茨说,“(人工智能)是圣杯,是所有从事计算机科学的人的伟大梦想。”

在耐心地等待丈夫表达完对机器智能的盛赞之后,轮到Melinda发言了。“我想对所有在场的人说,我们应该考虑一下计算机科学中的女性”,她说,“你会想要女性加入,因为你希望有一个多元化的环境,来创造AI和其他我们将会用到的科技工具。”Melinda指出,现在,从计算机科学毕业的学生中,只有17%是女性,而此前这一比例最高时曾达到37%。

在AI领域,这一数据实际上更低。根据会议组织者透露的数据,2015年,在蒙特利尔举办的人工智能会议NIPS上,参与者中女性占比仅有13.7%,这是AI界最大的会议之一。

李飞飞 Photographer: Jeff Chiu/AP Photo

鉴于AI领域中女性数量少得可怜,这一数据并不出人意外。斯坦福大学计算机视觉实验室主任李飞飞说。在斯坦福的AI实验室中,总共有15名研究员,李飞飞是其中唯一的女性,她还是斯坦福计算机科学系仅有的5名女教授之一。“如果一台计算机,读了所有AI领域的文章,然后再提取所有文章中提到的名字,我敢保证,几乎没有女性的名字出现” ,她说,“谈到AI时,男性的名字被提及的次数是女性的上百倍。”

技术行业女性工程师和管理人员的缺乏,造成了许多消极的影响。但是在AI领域,一个独有的问题是同质化(Homogeneity):要让计算机理解世界,研究员需要搜集几乎关于所有事物的大数据。比如,要学会认花,你需要给计算机上万张关于花的照片,这样,在它看到一张关于水仙花的照片,即使照片光线很暗,它也能根据自己的经验分辨出“看”到的是什么。

从效果上看,如果拥有的数据库不够大,那么公司创造的AI工具就是有局限的。一个语音识别软件使用的数据库只包含讲纯正英音的人的语音资料,那么它就很难理解一个来自美国内陆城市的人所讲的带有俚语和口音的英语。如果大家都在教计算机像男人一样处事,那么机器的世界观将会变得狭隘,可能还是充满偏见的。

“我把这叫做男人的世界(sea of dudes),微软的研究员Margaret Mitchell说。Mitchell主要研究计算机视觉和语言问题,是微软“认知”小组的创始人,也是组内的唯一的一名女研究员。据她回忆,过去5年中,与她共事的女性数量在10个左右,男性则有几百个。“我百分之百地确信,性别对我们研究的问题会有影响”,她说,“你会因此变得缺乏远见”。

因为数据集的不完美或者说缺陷,已经发生了一些令人尴尬的事件。谷歌开发的一款软件错把黑人标为大猩猩,微软的一款聊天机器人最终暴露了互联网最恶劣的一面。

“从机器学习的角度来看,如果你不考虑性别的包容性,那么,最终的推理对于大群体来说,就是有带有偏见的,在上面例子中,就是(样本中)白人男性太多了”,俄勒冈州立大学电子工程与计算机科学的教授Margaret Burnett说。Burnett开发了一个名叫GenderMag的工具,能帮助软件开发者建立考虑了性别差异的系统。微软已经试用了这一软件。

Burnett还调查了如果开发者没有恰当地考虑性别差异,会对机器学习系统造成多大影响。“如果填充进去的是非多样化的材料,那么得到的结果就会是封闭的、闭塞的、不完美的”,她说。

微软在今年早些时候推出的聊天机器人Tay,填充的就是很多非多样化的材料。在推出24小时内,Tay就变成了一个种族主义者、性别歧视者以及恐同主义者。之所以会这样,是因为网民们知道Tay会从与人的交流中学习,所以他们就把充满侮辱性的、种族主义的、下流的东西发给Tay。Tay把这些语言融入到“大脑”模型中,然后产出相同的东西。

Lili Cheng.

Photographer: J. Countess/Getty Images

微软之类的公司正在苦苦思考,怎样才能收集到更好、更多样化的数据。“我们怎么确保我们训练的数据是考虑了性别的影响的?”已经离开微软Tay开发团队的Cheng Lili说,“整个行业,包括我们在内,都需要在训练数据时为性别和其他多样化的指标做更好的分类。”

已经有证据表明,性别歧视已经蔓延到了AI的求职中。Textio是一家初创企业,主要的业务是帮助用人企业修改招聘广告,以增加应聘者的数量和多样性。Textio对1700条AI招人广告进行了分析,并与其他6个经典IT领域的7万份招人广告进行对比。分析发现,跟其他工作相比,AI行业的招聘广告呈现的方式是“高度男子化”的。

亚马逊的一份招聘软件开发工程师的广告可以说是“男子化”的“佼佼者”,因为其使用的词都是与男性相关的,比如“编码忍者”,“relentlessly”(冷酷的)和“fearlessly”(无所畏惧的),Textio的 CEO Kieran Snyder说。这些词汇导致更少的女性去应聘,并且,招聘广告并没有任何机会均等的声明,她说。

“一方面,许多公司都对这些职位中女性的缺失感到失望,但是另一方面,这些公司又很乐意发出类似的招聘广告,这确实是很奇怪”,亚马逊前雇员Snyder说。

亚马逊拒绝回应此事。

“每个人或多或少都有自己的偏见”,Women in Machine Learning的执行董事Katherine Heller说。Women in Machine Learning已有10年的历史,致力于提高AI领域内的性别多样性。该组织经常举办女性研究员的演讲和对话活动,也曾推出机器学习领域内几百名女性从业者的公开联系目录,让人们可以找到这些人。“因为女性的缺位,一些文化的议题也会导致在某些人的研究中重要的问题不会被发现”,Heller说。

在AI领域 ,一些女性开始着眼于下一代的培养。斯坦福的李飞飞成立了一个面向10年级女孩的小组,叫SAILORS,致力于把深度的研究与企业的参访和指导联系起来。不想错过任何研究机会的李飞飞对这一项目也进行调查,她发现,加入小组的女性在技术知识、自信和追求AI事业的兴趣上,都有长足的增长。

加利福尼亚大学伯克利分校的博士生Chelsea Finn说,对她来讲,这一组织最大的好处是让她看到了真实的女性意见领袖。

这也是投身AI领域的女性逐渐意识到的问题。“通过加强我自己的存在感,希望我能让更多高中生和本科生对AI感兴趣”,Mitchell 说。


本文参与 腾讯云自媒体分享计划,分享自微信公众号。
原始发表:2016-06-24,如有侵权请联系 cloudcommunity@tencent.com 删除

本文分享自 新智元 微信公众号,前往查看

如有侵权,请联系 cloudcommunity@tencent.com 删除。

本文参与 腾讯云自媒体分享计划  ,欢迎热爱写作的你一起参与!

评论
登录后参与评论
0 条评论
热度
最新
推荐阅读
相关产品与服务
语音识别
腾讯云语音识别(Automatic Speech Recognition,ASR)是将语音转化成文字的PaaS产品,为企业提供精准而极具性价比的识别服务。被微信、王者荣耀、腾讯视频等大量业务使用,适用于录音质检、会议实时转写、语音输入法等多个场景。
领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档