前往小程序,Get更优阅读体验!
立即前往
首页
学习
活动
专区
工具
TVP
发布
社区首页 >专栏 >专家警告:谨防潜藏在AI中的性别歧视

专家警告:谨防潜藏在AI中的性别歧视

作者头像
机器人网
发布2018-04-12 14:52:08
5900
发布2018-04-12 14:52:08
举报
文章被收录于专栏:机器人网机器人网

在巴塞罗那举行的MWC世界移动大会上,有专家在周四发出警告称,如果没有对创建所使用的数据进行监督,人工智能可能会继承人类的偏见,包括性别歧视。

咨询公司Accenture的技术负责人Emma McGuiguan在MWC上说,“我们都非常清楚,机器人将会和给他们编程的程序员有同样的偏见。”

人工智能是通过给机器或计算机编程来重现学习、决策等人类过程的科学。

印度移动运营商Tata Communications的首席创新官Julie Woods-Moss表示,为了实现这一目标,需要大量人的数据。

“我们必须非常小心,我们不鼓励AI产生偏见,”她呼吁该行业的专业人士找到方法来确定这些偏见。

Woods-Moss称应该有办法“有意识地寻找这种偏见,例如,如果你开始看到说‘男人是医生’或‘女人是护士’的模式。”

她还批评了“大多数私人助理都是女性”这一事实,以汽车为例,其基本假设是司机是男人,并希望在GPS设备上听到女性声音。

大多数设备都是在人工智能的支持下工作的,通过分析用户的对话以做出响应。

亚马逊的虚拟助理Alexa,“最近才加入了MeToo标签,”Woods-Moss说,她指的是在社交媒体上发起的运动,鼓励女性公开对她们进行的任何性侵犯或骚扰。

“以前,如果你给助理取一个特别性感的名字,它会回应‘谢谢你的反馈’,现在Alexa则会说‘我对此没有回应’。”

女企业家融资平台SheWorx创始人Lisa Wang表示,创建AI技术的人中,超过90%“仍然是男性。”

她还表示,“这最终将扩大创造它的人的偏见。”

根据世界经济论坛2016年的报告,移动技术行业只有19的员工是女性。

由于担心这个问题,美国公民自由联盟去年开始关注机器显示种族或性别偏见的迹象。

本文参与 腾讯云自媒体分享计划,分享自微信公众号。
原始发表:2018-03-02,如有侵权请联系 cloudcommunity@tencent.com 删除

本文分享自 机器人网 微信公众号,前往查看

如有侵权,请联系 cloudcommunity@tencent.com 删除。

本文参与 腾讯云自媒体分享计划  ,欢迎热爱写作的你一起参与!

评论
登录后参与评论
0 条评论
热度
最新
推荐阅读
领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档