前往小程序,Get更优阅读体验!
立即前往
首页
学习
活动
专区
工具
TVP
发布
社区首页 >专栏 >微软开发新工具试图防止AI算法中的偏见

微软开发新工具试图防止AI算法中的偏见

作者头像
新智元
发布2018-05-30 11:04:44
4463
发布2018-05-30 11:04:44
举报
文章被收录于专栏:新智元

新智元编译

来源:futurism

编辑:肖琴

【新智元导读】微软希望创建一种工具来检测AI算法,并提醒人们算法可能基于种族或性别对待他们。

微软公司最新加入试图解决算法偏见的科技公司行列——算法偏见是指,提供给AI系统的数据不足,以致结果反映出社会本身的偏见或不公平的观点。

微软加入谷歌和Facebook的行列,创建工具来寻找未适当训练的AI。但是微软用于发现算法偏见的新算法只能找到并标记算法已经存在的问题。这意味着,比如说,导致警察偏见增加的程序如果没被发现,仍然会被建立和使用。

为了真正地创造公平、惠及每一个人的AI,需要在前端有更多关注。公司可以通过第三方来审查他们的算法,例如引入外部专家,并在代码本身或被输入的数据中寻找偏见的迹象。

一些人工智能公司已经开始聘请审查人员来查看他们的代码。但这也要求AI系统足够简单,一遍有人能够发现问题区域,或者要求审查人员精通代码。对于更复杂的深度学习算法来说,这种方法并不总是可行。

另一个可能的答案是,为实际创造AI的人提供更好的培训,这样他们就能更好地发现自己的观点和偏见,并防止这些偏见被算法解释为事实。这并不意味着程序员们正在编码种族主义机器。但是,因为每个人都有某些隐含的偏见,技术世界将会从帮助人们更好地理解他们自己的世界观中受益。

这些都是主要的解决方案,需要对技术的开发方式进行观念上的转变,即使对希望开发这些过滤器和标记算法偏见的公司来说也是如此。

研究人员和公司开始关注这个问题,这是一个好的迹象。

本文参与 腾讯云自媒体同步曝光计划,分享自微信公众号。
原始发表:2018-05-27,如有侵权请联系 cloudcommunity@tencent.com 删除

本文分享自 新智元 微信公众号,前往查看

如有侵权,请联系 cloudcommunity@tencent.com 删除。

本文参与 腾讯云自媒体同步曝光计划  ,欢迎热爱写作的你一起参与!

评论
登录后参与评论
0 条评论
热度
最新
推荐阅读
领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档