专栏首页ATYUN订阅号微软正在开发用于识别AI算法偏差的工具

微软正在开发用于识别AI算法偏差的工具

AiTechYun

编辑:chux

微软正在开发一个工具来自动识别一个范围内的不同的AI算法偏差。将自动识别渗入机器学习的不公平现象是非常值得提倡的,它可以帮助企业利用人工智能,而不会无意中歧视某些人。

大型科技公司正在竞相出售可通过云端访问的现成的机器学习技术。随着越来越多的客户使用这些算法来自动执行重要的判断和决策,偏见问题将变得至关重要。而且,由于偏见很容易蔓延到机器学习模型中,因此自动检测不公平性的方法可能会成为AI工具包的重要组成部分。

“像透明度,可理解性和解释这样的东西对于这个领域来说已经足够新了,我们中很少有人有足够的经验了解我们应该寻找可能潜伏在我们模型中的的偏见,” 高级研究员Rich Caruna说,他主要负责偏见检测仪表板。

算法偏差是许多研究人员和技术专家关注的问题。由于算法被用来实现重要决策的自动化,所以其中存在的偏见可能变得自动化,变成更难以发现的风险。

Caruna表示,微软产品将帮助人工智能研究人员捕获更多不公平的事件,尽管不是全部。“当然,我们不能指望完美,总会有一些未被发现或者无法消除的偏见,所以我们会尽我们所能,”他说。

“公司现在可以做的最重要的事情是教育员工,让他们意识到偏差可能出现并以各种方式表现出来,目标就是创建工具使模型更容易理解,偏见更易于检测,”Caruna补充道。

Facebook于5月2日在其年度开发者大会上宣布了自己的工具,用于检测偏见。其工具称为Fairness Flow,它会自动警告某算法是否根据其种族,性别或年龄而对某人作出不公正的判断。

加州大学伯克利分校的教授Bin Yu表示,来自Facebook和微软的工具似乎是朝着正确方向迈出的一步,但可能还远远不够。她建议大公司应该让外部专家审核他们的算法,以证明他们的确没有偏见。

本文分享自微信公众号 - ATYUN订阅号(atyun_com)

原文出处及转载信息见文内详细说明,如有侵权,请联系 yunjia_community@tencent.com 删除。

原始发表时间:2018-05-28

本文参与腾讯云自媒体分享计划,欢迎正在阅读的你也加入,一起分享。

我来说两句

0 条评论
登录 后参与评论

相关文章

  • ICML 2018 | 腾讯AI Lab详解16篇入选论文

    腾讯技术工程官方号
  • 怎样成为一名优秀的算法工程师

    原创声明:本文为 SIGAI 原创文章,仅供个人学习使用,未经允许,不得转载,不能用于商业目的。

    SIGAI学习与实践平台
  • ICML 2018 | 腾讯AI Lab详解16篇入选论文

    腾讯高校合作
  • 由深入浅,人工智能原理的大白话阐述

    望月从良
  • 2018全球机器学习技术大会40位大神即将开讲!

    ​​​"Can Machine Think?" 1936年阿兰· 图灵提出「图灵机」以及机器具备「思维」的可能性。历经82年,以机器学习为代表的人工智能经过近几...

    活动家
  • 自然语言处理之词袋模型与TF-IDF指标

    我们拿到一段文本信号后,首先应该进行分词以得到一个个token,然后将这些token用向量表示出来再送入机器学习模型中进行训练。词袋模型和TF-...

    我爱自然语言处理
  • AutoML技术现状与未来展望

    很多时候在某一领域使用机器学习得到了效果很好的模型,但是若要在另一个领域使用该模型则不一定适用,而且通常需要大量的专业知识。正是由于受到这样的限制,所以才有了A...

    marsggbo
  • 隐藏在电影中的商业智能

    自从科学在19世纪开始蓬勃发展,人类就分成了两大阵营,一方因它兴奋不已,另一方则终日思考恐惧:如果我们对科技失去控制,会不会最终被它取代?有趣的是,这个议题也被...

    数据观-数据分析平台
  • 之前做的关于AI的一些分享

    年初有幸转部门到了腾讯云做数据库产品经理,通过拜访客户,了解了不少痛点,后续会不断针对数据库和AI结合的场景,做出智能化的数据库服务,帮助更多腾讯云上的企业客户...

    宗文
  • Python和SQL Server 2017的强大功能

    Woodson

扫码关注云+社区

领取腾讯云代金券