首页
学习
活动
专区
工具
TVP
发布
精选内容/技术社群/优惠产品,尽在小程序
立即前往

苏亚爸爸给小朋友解读热点:你被人工智能歧视了吗?

微软正在创建一个“先知”工具

来捕捉 AI 算法偏见

微软正在开发一个工具来自动识别一系列不同 AI 算法中的偏见。这在自动侦查可能渗入机器学习的不平等方面,是迄今为止最大胆的尝试,且它还能帮助企业在利用人工智能的同时防止无意间歧视某些群体。

算法偏见是研究人员和技术专家日益担忧的问题,由于算法将做重要决定的过程自动化,因此存在着这样的风险:偏见也可能自动化和大规模地产生作用,并且让受害者更难以察觉。

从事偏见检测控制面板研究的微软高级研究员里奇·卡鲁纳说:“透明度、可理解性和解释这类东西对这个领域来说是全新的,我们很少有人有足够的经验来明白我们该寻找的东西,以及偏见可能潜伏在我们模型中的所有方式。”

脸书在 5 月 2 日的年度开发者大会上宣布了其自己的偏见检测工具。这个工具命名为“公平畅行”,如果算法根据一个人的种族、性别或年龄做出了不公平的判断,它就会自动发出警告。

脸书在 5 月 2 日的年度开发者大会上宣布了其自己的偏见检测工具。这个工具命名为“公平畅行”,如果算法根据一个人的种族、性别或年龄做出了不公平的判断,它就会自动发出警告。

文章来源:MIT Technology Review

翻译:流利阅读

  • 发表于:
  • 原文链接https://kuaibao.qq.com/s/20180711G08ZK900?refer=cp_1026
  • 腾讯「腾讯云开发者社区」是腾讯内容开放平台帐号(企鹅号)传播渠道之一,根据《腾讯内容开放平台服务协议》转载发布内容。
  • 如有侵权,请联系 cloudcommunity@tencent.com 删除。

扫码

添加站长 进交流群

领取专属 10元无门槛券

私享最新 技术干货

扫码加入开发者社群
领券