原创译文 | 微软放大招!面部识别无歧视,Face API更加精准识别人类肤色

导读:微软近日在博客文章中宣布了Face API的重大更新,它改进了面部识别平台识别不同人种性别的能力,此前,这一直是计算机视觉平台面临的挑战。本文将进行详细介绍。(文末更多往期译文推荐)

微软近日在博客文章中宣布了Face API的重大更新,它改进了面部识别平台识别不同人种性别的能力,此前,这一直是计算机视觉平台面临的挑战。

随着这些改进,Redmond公司表示,它将深肤色人种的男性和女性的误差率降低了20倍,针对女性降低了9倍。

多年来,研究人员已经证实了面部识别系统存在种族偏见。 2011年的一项研究发现,中国,日本和韩国的算法在识别白人面孔方面比识别东亚人更困难,另一项研究表明,安全厂商们大肆推广的面部识别技术对非洲裔美国人的识别准确率会下降5%至10%。

为了解决这个问题,微软的研究人员修改并扩展了Face API的培训和基准数据集,并建立了肤色、性别和年龄的新数据库。它还与人工智能(AI)公平方面的专家合作来提高算法性别分类器的精度。

“我们探讨了消除偏见、实现公平的很多方式,”微软纽约研究实验室的高级研究员Hanna Wallach在一份声明中表示,“我们谈到了收集更多的数据,以增加培训数据的多样性。我们也讨论了在真正应用之前,对我们的系统进行内部测试的很多策略。”

Face AI技术的增强只是在公司角度上尽量减少了AI的偏见,这仅仅是个开端。微软正在开发一种工具,可以帮助工程师识别训练数据中导致性别分类错误率较高的算法盲点。据该博客文章称,公司还正在建立检测和减少AI系统开发中不公平性的最佳实践。

更具体地说,微软的Bing团队正在与伦理学专家合作,探索 “董事会、学术界和社交媒体上的热烈讨论——缺乏女性CEO”,这项搜索结果的不含偏见的呈现方式。微软指出,在财富榜前500位首席执行官中,女性只有不到5%,目前网络中,“首席执行官”的搜索结果都大大提高了男性的形象。

“如果我们用有偏见的社会产生的数据去训练机器学习系统,让它模拟该社会中做出的决策,,那么这个系统必然会再现社会的偏见。” Wallach说,“这是一次很好的机会去真正地思考,我们究竟要在这些系统中体现怎样的价值观,以及它们是否真正反映了这些价值观。”

微软并不是唯一试图最小化算法偏见的公司。今年5月,Facebook发布了Fairness Flow,如果一个算法因为某人的种族、性别或年龄对一个人做出不公正的判断,Fairness Flow会自动警告该算法。 IBM的Watson和Cloud Platforms小组最近的研究也集中在减轻AI模型中的偏见,特别是与面部识别相关的偏见。

原文

Microsoft’s improved Face API

more accurately recognizes a range of skin tones

In a blog post today, Microsoft announced an update to Face API that improves the facial recognition platform’s ability to recognize gender across different skin tones, a longstanding challenge for computer vision platforms.

With the improvements, the Redmond company said, it was able to reduce error rates for men and women with darker skin by up to 20 times, and by 9 times for women.

For years, researchers have demonstrated facial ID systems’ susceptibility to ethnic bias. A 2011 study found that algorithms in China, Japan, and South Korea had more trouble distinguishing between Caucasian faces than faces of East Asians, and a separate study showed that widely deployed facial recognition tech from security vendors performed 5 to 10 percent worse on African American faces.

To tackle the problem, researchers at Microsoft revised and expanded Face API’s training and benchmark datasets and collected new data across skin tones, genders, and ages. It also worked with experts in artificial intelligence (AI) fairness to improve the precision of the algorithm’s gender classifier.

“We had conversations about different ways to detect bias and operationalize fairness,” Hanna Wallach, senior researcher at Microsoft’s New York research lab, said in a statement. “We talked about data collection efforts to diversify the training data. We talked about different strategies to internally test our systems before we deploy them.”

The enhanced Face AI tech is just the start of a company-wide effort to minimize bias in AI. Microsoft is developing tools that help engineers identify blind spots in training data that might result in algorithms with high gender classification error rates. The company is also establishing best practices for detecting and mitigating unfairness in the course of AI systems development, according to the blog post.

More concretely, Microsoft’s Bing team is collaborating with ethics experts to explore ways to surface search results that reflect “the active discussion in boardrooms, throughout academia and on social media about the dearth of female CEOs.” Microsoft notes that less than 5 percent of Fortune 500 CEOs are women and that web search results for “CEO” largely turn up images of men.

“If we are training machine learning systems to mimic decisions made in a biased society, using data generated by that society, then those systems will necessarily reproduce its biases,” Wallach said. “This is an opportunity to really think about what values we are reflecting in our systems, and whether they are the values we want to be reflecting in our systems.”

Microsoft isn’t the only company attempting to minimize algorithmic bias. In May, Facebook announced Fairness Flow, which automatically warns if an algorithm is making an unfair judgment about a person based on his or her race, gender, or age. Recent studies from IBM’s Watson and Cloud Platforms group have also focused on mitigating bias in AI models, specifically as they relate to facial recognition.

文章编辑:小柳

原文发布于微信公众号 - 灯塔大数据(DTbigdata)

原文发表时间:2018-06-27

本文参与腾讯云自媒体分享计划,欢迎正在阅读的你也加入,一起分享。

发表于

我来说两句

0 条评论
登录 后参与评论

相关文章

来自专栏大数据文摘

脑洞 | AI之间有一场“搏击赛”,邪恶 AI 能否被战胜?

19830
来自专栏企鹅号快讯

为什么神经网络会把乌龟识别成步枪?现在的 AI 值得信任吗?

概要:人工智能的快速发展的确值得欣喜,但快速发展的背后还有各种不完善的地方。 人工智能的快速发展的确值得欣喜,但快速发展的背后还有各种不完善的地方。比如,前不久...

19360
来自专栏CSDN技术头条

概念,算法,应用全部有,迄今为止对大数据研究最透彻的文章……

一、 大数据基本概念 大数据Big Data是指大小超出了常用的软件工具在运行时间内可以承受的收集,管理和处理数据能力的数据集;大数据是目前存储模式与能力、计算...

23860
来自专栏AI科技大本营的专栏

开工了!三位大咖给你指路:未来 3~5 年内,哪个方向的机器学习人才最紧缺?

十一长假结束,收心归来,重新投入工作。如何能克服假期综合症呢?如何快速收心?今天营长就携三位大咖来为你打打鸡血,指引指引未来的路。他们将从自身的工作经历和学习经...

442120
来自专栏人工智能头条

IBM PowerAI人工智能12小时编程马拉松大赛——“我是大侦探”成功落幕

23060
来自专栏华章科技

您的位置信息如何被利用?——基于位置信息的应用和地理信息匹配算法

作者:沈浩老师,中国传媒大学新闻学院教授,中国传媒大学调查统计研究所所长,大数据挖掘与社会计算实验室主任。

13830
来自专栏全栈数据化营销

详解RFM客户价值模型,送你20个企业战略和竞争分析模型

不会模型,做不了分析! 最近在做一个比较大型公司的案子,涉及到营销、销售、架构、财务等各方面的分析和研究,不得不说,在信息量很大、分析维度很多的时候,有准确的分...

497130
来自专栏AI科技大本营的专栏

AI领域真正最最最最最稀缺的人才是……会庖丁解牛的那个人

图片来源:Wired 【AI科技大本营导读】这里,就不卖关子了。AI领域最最最最最稀缺的人才应该为人工智能架构师。有过4次技术创业经历,如今做AI投资的星瀚资本...

334100
来自专栏互联网杂技

哎哟,这里发现一个比头脑风暴还靠谱的创意产生方法!

究表明头脑风暴生成的好创意比人们自己独立思考还要少。 不过好消息是,有更有效的团队工作方式存在。 如果你是个上班族,恐怕十之八九都曾被上司或同事们拉进头脑风暴会...

35780
来自专栏机器之心

业界 | NovuMind异构智能核心技术引领智联网

32370

扫码关注云+社区

领取腾讯云代金券