首页
学习
活动
专区
工具
TVP
发布
精选内容/技术社群/优惠产品,尽在小程序
立即前往

语音识别技术也存在性别歧视

语音识别系统存在性别歧视:与男性相比,他们很难处理女性的声音。

在机器学习的世界里,这已经让人头痛不已了。R7 Speech Sciences公司的首席执行官兼共同创始人Delip Rao再次将这个问题重新提起以引起了人们的关注,这家创业公司使用AI来理解语音。随着苹果Siri,亚马逊Alexa或Google Home等语音激活数字助理的兴起,这是问题变得越发的重要。

“在言语中,我们测量平均基频(这与我们对”音调“的感知相关)。这也被称为平均F0。我们的声道产生的音调范围是围绕它的分布的函数,“ Rao说

“如果你有来自音频的平均F0,你可以写一个简单的,基于规则的性别分类器。从很多来源,我们知道男性的平均F0约为120Hz,女性的平均F0(200Hz)更高。“

Kaggle的数据科学家Rachael Tatman和华盛顿大学的一位博士语言学专业毕业生在本周向The Register解释说,它不仅仅是因为缺乏女性声音训练实例的神经网络中学习。

这是一个固有的技术问题,事实上女性的声音通常较高。他们也倾向于更轻声细语,听起来更“气喘吁吁”。

为了将音频信号映射到特定的单词或声音,将它们处理并转换为MFCC(Mel频率倒谱系数),这是许多自动语音识别模型中使用的常用方法。

Tatman告诉我们“没有什么特别的MFCC对女性言语的塑造比男性好。”但是“对于女性而言,声音信号的强度略差,它更容易被噪音掩盖,如在交通背景音中,这使得语音识别系统更难。这会影响你用于声学建模的任何东西,这就是MFCC的用途。“

缺乏多样的培训实例已经证明AI系统充满了错误性。一个最近的一项研究发现,商业面部识别系统对识别男性相比,对女性的识别更差,对白人的识别也比黑人准确。

由于语音识别系统已经发现处理女性声音更加困难,如果系统从不平衡的训练数据集中学习,性别偏见问题可能会变得更糟。

“特别是深度学习非常善于认识到它所看到的很多东西。如果你已经用90%的男性和10%的女性数据训练了你的系统,你最终会非常擅长识别男性数据,在识别女性数据方面非常糟糕。“塔特曼说。

许多语音识别系统都是针对西方口音量身定制的。饶本周告诉埃尔Reg:“真实世界的影响是你可以想象的重要。想象一下,大多数印度口音非常可怕。即便他们很乐意使用语音界面,但是识别的准确率使得他们大部分时间无法使用。

  • 发表于:
  • 原文链接http://www.theregister.co.uk/2018/03/14/voice_recognition_systems_are_naturally_sexist
  • 如有侵权,请联系 cloudcommunity@tencent.com 删除。

扫码

添加站长 进交流群

领取专属 10元无门槛券

私享最新 技术干货

扫码加入开发者社群
领券