首页
学习
活动
专区
工具
TVP
发布
精选内容/技术社群/优惠产品,尽在小程序
立即前往

被调戏的Siri又要升级了,苹果研究避免错误唤醒和支持方言识别

苹果的Siri一直都是被大家调戏的对象,大家觉得逗趣这个小智能还是很有趣的。近日,苹果对于自己的这套语音系统进行了新的实验和开发,今天我们就来看看苹果怎么改造了“Siri”。

双触发集成

要了解这个我们要先知道苹果原来Siri的工作情况,它是由两个系统独立运行的,一个是负责“Hi,Siri”的唤醒触发系统,另一个是识别人声的系统,看看你是不是这台手机的主人,确定了才会触发唤醒。

而现在苹果要做的就是把他们融合在一起,这样子做可以节省设备上的内存、计算时间、等待时间以及消耗的电量或电池数量。现在的手机内部空间是非常金贵,能空出一点就能做其他的尝试,所以就这一点不管是软件还是硬件都是双赢的测试。

减少错误触发

我们知道,语音触发的智能助手在开始收听用户请求之前,通常依赖于对触发短语的检测……错误触发通常源于背景噪音,或听起来与触发短语相似的语音。简而言之就是语音识别误会我们的意思了,我们并没有这么想,但是它却这么做了。

但是苹果的研究会更加深入一些,除了硬件设计上有些思考,更重要的是他们在进行用户意图分类。这就是一件非常细的事情,已经不仅仅识别语音那么简单了,可以通过与其和情况进行意图的判断。

多语种识别

如果你只是觉得这项研究只是语种与语种之间的识别那就太小看苹果公司了,他们现在研究的是一种语言下的因为地域的不同导致的发音不同和口音问题。在中国这种情况比较少见,因为中国大地上发音相差天南地北的太常见了。这项研究主要还是在英语圈的范畴。

我们回过头看苹果最近的研究其实是可以给中国的科技公司一些启示的。注重细节是苹果公司的基因,这恰恰也是科技公司最重要的一点。大家关于语音识别还有什么想说的,可以关注并留言给科技猫。

  • 发表于:
  • 原文链接https://kuaibao.qq.com/s/20200229A06HOR00?refer=cp_1026
  • 腾讯「腾讯云开发者社区」是腾讯内容开放平台帐号(企鹅号)传播渠道之一,根据《腾讯内容开放平台服务协议》转载发布内容。
  • 如有侵权,请联系 cloudcommunity@tencent.com 删除。

扫码

添加站长 进交流群

领取专属 10元无门槛券

私享最新 技术干货

扫码加入开发者社群
领券