从语音识别看AI:我们距离真正的人工智能还有多远?

自1962年IBM推出第一台语音识别机器以来,语音识别科学已经走了很长一段路。这已经不是什么秘密了。随着技术的发展,语音识别已越来越多地渗透到我们的日常生活中,这些语音驱动应用程序包括Amazon的Alexa, 苹果的Siri,微软的Cortana或Google的许多语音响应功能。 从我们的电话,计算机,手表甚至冰箱中,我们带入生活中的每一个新的语音交互设备都会加深我们对人工智能(AI)和机器学习的依赖。

人工智能与机器学习

人工智能由约翰·麦卡锡(John McCarthy)于1956年首次提出,可以定义为“机器展示的人类智能”。 在最初用于分析和快速计算数据的地方,人工智能现在允许计算机执行通常只有人类才能执行的任务。

机器学习是人工智能的子集,是指可以自行学习的系统。 它涉及教导计算机识别模式,而不是使用特定规则对其进行编程。 训练过程包括将大量数据提供给算法,并使其从该数据中学习并识别模式。 在早期,程序员必须为他们想识别的每个对象(例如人与狗)编写代码; 现在,一个系统可以通过向每个系统展示许多示例来识别两者。 随着时间的推移,这些系统将不断变得更加智能,而无需人工干预。

机器学习有许多不同的技术和方法。 这些方法之一是人工神经网络,其中一个例子是产品推荐。 电子商务公司通常使用人工神经网络展示用户更有可能购买的产品。 他们可以通过从所有用户的浏览体验中提取数据并利用这些信息提出有效的产品推荐来做到这一点。

今天,人工智能的其他一些常见应用是对象识别,翻译,语音识别和自然语言处理。 Rev的自动转录由自动语音识别(ASR)和自然语言处理(NLP)驱动。 ASR是将口语单词转换为文本,而NLP是对文本进行处理以得出其含义。 由于人类经常以口语,缩写和首字母缩写讲话,因此需要对自然语言进行大量的计算机分析才能产生准确的转录。

语音识别技术面临的挑战

语音识别技术面临的挑战众多,但范围正在缩小。 其中包括克服不良的录音设备,背景噪音,难以理解的口音和方言,以及人们各种声音的变化。

教机器学习人类读口语的能力尚未达到完美。 聆听和理解一个人说的话远不止是听到一个人说的话。 作为人类,我们还通过人的眼睛,面部表情,肢体语言以及语音中的语调和语调,解读话语的含义。 语音的另一个细微差别是人类倾向于缩短某些短语(例如“我不知道”变成“不知道”)。 这种人为的倾向对语音识别中的机器学习提出了另一个挑战。

机器正在学习“侦听”口音,情绪和曲率,但是还有很长的路要走。 随着技术变得越来越复杂,特定算法使用了更多数据,这些挑战正在迅速被克服。

随着人工智能的发展以及可以轻松挖掘用于机器学习目的的大量语音数据,如果它成为下一个主要交互界面也不足为奇了。

钛灵AIX是一款集计算机视觉与智能语音交互两大核心功能为一体的人工智能硬件,搭载 Intel 专业级 AI 加速运算芯片与多种传感技术,是全方位体验和学习新互联网、物联网、人工智能技术的"超级智慧大脑"。钛灵 AIX可以帮助越来越多AI爱好者、开发者,甚至在校学生群体,降低人工智能的学习与研发成本,加速AI应用的开发。

化繁为简,简单3步,只需5分钟,就能快速开发一个AI应用。钛灵AIX,让AI易用易开发。开源开放,get更多有趣新技能!

  • 发表于:
  • 原文链接https://kuaibao.qq.com/s/20191210A0C6ZK00?refer=cp_1026
  • 腾讯「云+社区」是腾讯内容开放平台帐号(企鹅号)传播渠道之一,根据《腾讯内容开放平台服务协议》转载发布内容。
  • 如有侵权,请联系 yunjia_community@tencent.com 删除。

扫码关注云+社区

领取腾讯云代金券