你知道吗?人类每听20个词,其实就有一两个成为“漏网之鱼”。而在一段五分钟的对话中,这一数字达到了80。但对于我们而言,少听一两个词并不会影响我们对语意的理解,然而想象一下,计算机如果要完成这件事有多难? 去年,IBM已经在语音识别领域走到了一个新的里程碑:系统的错误率降低为6.9%;而AI科技评论了解到,近日IBM Watson的语音识别系统将这个数字降到了5.5%。 清华大学的邓志东教授此前在采访中向AI科技评论表示,只有AI技术达到人类水平,它才有商业化的可能性。技术越来越接近人类水平也一直是人工
语音识别技术,也被称为自动语音识别Automatic Speech Recognition (ASR),其目标是将人类的语音中的词汇内容转换为计算机可读的输入,例如按键、二进制编码或者字符序列。与说话人识别及说话人确认不同,后者尝试识别或确认发出语音的说话人而非其中所包含的词汇内容。
选自IBM 作者:George Saon 机器之心编译 参与:吴攀、黄小天 去年十月,微软人工智能与研究部门的一个研究者和工程师团队报告他们的语音识别系统实现了和专业速录员相当甚至更低的词错率(WER)——达到了 5.9%,参考机器之心文章《重磅 | 微软语音识别实现历史性突破:语音转录达到专业速录员水平(附论文)》。但 IBM 官方博客今日发文宣称人类的水平实际上应该是 5.1%,而同时该文章还表示 IBM 的系统的词错率已经超越了之前微软报告的最佳水平,达到了 5.5%。IBM 宣称这是一个全新的突破,
本文介绍了语音识别技术中的端到端模型、基于CTC的序列模型、基于序列学习的注意力机制模型、基于3D卷积神经网络的语音识别系统等。其中,端到端模型可以直接从原始音频数据中学习到针对语音识别的抽象表示,具有较好的可扩展性和鲁棒性;而基于CTC的序列模型则通过连接主义学习的方法,将CTC定义的序列映射问题转化为神经网络中的参数优化问题,进一步提高了语音识别的准确率;基于序列学习的注意力机制模型则借鉴了语言学中的注意力机制,通过对输入序列进行加权处理,进一步提高了模型的识别准确率;基于3D卷积神经网络的语音识别系统则利用3D卷积核对输入序列进行卷积处理,提取出序列中的特征信息,进一步提高了模型的识别准确率。
“人工智能前沿讲习班”(AIDL)由中国人工智能学会主办,旨在短时间内集中学习某一领域的基础理论、最新进展和落地方向,并促进产、学、研相关从业人员的相互交流。对于硕士、博士、青年教师、企事业单位相关从业者、预期转行AI领域的爱好者均具有重要的意义。2018年AIDL活动正在筹备,敬请关注公众号获取最新消息。
对于想进入语音识别领域的学习者来说,了解语音识别系统的一些基本概念,会有助于更快的进入这个行业的交流平台,本文对语音识别系统的一些常见概念做了整理,希望能对刚开始接触语音学习的人有所帮助。
这次出手的,又是谷歌 AI 团队。刚刚,他们为旗下的一款手机输入法 Gboard (不要跟谷歌拼音输入法搞混了啊~)上线了新功能:离线语音识别。目前这一新功能,只能在其自家的产品 Pixel 系列手机上使用。
人工神经网络(Artificial Neural Network,简称ANN)是一种模仿生物神经网络的算法数学模型,用于进行信息处理和模式识别。
2014年,人工智能得到了前所未有的关注, Eron Musk和霍金的“人工智能恶魔论”在学术界和产业界引发了激烈争论;资本对这个方向也是趋之若鹜,截止到2004年,有超过20亿美元的风险投资流入到基
语音识别建模对语音识别来说是不可或缺的一部分,因为不同的建模技术通常意味着不同的识别性能,所以这是各个语音识别团队重点优化的方向。也正是因为如此,语音识别的模型也层出不穷,其中语言模型包括了N-gram、RNNLM等,在声学模型里面又涵盖了HMM、DNN、RNN等模型...
深度学习在语音识别领域取得的成绩是突破性的。2009年深度学习的概念被引入语音识别领域,并对该领域产生了巨大的影响。在短短几年时间内,深度学习的方法在TIMIT数据集上将基于传统的混合高斯模型(gaussian mixture model,GMM)的错误率从21.7%降低到了使用深度学习模型的17.9%。如此大的提高幅度很快引起了学术界和工业界的广泛关注。从2010年到2014年间,在语音识别领域的两大学术会议IEEE-ICASSP和Interspeech上,深度学习的文章呈现出逐年递增的趋势。在工业界,包括谷歌、苹果、微软、IBM、百度等在内的国内外大型IT公司提供的语音相关产品,比如谷歌的Google Now、苹果的Siri、微软的Xbox和Skype等,都是基于深度学习算法。
---- 新智元报道 来源:Facebook AI 编辑:LRS 【新智元导读】Facebook在语音识别上又出重磅新作,继wav2vec, wav2vec 2.0以来,又出完全不需要监督数据的wav2vec-U,小众语言也能用语音识别啦! 相比显示器、鼠标、键盘这些传统的人机交互方式以外,随着语音识别技术的逐渐成熟,和电子产品进行「对话」也逐渐成为一种稀松平常的人机交互。 无论是给计算机或其他设备下达指示,还是回答用户的问题,语音识别在各个方面让电子产品的使用变得更加容易,无需学习,想要干什么只
版权声明:本文为博主原创文章,遵循 CC 4.0 by-sa 版权协议,转载请附上原文出处链接和本声明。
几千年来,人们就已经有了思考如何构建智能机器的想法。从那时开始,人工智能 (AI) 经历了起起落落,这证明了它的成功以及还未实现的潜能。如今,随时都能听到应用机器学习算法来解决新问题的新闻。从癌症检测和预测到图像理解和总结以及自然语言处理,AI 正在增强人们的能力和改变我们的世界。
可靠、稳健、可泛化的语音识别是机器学习领域一个持续的挑战。通常,训练自然语言理解模型需要包含数千小时语音和数百万(甚至数十亿)单词文本的语料库,以及能够在合理时间内处理这些数据的强大硬件。
自1962年IBM推出第一台语音识别机器以来,语音识别科学已经走了很长一段路。这已经不是什么秘密了。
点击两下esc按键,恢复esc弹起状态 esc按键接触不良,不服气的按着esc看一看你能否拖动文件
导读:从市场披露的投资数据分析,在2011年到2015年的五年时间,人工智能领域的并购资金从2.82亿美元增长到2015年的23.88亿美元,而并购数量也从67起增长到397起。以谷歌、苹果、IBM、
【新智元导读】微软的语音识别技术又获得了新的突破:9月13日,微软语音与对话研究团队在arxive上发表论文,宣布在 作为行业标准的 Switchboard 基准上,微软的错误率做到了6.3%,比上周 IBM 公布的 6.6 % 有小幅提升。要实现微软 CEO 纳德拉提到的“对话即平台”AI战略,语音识别准确度的提升是不可或缺的。 昨天,微软研究院在让计算机理解语音上又获得了里程碑式的突破。 在作为行业标准的Switchboard 语音识别任务中,微软研究团队将词汇错误率(WER)降到了6.3%,打破了此前
本文将探索 AI 的一些重要方面和它的子领域。我们首先会分析 AI 的时间线,然后深入介绍每种要素。 几千年来,人们就已经有了思考如何构建智能机器的想法。从那时开始,人工智能 (AI) 经历了起起落落
【新智元导读】 微软语音识别研究团队在黄学东的带领下,去年将语音识别的单词错误率降至5.9%,又在最近降至5.1%。在本次专访中,我们讨论了语音识别错误率百分之几的小数点在研究和实际应用上的意义。黄学东认为,从研究角度来说,这个意义十分重大,即便是0.1%的差距,无论是运算量还是时间,耗费都是巨大的。 达到人类水平,超越人类水平,人工智能研究领域的突破性进展。 以上赞誉被给予了微软最近的语音识别研究成果:其语音识别研究团队在黄学东的带领下,去年将语音识别的单词错误率降至5.9%,又在最近降至5.1%。 从研
【新智元导读】国际知名市场研究公司Research and Markets 2016年5月4日发布报告《全球及中国语音产业报告,2015-2020》的修订版本。报告认为,随着语音在智能产业的应用不断加深,全球,以及中国的语音市场在接下来的5年当中仍将维持显著地增长,到2020年,全球语音市场规模预计将达到191.7亿美元。报告数据显示,尽管领头羊Nuance仍然占据着三成的市场份额,但是已经出现明显下滑趋势,其他科技巨头谷歌、微软、苹果和科大讯飞则获得了迅速的增长,全球市场份额分别为20.7%、13.4%、
译者 | 廉洁 编辑 | 明明 【AI科技大本营导读】亚马逊的 Alexa 的巨大成功已经证明:在不远的将来,实现一定程度上的语音支持将成为日常科技的基本要求。整合了语音识别的 Python 程序提供了其他技术无法比拟的交互性和可访问性。最重要的是,在 Python 程序中实现语音识别非常简单。阅读本指南,你就将会了解。你将学到: •语音识别的工作原理; •PyPI 支持哪些软件包; •如何安装和使用 SpeechRecognition 软件包——一个功能全面且易于使用的 Python 语音识别库。
译者 | 廉洁 编辑 | 明明 出品 | AI科技大本营(公众号ID:rgznai100) 【AI科技大本营导读】亚马逊的 Alexa 的巨大成功已经证明:在不远的将来,实现一定程度上的语音支持将成为日常科技的基本要求。整合了语音识别的 Python 程序提供了其他技术无法比拟的交互性和可访问性。最重要的是,在 Python 程序中实现语音识别非常简单。通过本指南,你将学到: 语音识别的工作原理; PyPI 支持哪些软件包; 如何安装和使用 SpeechRecognition 软件包——一个功能全面且易于
【导读】亚马逊的 Alexa 的巨大成功已经证明:在不远的将来,实现一定程度上的语音支持将成为日常科技的基本要求。整合了语音识别的 Python 程序提供了其他技术无法比拟的交互性和可访问性。最重要的是,在 Python 程序中实现语音识别非常简单。阅读本指南,你就将会了解。你将学到: •语音识别的工作原理; •PyPI 支持哪些软件包; •如何安装和使用 SpeechRecognition 软件包——一个功能全面且易于使用的 Python 语音识别库。 ▌语言识别工作原理概述 语音识别源于 20 世纪
语音是指人类通过发音系统,包括肺部、气管、喉部声门和声带、咽腔、口腔、鼻腔等,发出的在空气中传播的、具有一定意义的声音,是语言的声音形式,是人人交流中最主要的信息载体。另外,通过让机器能听会说,语音也成为人机交互的重要入口。
【导读】亚马逊的 Alexa 的巨大成功已经证明:在不远的将来,实现一定程度上的语音支持将成为日常科技的基本要求。整合了语音识别的 Python 程序提供了其他技术无法比拟的交互性和可访问性。最重要的是,在 Python 程序中实现语音识别非常简单。阅读本指南,你就将会了解。你将学到:
整合了语音识别的 Python 程序提供了其他技术无法比拟的交互性和可访问性。最重要的是,在 Python 程序中实现语音识别非常简单。阅读本指南,你就将会了解。你将学到:
整合了语音识别的 Python 程序提供了其他技术无法比拟的交互性和可访问性。最重要的是,在 Python 程序中实现语音识别非常简单。阅读本指南,你就将会了解。你将学到: •语音识别的工作原理; •PyPI 支持哪些软件包; •如何安装和使用 SpeechRecognition 软件包——一个功能全面且易于使用的 Python 语音识别库。 ▌语言识别工作原理概述 语音识别源于 20 世纪 50 年代早期在贝尔实验室所做的研究。早期语音识别系统仅能识别单个讲话者以及只有约十几个单词的词汇量。现代语音识
--AI科技大本营-- 整合了语音识别的 Python 程序提供了其他技术无法比拟的交互性和可访问性。最重要的是,在 Python 程序中实现语音识别非常简单。阅读本指南,你就将会了解。你将学到: •语音识别的工作原理; •PyPI 支持哪些软件包; •如何安装和使用 SpeechRecognition 软件包——一个功能全面且易于使用的 Python 语音识别库。 ▌语言识别工作原理概述 语音识别源于 20 世纪 50 年代早期在贝尔实验室所做的研究。早期语音识别系统仅能识别单个讲话者以及只有约十几个单
选自arXiv 机器之心编译 参与:晏奇、吴攀 语音识别是人工智能领域所研究的核心问题之一,研究者一直以来都在竞相努力以期能首先达到比肩人类的里程碑。去年十月,微软人工智能与研究部门的一个研究者和工程师团队报告他们的语音识别系统实现了和专业速录员相当甚至更低的词错率(WER)——达到了 5.9%。而前两天,IBM 官方博客却发文宣称人类的水平实际上应该是 5.1%,同时该文章还表示 IBM 的系统的词错率已经超越了之前微软报告的最佳水平,达到了 5.5%,实现了新突破。详见机器之心报道《IBM 宣称人类语音
雷锋网按:本文摘选自长城证券报告——互联网迎来AI 时代,海外科技巨头争先布局:人工智能深度报告(国外篇一),在未改变原意的基础上略有删减。 PC互联网时代的企业核心竞争力为软件产品的快速反应能力,移动互联网时代是构建移动端的生态系统,人工智能时代则更为依赖 AI 核心技术。 AI技术拥有两大要素: 核心技术平台 数据循环 只有将 AI 技术与数据结合,才可形成实用性的业务。本文主要侧重于介绍IBM、Google在基础层、技术层、应用层全面布局AI,并对其扩展应用场景等内容进行介绍。 IBM——Watso
AI科技评论按:本月 18 日,由美中技术与创新协会(Association of Technology and Innovation,ATI)主办的第一届“AI NEXT”大会在西雅图召开。本次会议的主要嘉宾包括:微软首席 AI 科学家邓力,微软院士黄学东,Uber 深度学习负责人 Luming Wang 等。华人之外,还有亚马逊 Alexa 首席科学家 Nikko Strom,微软小娜架构师 Savas Parastatidis 等业内知名专家。 大会主题是“探索 AI 的潜力,把 AI 技术应用于
AI 研习社按:本月 18 日,由美中技术与创新协会(Association of Technology and Innovation,ATI)主办的第一届“AI NEXT”大会在西雅图召开。本次会议的主要嘉宾包括:微软首席 AI 科学家邓力,微软院士黄学东,Uber 深度学习负责人 Luming Wang 等。华人之外,还有亚马逊 Alexa 首席科学家 Nikko Strom,微软小娜架构师 Savas Parastatidis 等业内知名专家。 大会主题是“探索 AI 的潜力,把 AI 技术应用于实用
最近打车,车里一位哥们在侃侃而谈:现在的互联网+,除了应用在了打车上,其他都是扯淡,没啥用。
语音识别技术,也被称为自动语音识别Automatic Speech Recognition,(ASR),其目标是将人类的语音中的词汇内容转换为计算机可读的输入,例如按键、二进制编码或者字符序列。与说话人识别及说话人确认不同,后者尝试识别或确认发出语音的说话人而非其中所包含的词汇内容。
读者也许注意到了,我们在前面的系列中多次提到了贾里尼克这个名字。事实上,现代语音识别和自然语言处理确实是和它的名字是紧密联系在一起的。我想在这回的系列里,介绍贾里尼克本人。在这里我不想列举他的贡献,而想讲一讲他作为一个普普通通的人的故事。这些事要么是我亲身经历的,要么是他亲口对我讲的。 弗莱德里克.贾里尼克(Fred Jelinek)出生于捷克一个富有的犹太家庭。他的父母原本打算送他去英国的公学(私立学校)读书。为了教他德语,还专门请的一位德国的家庭女教师,但是第二次世界大战完全打碎了他们的梦想。他们
蝙蝠使用生物声呐,为夜晚在丛林中飞行导航。他们的超声波脉冲,可以比人造声呐装置更精确地对声音进行定位。为复制、驾驭这种能力,IBM 学院奖获得者 Rolf Müller 教授协同他在弗吉尼亚理工学院(Virginia Tech)的团队,设计了一种人造蝙蝠耳。 Rolf Müller 的研究引起了 IBM 的注意。IBM 专家韩金萍(音译)的神经计算团队,和 IBM Watson 语音专家崔晓东(音译)和他的同事, 看到了 Müller 教授人造“动态外耳”(dynamic peripheral,蝙蝠可转
最近打车,车里一位哥们在侃侃而谈:现在的互联网+,除了打车,其他都是扯淡,没啥用。
最近打车,车里一位哥们在侃侃而谈:现在的互联网+,除了打车,其他都是扯淡,没啥用。 我相信现实生活中,这样忽视人工智能时代已悄然来临的人不是少数,而且还很多。 毕竟,从事数据行业的人连2%都不到,更别说真正理解数据的人了。 你也许会说,人工智能是那么高深的技术,我又不做相关的技术,了解那么多干什么。 其实,今天我们谈的不是什么复杂的人工智能高深技术,请注意文章前面的标题:时代。 是的,我们谈的是一个新时代下的个人选择问题。说的更本质一些,其实是在说,这样一个新时代(人工智能时代),人类的思维发生了怎样的改变?进而,我们思考这种思维改变会给个人未来的成长带来怎样巨大的改变和机会。 进一步,你最后会明白这几个问题的答案: 1)为什么中学老师在许多年之后总是感叹: 最终,真正有出息的,都是当年成绩一般般的... ... 2)从1984年洛杉矶奥运会开始,到尽头,国人关注奥运会已经32年了。当年的金牌得主们,除了李宁和郎平,剩下的谁记得呢? 3)为何以前起作用的死磕思维,在人工智能时代,不是最好的人生策略选择。而理解和解答所有的这些问题的前提是,你要真正明白什么才是人工智能时代的核心? 好了,废话不多说,我们先来看看在没有人工智能之前,人类的思维模式是怎样的? 1.单维度死磕思维 在这之前,计算机并不擅长于解决人类智能的问题,也就是我们现在所说的人工智能。 怎样才算人工智能呢? 真正科学定义这个概念的是电子计算机的奠基人 阿兰·图灵(Alan Turing)。
【导读】语音识别自半个世纪前诞生以来,一直处于不温不火的状态,直到 2009 年深度学习技术的长足发展才使得语音识别的精度大大提高,虽然还无法进行无限制领域、无限制人群的应用,但也在大多数场景中提供了一种便利高效的沟通方式。本篇文章将从技术和产业两个角度来回顾一下语音识别发展的历程和现状,并分析一些未来趋势,希望能帮助更多年轻技术人员了解语音行业,并能产生兴趣投身于这个行业。
如果把AI技术分为「前端的交互技术」和「后端的人工智能技术」。前端的交互技术包括语音识别、图像识别和自然语言处理;后端的人工智能技术就是人工智能的核心算法,包括深度学习算法、记忆预测模型算法等。
最近拼车,车里一位哥们在侃侃而谈:现在的互联网+,除了打车,其他都是扯淡,没啥用。
【新智元导读】微软人工智能首席科学家邓力18日在自动化学会与新智元携手举办的首届 AI WORLD 2016世界人工智能大会 发表主旨演讲《深度学习十年简史和人工智能未来展望》。邓力博士回顾了他与 Hinton 的合作及其产业影响,重点讲述语音识别如何随深度学习发展进入商用阶段,还介绍了微软近两年的人工智能进展,并对深度学习技术、应用和产业进行展望。演讲最后,邓力分享了他最新的思想和工作——将符号式逻辑推理和数值张量式神经网络结合到一起,有望解决深度学习黑箱问题,常识嵌入与充实问题,以及逻辑推理规则的自动
【新智元导读】微软人工智能首席科学家邓力18日在首届世界人工智能大会 AI WORLD 2016 发表主旨演讲《深度学习十年简史和人工智能未来展望》。邓力博士回顾了他与 Hinton 的合作及其产业影响,重点讲述语音识别如何随深度学习发展进入商用阶段,还介绍了微软近两年的人工智能进展,并对深度学习技术、应用和产业进行展望。演讲最后,邓力分享了他最新的思想和工作——将符号式逻辑推理和数值张量式神经网络结合到一起,有望解决深度学习黑箱问题、常识嵌入与充实问题,以及逻辑推理规则的自动学习问题。 邓力:感谢大家!
最近百度公布的数据显示,自1月25日春节假期以来,百度输入法日均语音请求量已破10亿次大关,再创行业历史新高。
笔者在前文《Azure AI 服务之文本翻译》中简单介绍了 Azure 认知服务中的文本翻译 API,通过这些简单的 REST API 调用就可以轻松地进行机器翻译。如果能在程序中简单的集成语音转文本
来源:CSDN、整理 | 王启隆 透过「历史上的今天」,从过去看未来,从现在亦可以改变未来。 今天是 2022 年 10 月 28 日,在 1838 年的今天,芬兰人弗雷德里克·伊德斯坦(Fredrik Idestam)出生,他在芬兰的“诺基亚河”沿岸创建了一家木材纸浆厂,取名诺基亚。诺基亚走过了一条漫长的发展道路,不断剥离非核心业务,并于 20 世纪 90 年代做出了以移动通信为核心业务的决定,成就了移动通信的一代传奇。科技历史上的 10 月 28 日还诞生了许多关键事件,让我们看看这些事件是如何改变了世
8月23日,IBM研究实验室在《自然》期刊杂志上公布了其最新研究成果,研发出了一种全新的人工智能(AI)模拟芯片,能效可达传统数字计算机芯片的14倍,可大幅降低AI计算的功耗。
“重复唤醒,答非所问,这不是人工智能,是‘人工智障智障’。”这是大部分智能网联汽车用户对语音交互的抱怨。
领取专属 10元无门槛券
手把手带您无忧上云