腾讯云
开发者社区
文档
建议反馈
控制台
首页
学习
活动
专区
工具
TVP
最新优惠活动
文章/答案/技术大牛
搜索
搜索
关闭
发布
登录/注册
精选内容/技术社群/优惠产品,
尽在小程序
立即前往
文章
问答
视频
沙龙
1
回答
如何建立结合语言模型的Tensorflow语音识别系统
、
、
、
如何在tensorflow语音识别体系结构中集成语言模型? 在Tensorflow (例如、)中构建字符级语音识别的例子有很多,这很有趣,但实际上是无用的,除非集成了一个语言模型。我找不到一个使用语言模型的例子。 如何集成语言模型?
浏览 2
提问于2017-04-12
得票数 0
回答已采纳
1
回答
使用TensorFlow将语音转换为文本
、
、
我是TensorFlow的新手,我正在寻找一个语音到文本识别项目的帮助。有没有示例展示如何使用TensorFlow将语音转换为文本?我听说它在谷歌内部被用来提高25%的准确率
浏览 4
提问于2015-11-14
得票数 11
1
回答
Tensorflow/Deep Learning能否用于梯度增强树、Logistic回归?
、
、
Tensorflow和深度学习主要用于图像处理(分类、识别)、NLP、语音和文本处理。我以前用过Spark MLLIB和Mahout吗?Tensorflow有深度神经网络的例子-- 。逻辑回归、梯度提升树等可以在Tensorflow或DL框架中建模吗?
浏览 8
提问于2017-08-04
得票数 0
1
回答
Nativescript音频和视频通道
、
、
、
我刚接触nativescript,我想知道是否有任何插件可以像我们在浏览器上使用navigator.getmedia那样流式传输音频和视频数据。 我正在尝试使用tensorflow实现语音安全(而不是识别)和面部识别
浏览 45
提问于2019-03-11
得票数 0
1
回答
在Android上使用Tensorflow实现离线连续语音识别器最有效的方法是什么?
、
、
我正在寻找一种方法来实现一个在Android上运行的离线连续语音识别器,最好使用Tensorflow引擎。 该应用程序需要能够识别连续语音流中预定义单词集中的任何单词,并且假设Android设备可能位于不支持互联网连接的区域,因此谷歌服务等是不可能的。 是否有任何RNN或CNN模型可以实现这一点?
浏览 1
提问于2019-09-22
得票数 0
1
回答
如何在带有自定义模型的安卓系统中使用TensorFlow lite进行音频识别
、
、
、
我有一个TensorFlow lite安卓的例子,我想实现我的自定义训练模型的音频识别。我已经训练了使用自定义使用教程的模型。我想将该模型实现到TensorFlow lite安卓项目中,但它给出了以下错误: Process: org.tensorflow.lite.examples.speech, PID: 22892 java.lang.IllegalArgumentException: Invalid input Tensor index: 1 at org.tensorflow.lite.NativeInterpreterWrapper.getInputTenso
浏览 0
提问于2020-06-06
得票数 0
1
回答
如何从reactjs中语音命令模型的结果中识别标签?
、
、
我使用tensorflow模型/语音命令模型来使用ReactJs应用程序检测语音命令,我能够在app中初始化识别器并获得结果,但不确定如何根据模型的结果识别标签。 componentDidMount () { fetch("http://localhost:3001/ITEMS").then(resp => resp.json()) .then(result => this.setState({ products: result },() => { this.call() })); }
浏览 2
提问于2020-05-25
得票数 1
回答已采纳
1
回答
无论如何,当自定义损失函数的导数是由我自己计算时,支持导数。
我已经用tensorflow训练了一段时间用于语音识别的深度NN声学模型。我所用的损失函数是交叉熵,神经网络模型对此有很好的影响。现在,我想将损失函数转换为一个更复杂的函数,称为最大互信息( MMI ),这也是语音识别领域中的一个经典准则。我在这里放了一个,它描述了这个损失函数,以防你有兴趣。 当使用这个特殊的损失函数时,损失函数w.r.t的导数。输出层的激活可以用隐马尔可夫模型场景中定义的一些特殊算法来计算。这意味着我可以计算损失函数w.r.t的导数。输出层的激活不是只写掉损失函数,而是让Tensorflow自动计算导数。 但根据我糟糕的经验,我不知道如何支持我自己计算出来的衍生产品。有没有
浏览 1
提问于2017-09-06
得票数 0
回答已采纳
1
回答
如何在python中使用经过训练的Tensorflow Lite模型?
、
、
、
、
我有一个Tensorflow Lite模型(.tflite文件),它已经被训练过了。 我需要在API视图中使用它,该视图接收录制的.wav文件以进行语音识别,并将等效文本返回到所发送的记录文件中。 关于我如何使用训练过的模型来处理记录的指令,你有什么建议吗? 谢谢。
浏览 2
提问于2020-12-21
得票数 0
5
回答
将tfrecord文件分割成碎片有什么好处?
、
我正在使用Tensorflow进行语音识别,并计划用大量的波浪数据集来训练LSTM神经网络。由于性能的提高,我计划使用tfrecords。在互联网上有几个例子。将tfrecords文件拆分为碎片的地方。我的问题是:将of记录文件放入碎片有什么好处?这种分割是否有任何额外的性能增益?
浏览 0
提问于2017-01-14
得票数 28
1
回答
Keras CTC损失输入
、
我正在尝试使用CTC进行语音识别,使用keras,并尝试了CTC示例。在该示例中,CTC Lambda层的输入是softmax层(y_pred)的输出。Lambda层调用内部调用Tensorflow的ctc_loss的ctc_batch_cost,但是说ctc_loss函数在内部执行softmax,所以您不需要首先使用softmax。我认为正确的用法是将inner传递给Lambda层,所以您只在ctc_loss函数内部应用一次softmax。我已经试过这个例子了,效果很好。我应该学习这个例子还是Tensorflow文档?
浏览 2
提问于2017-04-18
得票数 10
回答已采纳
2
回答
当将.model转换为tflite文件时,‘'str’对象没有属性‘调用’
、
、
、
、
我一直在遵循本教程,在我的ESP32:上对几个单词执行语音命令识别。 我能够训练我的模型并拥有"fully_trained.model“文件: 目前,我正在尝试将.model文件转换为tflite文件,但是我得到了"'str‘没有属性’调用‘“错误:、、 我的tensorflow版本为2.6.2,python版本为3.10。 不幸的是,我还没有10个声誉点,所以我不能嵌入图像。
浏览 18
提问于2022-03-09
得票数 -2
1
回答
加载.pbmm和.scorer文件(Mozilla DeepSpeech)
、
、
、
我正在尝试加载Mozilla文档中提供的.pbmm和.scorer模型。 Tensorflow的load_model()函数不支持此文件类型,并引发此错误: OSError: Unable to open file (file signature not found). 最后,为了特定的研究目的,我希望得到深层模型的隐层响应。如果有人能告诉我如何加载这个模型,或者建议其他语音识别模型来帮助解决这个得到隐藏层响应的目的,那就太好了。提前谢谢。
浏览 28
提问于2022-08-12
得票数 0
1
回答
TensorFlow音频/语音识别是否适用于多词触发关键字?
、
、
相关链接: 我应该如何修改我的TensorFlow“简单音频识别”训练环境(输入样本数量、触发关键字的选择、训练参数等)要在正常对话中获得唯一触发关键字(多字或单字)的可靠识别? 最初的TensorFlow“简单音频识别”有10个单触发关键字,每个关键字的持续时间为1秒。为了避免单个触发关键字在正常对话中被检测到并导致误报,我记录了400次(100次4个不同的人)以下两个多字触发关键字,每个持续时间为1.5秒:播放音乐,停止音乐。在遵循完全相同的训练步骤并补偿代码中新的1.5秒持续时间后,当正确发音时,我获得了这两个多字触发关键字的100%识别;然而,进一步的测试也表明,在正常语音期间,当这些
浏览 1
提问于2019-01-14
得票数 3
1
回答
在seq2seq任务中,如何将卷积层与最小lstm层连接起来?
、
、
、
seq2seq的任务是从视频数据中识别句子(也称为目视语音识别/唇读)。 该模型由卷积层和lstm层组成。然而,卷积层的输出是[batch_size, height, width, channel_size];型的,而最小层的输入必须是[batch_size, n_steps, dimension].型的。 工作流程类似于: 首先,将数据组织为batch_size、n_steps、高度、宽度、channel_size。 然后,我将其重塑为[batch_size*n_steps, height, width, channel_size],并将其提供给conv层。 conv层的输出为
浏览 2
提问于2019-08-07
得票数 0
1
回答
语音识别-如何将句子拆分成单词?
、
、
、
我是语音识别的新手,我正在寻找一种方法,以音频/wav文件的形式将一个句子(或多个句子)拆分为单个单词?这听起来像是一个标准问题,所以我想知道业内人士是如何处理它的。 ps:是的,这个问题是三年前提出的,但我正在寻找一个使用更新的库(即pytorch和tensorflow 2.0)的最新答案。谢谢!
浏览 40
提问于2019-10-02
得票数 0
回答已采纳
2
回答
用于登录web应用程序的语音识别
、
、
我正在创建一个web应用程序,用户应该通过语音识别作为密码注册该应用程序。应识别语音以进行授权。有没有办法通过Java语言实现语音识别? PS:如果用户提供语音,那么语音应该能够识别已经存储的语音,并能够登录应用程序。
浏览 2
提问于2014-12-26
得票数 2
3
回答
我如何在Ubuntu上使用Android使用的语音识别?
、
如果我正在开发一个使用TTS和语音识别的Android应用程序,那么在Ubuntu上哪个库用于相同的语音识别和语音呢? 我假设是从文本到语音,但我不确定哪个语音识别库和字典/学习/校准系统用于语音识别。 我想在Ubuntu桌面上提供这个应用程序。 以及在仿真器外测试它。
浏览 0
提问于2012-09-19
得票数 16
回答已采纳
1
回答
IOError:[Errno 21]是一个目录:'/tmp/speech_dataset/‘
、
、
、
我正在遵循来自TensorFlow (链接:)的语音识别教程,并且当我运行以下命令时,它可以完美地运行,该命令下载TensorFlow提供的数据集。 python tensorflow/examples/speech_commands/train.py 但是,当我更改默认值,使其指向我的数据集时,它抛出以下错误: Traceback (most recent call last): File "/home/users2/lmn/.local/lib/python2.7/site-packages/tensorflow/examples/speech_commands/train.p
浏览 3
提问于2018-05-06
得票数 1
2
回答
如何在tts说话时停止语音识别?
、
、
、
我正在制作一个同时使用语音识别和tts的应用程序。在我的应用程序中,我继续进行语音识别,问题是当我使用tts时,语音识别将监听应用程序的内容。如何在tts发言期间停止语音识别,然后在tts结束后启动语音识别?我能用另一种方式解决这个问题吗?
浏览 3
提问于2014-03-09
得票数 0
回答已采纳
1
回答
使用System.Speech.Recognition打开Windows语音识别
、
、
我试着用C#实现了一些简单的语音识别WinForms程序,就像Michael Levy回答中描述的那样: 我的问题是,每当我运行Windows语音识别程序时,它都会打开,并且还会根据我所说的做一些事情。此外,当程序启动时,我必须说“开始听”,语音识别才能工作。 我的问题是:如果不让Windows语音识别也按照我说的做,我如何使用语音识别?我根本不需要Windows语音识别UI打开,我需要能够使用识别,而不必说“开始听”之前。 感谢您的回答
浏览 7
提问于2011-07-09
得票数 2
回答已采纳
1
回答
Android语音识别与文本到语音的冲突
、
、
我已经基于这里给出的方法在我的应用程序中实现了连续语音识别:。它本身运行得相当好。 但是,我想实现一个功能,即应用程序正在使用文本到语音的方式阅读网页,并且在阅读过程中,我希望打开语音识别,以便我可以要求它停止使用语音。然而,我看到语音识别也开始识别文本到语音的输出。有没有办法让它忽略从电话里传出的声音,只识别我在麦克风里说的话。
浏览 20
提问于2016-09-22
得票数 0
回答已采纳
2
回答
基于语音(噪声)强度级别的语音识别?
、
我想建立一个android应用程序,它将识别我的声音,将其转换为文本,并将显示我刚才说的吐司。我能够做到这一点,使用按钮,将启动语音识别器为我。但现在我只想让它基于我的声音工作。 应用程序应该触发语音识别器,只有当我开始说话时才开始收听,当它检测到静默时应该停止收听。就像会说话的应用程序的功能一样。在那里它记录了语音,但我想使用语音识别器来识别它。像这样的东西: if(no silense) Launch Recognizer else if(silence) Stop Recognizer Show toast 主要的问题是,在启动语音识别器之前,我如何感知用户是否在说话。有没有
浏览 6
提问于2012-06-13
得票数 1
回答已采纳
1
回答
语音识别支持哪些语言?
、
语音识别支持哪些语言呢?文档没有写,只提到“实时流式语音识别适用于对识别时效要求严格的场景。目前支持的语言包括中文和英文。”但不确定离线或者在线的语音识别支持哪些语种。 请在语音识别的《产品简介》中注明,谢谢! [附加信息]
浏览 343
提问于2018-04-02
4
回答
语音识别引擎未触发Windows服务中的事件
、
、
因此,我有一个使用system.speech识别引擎实现的带有语音识别的windows服务。当我启动服务时,我的语音识别代码运行得很好,但是没有任何语音识别事件触发。奇怪的是,如果我运行完全相同的代码,但在控制台或WPF应用程序中,触发语音识别的事件工作得很好。 我已经将一个调试器附加到我的服务进程中,以检查幕后发生了什么。似乎语音识别引擎正确地加载语法,将其模式设置为连续收听,并正确地设置语音识别事件。没有抛出异常,所以我不太确定这里出了什么问题。有什么想法吗?
浏览 0
提问于2012-04-30
得票数 8
回答已采纳
1
回答
Android:语音识别
、
可能是重复的,但我没有找到以下问题的答案。 在过去的两天里,我一直在做一些关于语音识别的研究,但是我的问题没有得到答案: 作为一项服务,可以运行语音识别吗?我想实现这样的东西:我需要打一个号码,虽然我的电话通过语音识别是在睡眠模式。 当我在火车、公共汽车等的时候,语音识别能正确地检测出单词吗? 除了语音识别之外,是否有任何传感器来检测声音? 要使语音识别正常工作,用户是否需要靠近电话说话?
浏览 4
提问于2012-12-24
得票数 6
回答已采纳
2
回答
Google语音API与Web语音API的区别
、
我正在研究网络语音识别。 我发现Google为开发者提供了一个名为“V2”的API。但是我注意到每天使用它是有限度的。 之后,我发现有一个本地的WEB语音API也可以实现语音识别。它只是在google chrome和opera上工作: 那么,Google语音API和Web语音API有什么不同呢?他们有关系吗? 语音识别结果json是从谷歌回来的。谷歌语音api会比网络语音api更精确吗? 谢谢。
浏览 2
提问于2015-09-11
得票数 17
回答已采纳
1
回答
android中的语音识别是如何工作的?
、
我想知道android中的语音识别是如何工作的?它使用哪个库进行语音识别?它是自己在设备/移动设备上执行语音识别过程,还是将所有语音发送到google服务器并接收文本作为响应? 谢谢,桑尼。
浏览 2
提问于2009-09-04
得票数 10
回答已采纳
1
回答
将语音设置为密码的Windows工具
、
、
、
、
我正在寻找一个程序来验证我的Windows操作系统基于我的声音和我说的话。 需求: 文本密码应改为语音密码。 识别语音调制和验证用户 应进行密码的离线验证。 操作系统: Windows平台。 共享软件将被接受,但免费软件更好。 附加信息: 下面的软件供应商已经试过了,但遗憾的是,它们不适合离线使用,而且都是基于企业解决方案的,除此之外,它是语音识别而不是语音识别: (对于那些对语音和语音识别之间的区别感到困惑的人,你可以使用在这里读到它。) 烈火 阿莫沃克斯 生物验证 Csid KYC安全 Lexis Nexis风险 米斯特拉尔(开放源码) 细微差别 安全复位 (使用Voxeo) 感官说话 S
浏览 0
提问于2014-07-25
得票数 11
1
回答
西班牙语的语音(语音)识别
、
我在android的语音识别API上工作。 我是语音识别Api的新手,我的要求是作为西班牙语的语音,并从Android的语音识别API在西班牙语中获得最佳匹配文本。所以,求求你!如果你对此有任何解决方案,请让我知道。提前谢谢。
浏览 7
提问于2014-03-03
得票数 2
1
回答
使用google语音识别时忽略背景音乐
、
我正试着制作一个闹钟Android应用程序,可以用语音识别来阻止它。为此,我使用谷歌语音识别API (+ 不断进行语音识别)。 它很好,直到我同时演奏音乐。在这种情况下,语音识别的效率要低得多。 这个问题是合乎逻辑的,因为音乐增加了一些噪音,使识别更加困难。但由于播放的音乐是已知的,我想知道是否可以告诉谷歌试图忽略这些额外的噪音。我知道在信号处理中存在一些滤波器来实现这一点(比如或)。 因此,我的问题是:是否有可能应用带有谷歌语音识别的过滤器来忽略已知的噪声?,还是有其他语音识别库允许这样做? 编辑:这不是重复,因为问题是不一样的。但是很有趣的建议。
浏览 0
提问于2018-01-27
得票数 4
1
回答
使用语音/语音识别在我的应用程序中执行指令
、
、
、
、
你好,我想要一些知识,使用语音/语音识别,以执行指示在我的游戏。 我对游戏开发相当陌生,我正在使用libgdx来构建我的游戏。我知道语音识别api的存在。我想知道它们是如何工作的,就像我如何将它们集成到我的游戏中一样。我希望用户能够说跳转和(玩家)跳,我想使用的语音命令是非常基本的,例如射击和球员应该发射子弹。 如果有人似乎对语音/语音识别api有一些了解,我想知道是否有一种简单的方法,我可以设置语音识别api,在听到诸如“跳转”这样的特定关键字时,我将使用该api执行特定的操作。 任何答案都会有帮助,因为我的知识非常有限,使用api和语音识别。
浏览 7
提问于2014-06-19
得票数 0
回答已采纳
1
回答
SpeechRecognition接口:如何获取语音特征(MEL系数)
、
、
、
我打算为Android实现一个说话人验证应用程序,我想知道是否有办法从Android的语音识别模块中获取语音特征(MEL系数)? 请注意,说话人验证与语音识别略有不同,这就是我不直接使用语音识别的原因。
浏览 0
提问于2014-04-10
得票数 0
2
回答
在语音识别过程中获得替代建议
、
、
我想用离线语音来识别文本,主要是德语。 特别是,我想使用 (百度的DeepSpeech架构的TensorFlow实现),但我担心音频输入的音频质量不足以产生低错误率()。 (英文)例子: 发言人说“知道”,但引擎可能已经理解"flow"或显示“或"go"或”know“<code>E 211</code>。 我想把[flow, show, go, know]从引擎中拿回来,这样之后我可以手动决定哪种建议最适合。我怎么能拿到这个? 其他对文本引擎的演讲提供了这种可能性吗?
浏览 4
提问于2020-01-26
得票数 1
回答已采纳
1
回答
什么时候限制iOS中的语音识别,即requestAuthorization返回requestAuthorization
、
、
我正在制作一个应用程序,它将使用语音识别,并想知道我的应用程序多久会遇到这种情况 我知道这与限制语音识别的设备有关,而不是用户,但具体是什么时候??是由于某些特定的模型不支持语音识别,还是iOS版本特定,还是有一些设置可以限制应用程序使用语音识别?
浏览 0
提问于2019-08-23
得票数 1
回答已采纳
1
回答
同时实现语音识别和信号可视化
、
、
、
我正在使用Kinect + Microsoft.Speech进行语音识别。 要获得输入音频流,必须执行以下操作 Stream kinectAudioStream = myKinect.AudioSource.Start(); 并开始语音识别 speechRecognitionEngine.SetInputToAudioStream(kinectAudioStream, new SpeechAudioFormatInfo(...)); speechRecognitionEngine.RecognizeAsync(RecognizeMode.Multiple); 我的目标是实时可视化输入信号(
浏览 0
提问于2013-07-17
得票数 1
1
回答
在Python语言中使用win32com.client text to speech/语音识别
、
、
因此,我有文本到语音的部分,例如: from win32com.client import constants import win32com.client import pythoncom speaker = win32com.client.Dispatch("SAPI.SpVoice") speaker.Speak("message") 但我不知道如何使用上面的系统进行语音识别(如果它甚至有语音识别功能的话)。更具体地说,是文本系统的口头替代 variable = string(input("Question")). 我需要使用它来制作一个系
浏览 3
提问于2012-08-20
得票数 0
回答已采纳
1
回答
无预定义语法的C#语音识别
、
、
、
、
我正在尝试将语音识别与C#应用程序结合使用,但通过这种方式,我只能预测输出的短语: sList.Add(new string[] { "hello", "test", "works", "exit"}); 我是否可以像谷歌语音识别API一样获得输出,识别语音,而不是现有的单词,并在输出时给我,或者如果我可以使用谷歌语音识别与C#将是很好的,看看一些例子如何?
浏览 17
提问于2016-08-18
得票数 0
回答已采纳
2
回答
语音识别和语音合成入门
、
、
我想开始学习中的语音识别和语音合成有人告诉我使用微软语音服务器(sdk等等) 有了这些,我该如何编写应用程序,以及使用哪种编程语言(开发环境?)? 有人使用过asterisk或SVOX吗? 我需要做的是: 语音识别语音合成 我不一定要成为一个很好的语音识别专家--我认为30 -50个单词对于一开始就足够了。我正在使用windows。 提前感谢
浏览 16
提问于2010-10-07
得票数 0
回答已采纳
1
回答
我应该使用什么Wav格式来记录音频和识别其中的语音?
我正在创建一个windows服务,它将连接到音频输入设备,并使用NAudio WaveIn记录音频。这就是流动: 使用VOSK语音识别的第一级语音检测,并将录制的音频添加到内存流中。如果识别了语音,则将内存流保存到wav文件中。第二级语音识别使用Microsoft认知语音服务从wav文件中读取。 我的问题是,在保存wav文件时,我应该使用什么样的波形格式来临时提高认知语音服务的语音识别精度。 _waveIn.WaveFormat =新WaveFormat(8000,16,1); 或 _waveIn.WaveFormat =新WaveFormat(16000,16,1); 任何帮助都将不胜感激。
浏览 15
提问于2022-02-16
得票数 0
0
回答
腾讯云移动直播SDK和语音识别SDK同时配合使用出现异常如何解决求解答?
、
、
、
公司产品应用场景,在使用移动直播sdk开启推流的同时,配合语音识别同步启动实时语音内容翻译。关闭直播后,实时上传当次直播的文字版本内容。目前出现问题为,当开启语音直播同时开启语音识别后,语音识别可以正常识别,但是直播推流无法进行,麦克风权限问题,两个功能都使用了麦克风,有什么办法解决这个问题?求解答(如果单个功能单独使用都是没问题的,搭配一起就不行了)
浏览 228
提问于2020-05-09
1
回答
用于iOS词汇表外训练集的google Speech API
、
、
我正在从事一个项目,其中使用谷歌语音API在iOS项目。该项目涉及语音输入,以识别许多术语,这些术语基本上是行话。Google speech API无法很好地识别这些行话的语音输入。 有没有办法训练谷歌语音应用程序接口来学习这些术语,并在移动iOS应用程序中提供语音输入时轻松识别它们?
浏览 0
提问于2018-06-12
得票数 0
2
回答
用Python实现Raspberry Pi异步/连续语音识别
、
、
、
我想为Python中的Raspberry Pi创建一个语音识别脚本,并且需要一个异步/连续的语音识别库。异步意味着我需要无休止地运行识别,直到语音匹配到一组单词,而不需要从键盘输入,然后将语音显示到终端并重新启动识别。我已经看过PocketSphinx了,但在谷歌搜索了几个小时之后,我没有发现任何关于异步识别的信息。 你知道有谁能做到这一点吗?
浏览 5
提问于2015-03-07
得票数 2
回答已采纳
3
回答
全封闭语音识别器
、
我需要使用语音识别文件浏览,使用命令“显示数字”。当我打开文件夹浏览器对话框时,我希望语音识别器启动;当浏览器对话框窗口关闭时,我希望语音识别器关闭。如何在代码隐藏中使用完全关闭语音识别器? 编辑:我为我的问题找到了“丑陋”的解决方案:杀死sapisvr.exe
浏览 6
提问于2012-02-18
得票数 0
2
回答
我可以让语音识别器无限期地监听吗?
当我调用SpeechRecognizer对象的startListening方法时,语音识别器开始侦听语音。我想创建一个等待特定关键字的语音的服务:当用户说出该关键字并且语音识别器检测到该关键字时,该服务将准备好接收用户的语音命令。 为此,在实例化一个新的SpeechRecognizer之后,我应该调用它的startListening方法:我可以让语音识别器无限期地侦听吗?
浏览 2
提问于2012-04-17
得票数 22
回答已采纳
1
回答
防火墙后的Android语音识别
、
、
由于某种原因,我不得不使用安卓语音识别背后的firewall.It造成的语音识别连接问题。但我不想使用脱机模式。是否有用于语音识别的域的列表?
浏览 3
提问于2016-10-21
得票数 0
1
回答
Android :语音识别服务
、
、
、
可能是重复的,但我在下面的问题中没有找到答案。 是否可以将语音识别作为一项服务运行?我想实现这样的东西:我需要呼叫一个号码,尽管我的电话通过语音识别处于睡眠模式。除了语音识别之外,还有什么传感器可以检测到语音吗?
浏览 5
提问于2013-04-09
得票数 1
回答已采纳
1
回答
谷歌的网络语音API和一个非Web应用程序能结合起来吗?
、
、
我试图在Python中编写一个简单的"Siri“类程序,它将在关键字被说出来后接受语音命令,并执行一些响应。 我想知道我是否可以使用谷歌的网络语音Javascript API来实现这个功能。 我读到语音识别有60秒的限制,所以我计划使用PocketSphinx进行关键字检测,并让javascript Google语音响应它来处理语音识别的其余部分。 由于我在Web开发和Javascript方面有0的经验,所以我想知道是否可以在非浏览器环境中使用Web语音API。也就是说,我希望能够只在客户端上运行代码,以响应被调用的Python方法进行语音识别,并接收语音识别的输出。 据我所知,这意味
浏览 7
提问于2014-06-02
得票数 2
回答已采纳
0
回答
语音识别报错code=-301, message=server connect failed?
、
语音识别android targetSdkVersion由23升级到25版本后,语音识别报错。报错信息均为code=-301, message=server connect failed 语音识别相关升级还有okhttp 由3.9.1升级到3.10.0
浏览 242
提问于2019-03-20
1
回答
VB.NET: System.Speech给了System.PlatformNotSupportedException
、
、
我正试图在VB.NET上进行语音识别。 代码中没有错误,但是当我测试我的程序时,我得到: 'System.PlatformNotSupportedException‘类型的未处理异常发生在System.Speech.dll中 附加信息:没有安装识别器。 我在荷兰的设备上。这有关系吗?如果有关系,我能把语音识别设置为英语吗? 运行Windows 8 Pro。 进入我的控制面板/语音识别告诉我,你的屏幕语言不支持语音识别。
浏览 0
提问于2013-02-28
得票数 0
扫码
添加站长 进交流群
领取专属
10元无门槛券
手把手带您无忧上云
相关
资讯
TensorFlow实现识别手写数字识别
TensorFlow验证码识别
用TensorFlow进行手写数字识别
如何语音识别翻译?语音识别翻译软件哪个好?
基于 TensorFlow 的图像识别
热门
标签
更多标签
云服务器
ICP备案
实时音视频
即时通信 IM
对象存储
活动推荐
运营活动
广告
关闭
领券