我正在制作一个助手,使用gTTS和谷歌语音,但这个错误出现。这对于语音识别来说是很好的,因为它可以毫无错误地识别。我测试了打印功能,但是当我想要文本到语音转换时,这个bug就来了。..。
import speech_recognition as sr
from time import ctime
import time
import playsound
import os
import random
from gtts import gTTS
import webbrowser
r = sr.Recognizer()
def record_audio(ask=False):
wi
我希望在没有- curl或ibm_watson模块的情况下使用IBM语音识别服务。
我的尝试如下:
import speech_recognition as sr
r = sr.Recognizer()
text = r.recognize_ibm(audio,username='',password='')
即使我有IBM云语音文本的“服务凭据”,我也找不到该函数的正确形式。
在recognize_ibm()的文档中,有人说我需要输入才能找到格式的username。
但是link_1坏了。在哪里可以找到username和password?
我还尝试了text
可能重复:
我有一个程序,它使用麦克风设备进行语音识别。下面是程序的一个简短片段。
然而,我打算做的是不使用微果蝇装置,我打算将一个声音文件传递给这个语音识别引擎,在trun中,这个引擎应该识别来自aduio文件的文本,并重新调整结果。
SpeechRecognitionEngine speechRecognitionEngine = new SpeechRecognitionEngine();
List<Word> words = new List<Word>();
public TestSpeech()
{
他们看到的关于Watson speech to text服务器的最新问题是,不能在单个实例中运行持续时间大于10分钟的音频文件,其次,当语音到文本服务器正在运行小于10分钟的文件时,与Watson服务器的TCP连接断开。
他们基本上是在python中的Watson服务器上使用web套接字,并想了解对于持续时间较长的音频文件(例如,我们的会议持续到3个小时),运行语音转文本的最佳方式是什么。配置通过web套接字丢失连接的瓶颈的最佳方式是什么?
我在Unity程序中使用IBM Watson Speech- to -Text来识别语音。在识别语音的onRecognize()方法中,我放置了一个if语句,如果该语句识别出关键字"go“,则该语句将调用一个方法。尽管当"go“这个词被识别出来时,该方法会被调用两到三次,而不是像它应该调用的那样调用一次,这会导致程序不能以它应该的方式工作。 我想不出任何解决方案,因为我不能做太多来改变代码。 //All of this is inside of the onRecognize() method
string text = string.Format("{0} ({1}
我尝试使用Watson Speech to Text服务实现语音识别。我用"MediaStreamRecorder“库用javascript写了一些代码。我通过Websocket发送数据,得到这个问题:如果我使用"content-type":“音频/wav”,Watson只识别第一个blob,并将inactivity_timeout设置为默认值,而我将其设置为2秒。
我使用以下代码打开websocket:
initWebSocket(startRecordingCallback) {
var that = this;
that.websocket = n
我有Watson 2.7.0 speech-to-text,Assistant,text-to-speech服务
我的工作区包含提供一般语音响应的一般意图;以及在Unity中执行动作的“action”意图。
我在自己的脚本中复制了Watson Cardboard vr示例中的代码,但发现我无法访问意图。它一直给我下面的错误。我的脚本在没有“action”意图部分的情况下工作得很好。我遗漏了什么?
Type `IBM.Watson.DeveloperCloud.Services.Assistant.v1.MessageResponse' does not contain a defini