我希望在没有- curl或ibm_watson模块的情况下使用IBM语音识别服务。
我的尝试如下:
import speech_recognition as sr
r = sr.Recognizer()
text = r.recognize_ibm(audio,username='',password='')
即使我有IBM云语音文本的“服务凭据”,我也找不到该函数的正确形式。
在recognize_ibm()的文档中,有人说我需要输入才能找到格式的username。
但是link_1坏了。在哪里可以找到username和password?
我还尝试了text
IBM的表示,下面的节点后端代码使您能够使用Use the API key to have the SDK manage the lifecycle of the token. The SDK requests an access token, ensures that the access token is valid, and refreshes it if necessary.
const SpeechToTextV1 = require('ibm-watson/speech-to-text/v1');
const { IamAuthenticator } = requi
我试图在我的聊天机器人中集成语音到文本服务,但收到标题中提到的错误。我只是使用了文档中描述的服务。他们将授权方法从用户名+密码更改为api密钥,对吗?这是我得到的错误: Feb 26, 2019 11:18:38 AM okhttp3.internal.platform.Platform log
INFO: --> POST https://stream.watsonplatform.net/speech-to-text/api/v1/recognize http/1.1 (-1-byte body)
Feb 26, 2019 11:18:40 AM okhttp3.internal.
我正在尝试使用IBM的Android语音到文本库。我注意到有一个类似的问题,,但没有给出答案。我已经集成了所有内容,但是当尝试启动识别服务时,它会得到以下错误:
java.lang.UnsatisfiedLinkError: Native library (com/sun/jna/android-aarch64/libjnidispatch.so) not found in resource path (.)
我做了一个可以通过语音控制的游戏。为了将所有的语音命令转换为文本,我使用了IBM Cloud Speech To text服务。一切都完成了,除了它显示了错误的长度错误,正如您在图像中看到的那样。
这是语音转文本的代码:
###############################################
#### Initalize queue to store the recordings ##
###############################################
CHUNK = 1024
# Note: It will discard if th
我有Watson 2.7.0 speech-to-text,Assistant,text-to-speech服务
我的工作区包含提供一般语音响应的一般意图;以及在Unity中执行动作的“action”意图。
我在自己的脚本中复制了Watson Cardboard vr示例中的代码,但发现我无法访问意图。它一直给我下面的错误。我的脚本在没有“action”意图部分的情况下工作得很好。我遗漏了什么?
Type `IBM.Watson.DeveloperCloud.Services.Assistant.v1.MessageResponse' does not contain a defini
我正在尝试在下面的Python程序中使用IBM演讲来文本API/service。
import json
import os
import sys
from watson_developer_cloud import SpeechToTextV1
def transcribe_audio(audio_file_name) :
IBM_USERNAME = "yourusername"
IBM_PASSWORD = "yourpassword"
#what changes should be made here instead of
我正在使用Python测试IBM Watson Speech to Text的使用。我能够成功地测试英语音频的转录,但当我设置model参数来更改我的语言的语言模型时,出现了404 not found错误。我已经多次查看了IBM page,它解释了模型参数的用法,但我不能理解缺少了什么。有人能帮上忙吗? 我的代码: from ibm_watson import SpeechToTextV1
from ibm_cloud_sdk_core.authenticators import IAMAuthenticator
api = IAMAuthenticator("my_credent
他们看到的关于Watson speech to text服务器的最新问题是,不能在单个实例中运行持续时间大于10分钟的音频文件,其次,当语音到文本服务器正在运行小于10分钟的文件时,与Watson服务器的TCP连接断开。
他们基本上是在python中的Watson服务器上使用web套接字,并想了解对于持续时间较长的音频文件(例如,我们的会议持续到3个小时),运行语音转文本的最佳方式是什么。配置通过web套接字丢失连接的瓶颈的最佳方式是什么?