iOS应用程序连接到内部网并控制其他硬件。这个硬件是用来给病人做手术的。由于大部分是在手术中,很难通过手指使用iOS应用程序,而语音命令看起来更好。我已经通过了语音识别器框架,可以在没有互联网的情况下检测到单词。
然而,这些服务不能长时间运行。SpeechRecognizer框架只允许运行一分钟,因为手术可能会持续一个多小时。我想创建一种机制,我们可以触发应用程序开始识别语音命令。(类似于Android中的ok google ),以便应用程序获得一个触发器来捕获语音命令
我正在使用Watson服务speech to text和text to speech。我正在连接到文本到语音服务。我似乎从Watson服务得到了响应,但它显示在Pi终端上,而不是转到USB扬声器。在文本显示的末尾,它显示它正被发送到硬件设备0:0,这是错误的。应该是1:0
当我在没有Watson的情况下测试Raspberry Pi声音时,音频在没有Watson服务的情况下工作正常,使用了在不同硬件设备(1:0)上播放的播放。所以我的问题是:是否有一个使用https:接口