我试图在一个函数调用中有一个定制的演说,它利用自定义的声音和语言模型。
我正在跟踪https://learn.microsoft.com/en-us/azure/cognitive-services/speech-service/intent的文档,我的目标是使用持续的定制演讲和Luis意图。
根据文档,该功能
SpeechFactory::FromSubscription
可以从语音中获取LUIS订阅ID (在luis.ai上可用),或者从语音接收语音到意图检测,或者从语音获取自定义语音订阅ID (注册后可用www.cris.ai)。
有一种使用声学数据模型和自定义语言训练自定义语音的方法,以达到更高的训练精度。
我已经用自定义语言和声学数据模型训练了语音订阅,我想直接使用这些模型来进行语音的意图识别。
我怎样做呢?
到目前为止,我已经成功地在STT的声学和语言模型中使用了自定义语音,或者使用了用于语音的LUIS订阅ID来识别意图,但无法将我的LUIS speech自定义模型链接到意图。
我正在使用来自cris.ai和luis.ai的订阅。我对以前的必应STT SDK不感兴趣,因为我需要这些自定义声学模型和语言模型作为我的用例。
发布于 2018-07-11 20:44:08
目前还没有使用单个调用(IntentRecognizer只支持基本模型)同时使用CRIS和LUIS的直接方法。作为解决办法,你可以打电话给CRIS以得到语音到文本,然后打电话给LUIS以获得意图。
谢谢,
https://stackoverflow.com/questions/51265417
复制相似问题