HttpRequests的传统REST实现了Microsoft.CognitiveServices.Speech text to speech的官方github示例,并且正在对其进行测试,但无论我尝试哪种方法,在将文本提交给服务时都会出现我的测试应用程序正确地进行了身份验证,并使用有效的gov云帐户从Auth token Service获得了一个有效的令牌,但对语音服务端点的调用本身失败或被转储。更新:在手动重新创建REST调用并使用在线REST测试工具,然后与Azure认知服务团队通电
好的,目前,我有一个脚本,看起来像这样: set theResponse to listen for {"Mark我希望它从提示中收集语音数据,并将其转换为我可以存储在数据库中的字符串。
因此,例如,用户将被提示语音问题“您的名字是什么?”。然后,他们会说出自己的名字,比如"Mark",语音识别服务器将捕获该输入,将其转换为文本,并将其存储为变量