首页
学习
活动
专区
工具
TVP
发布
精选内容/技术社群/优惠产品,尽在小程序
立即前往

无比顺滑!告别TTS!贾扬清领衔的Lepton AI推出实时语音交互

夕小瑶科技说 分享

作者 | 谷雨龙泽

事到如今,各种AI助手满天飞,语音功能也不是什么稀罕物了。

“明天早上会不会下雨?”“导航去火车站”“帮我预订××餐厅的桌子”

语音功能极大地解放了我们的双手,但是他们普遍都有一个问题——响应慢。

我们手机上的Siri、小爱同学,问它问题,他需要花费几秒钟时间去检索;包括GPT4,切换到语音输出模式,还是有不小的延迟。

这样一来就显得有些卡顿,等待AI回复的过程像是过了几千年,让人恨不得把脑袋伸进手机里让AI快点。

不过,这一问题目前已经有大佬找到了解决办法。贾扬清创办的Lepton AI刚刚宣布,Lepton LLM API已经支持实时语音交互了!

▲Lepton AI在推特上“官宣”

贾佬本人也第一时间分享了这条好消息。

真的有这么顺滑吗?

Lepton AI在网上放出了实机演示视频。

我们可以看到,向AI提问问题之后,AI立即进行回答,几乎是秒回,而且还有不同音色任君选择。

根据测试,他们已经能做到让AI在在三百毫秒之内开始回答问题。

AI语音助手的老路子不行了

AI语音助手的传统老路子一般是这样的:

把问题往LLM(大语言模型)里一丢,等它回话,再让TTS(文本转语音)上阵,这一连串动作,听起来挺顺,实则很卡。

在这种模式下,跟AI聊天还得等它反应,那感觉就像给朋友发微信,结果他秒回了个“正在输入……”,然后你就这么干等着,急不急人?传统方法就是这样,每个步骤都得排队,结果就是“首次音频时间”(TTFA) 拖长,对话流畅度直接打折。

再来说说分块和缓冲。这简直是工程师们的噩梦。为了快那么一点点,系统得把长句子切成小块小块的,到时候还得把它们像玩拼图一样拼起来。但这拼图可不是随便拼的,时间差一丁点,不是这边话音未落那边又响起来了,就是句子讲到一半突然卡了壳,尴尬得能抠出三室一厅。

还有错误处理也是个大坑。文本和语音本来天生一对,结果被硬生生拆散了。

这下好了,万一哪边出了岔子,找起原因来就像大海捞针,用户体验?先放一边凉快吧。

还有人想了个馊主意,把长句子拆成小段,一个个往TTS里送,想着这样能快点。结果呢?协调起来比登天还难,同步稍有不慎,就是音频乱套、停顿尴尬。说好的流畅对话呢?最后还是让人直呼“带不动”。

Lepton AI实时交互背后的技术密码

告别老掉牙的传统技术,Lepton AI带着它的语音模式技术闪亮登场。

Lepton AI直接把LLM和TTS合二为一了。传统系统里,文本和音频排队等处理;到了这里,文本和语音并行处理,速度嘎嘎快,首次音频时间(TTFA)直接缩水到十分之一,自然无比顺滑。

除了减少延迟外,Lepton AI还引入了用于简化和优化内容处理的高级机制,能根据对话内容动态调整音频片段。这样一来,对话不仅连贯,还超级自然,停顿、中断?不存在的!用户体验直接拉满!

有的读者可能会问了,“哎呀你这个技术这么厉害怎么调用啊?”不用担心,这技术还超级百搭,跟那些开源的LLM模型都私下里串通好了。比如Llama3.1系列,无论是8B、70B还是405B,都能跟Lepton AI的语音模式无缝对接。这意味着开发者们可以随心所欲地挑选心仪的模型,再搭配上Lepton AI的语音黑科技,创造出既个性又高效的应用,享受“私人订制”服务。

怎么样,是不是很神奇?相信用不了多长时间,我们就都能享受到无比顺滑的语音交互体验。到那个时候,AI助手才真的称得上是我们身边的贴心助理(7×24小时随叫随到的那种)!

参考资料

  • 发表于:
  • 原文链接https://page.om.qq.com/page/OvHwpOwMEKgxR2VRtz6Jcskw0
  • 腾讯「腾讯云开发者社区」是腾讯内容开放平台帐号(企鹅号)传播渠道之一,根据《腾讯内容开放平台服务协议》转载发布内容。
  • 如有侵权,请联系 cloudcommunity@tencent.com 删除。

相关快讯

扫码

添加站长 进交流群

领取专属 10元无门槛券

私享最新 技术干货

扫码加入开发者社群
领券