首页
学习
活动
专区
工具
TVP
发布
精选内容/技术社群/优惠产品,尽在小程序
立即前往
  • 您找到你想要的搜索结果了吗?
    是的
    没有找到

    对话王晶:音频人才亟待培养,高水平研究人员尤其欠缺

    编者按:春节前夕的最后一次采访,LiveVideoStack有幸邀请到了北京理工大学信息与电子学院副教授王晶。王教授目前在北京理工大学信息与电子学院通信技术研究所从事教学科研工作,讲授本科生《数字通信网》和研究生《语音信号数字处理(全英文)》课程。在教学的同时,王教授还承担有国家自然科学基金、国家重大科技专项、国际合作项目及与中国移动、华为等的企事业横向科研项目。她长期参与信息技术领域标准化工作,目前为AVS中国数字音视频编解码标准组织成员,CCF语音对话与听觉专委会委员。在此次与LiveVideoStack的对话中,王教授分享了过去几年音频领域的重要发展和创新、音频编解码器的独特之处、AI与音频编码技术结合的突破以及目前音频领域人才培养和输出所面临的困境等。

    04

    DiffPoseTalk:利用扩散模型进行语音驱动的风格化 3D 面部动画和头部姿势生成

    语音驱动的3D面部动画从任意语音信号生成与嘴唇同步的面部表情,需要学习语音、风格和相应的面部运动之间的多对多映射关系。大多数现有的语音驱动的3D面部动画方法依赖于确定性模型,这些模型通常无法充分捕捉复杂的多对多关系,而且面部动作过于平滑。此外,这些方法通常在训练过程中使用独热编码来表示风格特征,因此限制了它们适应新的风格的能力。为了解决上述限制和挑战,我们提出了DiffPoseTalk。与现有方法相比,DiffPoseTalk的主要改进可概括如下。我们使用基于注意力的架构将面部动作与语音对齐,并训练一个扩散模型来预测面部表情信号;除了表情之外,我们还预测了说话者的头部姿势,并设计相应的损失函数以获得更自然的动画。此外,我们利用Wav2Vec来编码输入的语音,以提高泛化能力和稳健性。最后,我们开发了一个风格编码器,从风格视频剪辑中获取潜在的风格代码。最后,我们构建了一个包含多种说话风格的语音驱动的面部动画数据集。

    04

    动态 | 百度新论文带来「声音克隆」,一个半小时的训练数据就可以复制你的声音

    AI 科技评论按:日前百度发布了一篇新论文介绍了自己在语音生成方面的最近进展。之前的 Deep Voice 系统已经可以生成高质量的语音,而现在,百度新开发的语音生成系统不仅可以把说话声音从固定的一种增加到了上千种,得以模仿数千个不同说话者的声音,而且每个说话者只需要不到一个半小时的训练数据。 这种惊人表现背后的技术理念就是从不同说话者中独立学习共通的和差异性的信息。而且在此基础上,百度的研究人员们打算更进一步,尝试只从几秒长度的短句中学习说话者的声音特点。通常我们把这类问题称为「语音克隆」。在人际交互接口

    07
    领券