首页
学习
活动
专区
工具
TVP
发布
精选内容/技术社群/优惠产品,尽在小程序
立即前往
  • 您找到你想要的搜索结果了吗?
    是的
    没有找到

    DiffPoseTalk:利用扩散模型进行语音驱动的风格化 3D 面部动画和头部姿势生成

    语音驱动的3D面部动画从任意语音信号生成与嘴唇同步的面部表情,需要学习语音、风格和相应的面部运动之间的多对多映射关系。大多数现有的语音驱动的3D面部动画方法依赖于确定性模型,这些模型通常无法充分捕捉复杂的多对多关系,而且面部动作过于平滑。此外,这些方法通常在训练过程中使用独热编码来表示风格特征,因此限制了它们适应新的风格的能力。为了解决上述限制和挑战,我们提出了DiffPoseTalk。与现有方法相比,DiffPoseTalk的主要改进可概括如下。我们使用基于注意力的架构将面部动作与语音对齐,并训练一个扩散模型来预测面部表情信号;除了表情之外,我们还预测了说话者的头部姿势,并设计相应的损失函数以获得更自然的动画。此外,我们利用Wav2Vec来编码输入的语音,以提高泛化能力和稳健性。最后,我们开发了一个风格编码器,从风格视频剪辑中获取潜在的风格代码。最后,我们构建了一个包含多种说话风格的语音驱动的面部动画数据集。

    04
    领券