前往小程序,Get更优阅读体验!
立即前往
首页
学习
活动
专区
工具
TVP
发布
社区首页 >专栏 >用于单个RGB相机的联合3D动作识别统一深度框架

用于单个RGB相机的联合3D动作识别统一深度框架

原创
作者头像
空白的小飞机
发布2019-07-17 15:36:09
4600
发布2019-07-17 15:36:09
举报

作者:Huy Hieu Pham,Houssam Salmane,Louahdi Khoudour,Alain Crouzil,Pablo Zegers,Sergio A Velastin

摘要:我们提出了一个基于深度学习的多任务框架,用于从RGB视频序列进行联合3D人体姿势估计和动作识别。 我们的方法分两个阶段进行。 首先,我们运行实时2D姿势检测器来确定身体重要关键点的精确像素位置。 然后设计并训练双流神经网络以将检测到的2D关键点映射成3D姿势。 在第二步中,我们部署了高效神经架构搜索(ENAS)算法,以找到最佳网络架构,该架构用于通过基于图像的中间表示和执行动作识别来对估计的3D姿势的时空演变进行建模。 人类3.6M,MSR Action3D和SBU Kinect交互数据集的实验验证了所提方法对目标任务的有效性。 此外,我们表明我们的方法需要较低的计算预算用于训练和推理。

原文标题:A Unified Deep Framework for Joint 3D Pose Estimation and Action Recognition from a Single RGB Camera

原文链接:https://arxiv.org/abs/1907.06968

原创声明:本文系作者授权腾讯云开发者社区发表,未经许可,不得转载。

如有侵权,请联系 cloudcommunity@tencent.com 删除。

原创声明:本文系作者授权腾讯云开发者社区发表,未经许可,不得转载。

如有侵权,请联系 cloudcommunity@tencent.com 删除。

评论
登录后参与评论
0 条评论
热度
最新
推荐阅读
领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档