前往小程序,Get更优阅读体验!
立即前往
首页
学习
活动
专区
工具
TVP
发布
社区首页 >专栏 >TensorFlow.js 在您的 Web 浏览器中实时进行 3D 姿势检测

TensorFlow.js 在您的 Web 浏览器中实时进行 3D 姿势检测

作者头像
代码医生工作室
发布2021-09-08 15:22:55
1.5K0
发布2021-09-08 15:22:55
举报
文章被收录于专栏:相约机器人相约机器人

为了更好地了解人体的视频和图像,姿势检测是关键的一步。目前许多人已经在现有模型的支持下尝试了 2D 姿态估计。

Tensorflow 刚刚在 TF.js 姿势检测 API 中推出了第一个 3D 模型。TensorFlow.js 社区对 3D 姿态估计越来越感兴趣,这为健身、医疗和运动捕捉等应用开辟了新的设计机会。一个很好的例子是使用 3D 动作在浏览器上驱动角色动画 。

社区演示使用由 MediaPipe 和 TensorFlow.js 提供支持的多个模型(即 FaceMesh、BlazePose、Hand Pose)。它甚至无需安装应用程序即可运行,因为只需要一个网页即可享受体验。

与 2D 相比,后者可以通过人工注释获得,并在数据集中保留了良好的人类多样性水平。这对于 3D 数据来说变得具有挑战性,因为手动扫描需要实验室设置或专用硬件——引入了额外的挑战,例如保持环境多样性。一些研究人员选择构建一个完全合成的数据集,这也涉及领域适应的挑战。

所提出的方法使用称为 GHUM 的 3D 统计人体模型来获取姿势地面实况。在此过程中,研究人员拟合了 GHUM 模型并使用度量空间中的真实关键点坐标对其进行了扩展。拟合的目标是对齐 2D 图像证据,其中包括语义分割对齐和形状和姿势正则化项。

为了使注释过程更有效,研究人员要求注释者在它们确定的姿势骨架边缘之间提供深度顺序。由于 3D-2D 投影的性质,3D 中的多个点可以投影到同一个 2d 点上(即具有 X 和 Y 但不同的 Z)。因此拟合结果可能不明确,导致给定输入图像或视频帧的几个真实的身体姿势。这项任务比真正的深度注释更容易,显示了注释者之间的高度一致性(交叉验证为 98%),并将GHUM 重建中的错误从 25% 减少到 3%。

BlazePose GHUM 采用两步法进行人体姿势预测。该模型在裁剪图像上进行训练,预测对象臀部中心原点的相对坐标中的 3D 位置。

MediaPipe 与 TF.js 运行时

本文参与 腾讯云自媒体分享计划,分享自微信公众号。
原始发表:2021-08-31,如有侵权请联系 cloudcommunity@tencent.com 删除

本文分享自 相约机器人 微信公众号,前往查看

如有侵权,请联系 cloudcommunity@tencent.com 删除。

本文参与 腾讯云自媒体分享计划  ,欢迎热爱写作的你一起参与!

评论
登录后参与评论
0 条评论
热度
最新
推荐阅读
相关产品与服务
图像处理
图像处理基于腾讯云深度学习等人工智能技术,提供综合性的图像优化处理服务,包括图像质量评估、图像清晰度增强、图像智能裁剪等。
领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档