首页
学习
活动
专区
工具
TVP
发布
精选内容/技术社群/优惠产品,尽在小程序
立即前往

基于mediapipe的人手21点姿态检测模型—CPU上检测速度惊人

MediaPipe人手坐标点检测模型可以根据用户输入的图片或者视频,进行人手21个关键点的检测,并输出相关的关键点的坐标。

MediaPipe人手坐标点检测模型可以识别人手的21个关键点。MediaPipe人手关键点检测模型共有三种输入模式:

MediaPipe人手坐标点检测模型包含2个模型:

当我们使用MediaPipe人手坐标点检测模型时,其模型后台是调用了以上2个模型。由于运行手掌检测模型比较耗时,因此在视频或直播运行模式下,Hand Landmarker人手检测使用一帧中手部位置模型定义的边界框来定位后续帧中的手部区域。仅当手部检测模型不再识别手的存在或无法跟踪帧内的手时,手部关键点检测模型才会重新触发手掌检测模型。这减少了 Hand Landmarker 触发手掌检测模型的次数,有效降低了运算量,提高了运行速度。(基于CPU延时17.12ms,而GPU模式延时12.27ms)

代码实现人手21个关键点检测

在运行本节代码前,首先需要安装python以及MediaPipe库。并下载人手关键点检测模型hand_landmarker.task。

然后准备一张需要检测的图片或者一段视频,并输入如下代码:

HandLandmarkerResult包含三个组成部分。每个组件都是一个数组,其中每个元素包含单个检测到的手部结果:

  • 发表于:
  • 原文链接https://page.om.qq.com/page/OZpd0oyQsAobStUzsg24WiIA0
  • 腾讯「腾讯云开发者社区」是腾讯内容开放平台帐号(企鹅号)传播渠道之一,根据《腾讯内容开放平台服务协议》转载发布内容。
  • 如有侵权,请联系 cloudcommunity@tencent.com 删除。

相关快讯

扫码

添加站长 进交流群

领取专属 10元无门槛券

私享最新 技术干货

扫码加入开发者社群
领券