首页
学习
活动
专区
工具
TVP
发布
精选内容/技术社群/优惠产品,尽在小程序
立即前往

谷歌开源手势识别器,手机能用,运行流畅,还有现成的App,但是被我们玩坏了

另外,这个App只支持一只手的手势识别,如果你把两只手都放到摄像头前,它只能识别一只: ? 说好的石头剪刀布呢? 当然,想想办法还是能让它识别两只手的,比如这样: ?...BlazePalm 从整个图像界定手部轮廓,找到手掌的位置,检测平均精度达到95.7%。...训练过程,研究人员们用到了将近30000张真实世界的标注过的手掌图片,来获取ground truth数据。 ? 之后,用混合训练的方式训练模型。 ?...借助MediaPipe实现 最后的实现,借助了MediaPipe,这是一个构建机器学习pipeline的框架。用于手势识别的MediaPipe图长这样: ?...另外,借助MediaPipe,还可以做人脸检测: ? 头发分割: ? 物体检测: ?

1.6K31

谷歌开源基于 ML 的手部跟踪算法:手机端实时检测,多个手势同时捕捉

该模型可用于移动实时检测,其方式类似于 BlazeFace(https://arxiv.org/abs/1907.05047),这个模型也可以 MediaPipe使用。...利用上述技术,我们实现了对手掌的平均检测精度为 95.7%;而使用常规的交叉熵损失并且没有解码器的情况下,检测精度基准仅为 86.22%。...图 6 不同手势识别结果 通过 MediaPipe 实现 通过使用 MediaPipe,我们可以将该感知架构建模称模块化组件的有向图(https://en.wikipedia.org/wiki...我们通过从当前帧中计算所得的手部关键点来推断后续视频帧的手部位置实现手部跟踪,从而无需每个帧上运行掌上检测器。...为此,我们将在 MediaPipe 框架开源上述手部跟踪与手势识别方法,并附带相关的端到端使用场景和源代码(https://github.com/google/mediapipe/blob/master

2K30
您找到你想要的搜索结果了吗?
是的
没有找到

使用MediaPipe进行设备上的实时手部跟踪

例如,它可以形成手语理解和手势控制的基础,并且还可以增强现实实现物理世界之上的数字内容和信息的叠加。...今天宣布发布一种新的手感知方法,6月份预览了CVPR 2019,MediaPipe实现- 一个开源跨平台框架,用于构建管道以处理不同模态的感知数据,如视频和音频。...通过上述技术,在手掌检测实现了95.7%的平均精度。使用规则的交叉熵损失并且没有解码器给出仅86.22%的基线。...通过MediaPipe实现 使用MediaPipe,可以将此感知管道构建为模块化组件的有向图,称为计算器。...通过从当前帧的计算的手部关键点推断后续视频帧的手部位置来实现这一点,从而消除了每个帧上运行手掌检测器的需要。

9.3K21

谷歌开发手部识别系统,适配跨平台框架MediaPipe,手机可用!

此外,由于手掌的面积较小,这使得非极大值抑制算法双手遮挡情况(如握手)下也能得到良好结果;手掌可以使用方形边界框(也就是ML术语的anchors)来描述,忽略其长宽比,从而可将anchors的数量减少...利用上述技术,我们在手掌检测得到了95.7%的平均精度。而使用固定的交叉熵损失且没有解码器的情况下精度基准仅为86.22%。...MediaPipe实现 谷歌的手部跟踪MediaPipe模型图如下所示。该图由两个子图组成,一个用于手部检测,一个用于手部骨骼关键点(标志点)计算。...目前GitHub上星标已经达到了2k+。 通过从当前帧中计算手部关键点推断后续视频帧的手部位置来实现这一点,从而不必每个帧上都运行手掌检测器。...最后,谷歌MediaPipe框架中将上述手部跟踪和手势识别管道开源,并附带相关的端到端使用场景和源代码。

2.2K20

4米以内实现远程手势控制!谷歌AI新研究让你抛掉键鼠操控屏幕

移动设备上实时、同步地感知人体姿势、脸部标记和手势跟踪等可以实现各种有趣的应用,例如健身和运动分析、姿态控制和手语识别、扩增实境效果等等。...首先,MediaPipe Holistic 使用 BlazePose 的姿态检测器和关键点模型来估计人体姿态。...为了简化 ROI 的识别,使用了一种类似于单独使用面部和手部管道的跟踪方法。这种方法假设对象帧之间没有显著的移动,使用前一帧的估计作为当前帧对象区域的指导。...然而,快速移动过程,跟踪器可能会丢失目标,这就要求探测器图像重新定位目标。 MediaPipe Holistic使用姿态预测(每一帧上)作为额外的 ROI,以减少快速移动时管道的响应时间。...在下面,它依靠精确的手势检测,然后将手势识别映射到固定在用户肩膀上的“轨迹板”空间,从而实现4米以内的远程控制。

36120

谷歌发布 MediaPipe Holistic,实现移动端同时进行人脸、手部和人体关键点检测跟踪

移动设备上对人体姿势、人脸关键点和手部追踪的实时同步感知,可以实现各种有趣的应用,如健身和运动分析、手势控制和手语识别、增强现实效果等。...因此,即使端设备和浏览器MediaPipe Holistic 也能以接近实时的性能运行。...使用TFLite GPU各种端设备上的性能,以每秒帧数(FPS)衡量 由于 pipeline 的多级性,性能又多两个优点。...为了展示 MediaPipe Holistic 的质量和性能,作者构建了一个简单的远程控制界面,该界面浏览器本地运行,无需鼠标或键盘,就能实现令人注目的用户交互。...依靠精准的手部检测与后续的手势识别映射到固定在用户肩部的 "触控板 "空间之下,可实现 4 米范围内的远程控制。 当其他人机交互方式不方便的时候,这种手势控制技术可以开启各种新颖的使用场景。

1.3K20

谷歌开源手势跟踪AI,可用于移动设备

实验,仅从一帧图像就能推断出手机上一只手(或多只手)的21个3D点。 谷歌于6月2019年计算机视觉和模式识别大会上预览了这项新技术,并于最近在MediaPipe实现了它。...MediaPipe是一个跨平台框架,用于构建多模态应用机器学习管道,以处理不同模式的感知数据。源代码和端到端使用场景都发布GitHub上。...它可以很好地推广到像握手这样的边缘情况,并且它可以使用忽略其他纵横比的方形边框来建模手掌,从而将点数减少了3到5倍。 在手掌检测之后,手部界标模型接管,检测到的手区域内对21个三维指节坐标进行定位。...管道的最后一步是手势识别系统,其从关节角度确定每个手指的状态并将手指状态集合映射到预定义的手势。它能够识别来自多种文化(例如美国,欧洲和中国)的计数手势和各种手势。 ?...未来,团队计划通过更强大和稳定的跟踪扩展技术,扩大可以可靠检测手势量,支持及时展开动态手势,这项技术可以推动研究和开发者社区成员开展新的创意。

88130

更稳定的手势识别方法--基于手部骨架与关键点检测

导读 本期将介绍并演示基于MediaPipe手势骨架与特征点提取步骤以及以此为基础实现手势识别的方法。...github地址:https://github.com/google/mediapipe 效果展示 手势骨架提取与关键点标注: 手势识别0~6: 实现步骤 具体可参考下面链接: https://google.github.io...(2) 下载手势检测与骨架提取模型,地址: https://github.com/google/mediapipe/tree/master/mediapipe/modules/hand_landmark...总结后续说明 总结:MediaPipe手势检测与骨架提取模型识别相较传统方法更稳定,而且提供手指关节的3D坐标点,对于手势识别与进一步手势动作相关开发有很大帮助。...另外后续有时间更新C++版本也将直接发布知识星球

2.1K21

MediaPipe + OpenCV五分钟搞定手势识别

MediaPipe介绍 这个是真的,首先需要从Google2020年发布的mediapipe开发包说起,这个开发包集成了人脸、眼睛、虹膜、手势、姿态等各种landmark检测与跟踪算法。...https://google.github.io/mediapipe/ 请看下图比较详细 是个不折不扣的现实增强的宝藏工具包,特别实用!...支持的平台跟语言也非常的丰富,图示如下: 只说一遍,感觉要逆天了,依赖库只有一个就是opencv,python版本的安装特别简单,直接运行下面的命令行: pip install mediapipe 手势...landmark检测 直接运行官方提供的Python演示程序,需要稍微修改一下,因为版本更新了,演示程序有点问题,改完之后执行运行视频测试,完美get到手势landmark关键点: 手势landmark...() 手势识别 基于最简单的图象分类,收集了几百张图象,做了一个简单的迁移学习,实现了三种手势分类,运行请看视频: http://mpvideo.qpic.cn/0bc3x4aciaaaeeahx44tzbqvbp6des7qajaa.f10003

1.3K31

OpenCV+MediaPipe五分钟搞定人脸3D点云提取

模型与流程 上一篇文章介绍了MediaPipe手势关键点检测与简单的手势识别,本文介绍如何试用MediaPipe实现人脸3D点云数据提取,提取的数据为人脸468点位, 相关的论文来自这里: https...://arxiv.org/pdf/1907.06724.pdf https://arxiv.org/pdf/2006.10962.pdf 整个流程如下: 输的468点是3D坐标,值0~1之间,其中...z表示深度,Python函数支持下面的参数配置: max_num_faces 默认为1,表示支持最大人脸检测数目 min_detection_confidence 最小检测置信度,默认0.5 min_tracking_confidence...最小跟踪置信度,默认0.5 人脸3D点云提取 基于MediaPipe的python版本函数,官方教程的基础上,我稍微修改了一下,代码如下: import cv2 import mediapipe as...cv2.imshow('MediaPipe Face Mesh', image) if cv2.waitKey(5) & 0xFF == 27: break cap.release(

3.2K60

大象机器人六轴协作机械臂myCobot 320 进行手势识别

这个框架提供了丰富的工具和预先构建的模块,使得开发者能够轻松地构建和部署复杂的机器学习模型和算法,尤其图像和视频分析方面。MediaPipe的一个显著特点是它对实时手势和面部识别的支持。...它能够高效地处理视频流,并实时识别和追踪人的手势、面部特征等。这种能力使其交互式应用程序、增强现实(AR)、虚拟现实(VR)以及机器人技术变得极其有用。...编译环境操作系统:windows 11编程语言:Python3.9+使用的库:opencv,mediapipe,pymycobot,time手势的识别做识别首先得获得到相机的一个画面,这里我们就用到了opencv...只要确定在画面中大拇指的指尖是高于其他所有手指头的都指尖,那么这个手势就是竖大拇指。(也可以通过别的进行分析)一般情况下,我们可以获取到某个关节的X,Y,Z的三个属性,表示改关节图像的位置。...def OtherAction(self): ...程序逻辑的处理调试的过程,出现了一些问题,识别收拾的时候,它是一直识别,这就意味着如果在1s内识别了10次的话,会给机械臂发送

22510

mediapipe实现手部标记

mediapipe可以进行手部标记。获得手部标记后,我们可以做一些应用,例如显示、利用手势进行一些控制等。...本文介绍了使用opencv和mediapipe检测和显示摄像头(或视频)的手并进行标记,然后应用手部标记操作电脑音量。 环境&简介 opencv-python:视觉相关。...使用pip安装它们: pip install opencv-python pip install mediapipe mediapipe官网的介绍:本地的机器学习,支持常见的视觉任务:目标检测,图像分类...使用mediapipe识别/标记手部 mediapipe使用比较简单,只需要实例化一个相应的对象,传入图片获取结果。...(pycaw),可以实现手势控制音量:计算两个大拇指和食指指尖的距离,并将该距离转换成音量。

56910

Reddit 小哥发布手势绘画模型,获超2300个赞

https://github.com/loicmagne/air-drawing 模型的技术实现主要包括两个组件,检测手的位置和预测最终的图形,这两步都是通过深度学习模型实现。...手势检测(handpose detection)使用MediaPipe toolbox Hands 提供的功能。...通过这个开放的模型可以感知手的形状和运动,除了用来隔空画画之外,还可以用于手语理解和手势控制,也可以让数字内容和信息覆盖增强现实的物理世界之上。...起初作者的设想是对绘图进行实时预测,在用户绘画的过程对笔画的上升和下降进行预测,但这项任务的实现很难,并且结果也不理想,所以就放弃了,这也是作者使用双向LSTM 的原因。...实现过程主要使用了颜色检测手势跟踪技术。 作者回复道,追踪手指的OpenCV项目有很多,但他们都没有预测手指的方向。 当然鼓励、赞赏的网友还是大多数,你觉得他是调包还是真的有点东西?

42210

电脑端的手势姿态估计,隔空写字、绘图,有摄像头就行

近日,机器之心 GitHub 上发现了一个有趣的项目「air-drawing」,作者创建了一个利用深度学习的工具,使你配有摄像头的电脑端可以获得自己的手势姿态估计成像图。...如果手部一部分在框架之外,则手部检测无法正常工作。绘图写字时,保持手指向上,手指向下时会影响指尖的检测。...技术细节 这个可以隔空作画的工具使用深度学习来完成,实现 pipeline 包含两个步骤:手势检测以及预测所要画的图,这两个过程都是通过深度学习来完成的。...其中,手势检测使用了手部追踪解决方案 MediaPipe toolbox。 ‍...关于深度学习 pipeline 细节,你可以 jupyter-notebook 的 python-stuff/deep-learning / 了解更多信息。

43720

如何使用SSRF-KingBurpSuite实现自动化SSRF检测

SSRF-King SSRF-King是一款针对BurpSuite的SSRF插件,该工具的帮助下,广大研究人员能够针对所有的请求实现自动化的SSRF检测。...工具安装&构建 广大研究人员可以使用下列命令将该项目源码克隆至本地,并进行项目构建: git clone https://github.com/ethicalhackingplayground/ssrf-king...gradle build 现在,我们将能够该项目的build/libs目录下找到一个名为“ssrf-king.jar”的文件,我们接下来可以将其导入至BurpSuite之中。...工具使用样例 加载需要测试的网页: BurpSuite,将该站点添加进主机地址范围: 加载功能插件SSRF-King: 记录Burp Collab Payload: 被动式爬取页面内容,SSRF-King...将会实时测试请求的所有内容: 当该工具插件发现安全漏洞之后,便会将信息记录在日志,并添加一个警告提醒: 在下面这个界面,我们可以对利用参数来进行SSRF模糊测试: 工具使用演示 视频地址:点击底部

1.6K10

魔法一样隔空在屏幕写字,捏起手指就能实现!在线可玩

这款手势识别程序已经开源,开发者Benjamin大方地提供给了所有人使用“魔法”的机会。 既可以安装在自己的电脑上来玩,一行代码就能轻松实现。...21个手部关节定位,左右手方向检测,手部姿势检测等都可以实时实现。 来看看“买家秀”是不是也一样秀。 原来成为不了法师只是因为符文画太丑 如此好玩的AI背后,究竟是什么原理呢?...不过,因为TensorFlow.js规模的限制,比起电脑,YoHa移动设备上的表现较差。 另外,YoHa的本地运行速度也比在线试玩快很多,果然驯服AI还是得先带回家里养。 手势识别有什么用?...手势识别这么火,干脆多开发一些玩法,添加更丰富的功能让VR/AR更好玩。 针对之前提到的YoHa性能缺陷,Benjamin也给玩家提供了高性能备选方案:通用手势识别模型MediaPipe。...比如不久前以MediaPipe为基础开发的类似项目air-drawing,玩法上和YoHa稍有不同。 感兴趣的话,自己去驯服一只AI来写字画画吧。

93910

opencv+

它提供了一系列预构建的机器学习和计算机视觉模型,可用于实现诸如姿势识别、人脸检测手势识别、目标追踪等应用。...使用Mediapipe,开发者可以利用其强大的计算图模型和各种预构建的模块,快速构建和部署音视频处理应用程序。通过配置和连接模块,开发者可以构建自定义数据处理流程,实现各种功能。...二、实现原理 Mediapipe(BlazePlam) 两个模型组成:1)手掌检测器,它提供手的边界框,2)手部地标模型,它预测手骨架。...所以我们要做的就是两步骤,那么就让我们依赖Mediapipe实现手掌检测 的手部跟踪吧。...三、代码思路与实现 1、先写出调用实时摄像头的功能;这是基本的 import cv2 import mediapipe as mp cap=cv2.VideoCapture(0) while True

12810

HandAI开源项目,拉近人和摄影的距离:基于手势识别完成不同的拍摄行为

人脸及五个关键点检测:用于做人脸贴纸。 下面具体讲解,首先看整个项目的结构图,非常简单: ? 我使用了一个flags.py文件设置各种手势的当前状态。...在他们开放的视频,该开源模型可以检测手部21个关键点并且识别手势。但是遗憾的是,开源的代码,并没有识别手势的部分,仅仅有关键点检测。...但是谷歌发布的博客,提到了他们识别手势的方法是,判断手部关节点的弯曲程度以及关系。HandAI,我使用了他们开源的网络检测手部关键点,根据他们的描述,复现了8种手势的识别。...人脸贴纸的实现思路: 首先贴纸肯定要往脸上贴,所以需要一个人脸检测网络。还需要确保贴纸能贴到脸上的合理区域,比如猫耳朵不能把人眼睛覆盖了是吧。所以需要关键点检测。...然后计算合适的比例,对猫脸素材缩放,然后把素材的mask找到,算出相对坐标,直接覆盖人脸上就ok了。 详细说下计算比例的问题。我使用centerFace检测人脸。

1.3K30

python人工智能【隔空手势控制鼠标】“解放双手“

它可以完美的运行在任何一个电脑上,然后调用摄像头,从而实现主要的功能。 手势识别手掌检测 目前现阶段手势识别的研究方向主要分为:基于穿戴设备的手势识别和基于视觉方法的手势识别。...该种方法相对来虽然精度比较高,但是由于传感器成本较高很难日常生活得到实际应用,同时传感器手套会造成使用者的不便,影响进一步的情感分析,所以此方法更多的还是应用在一些特有的相对专业的仪器。...而本项目关注点放在基于视觉方法的手势研究,在此特地以Mediapipe的框架为例,方便读者更好的复现和了解相关领域。 基于视觉方法的手势识别主要分为静态手势识别和动态手势识别两种。...MediaPipe训练手掌模型使用的是单阶段目标检测算法SSD。...利用上述技术,MediaPie在手掌检测达到了95.7%的平均精度。没有使用2和3的情况下,得到的基线仅为86.22%。增长了9.48个点,说明模型是可以准确识别出手掌的。

49840

MediaPipe实现手指关键点检测及追踪,人脸识别及追踪

OpenCV 的帮助下,我们可以构建大量实时运行更好的应用程序。主要用于图像和视频处理。 除了 OpenCV,我们将使用 MediaPipe 库。...MediaPipe 使用单次手掌检测模型,一旦完成,它会对检测到的手部区域中的 21 个 3D 手掌坐标执行精确的关键点定位。...MediaPipe 管道使用多个模型,例如,从完整图像返回定向手边界框的手掌检测模型。裁剪后的图像区域被馈送到由手掌检测器定义的手部标志模型,并返回高保真 3D 手部关键点。...实现手掌拖拽屏幕的方块(转载于恩培大佬) 效果如示: 源码如下: """ 功能:手势虚拟拖拽 1、使用OpenCV读取摄像头视频流; 2、识别手掌关键点像素坐标; 3、根据食指和中指指尖的坐标,...实现手势控制音量大小(转载于恩培大佬) 效果如示: 源码如下: """ 功能:手势操作电脑音量 1、使用OpenCV读取摄像头视频流; 2、识别手掌关键点像素坐标; 3、根据拇指和食指指尖的坐标,利用勾股定理计算距离

1.3K20
领券