首页
学习
活动
专区
工具
TVP
发布
精选内容/技术社群/优惠产品,尽在小程序
立即前往
您找到你想要的搜索结果了吗?
是的
没有找到

2014-11-8Android学习------手势识别事件的处理GestureDetector--------动画Animation学习篇

抽屉效果.zip 我的博客写的比较乱,如果本篇文章没有看懂, 请先看上篇文章,地址:http://blog.csdn.net/u014737138/article/details/40921115 手势识别的处理非常的常用...,我们一般在手机上有这些动作: 1)按下;2)长按下但未拖动;3)按下并且拖动未松开;4)按下并且并且拖动最后松开 这些动作对应的总共有三个静态变量来描述他们: 1)ACTION_DOWN,按下;...2)ACTION_MOVE,按下然后拖动;3)ACTION_UP,松开 右这三个变量来表达上面的四种或者更多的动作,但是无论哪种组合,按下和松开只有一次,拖动可以是多次 手势处理还需要关系的问题就是速度和方向...public static final int RIGHT = 3; private int mPosition;//方向,对应上面的四个方向 当我们理解了这些必须的条件之后,我们就去看看手势识别事件的处理是怎么干的...: Android中的Gesture识别(detector)是通过GestureDetector.OnGestureListener接口实现的。

70240

【实践操作】 在iOS11中使用Core ML 和TensorFlow对手势进行智能识别

在计算机科学中,手势识别是通过数学算法来识别人类手势的一个议题。用户可以使用简单的手势来控制或与设备交互,让计算机理解人类的行为。...这篇文章将带领你实现在你自己的应用中使用深度学习来识别复杂的手势,比如心形、复选标记或移动设备上的笑脸。我还将介绍和使用苹果的Core ML框架(iOS11中的新框架)。 ?...在屏幕上随便划动两下,手机就会对复杂的手势进行实时识别 这项技术使用机器学习来识别手势。本文中的一些内容是特定于iOS系统的,但是Android开发者仍然可以找到一些有用的信息。...记录用户在屏幕上的动作,并使用机器学习算法来找出它们所代表的手势。 ? 我们所画的手势将用于训练机器学习算法,我们将用Core ML来评估应用内(in-app)的算法 什么是机器学习算法?...3.在应用内识别手势 最后,让我们把我们的模型放到一个面向用户的APP中,这个项目的一部分是手势识别(GestureRecognizer。

2.7K60

就是要简单粗暴点,谁说裸手不能在VR中玩得风生水起?

基于此,像Leap Motion这类的手势识别技术应运而生。当然,除了大家广为熟知的Leap Motion外,市面上还有许多优秀的手势识别设备。...今天,小编就来为大家盘点一下目前较为主流的五款手势识别设备。 Kinect 研发公司:微软 上市时间:2010年11月4日 市场售价:1599元人民币 支持设备:XBOX360主机 ?...它所使用的只有一个RGB摄像头、该公司自己的体感识别软件,以及一个市面上较为常见的处理器。 Morimoto能够以每秒120帧的速度识别用户两只手的动作,但其不具备深度信息反馈。...DeepHand采用类似Leap Motion的摄像头深度感应相机来捕捉用户的手部,配备了专门的算法来解释手部运动。...需要注意的是,这个系统需要“训练”,简单点说就是需要对各种手势动作进行录入,动作录入越多,识别的准确率则越高。 ?

1.6K120

为安卓Chrome加入自定义手势控制

单个应用操作:Chrome - 操作 - 浏览 - 返回   高级选项:将"离开屏幕后识别"打勾 ?   ...启用"离开屏幕后识别"这一项可以防止GMD手势将我们对屏幕的正常操作"误判"为手势触发条件,如果禁用这一项,GMD手势会检测到用户在屏幕上操作的趋势,当趋势满足某手势触发条件时,GMD手势便相应预先设定好的响应动作...(对于浏览器来说,正常操作被"误判"为手势是很蛋疼的一件事)   可以响应GMD手势的"浏览"动作的浏览器包括但不限于Chrome全系浏览器(Stable/Beta/Dev/Canary),Chromium...你可以异想天开,比如指左/右划来向前/向后切换标签页,指下划关闭标签,指上划新建标签页等,由于GMD对手势的的高度定制性,你甚至可以绘制属于自己的手势作为手势触发条件,或者对几种手势进行组合来作为手势触发条件...同样,GMD手势预置16种"浏览"动作,包括:"后退/前进/刷新/新建标签/新建隐身标签/关闭标签/上一标签/下一标签/打开书签/添加为书签/页面内查找/打开历史记录/滚动至页面顶部/滚动至页面底部/滚动到上一页

3.6K30

11.6 VR扫描:极鱼科技完成2000多万元A轮融资;三星Gear 360最新版曝光

极鱼科技完成2000多万元A轮融资 近日,国内手势识别初创公司极鱼科技宣布完成2000多万元A轮融资,投资方为上海雎才资本。据悉,此轮融资将用于车内手势识别模块的研发和生产。...据了解,极鱼科技致力于开发针对VR/AR技术的手势识别方案。极鱼科技将于今年年底开启千万美元的A+轮融资,主要用于扩充生产线。...VRPinea独家点评:市场对手势识别技术需求逐渐增加,当务之急是扩充生产线。...另外,新设计在底部增加了一“小脚丫”,镜头还印有一笑眯眯的“眼睛”。新版本似乎没有显示板或者目录按钮,这意味着三星开始更加重视手机控制。...Oculus将在美国百思商店,英国Currys PC World、John Lewis商店和法国FANC门店举行《漫威联合力量VR》体验会。

1.1K110

​多模态系统下软体机械手对多种意图的精准实时控制

而当EOG检测到闪烁时,系统自动进入EEG模式,而任何时候闪都可以使系统重新进入EOG模式,从而实现三种模式的交替。...运动意图检测和机器控制 mHMI系统可以充分利用每种模式的优点,在检测用户意图之前,通过每个模式的训练数据建立三种训练模型,利用阈值法建立EOG模型,识别左视、左视和眨眼的眼动,并将其转换为相应的命令...在EMG模式下,将EMG输入到封装好的模式识别算法中,对手势进行分类,并将手势成功转换为相应的控制指令。...图5 眨眼和眼睛扫视检测的识别结果 图6 检测左手或右手MI时,C3和C4电极上的ERD/ERS与相应的静息状态分别比较。 图7 手部动作结果分别呈现。...该系统中mHMI能够检测11种运动意图,准确率达93.83%,能够以友好、方便的方式实时控制软机器人,为健康或残疾人提供手部运动的帮助,也为多模态系统的优化方向提供一个前沿的思路。

63210

安卓新增眼神控制功能!走路玩手机会警报,相册也可以加锁

首先就是不用再担心走路玩手机撞到电线杆了,安卓更新了一个 Heads Up 功能,这项功能能够识别行走的动作,启用 Head Up 功能后,无论何时使用手机,当手机检测到用户在走动时,都会收到警报,提醒用户去查看并保持警惕...用户可以根据设置从六种面部动作:向右看、向左看、抬头看、微笑、扬眉或张开嘴中选择一种,手机能够识别出不同的表情后,可以将手势指定给打开通知、跳回主屏幕、打开或关闭摄像头或暂停手势检测。...应用程序的所有领域都内置了自定义功能,可以设置要触发的特定动作、面部手势,或者对面部手势的敏感程度等。 ‍‍ ‍ ‍...另外,如果是SIM安卓手机用户,现在可以选择通过Android Auto系统在拨打电话时选择使用哪个SIM卡。...对于运行Android 11或更高版本的设备,机器学习的功能可以让用户只需轻击Smart Compose即可快速完成句子。 通过改进附近共享中的可见性设置,用户可以完全控制谁可以发现设备并发送文件。

1.5K50

手势识别原来还可以这样控制电脑,你知道怎么做到的吗?

什么是手势识别手势是人类表达信息的重要途径之一,通过手势识别,我们可以获得表达者所要表达信息(例如对方竖起大拇指,表达了对方的表扬之意)。...本项目将基于PaddleVideo来训练一个手势识别模型,利用模型对七种手势进行识别,分别是点击、放大、向下滑动、向上滑动、缩小、旋转以及抓取。...我们可以以其数据集格式作为规范进行数据准备,下面以手势识别训练数据集为例子: 数据集总共有七种动作,我们训练的模型也是用于识别这七种动作之一,其中开头的四个文件分别存放了对应的准备测试的视频或准备训练的视频名字以及分类...正好对应为我们数据集标注中的放大动作,模型训练成功。 后续发展 至此,我们便完成了基于PaddleVideo训练动态手势识别的过程。...当然,训练完成后任务并没有结束,结合手势识别我们能干更多有趣的事,希望未来能看到更多关于手势识别的有趣作品。 同时,强大的PaddleVideo也等待大家探索更多有趣、实用的玩法及应用。

1.4K30

iOS开发中的手势体系——UIGestureRecognizer分析及其子类的使用

UIGestureRecognizerStateBegan,      // 手势开始被识别的状态     UIGestureRecognizerStateChanged,    // 手势识别发生改变的状态...,如果没有接收到新的手势识别任务,再发送。...4、手势间的互斥处理         有一点需要注意,同一个View上是可以添加多个手势对象的,默认这个手势是互斥的,一个手势触发了就会默认屏蔽其他相似的手势动作,例如: - (void)viewDidLoad...——UIPinchGestureRecognizer         捏合手势是当我们指捏合和扩张会触发动作手势,我们可以设置的属性如下: //设置缩放比例 @property (nonatomic...——UIRotationGestureRecognizer         进行旋转动作时触发手势方法。

1.7K20

iOS-手势UIGestureRecognier详解一. 手势UIGestureRecognier简介二. 手势的抽象类——UIGestureRecognizer三. UIGestureRecogni

初始化方法 UIGestureRecognizer类为其子类准备好了一个统一的初始化方法,无论什么样的手势动作,其执行的结果都是一样的:触发一个方法,可以使用下面的方法进行统一的初始化: - (instancetype...这个属性设置手势识别结束后,是立刻发送touchesEnded或pressesEnded消息到事件传递链或者等待一个很短的时间后,如果没有接收到新的手势识别任务,再发送。...3.2 重点方法详解-手势间的互斥处理 同一个View上是可以添加多个手势对象的,默认这些手势是互斥的,一个手势触发了就会默认屏蔽其他相似的手势动作。...捏合手势——UIPinchGestureRecognizer 捏合手势是当我们指捏合和扩张会触发动作手势,我们可以设置的属性如下: //设置缩放比例 @property (nonatomic)...旋转手势——UIRotationGestureRecognizer 进行旋转动作时触发手势方法。

2.5K50

技术猿 | 技术牛人讲解手势识别技术

---- 手势识别大家并不陌生,想得到的是二维手型识别、二维手势识别、三维手势识别这几个名词,但是到底手势识别技术是什么?怎么定义的?又是如何工作的呢?...二维手势识别 二维手势识别,比起一维手型识别来说稍难一些,但仍然基本不含深度信息,停留在二维的层面上。这种技术不仅可以识别手型,还可以识别一些简单的二维手势动作,比如对着摄像头挥挥手。...二维手势识别拥有了动态的特征,可以追踪手势的运动,进而识别手势和手部运动结合在一起的复杂动作。这样一来,我们就把手势识别的范围真正拓展到二维平面了。...三维手势识别 接下来我们要谈的就是当今手势识别领域的重头戏——三维手势识别。三维手势识别需要的输入是包含有深度的信息,可以识别各种手型、手势动作。...在这里我们以两个摄像头成像来简单解释一下: 摄像头测距是根据几何原理来计算深度信息的。使用两台摄像机对当前环境进行拍摄,得到两幅针对同一环境的不同视角照片,实际上就是模拟了人眼工作的原理。

3.5K51

耗时2天,我自制了一台体感游戏机

和 switch 用带有传感器的手柄来识别玩家动作不同,kinect 使用的是一组摄像头,通过图像来识别玩家的动作。 我这次做的 demo,就是一个使用摄像头的动作识别系统。...新到什么程度,就是目前市面上还没有现货可以,只能预定。所以我这台可以说是一个全球限量版。和之前上一代 Jetson AGX Xavier 相比,它的性能提升到了8倍,可达到每秒 275 万亿次计算。...并且对于大多数常见AI应用,比如人脸识别、物体识别动作识别、自然语言处理、语音合成等等等等,它都提供了一些预训练好的模型。这个简直太方便了。...拿到人体姿态数据之后,我们就可以用各种动作对应的数据来训练一个分类器。然后通过分类器来识别摄像头实时拍摄到的用户姿态,判断出动作。再根据识别出的动作,向系统发送键盘指令。...这样就完成了一个简单的基于人体动作的交互系统。 在 NVIDIA 智能物联网的 github 仓库里,我发现了一个类似的项目,用手势去操作浏览网页。

1.4K10

手把手教你用计算机识别技术自己开一家!

大数据文摘作品 作者:Priya Dwivedi 编译:朝夕、吴、钱天培 2016年年末,Amazon无人超市横空出世。...我们可以用两个物品识别模型来实现这个功能,一个用来跟踪手部动作以获取被拿起的物品。另一个独立模型则用于检测货架的空间。请看下面的动画,同时使用两个模型可以大大降低误判。...直接通过购物车里的摄像头检测所的物品,在你走出超市的那一刻就自动结帐。这个不要太酷哦! 为此,我们需要建立另一个识别模型,用以检测识别物品的种类以及数量。...我一般是两种综合使用,比如手部的探测可以使用如Ego Hand数据集(印第安纳大学制作的第一人称视角的手势数据)这样的公开数据集。...这个数据集包含大量手的形状、肤色和动作的变化数据,在实际应用中非常有用。 另一个方面,对于在货架或者购物车里的物品,最好收集自己的数据,因为我们要确保图像数据是来自各个角度的。

1K40

趣立科技发布新一代6DoF VR参考设计样机——“骐骥”

“骐骥”配备4颗超广角摄像头,呈倒梯形分布在设备前端,以进行Slam定位追踪,可准确识别手势动作和满足动作繁多的交互场景需求。...“骐骥”集成了趣立多项技术专利,设备头部所采用的4颗超广角摄像头红外光学方案搭载自研SLAM算法,加上独立研发的手部全自由度自然手势识别体系,可对手部动作直接进行追踪。...“骐骥”既支持全自由度手势操作,可以轻松实现多种形态的手与虚拟物体间的交互,也配备了自主研发的6DoF手柄,配备独有手势识别专利技术,最大程度上保证识别精度和良好的交互性,延迟极低,打造敏、准、稳的操控体验...在B端方向,再辅以集成云端大地图、物体锚点、自然手势识别(动态手势和静态手势)等多项算法融合技术,为B端开发者提供更多的创作空间。...加上自研的手势识别专利技术,手势动作基于30个自由度及用户个性化的手掌参数设置,“骐骥”可为用户创造更”本能“更”真实“的交互体验,在教育教学方面,无需穿戴任何附属设备,即可实现多种形态的手与虚拟物体间的交互

78930

耗时2天,我自制了一台体感游戏机

和 switch 用带有传感器的手柄来识别玩家动作不同,kinect 使用的是一组摄像头,通过图像来识别玩家的动作。 我这次做的 demo,就是一个使用摄像头的动作识别系统。...并且对于大多数常见AI应用,比如人脸识别、物体识别动作识别、自然语言处理、语音合成等等等等,它都提供了一些预训练好的模型。这个简直太方便了。...拿到人体姿态数据之后,我们就可以用各种动作对应的数据来训练一个分类器。然后通过分类器来识别摄像头实时拍摄到的用户姿态,判断出动作。再根据识别出的动作,向系统发送键盘指令。...这样就完成了一个简单的基于人体动作的交互系统。 在 NVIDIA 智能物联网的 github 仓库里,我发现了一个类似的项目,用手势去操作浏览网页。...,因为姿态判断和动作识别用的都是预训练模型,实时的计算量并不算大。

1.1K30

安卓手机如何玩转动作手势检测?有TensorFlow就够了,附实用教程

但是我们该如何使用动作识别功能呢?...这些动作可以通过手机上的几个传感器进行捕获:加速度计、陀螺仪、磁力计等等。随后,这些批量动作可以用于机器学习算法,以便进行训练和后续识别。 为了捕捉数据,我们将开发一个Android应用程序。...其次,每个手势在中心都具有长时间的“真实”识别,其值接近于1,并且在边缘处具备较小的相反识别。 看起来,要执行准确的实际手势识别,需要进行一些附加的处理。...MotionDetector(context, gestureListener); motionDetector.start(); 我们通过利用TensorFlow库,在Android应用程序上实现了对动作手势进行识别的所有步骤...所描述的方法可以用于其他任何识别/分类任务。生成的库可以集成到其他任何Android应用程序中,并通过动作手势进行升级。

2.9K81

体感交互的设计原则

手势识别指的是计算机设备侦测并识别人类手势。近几年来,随着手势识别技术的高速发展,以及3D传感器的广泛采用,手势交互已经得到广泛的普及。...那么对于用户体验设计来说,手势交互又意味着什么呢? 改变使用习惯:手势交互和手势识别 用户通常都会有惯性思考,我们设计师也同样如此。...将手放在传感器可以捕捉到的地方——必须要了解“有效交互区域”的概念“ 有效交互区域指的是传感器能够清晰捕捉用户手势交互动作的区域,设计的关键点在于,要将有效交互区域设置在用户容易操作的区域。...比如说用户想买一鞋,那么他通过手势交互,就可以在屏幕中抓取这双鞋,然后旋转观赏这双鞋的细节。 对于设计师意味着什么呢?第一,我们的界面需要更强的三维感。...合理预判用户行为 通过3D摄像机,我们可以实现手势识别,同样的,还可以预测用户意图。

1.7K160
领券