展开

关键词

AR+营销,推广只是第一步,和AR购物联姻才是未来

一年一度的剁手节要到了,各大电商平台使出浑身解数,玩转各种促销新方式。淘宝在11月1日上线了VR购物,让你戴上头显穿越到到澳洲农场抢购牛奶,或者去日本的药妆店狂扫各种护肤品。 从这些应用来看,在一些大型促销类的活动的时候,可以通过AR营销小游戏的形式增加活动的流量和传播;如果是类似汽车、家居行业这些需要实地实物考察的,AR可以帮助用户从简单的图片信息中获取更多的信息。 也就是说,虽然现阶段的AR营销,能够让某个活动或者产品得到一定范围内的广泛传播。但是完成了传播层面的任务之后,AR营销可能就直接忽视了下一个销售环节。 AR营销如果要走向下一个阶段,还需要将AR技术和语音、手势识别等在内的交互技术相结合。 之前在淘宝的造物节上,Magic Leap就带来了一个概念化的Demo,视频中用户在家中的卧室选购商品,首先用语音指令测量了空间的大小,通过手势动作从商店里选择几个合适的虚拟物品,放在房间的合适位置实时预览产品的效果

29530

未来,你或许会“咬牙切齿”地操纵手机

已经可以通过捕捉并识别耳朵周围不同的牙齿动作来实现一些简单功能。 ? 而在最终的用户测试阶段里,TeethTap成功识别了11位参与者的1382个牙齿动作中的1256个,平均准确度达90.9%。 ? 13种基础牙齿动作 好,现在,先咬个牙。 注意到了吗,你在活动牙齿时,你的舌头、下颌骨,以及口腔肌肉都会随之运动。 而研究人员在设计基本牙齿动作时,便是受此启发。 “动声结合”的硬件设备 在动作(语音)与指令交互时,现有手段大多通过人体特定部位的复杂传感器(如眼动仪)来识别手势,主要有运动感测(如IMU)和声音感测(如麦克风)两个方向。 在对数据进行分割并过滤掉噪声之后,再使用K近邻算法(k = 1)对手势进行分类。 再使用DTW距离函数在每次迭代中输出一个值,最终将具有最小距离值的手势确定为预测动作。 目前已在活动识别,健康感测和自然用户界面等多个领域上进行了新应用的开发。 而对于现在的这款TeethTap,作者也坦然承认只是概念性的展示,所以不管是在外表美观程度还是功能性上都还有所欠缺。

16420
  • 广告
    关闭

    什么是世界上最好的编程语言?丨云托管征文活动

    代金券、腾讯视频VIP、QQ音乐VIP、QB、公仔等奖励等你来拿!

  • 您找到你想要的搜索结果了吗?
    是的
    没有找到

    实现多模交互融合的四个阶段

    手势识别在2019年有了新的突破,Google的科学家们研究出一种新的计算机视觉方法,用于实现手部感知。 但有些时候玩着玩着,屏幕也会突然“放空”,只能看到手,识别不出手势。 ? 由于肢体动作识别手势识别、表情识别仍处于早期阶段,在初步融合阶段商业产品是不会把它们考虑进去的,所以多模交互融合在此阶段更多是基于触控和语言的GUI和VUI融合。 为何初步融合阶段中没有包含肢体动作手势和表情? 肢体动作手势和表情的语义理解缺失会让多模交互融合缺失了很多可用信息,这是多模交互融合的最大瓶颈之一,也导致了当前多模交互融合只能在GUI和VUI上研究语义的融合和理解。 ?

    66430

    不会播放PPT,算什么无人机

    自任天堂(Nintendo)的Wii游戏机使玩家离开沙发、在客厅四处挥舞手臂以来,手势控制技术已经取得了很大进步。现在,微软(Microsoft)的Kinect可以精确追踪我们四肢的任何动作。 臂环中的肌电图(EMG)传感器可以通过读取用户肌肉中的电活动识别手势,还有其他传感器跟踪手臂运动。这款臂环可以在瞬间将这些信息通过蓝牙发送到配对的电脑或智能手机上。 将这种臂环与电脑同步需要一套特殊的配对手势:首先将双臂交叉在胸前,将手腕轻轻移开身体,暂停,然后放下整个手臂。这套手势有意设计成有别于手臂的自然动作,以避免意外激活设备。 其它手势有的是本能的,有的看起来也不优美。只要两根手指头触碰两下就可以取代双击鼠标的动作。 演示活动已经显示出,Myo可以与Facebook的虚拟现实头戴设备Oculus Rift协同工作。

    41980

    解读手势识别,或许不是VR交互的万能工具

    但是如果想要在VR中达到更加自然的交互和沉浸体验,摆脱外设的手势识别必然是未来发展的一个大方向。 手势识别技术的发展 手势识别技术的发展,可以粗略分为两个阶段:二维手势识别以及三维手势识别。 二维的手型识别的只能识别出几个静态的手势动作,而且这些动作必须要提前进行预设好。 相比较二维手势识别,三维手势识别增加了一个Z轴的信息,它可以识别各种手型、手势动作手势识别的关键技术 手势识别中最关键的包括对手势动作的跟踪以及后续的计算机数据处理。 关于手势动作捕捉主要是通过光学和传感器两种方式来实现,在此不再赘述原理。 以微软的Kinect为例,它主要是搭配xbox游戏机来体验一些趣味性强的游戏,比如,通过手势动作来控制游戏中的角色做出不同的反应。在娱乐方面,手势识别还可以应用在电视上。 结语: 有了手势识别,VR体验的沉浸感和交互性会大大增强是毋庸置疑的,不过从目前的硬件发展来看,手势识别想要成为VR中最自然的交互方式,还需要等待动作追踪和深度学习算法的深入研究,而且可能还需要与其它交互方式相结合

    58230

    「镁客·请讲」比奇创新李玮琛:用肌电感知人体行为,我们敢做也敢保证做好

    比奇创新创始人&CEO李玮琛告诉你,肌电不仅是生物电的一种,我们还能利用它感知人体行为,研发精尖的手势识别技术,以直接操控指定设备。 ? 人体在肌肉收缩或拉伸时会伴随产生生物电信号,这一信号可以精确地反映肌肉的活动状态和疲劳状态,通过对肌电信号的采集和识别,可将肌肉的活动量转化成实际可见的数据指标。 目前,比奇创新专注于感知交互领域的技术研发,主要面对行业提供表面肌电传感器和相关方案,已经推出了的产品有: DTing NW教育机器人手势识别套件——通过对人体手臂动作时产生的肌电信号实时进行采集和识别 ,通过蓝牙用手指、手势和手臂的动作指令(比如握拳、伸掌等)直接控制教育类机器人的所有动作(比如前进、后退等);¬¬ ? 然而,即便当下国内市场在动作识别这一领域相对空白,但确实还是有着少数的产品已经面世并得到了市场的认可。

    46630

    前沿 | MIT脑控机器人再升级:脑信号+肌肉信号,轻松控制机器人动作

    但这种方法的缺陷在于,训练过程和对人思维活动的建模非常耗时耗力。 但是如果我们能够更加直观地通过手势和脑电波控制机器人呢? 来自 MIT 计算机科学和人工智能实验室(CSAIL)的研究人员开发出一套新系统,旨在完成上述目标,使用户仅仅使用脑信号或手势动作就能即刻纠正机器人的错误。 通过控制大脑活动,该系统能够实时检测人是否注意到机器人执行任务过程中所犯的错误。之后,人可以通过一个衡量肌肉活动的接口,滚动查看手势,并选择适合机器人执行的正确选项。 ? 在之前的大部分研究中,当人们训练自己用非常具体而抽象的方式「思考」且系统基于大脑信号训练时,系统通常能够识别脑信号。例如,人类操作者在训练过程中,可能必须查看对应不同机器人任务的不同亮光。

    51120

    数据分析,如何实现降本增效?

    用户分析怎么做 支持降本的分析: 1、新用户的转化率分析,剔除劣质渠道 2、老用户的复购率分析,避免用户流失 3、促销敏感型用户识别,减少被薅羊毛 其中1可以和渠道分析合并来做。 比如很多公司做促销活动,总喜欢搞“全场大促”,心理感觉可以多覆盖用户,可实际上参与的都是同一批人。结果经常是有活动的产品销量大涨,没活动的一蹶不振,总业绩也不见涨。 这时候,数据分析可以: 1、对用户分层,区分高中低用户 2、对活动打标签,区分各个目的活动 3、交叉观察用户参与活动情况,识别每个活动参与人群 4、关注频繁参与活动用户群,建议砍掉其中边缘活动 5、关注从未被覆盖的用户群 商品分析怎么做 支持降本的分析: 1、上市阶段:识别劣品,及时止损 2、热销阶段:控制促销,多赚现金 3、衰退阶段:尽早清货,减少损失 这里虽然写了三条,但是核心是第一条。 否则账目都是纸质单张,里边的描述和业务实际脱节,业务动作无法被数据监控,连基础的数据都核算不清,降本增效更无从谈起。

    4310

    腾讯优图实验室AI手语识别研究白皮书

    这个技术就是指通过计算机算法,自动区分手语表达中的各类手势动作以及这些手势动作之间的切换,最后将表达的手语翻译成文字。 传统的方法通常会针对特定的数据集设计合理的特征,再利用这些特征进行动作手势的分类。受限于人工的特征设计和数据量大小,这些方法在适应性、泛化性和鲁棒性上都非常有限。 基于纯RGB图像序列 手语表达极具复杂性,一个手势或者动作幅度的小变化就可能会造成表达意思上很大的不同。 更强大的特征提取器 为了能够在手语极具复杂性的表达中充分提起识别所需要的特征信息,我们结合了普通2D卷积网络和3D卷积网络的优势,通过2D卷积网络来提取手语中的手势和身体姿势等静态信息,同时通过3D卷积网络来提取手语中普遍存在的细微而快速的变换动作的动态信息 与此同时,一个词语的表达往往不是一个单一的动作手势,而是一些手势动作的变换,这个过程有长有短,之间也没有刻意的停顿,因此往往掩盖在了整个句子的表达之中。

    3.1K30

    实际应用中用到的骨声纹算法传感器---LIS2DW12(不唯一,可以用其他的传感器)

    特征 •超低功耗:在断电模式下为50na,在活动低功耗模式下低于1微安 •非常低的噪音:在低功率模式下可降至1.3 mg RMS •10000 g高冲击生存能力 •符合ECOPACK、RoHS和“绿色”标准 应用 •可穿戴设备的运动检测 •手势识别和游戏 •动作激活功能和用户界面 •显示方向 •点击/双击识别 •自由落体检测 •手持设备智能省电

    37320

    安卓新增眼神控制功能!走路玩手机会警报,相册也可以加锁

    首先就是不用再担心走路玩手机撞到电线杆了,安卓更新了一个 Heads Up 功能,这项功能能够识别行走的动作,启用 Head Up 功能后,无论何时使用手机,当手机检测到用户在走动时,都会收到警报,提醒用户去查看并保持警惕 用户可以根据设置从六种面部动作:向右看、向左看、抬头看、微笑、扬眉或张开嘴中选择一种,手机能够识别出不同的表情后,可以将手势指定给打开通知、跳回主屏幕、打开或关闭摄像头或暂停手势检测。 应用程序的所有领域都内置了自定义功能,可以设置要触发的特定动作、面部手势,或者对面部手势的敏感程度等。 ‍‍ ‍ ‍ 此外,在可访问性方面,谷歌将手写识别引入Lookout,能够使用手机摄像头帮助视力低下或失明的人更快、更轻松地完成任务。在文档模式下,Lookout现在将读取基于拉丁语的手写和打印文本。 使用Android Auto,可以通过Google Assistant的个性化推荐快速启动和收听喜爱的音乐、新闻和播客来进行娱乐活动。还可以在停车等候订单或为汽车充电时玩游戏。

    21950

    就是要简单粗暴点,谁说裸手不能在VR中玩得风生水起?

    基于此,像Leap Motion这类的手势识别技术应运而生。当然,除了大家广为熟知的Leap Motion外,市面上还有许多优秀的手势识别设备。 它所使用的只有一个RGB摄像头、该公司自己的体感识别软件,以及一个市面上较为常见的处理器。 Morimoto能够以每秒120帧的速度识别用户两只手的动作,但其不具备深度信息反馈。 分割出来的信息通过k-cos等聚类算法对目标检测物做特征提取,最后将提取的特征做为手势识别的数据。手势识别部分采用了隐马尔可夫模型对大量识别样本数据进行反复训练。 需要注意的是,这个系统需要“训练”,简单点说就是需要对各种手势动作进行录入,动作录入越多,识别的准确率则越高。 ? 这些手势识别设备虽然能够有效地捕捉手部信息,自然的交互符合VR所想带给人们的那种超真实的体验感。然而这些手势识别设备存在的问题也有不少,如识别范围小、精准度不够、有延迟等。

    572120

    「深度」手势识别已起步,行业者还需找准刚需厚积薄发

    手,一向是人体一切动作的先行及操作部件,心动则手动,例如从昏迷中醒来的人首先苏醒的就是手指。而在交互体验中,手部动作信号是否能够被精确识别与实时传输则直接影响着整体体验效果。 此外,虽然这三个情境都是依靠手势识别技术实现的,但它们实际上用到了三类技术,从简单的到复杂精细依次分为:二维手型识别、二维手势识别及三维手势识别。 二维手型识别,是手势识别中最为简单的一类技术。 这类技术的缺点就是不能识别动态手势,只能识别预设好的静态手型,拓展性差;而优点就是,该技术实质上是一种模式匹配技术,研发难度及硬件要求低; 二维手势识别,与手型识别一样,不含深度信息,但它可以识别动态手型以及追踪简单的二维手势动作 这一技术可为用户提供更为丰富的人机交互服务,体验感有所增强,目前已在电视领域有所应用; 三维手势识别,是当下最炙手可热的手势识别技术类别,所输入的是包含深度的三维信息,不仅可以识别手型、手势,还可以从三维层面追踪手部动作 3.追踪范围有限,手部动作信号必须在能被捕捉到的范围内进行,体验时需要时时注意,不能随心所欲。

    37400

    手势识别原来还可以这样控制电脑,你知道怎么做到的吗?

    什么是手势识别手势是人类表达信息的重要途径之一,通过手势识别,我们可以获得表达者所要表达信息(例如对方竖起大拇指,表达了对方的表扬之意)。 本项目将基于PaddleVideo来训练一个手势识别模型,利用模型对七种手势进行识别,分别是点击、放大、向下滑动、向上滑动、缩小、旋转以及抓取。 我们可以以其数据集格式作为规范进行数据准备,下面以手势识别训练数据集为例子: 数据集总共有七种动作,我们训练的模型也是用于识别这七种动作之一,其中开头的四个文件分别存放了对应的准备测试的视频或准备训练的视频名字以及分类 正好对应为我们数据集标注中的放大动作,模型训练成功。 后续发展 至此,我们便完成了基于PaddleVideo训练动态手势识别的过程。 当然,训练完成后任务并没有结束,结合手势识别我们能干更多有趣的事,希望未来能看到更多关于手势识别的有趣作品。 同时,强大的PaddleVideo也等待大家探索更多有趣、实用的玩法及应用。

    12130

    谷歌发布电影动作数据集AVA,57600精准标注视频教AI识别人类行为

    该数据集以人类为中心进行标注,包含80类动作的 57600 个视频片段,有助于人类行为识别系统的研究 数据集地址:https://research.google.com/ava/ 论文:https:// arxiv.org/abs/1705.08421 教机器理解视频中的人的行为是计算机视觉中的一个基本研究问题,对个人视频搜索和发现、运动分析和手势界面等应用十分重要。 尽管在过去的几年里,对图像进行分类和在图像中寻找目标对象方面取得了令人兴奋的突破,但识别人类的动作仍然是一个巨大的挑战。 谷歌上周发布一个新的电影片段数据集,旨在教机器理解人的活动。 研究者希望AVA的发布将有助于人类行为识别系统的研究,为基于个人行为层面的精细时空粒度的标签对复杂活动进行建模提供机会。

    81550

    自动驾驶车通过动作捕捉,学会阅读街上人们的肢体语言

    每个工程师兼演员首先摆出t形(站直,双腿并拢,手臂伸向一侧)来校准动作捕捉系统。从那里,演员做了一个又一个手势,这些手势来自他们团队从真实数据中创建的手势列表。 Cruise使用来自动作捕捉系统的数据来生成简笔画(下图)和道路工人的动画(上图),作为教会自动驾驶车辆识别人类手势的努力的一部分。 然后,工程师准备数据,输入到机器学习模型中。 使用cruise的手势识别系统,汽车将能够在理解他们各自的手势的同时,安全地绕过多个工作人员。 举个例子,三名公路工人挡住了一辆自动驾驶汽车计划行驶的车道。 为了安全通过十字路口,自动驾驶汽车将识别这个人是控制交通的人。车辆将正确地理解他的手势,即它应该转到另一条车道,向前行驶,并忽略在十字路口对面停车但似乎拥有路权的汽车。 训练自动驾驶汽车理解手势只是一个开始。这些系统必须能够探测到不仅仅是一个人的基本运动。研究人员正在继续测试手势识别系统,使用测试车辆在现实世界中行驶时收集的视频。

    25220

    相关产品

    • 手势识别

      手势识别

      腾讯云神图·手势识别(GR)是基于腾讯音视频实验室推出的新一代人机交互技术,包括静态手势识别、关键点识别、指尖识别、手势动作识别等多种功能,为开发者和企业提供高性能高可用的手势识别服务...... 

    相关资讯

    热门标签

    扫码关注云+社区

    领取腾讯云代金券