首页
学习
活动
专区
工具
TVP
发布
精选内容/技术社群/优惠产品,尽在小程序
立即前往

一个开源小项目,如何使用「分类网络」实现排球追踪

01 背景概述 笔者最近接触到了一个很有趣问题,有关于排球位置追踪。如果有看过排球比赛的话,大家想必都知道,排球实时运动轨迹对排球落点有很大帮助。...而如果可以预知排球落点,就可以很好在比赛中防住对手,把握取胜先机。因而产生了一个很有趣问题:是否有可能预测比赛中排球运动轨迹?这其实是一个典型物体追踪问题,也是一个在笔者看来很有趣题目。...02 数据集选择与初始解决方案 考虑到以上种种挑战,开始阶段对于方案选择并不容易,尤其是标好物体排球视频数据集更是非常难找。...所以如果有办法能把图像中较高点物体所在位置拿到(比如一些封装好轮廓),自然就得到了真值。为了实现这一方法,我用了基于自适应混合高斯背景建模背景减除法(MOG)。 接下来是提出一个合理解决方案。...如果可以把球所在位置标出来,然后提取出来周围像素,说不定可以拿来学习,帮助判断对应一张输入图像有没有球,并且帮助映射球飞行轨迹。

36120

ARKit 初探

因此 ARKit 在追踪方面非常强大。 什么是平面检测 ARKit 平面检测用于检测出现实世界水平面,也就是在 3D 空间中,Y值0一个区域。...追踪物理距离(以“米”单位),例如 ARKit 检测到一个平面,我们希望知道这个平面有多大。...追踪我们手动添加希望追踪点,例如我们手动添加一个虚拟物体 ARKit 使用视觉惯性测距技术,对摄像头采集到图像序列进行计算机视觉分析,并且与设备运动传感器信息相结合。...这是因为手机屏幕一个是长方形二维空间,而相机捕捉到一个由这个二维空间映射出去长方体。我们点击屏幕一个点,可以理解在这个长方体边缘射出一条线,这一条线上可能会有多个3D物体模型。...一般我们无需去创建一个ARCamera,因为在初始化 AR 时,它就帮我们将ARCamera创建好了。另外,我们一般也不直接使用 ARCamera API,默认都是设置

2.3K20
您找到你想要的搜索结果了吗?
是的
没有找到

AAAI 2023 Oral | 对自然条件下点云序列中手物交互位姿追踪与重建

我们首次提出了一个基于点云手部关节追踪网络 HandTrackNet,并设计了一套完整算法来完成手和物体追踪与重建这一具有挑战性任务。...我们任务设定如下所述:给定一个包含已分割手和物体深度点云序列,还有初始手部位姿和物体位姿,我们算法需要去重建手和物体几何形状,并以一个在线方式(即对于第  帧预测只能利用当前帧和过去帧信息...前人工作[5]发现手全局位姿多样性会给网络预测关节位置带来很大困难,而如果能够设计比较好全局位姿规范化方法,使得所有的输入点云都能变换到同一个规范位姿下(例如手心朝向 轴,指尖指向  ...而物体这一支,我们在第0帧利用 DeepSDF[12]技术来根据观察到点云去重建类别级未知物体几何形状,并在之后每一帧通过优化办法来解算物体位姿。...我们还可以每隔10帧更新一次手和物体几何,降低初始化时几何误差对后续追踪影响。

74100

【ICCV 目标跟踪性能最优】首个应用残差学习深度目标跟踪算法

简单说,目标跟踪就是在一段视频中,给定第一帧目标物体位置和大小信息(标定框)后,让跟踪算法在后续每一帧中对目标物体位置和大小进行预测。...典型制约因素包括: ☟ 物体在视频中从初始帧到当前帧,光照情况发生了剧烈变化 ☟ 物体在视频中运动姿态发生了很大变化 ☟ 物体在视频中出现了局部遮挡或全局遮挡情况...那么,有没有方法改进上述问题呢?从本质上说,协同滤波器是一个物体特征做卷积从而生成二维高斯响应过程。训练协同滤波器系数,即为衡量卷积后响应与真实高斯响应偏差多少操作。...协同滤波将物体回归二维高斯核,其峰值即为物体中心位置。 研究人员发现,这样一种训练方式,可以用L2损失函数训练单层卷积层来等价替换。...首次将残差学习用于目标追踪,提升网络预测质量 有了端对端建模,研究人员成功将物体从输入图像回归成二维高斯响应图,峰值即为物体位置。那么在理想情况下,网络会准确地对物体进行回归。

1.2K70

用SAM做零样本视频对象分割!港科大等开源首个「稀疏点传播」方法SAM-PT,性能直追有监督SOTA

为了进一步提升模型性能,研究人员利用K-Medoids聚类来进行点始化,并同时追踪positive和negative点以明确区分目标物体;还采用了多个掩码解码来完善掩码,并设计了一个点重新初始化策略来提高跟踪准确性...例如,在半监督视频物体分割任务中,标注遮罩是物体出现第一帧准备。 研究人员使用了不同点取样技术,通过考虑几何位置或特征不相似性,从真实标注遮罩中获得查询点。...研究人员通过两次调用SAM来结合正样本点和负样本点:首先用正样本点提示SAM来定义物体初始位置;然后同时用正负点以及之前掩码预测来提示SAM,其中负样本点在物体和背景之间提供了更细微区别,并有助于消除错误分割区域...点追踪初始化 一旦prediction horizon中h=8帧,研究人员可以选择使用预测遮罩对查询点进行重新初始化,并将该变体表示SAM-PT-reinit;在达到8之前,使用最后一个预测遮罩对新点进行采样...对新点重复步骤1-4,直到视频中所有帧都被处理完毕;重新初始化过程作用是通过丢弃已经变得不可靠或遮挡点来提高跟踪准确性,同时纳入视频中后来变得可见物体分割点。

40020

ARKit:增强现实技术在美团到餐业务实践

图3 ARKit 结构图 设备追踪 设备追踪确保了虚拟物体位置不受设备移动影响。...设置 SCNNode geometry 属性可以改变物体外观。...散开整体过程如下: ? 图11 投射过程 散开后,点击空白处会恢复散开状态,回到初始位置。未参与散开的卡片会被淡化,以突出重点,减少视觉压力。...图14 深度缓冲区 下一帧时,当另外一个物体某个像素也在这个像素点渲染时,GPU 会对该像素深度与缓冲区中深度进行比较,深度小者保留并存入缓冲区,深度大者不被渲染。...如下图所示,该像素点下一帧要渲染像素深度 0.2,比缓冲区存储 0.5 小,其深度存储,并且该像素渲染在屏幕上: ?

2.1K20

谷歌优化Android版Motion Stills,通过陀螺仪实现实时运动追踪

其中,加速度计传感器提供该设备相对地平面初始定向原理:当该设备大致稳定时,加速度计传感器会提供由于地球重力而产生加速度。...对平面而言,重力矢量将平行于跟踪平面的法线,并可精确地提供该设备初始定向。而即时运动追踪核心是,将摄像头平移估计和旋转估计分离,将其视作独立优化问题。 ?...然后,通过一个简单针孔照相机模型,将图像平面中对象平移和缩放,与相机最终3D平移进行关联。”...此外,为了确定追踪平面的真实距离和深度,我们在现有的追踪器(Motion Text上追踪器)中添加了比例估计,并在摄像头视场外增加了区域追踪。” ?...谷歌对追踪器进行这种优化,让虚拟3D对象靠近摄像头时,能与真实物体一样,得到精准地尺寸缩放。而当摄像头移开虚拟3D物体放置点并重新移回时,虚拟3D物体将重新出现在与之前大致相同位置

1.2K60

一文总结目标追踪必备经典模型(一)

给定测试视频第一帧,使用conv3特征训练一个简单线性回归模型来预测目标物体位置。在随后视频帧中,如果预测目标是可靠,那么可以调整从上式中得到目标位置。...使用ADNet来生成动作,以寻找新帧中目标物体位置和大小。ADNet学习策略,从目标物的当前位置状态中选择最佳行动来追踪目标物。在ADNet中,策略网络是用卷积神经网络设计。...在监督学习阶段,训练网络选择行动,使用从训练视频中提取样本来追踪目标的位置。在这个步骤中,网络学会了在没有顺序信息情况下追踪一般物体。在RL阶段,SL阶段预训练网络用作初始网络。...相反,我们将追踪分数分配给从追踪模拟结果中获得奖励。在其他工作中,如果在无标签序列中追踪模拟结果在有标签帧上评价成功,那么无标签帧追踪分数由z_t,l = +1给出。...交互特征提取器对以目标target网格中心,生成一张网格图,并转化为向量表达。如果周围某物体bbox中心落在网格(m,n)处,则网格(m,n)位置处标1,不被占用网格位置0。

60020

苹果 AR 的人机界面设计规范

要考虑用户舒适度:人处在某个距离、保持某个角度长时间持握设备,会产生疲劳。要考虑用户持握设备使用app时,仍能获得愉快体验。比如,你可以默认设置成,把物体放在一个不需要用户靠近距离。...如果一定要使用文字说明,请使用容易理解文案:AR是一个前卫概念,容易让一些用户退缩。为了让用户更容易接受,要避免使用太过技术性、面向开发词汇,例如ARKit、现实检测、追踪。...为了减少用户困惑,加快初始化进程,可以向用户展示初始化正在进行事项,鼓励用户探索他们周围环境,或是去寻找实物表面。...如果此时用户点击屏幕来放置物体,要尽可能使用已获得信息尽快放置物体。一旦表面检测完成,再巧妙地优化物体位置。如果一个物体放置位置超出了检测到表面,就需要将物体轻轻地推回表面上。...如果你app可以检测到这些问题,或者当表面检测太慢时,可以给到用户解决办法。 问题——建议解决办法 检测到功能缺陷——试一试打开灯光,或是来回走动一下。

1.5K00

实践干货 | 自动化视觉跟踪

第二,我们必须初始化LED(关灯状态): 现在,在代码循环体中,当物体检测到,”圆“创建时,我们会把LED灯打开 你可以在我GitHub库中下载到完整代码:object_detection_LED.py...上面代码核心是 setServoAngle(servo, angle)方法。这个方法会接收参数有:一个 GPIO 数字,一个伺服定位角度值。...实现这个想法坏消息是 我们必须实时地定位到物体位置,但好消息是 如果我们已经知道了物体中心坐标点,这将会很容易。...物体位置追踪系统 我们想要目标始终在屏幕中央,我们来定义一下,例如:假如满足下方条件,我们就认为物体在中央: 220 < x < 280 160 < y < 210 而在这个界限之外的话,我们就需要通过移动云台装置来修正偏差...,进而使得物体在屏幕上就会往下方移动(比如 y坐标提高到190位置)。

1K20

自动化视觉跟踪

第二,我们必须初始化LED(关灯状态): 现在,在代码循环体中,当物体检测到,”圆“创建时,我们会把LED灯打开 你可以在我GitHub库中下载到完整代码:object_detection_LED.py...上面代码核心是 setServoAngle(servo, angle)方法。这个方法会接收参数有:一个 GPIO 数字,一个伺服定位角度值。...实现这个想法坏消息是 我们必须实时地定位到物体位置,但好消息是 如果我们已经知道了物体中心坐标点,这将会很容易。...物体位置追踪系统 我们想要目标始终在屏幕中央,我们来定义一下,例如:假如满足下方条件,我们就认为物体在中央: 220 < x < 280 160 < y < 210 而在这个界限之外的话,我们就需要通过移动云台装置来修正偏差...,进而使得物体在屏幕上就会往下方移动(比如 y坐标提高到190位置)。

96530

【笔记】《计算机图形学》(4)——光线追踪

光线追踪就属于图像顺序渲染,而我们平时见到大多数是物体顺序渲染 光线追踪基本思想就是从屏幕每个像素发出视线,视线最早接触到物体渲染出来,直到绘制出所有像素 ?...也就是:p(t)= e + t(s − e),这里s-e也视线方向向量d,所以视线实际上 p = e + td 找到这些坐标坐标并不容易,首先我们要定义一个相机坐标系框架,以视点e中心,然后u...注意这里w与视线方向是反向,u是指向右边,都与直觉相悖,这里重点是要把相机坐标系看作一个反着放置坐标系,之所以这么设置与之后物体顺序渲染有关,暂时记住就好 ?...这里我们要求解是距离t和交点位置参数β和γ,可以看到这显然是一个三元线性方程组,将其每个纬度坐标拆出来写线性方程组矩阵形式 ?...上面这段伪代码核心就是要判断是否在视线范围内,只有范围内物体才需要考虑着色问题,否则设置背景色即可 为了提高程序逻辑性,最好将所有可以hitsurface都继承同一个抽象类方便管理。

2.3K20

【GAMES101】Lecture 13 光线追踪 Whitted-Style

光线追踪 这里讲一下为什么我们需要光线追踪,主要是因为光栅化没有办法很好处理全局光照效果,就像上节课我们说到软阴影,还有这个毛玻璃一样反射光,以及这种间接光照效果,光栅化无法很好处理,虽然光栅化很快...,从我们人眼发射出光线所经过光路同样也是进入我们人眼光线光路,那光线追踪具体怎么做呢 第一步,从人眼向投影平面每个像素投射出去一条光线,找到与场景物体交点,这里考虑遮挡,只找到最近交点 然后将交点和光源连线...,根据连线上是否有物体存在判断是否存在阴影,然后用Blinn Phong着色模型计算这个像素颜色 那这个不是和上次shadow mapping一样吗,所以有第二步,叫Whitted-Style光线追踪...Whitted-Style光线追踪 找到第一个交点之后并不停止,根据这个物体材质继续做反射光线 同时也继续做光线折射 然后计算所有交点光能量并加权累积,当然这个过程会有光衰减,然后就可以得到这个像素全局光照效果了...t不就行了吗 但是这个是不是算出来之后还得判断这个交点是不是在三角形内部,有没有一算出来就知道和三角形有没有交点,答案是有 Möller Trumbore Algorithm(MT算法) 我们之前讲插值时候不是讲过三角形重心坐标系吗

12910

我们都爱inside-out,但现在要搞定它还不是太容易

在CES 2018上,我们看到更多厂商自家产品搭载了inside-out追踪技术,这也算是2018年VR,尤其是移动VR发展打开了良好局面。 ?...比如索尼PS VR,其采用可见光定位技术,这种技术直接利用可见光,在不同追踪物体上安装能发出不同颜色发光灯,摄像头捕捉到这些颜色光点从而区分不同追踪物体以及位置信息。...虽然灵敏度和稳定性都很好,但是如果灯光遮挡就无法确认位置,对环境要求也比较高。而搭载inside-out头显就可以有效避免类似问题。 ?...以HTC Vive例,我们首先需要搭建并调整外部基站位置,然后将头显连接到PC主机上,最后还要通过电脑进行VR体验一系列设置。 ? 体验结束后又需要将器材全部拆开收好,十分繁琐。...SLAM技术也广泛应用在自动驾驶领域,这看上去的确是一项很棒技术。 ? 但这种实时建模技术目前精度还不高,尤其是在未知空间中,如果通过不同角度去观测物体,角度差一度,物体位置就会差几厘米。

97680

Android OpenCV 4.6.0 颜色追踪

介绍 通过OpenCV实现,实时识别摄像头中固定颜色块坐标位置,并进行标注。 简而言之,追踪摄像头中纯色物体运动轨迹。 我们可以通过OpenCV来识别视频中纯色物体移动轨迹。...第一个是开始值,后面的是结束值。然后openCV就会在这两个颜色范围内进行分割。将属于该颜色范围地方设置白色。 不属于设置黑色。...,可以通过HSV颜色卡,设置不同颜色。...//起到一个提取过程中间转换暂存作用。...下一步,就是绘制该对象了 2.7 绘制提取区域 我们得到数据可能为空,所以要进行判断,如果不为空,那么就绘制一个红色边框矩形。边框宽度2。 //得到最大对象 if (rect !

1.6K20

业界 | 当物理遇上深度学习——谷歌 AI 推出投掷机器人 TossingBot

尽管已在物体抓取、视觉自适应、从现实经验学习方面取得相当大进步,然而我们依旧要考虑机器人如何执行抓取、处理以及物体置放等任务——尤其在无规律环境设置里。...通过高架摄像头追踪物体落地位置,TossingBot 得以借助自我监督机制逐步自我完善。...物理学提供关于世界如何运作先验模型,我们可以运用该模型来开发机器人初始控制器。比如在投掷场景里,我们可以利用弹道学原理帮助我们估计使物体落至目标位置所需投掷速度。...通过这种方式,训练期间的人为干预降到最低。通过10,000 次左右抓握与投掷尝试(或等同于 14 小时训练时间),它最终实现 85%投掷准确度,在杂乱环境中抓取可靠性 87% 。...在这种情况下,我们发现投掷背后残差物理理论作用很明显,弹道学对投掷速度初始估计能够帮助我们推导出新目标位置,而残差理论可以在这些估计基础上进行调整,以应对不同物体属性在现实世界中变化。

60040

视频分割大结局!浙大最新发布SAM-Track:通用智能视频分割一键直达

---- 新智元报道   编辑:好困 【新智元导读】只需要一句话、一个点击、一支画笔,就能在任意场景分割追踪任意物体!...相较于传统视频追踪算法,SAM-Track一个强大之处在于可对大量目标同时进行跟踪分割,并自动检测新出现物体。 SAM-Track还支持多种交互方式组合使用,用户可根据实际需求搭配。...DeAOT是一个高效多目标VOS模型,在给定首帧物体标注情况下,可以对视频其余帧中物体进行追踪分割。...DeAOT采用一种识别机制,将一个视频中多个目标嵌入到同一高维空间中,从而实现了同时对多个物体进行追踪。 DeAOT在多物体追踪方面的速度表现能够与其他针对单个物体追踪VOS方法相媲美。...如果想要实现语言引导视频物体分割,SAM-Track则会调用Grounding-DINO根据输入文本,先得到目标物体位置框,并在此基础上通过SAM得到感兴趣物体分割结果。

57420

最全比对——Rift、Vive、PSVR及微软将于明年发布VR头显,究竟谁能提供更好空间追踪体验?

简单来说,空间追踪意味着你可以在整个一个空间范围内自由移动,而不会影响游戏、头显、传感器等任何其他介质对玩家位置跟踪。...PlayStation VR设备采用PS4双目体感摄像头和彩色发光物体,来定位人体头部和控制器位置。头显及手柄都设置了LED灯球,这些LED光球可以自行发光,且不同光球所发出颜色不同。...与以上三种外置追踪设备不同是,微软VR头显采用是“由内而外(Inside-out)”追踪办法,它无需设置额外识别设备,只需要依靠机器上摄像头即可。这些摄像头可以进行实时场景扫描。...在设置空间追踪游戏体验时,微软VR头显得益于其由内而外追踪系统,不需要另行设置,PSVR则只需接入一个摄像头,Vive与Rift空间追踪设置则需要费一番周折。...无需设置外部追踪设备不仅仅简化了安装步骤,基于计算机视觉定位追踪也可以用于识别物体和肢体动作,从而让用户在 VR 世界里依靠直觉进行交互。

906110

Meta推出像素级动作追踪模型,简易版在线可玩 | GitHub 1.4K星

另一边,一位跳伞运动员从空中划过,留下了一道绚丽彩虹…… 对这个新“玩具”,有网友评论说,它不仅能改变物体追踪技术,也将在体育(动作)分析、野生动物追踪,甚至电影后期领域掀起一场新革命。...只见花花六亲不认步伐CoTracker整个记录了下来,真的是太可爱了。 不过要论戏剧性的话,可能还得是我们“西直门三太子”萌兰。 看完了可爱胖达,接下来就要进入整活环节了,来点名场面!...但是如果自己部署、用代码操纵的话,就可以设置任意跟踪点了。 说到这我们正好来看一下CoTracker该怎么部署。 首先是Colab版本,我们刚刚说到自定义跟踪点也在Colab当中。...评分超过DINOv2 虽然都是追踪,但CoTracker和物体追踪模型有很大区别。 CoTracker并没有基于语义理解对视频中物体进行分割过程,而是把重点放在了像素点上。...CoTracker使用上个窗口输出对后面的窗口进行初始化,并在每个窗口上运行多次Transformer迭代。 这样就使得CoTracker能够对更长视频进行像素级跟踪。

21710

前沿 | 从虚拟世界伸到现实机械臂,靠摄像机就能玩转任何物体

当指尖传感器其它手指或物体遮挡时,Dactyl 只能收到局部信息。此外,许多物理方面的问题(如摩擦和滑移)无法直接观察到,必须要对其进行推断。 操控多个物体。...即使是对两物体触碰后变化进行建模——这是操作中最基础问题——也是一个活跃研究领域,目前仍未有广泛认可解决方案。...但在目前模拟器中,许多这样效果没办法精确建模。 相反,我们在分布式模拟环境中训练策略,其中物理和视觉属性是随机选择。随机值是表示物理系统不确定性自然方式,也能防止对单个模拟环境过拟合。...Dactyl 实验设置,包含机械臂、相空间运动追踪摄像机和 Basler RGB 摄像机。 对于方块操控任务,结合随机化训练策略相比没有使用随机化训练策略可以实现更多旋转次数,如下所示。...总的来说,我们不需要一套具有难以建模丰富传感器,利用一套有限传感器就能提升机械臂表现,这些传感器可以在模拟器中有效建模。 一个对象开发随机化泛化到具有类似属性其它对象。

84220
领券