腾讯云
开发者社区
文档
建议反馈
控制台
首页
学习
活动
专区
工具
TVP
最新优惠活动
文章/答案/技术大牛
搜索
搜索
关闭
发布
登录/注册
精选内容/技术社群/优惠产品,
尽在小程序
立即前往
文章
问答
(9999+)
视频
沙龙
1
回答
深度
纹理使用什么
坐标系
?
opengl-es
、
coordinate-systems
、
depth-buffer
、
opengl-es-3.0
我有一个
深度
纹理,我想知道
深度
纹理内部
的
值存储在哪个
坐标系
中
。齐次
坐标
、
相机
坐标
、
世界
坐标
还是模型
坐标
?谢谢。
浏览 3
提问于2014-07-02
得票数 0
1
回答
Depthmap (搅拌机)到3D -基线是多少?
3d
、
stereo-3d
我想用OpenGL
从
深度
图中重建一个场景。
深度
图是使用Blender生成
的
。现在,我希望使用以下公式将
深度
图重新投影到3D:X = u*Z / focallength Y = v*Z / focallengthU和V是清楚
的
,我
从
混合器python得到焦距。基线是拍摄场景
的
两个摄像机之间距离矢量
的
长度。在我
的
设置<
浏览 2
提问于2014-07-08
得票数 0
回答已采纳
2
回答
二维
坐标
到三维
世界
坐标
opencv
、
computer-vision
我想将2D图像
坐标
转换为3D
世界
坐标
。我使用
的
是ZED
相机
,它是一个立体
相机
,随附
的
sdk提供了视差图。因此我有
深度
。这两个照
相机
是平行
的
。虽然这个问题是微不足道
的
,但我无法弄清楚转换背后
的
数学原理。我有以下信息2)我也知道两台
相机</
浏览 6
提问于2016-08-12
得票数 4
回答已采纳
2
回答
如何
利用kinect sdk v2将
深度
像素转换到摄像机空间
kinect
、
kinect-sdk
我有几个关于
坐标
映射
的
问题: 现有的MapCameraPointToDepthSpace方法只能返回
深度
空间
坐标
。但是没有
深度
值,这种方法是无用
的
。
如何
获得彩色
相机
浏览 0
提问于2015-03-23
得票数 0
1
回答
使用标定
相机
opencv c++测量物体
的
真实尺寸?
c++
、
opencv
我正在完成与opencv相关
的
论文。我想测量物体
的
真实尺寸(mm),但我有问题
的
转换
相机
的
自然单位(像素)和现实
世界
单位!在校准
相机
之后,我有: 有摄入吗?非常感谢。
浏览 1
提问于2018-05-30
得票数 0
回答已采纳
2
回答
在kinect中指定新
的
世界
坐标系
computer-vision
、
kinect
如何
在kinect中指定新
的
世界
坐标系
?例如,我
的
kinect正在移动,我需要在场景中指定一个静态
的
世界
坐标系
。如果使用
深度
图来识别用户指定
的
世界
坐标
,最准确
的
方法是什么?由于
深度
图
的
分辨率不高,很难选择精确
的
像素来定义用户指定
的
世界
坐标
。将默认
世界
浏览 0
提问于2013-09-19
得票数 0
1
回答
如何
从
深度
相机
获取
世界
坐标系
中
的
深度
坐标
python
、
computer-vision
、
realsense
深度
摄像头:英特尔realsense D415语言: python 我正在尝试得到
世界
坐标系
中一个
深度
点
的
z
坐标
。我想知道是否有嵌入式方法,或者是否有方法可以获得它? 提前谢谢你!
浏览 73
提问于2020-07-18
得票数 0
1
回答
直接基于旋转R和平移T
的
立体标定,而不是使用点对应关系
opencv
、
camera-calibration
、
coordinate-systems
、
coordinate-transformation
、
stereoscopy
知道两个摄像机在
世界
坐标
中
的
旋转和平移(相对于某个已知
的
点),我将
如何
校准我
的
立体系统? 在OpenCV
中
,通常
的
方法是在两个
相机
前面使用校准模式来获得点
的
对应关系。假设R和T在
世界
坐标系
中
的
位置是已知
的
(已知是绕z轴
的
旋转(天花板或偏航角度)和绕垂直于
相机
视图
的</
浏览 20
提问于2019-03-13
得票数 1
1
回答
为什么在Apple
的
`使用场景
深度
可视化点云‘示例代码
中
需要`rotateToARCamera`?
ios
、
graphics
、
computer-vision
、
arkit
、
metal
示例代码: return flipY
浏览 0
提问于2021-01-21
得票数 0
1
回答
灰度
深度
图像到点云数据
grayscale
、
depth
、
point-cloud-library
我正在尝试将灰度
深度
图像(0-255)转换为云点xyz,以便在PCL(点云库)
中
对其进行处理。 你知道我该怎么做吗?
浏览 8
提问于2013-08-01
得票数 0
1
回答
如何
理解计算机视觉和计算机图形学
中
不同
的
摄像机约定
graphics
、
computer-vision
最近,当我尝试将一些RGBD图像重建到
世界
坐标
下
的
原始点云时,我发现这涉及到
相机
约定问题。在某些框架
中
,例如three.js、WebGL、OpenGL,摄影机指向负z方向。而在其他框架
中
,它们可能会有一些不同
的
选择。 因此,给定一个
深度
图像或一对RGBD图像,我
如何
在不知道其生成过程
的
情况下知道
相机
约定(仅关注渲染图像)?老实说,我仍然对
相机
约定有点困惑,为什么它会影响?在我看来,
浏览 20
提问于2020-09-09
得票数 0
回答已采纳
1
回答
Microsoft Kinect SDK
深度
数据到真实
世界
坐标
kinect
我正在使用Microsoft Kinect SDK
从
Kinect
获取
深度
和颜色信息,然后将该信息转换为点云。我需要
的
深度
信息是在真实
世界
的
坐标
与
相机
的
中心作为原点。我见过一些转换函数,但这些显然是针对OpenNI和非微软驱动程序
的
。我读到来自Kinect
的
深度
信息已经以毫米为单位,并包含在11位
中
……或者别的什么。我
如何
将这个比
浏览 1
提问于2012-01-10
得票数 15
回答已采纳
1
回答
Three.JS MeshDepthMaterial,
深度
图不是均匀分布
的
three.js
、
rendering
、
webgl
、
depth
camera.far = 50;但是,如果
相机
是以其他方式设置
的
,例如:camera.near =550;object.position.z = 0; 在第二个例子
中
,在
世界
坐标系
中
,
深度
分辨率都是在-45到-50
的
深度
范围内进行
的
。这意味着对于-50 <objects.
浏览 3
提问于2015-01-29
得票数 1
回答已采纳
2
回答
[GLSL]
如何
比较
世界
坐标
中所有顶点
的
z值?
glsl
、
depth
、
vertex-shader
、
zbuffer
这可能是一个简单
的
问题。作为GLSL
的
新手,我更愿意在这里提问。现在,在顶点着色器
中
,我可以通过以下方式获得
世界
坐标系
中
的
位置: posWorld = gl_ModelViewMatrix *gl_Vertex; 问题是:现在我能知道所有顶点中posWorld
的
最大/最小值吗?这样我就可以得到顶点
深度
的
范围,但不能得到
深度</e
浏览 0
提问于2011-09-22
得票数 2
回答已采纳
2
回答
使用OpenCV
从
屏幕
坐标
计算
世界
坐标
opencv
、
kinect
、
camera-calibration
、
calibration
我已经用OpenCV计算了
相机
的
内部参数和外部参数。现在,我想从屏幕
坐标
(u,v)计算
世界
坐标
(x,y,z)。注:当我使用kinect时,我已经知道了z
坐标
。任何帮助都是非常感谢
的
。谢谢!
浏览 2
提问于2012-08-17
得票数 9
回答已采纳
1
回答
计算OpenCV stereoRectify后三维
相机
和图像像素
的
位置
python
、
opencv
、
camera-calibration
我有一个完整
的
立体声校准与(Python) OpenCV
的
所有结果(即必要
的
输入和输出
的
)。 我
的
目标是在
世界
坐标
下计算
相机
中心和立体校正后
世界
坐标系
中
任意图像
坐标
(以像素为单位)
的
位置。后来,我想确定这些透视点(
从
相机
中心到
世界
坐标系
中
的
图像
坐标
浏览 3
提问于2019-10-07
得票数 1
1
回答
帮助平移旋转
的
相机
opengl
、
graphics
、
camera
、
translation
、
lwjgl
我已经实现了围绕中心实体
的
相机
旋转,现在想要添加
相机
平移。我不能像
相机
朝向z轴旋转并向右拖动一样进行centre.xy += mouse.delta.xy,这显然会使
相机
向我移动(因为x轴是递增
的
)。在这种情况下,需要增加centre.z属性。我想我需要将
相机
的
俯仰、偏航和滚动属性合并到这个计算
中
,但不确定
如何
进行……有什么建议/链接吗? 我也试着使用光线投射(我已经实现了),来代替鼠标增量,但是没有用。编
浏览 18
提问于2019-09-07
得票数 1
回答已采纳
2
回答
为什么默认情况下
相机
要面对z轴
的
负端?
opengl
、
graphics
、
3d
、
geometry
、
projection-matrix
我是从这个openGL学习
的
,下面是透视图项目矩阵一章
的
引语:
相机
沿着
世界
坐标系
的
负z轴点,这样当一个点
从
世界
空间转换到
相机
空间时(然后
从
相机
空间转换到屏幕空间),如果点是
世界
坐标系
统y轴
的
左边,它也会映射到
相机
坐标系
y轴
的
左边。换句话说,我们需要
相机
坐标系</e
浏览 2
提问于2015-10-29
得票数 5
1
回答
深度
到
世界
注册hololens2统一
unity3d
、
computer-vision
、
hololens
、
mrtk
、
projective-geometry
我正在开发一个关于统一
的
hololens2研究模式
的
项目。全息透镜给了我们一个
深度
图像,即从
深度
传感器到前面的物体
的
距离,每一个像素。我所做
的
就是对每一个像素投射到图像平面,然后根据
深度
传感器捕捉到
的
深度
距离进行反投影,给出
深度
传感器
坐标
框架
中
的
xyz。现在需要将这个
坐标
转换为全局
坐标系
。为了做到这一点,我通过cam_pose
浏览 8
提问于2022-08-14
得票数 0
回答已采纳
1
回答
从
标准化设备
坐标
到屏幕
坐标
的关系?
opengl
、
screen
、
coordinate-systems
、
depth
我对ndc与屏幕
坐标系
之间
的
关系感到困惑。我所做
的
是 结果等于我第一次选择
的
浏览 5
提问于2012-08-13
得票数 0
回答已采纳
点击加载更多
扫码
添加站长 进交流群
领取专属
10元无门槛券
手把手带您无忧上云
相关
资讯
从 MAX 网站中获取模型,一秒开始你的深度学习应用
聊聊自动驾驶汽车的伪激光雷达-双目立体视觉
摄影测量中的几个核心问题
美团公开“深度相机和毫米波雷达的配准方法”专利
自动驾驶多传感器融合之相机与IMU的同步
热门
标签
更多标签
云服务器
即时通信 IM
ICP备案
对象存储
实时音视频
活动推荐
运营活动
广告
关闭
领券