腾讯云
开发者社区
文档
建议反馈
控制台
首页
学习
活动
专区
工具
TVP
最新优惠活动
文章/答案/技术大牛
搜索
搜索
关闭
发布
登录/注册
精选内容/技术社群/优惠产品,
尽在小程序
立即前往
文章
问答
(9999+)
视频
沙龙
1
回答
以
高性能
的
方式
获取
CVPixelBuffer
(
相机
帧
和
ar
模型
)
swift
、
scenekit
、
augmented-reality
、
arkit
我需要得到一个包含
相机
帧
和
AR
模型
的
CVPixelBuffer
,
以
30+ fps
的
速率放置,最好是低能耗
和
低CPU影响。session(_:didUpdate:)中
帧
的
capturedImage不包含
AR
模型
。我尝试使用sceneView.snapshot()
获取
UIImage,然后将其转换为
CVPixelBuffer<
浏览 73
提问于2019-05-29
得票数 1
回答已采纳
1
回答
将ARFrame捕获
的
图像转换为UIImage定向问题
ios
、
swift
、
uiimage
、
arkit
、
cvpixelbuffer
我想检测球,并让
AR
模型
与它互动。我使用opencv来检测
和
发送球
的
中心,我可以用它在hitTest中获得sceneView中
的
坐标。我一直使用以下函数将
CVPixelBuffer
转换为UIImage: let ciImage = CIImage(
cvPixelBuffer
: buffer) let t
浏览 0
提问于2018-01-26
得票数 9
回答已采纳
1
回答
在
CVPixelBuffer
中可以改变捕获
的
AR
图像
的
分辨率吗?
swift
、
augmented-reality
、
arkit
、
coreml
、
cvpixelbuffer
我在ARKit应用程序中使用预先训练过
的
ARKit
模型
。我从ARCamera中
获取
图像,并将它们放到
CVPixelBuffer
中进行处理:ARKit可以
以
YCbCr格式捕获像素缓冲区。要在iPhone
的
显示器上正确呈现这些图像,您需要访问像素缓冲区
的
luma
和
chroma平面,并使用float4x4 ycbcrToRGBTransform矩阵
浏览 0
提问于2018-11-05
得票数 2
回答已采纳
1
回答
如何将
CVPixelBuffer
/ CVImageBuffer转换为数据?
ios
、
nsdata
、
exif
、
cvpixelbuffer
、
cmsamplebuffer
我
的
相机
应用程序捕捉一张照片,
以
某种
方式
增强它,并保存它。 为此,我
以
CVPixelBuffer
(包装在CMSampleBuffer中)
的
形式从
相机
获取
输入图像。如何从
CVPixelBuffer
/ CVImageBuffer中获得一个?这是有意义
的
,因为CMSampleBuffer包含像素缓冲区(位图),而不是JPEG。
浏览 5
提问于2017-07-11
得票数 1
1
回答
从统一中
的
Vuforia
获取
相机
框
c#
、
unity3d
、
camera
、
vuforia
我想创建一个简单
的
AR
应用程序使用unity3d,vuforia软件包
和
opencv。正常情况下,在统一
的
AR
应用程序中,找到选定
的
2d目标,并投影虚拟3d对象。 在unity中创建一个新项目导入vuf
浏览 2
提问于2015-04-20
得票数 0
回答已采纳
1
回答
iOS ARKit如何保存ARFrame .capturedImage文件?
ios
、
arkit
、
swift5
、
cvpixelbuffer
我正在尝试将
相机
图像从ARFrame保存到文件中。图像
以
CVPixelBuffer
的
形式给出。我有下面的代码,它产生
的
图像与一个错误
的
高宽比。我尝试了不同
的
方法,包括CIFilter来缩小图像,但仍然无法保存正确
的
图片。如何将capturedImage (
C
浏览 5
提问于2021-02-14
得票数 0
回答已采纳
1
回答
如何在RealityKit中录制视频?
swift
、
arkit
、
realitykit
我考虑过ReplayKit,但那是用于屏幕录制,我只想录制带有摄像头
的
ARView。我考虑过AFathi
的
开源项目ARVideoKit,但它不支持RealityKit……关于不同
的
渲染路径。我找到了一篇媒体文章,描述了如何在ARKit应用程序中实现录制功能,但问题是它需要方法:func renderer(_ renderer: SCNSceneRenderer),这在RealityKit中是不可用
的
,
浏览 34
提问于2019-12-30
得票数 9
1
回答
安卓:单SurfaceView vs多SurfaceView
android
、
opengl-es-2.0
、
surfaceview
我正在尝试绘制3D对象到
相机
预览框(Android)。我是否应该使用两个曲面视图,一个用于
相机
预览,另一个用于绘图GLSurfaceView。视图应该是同步
的
,并且显示
的
帧
速率应该足够好,
以
提供良好
的
用户体验。因此,大多数教程都在讨论如何使用多个视图。另一种想法是从
相机
预览中
获取
纹理,并将其与要绘制
的
3D对象合并,
以
获得适当
的
2D光栅图像。哪种方法能更好地提
高性能
浏览 2
提问于2017-02-03
得票数 0
1
回答
基于Flash
的
Android增强现实应用
android
、
air
、
flash-cs5
、
augmented-reality
我使用CS5在android上创建了一个增强现实应用程序,下面是Lee ()
的
视频教程。谢谢
浏览 3
提问于2011-01-26
得票数 1
回答已采纳
1
回答
基于ARkit
和
CoreML
的
视觉框架
computer-vision
、
arkit
、
coreml
虽然我一直在研究最佳实践并为一个正在进行
的
项目(即Vuforia
的
Unity3D iOS项目进行本地集成,使用AVFoundation提取框架,然后通过基于云
的
图像识别传递图像)进行试验,但我得出
的
结论是,我希望使用ARkit、Vision
和
CoreML;让我解释一下。我想知道我如何能够捕获ARFrames,使用视觉框架来使用CoreML
模型
检测
和
跟踪给定
的
对象。此外,一旦识别出对象具有在手势触摸时添加
AR
对象
的
能力
浏览 1
提问于2017-07-07
得票数 17
回答已采纳
1
回答
ARKit -替换原始
相机
馈电图像
ios
、
arkit
我想把
CVPixelBuffer
直接从
相机
馈送之前,ARKit发挥其神奇
的
尝试
和
应用图像处理,
以
提高跟踪质量。在AVFoundation中,您可以这样做,但到目前为止,我只能找到会话委托函数'didUpdate‘,它为我提供了一个只
获取
的
capturedImage。苹果是否公开了任何类似“willUpdate”功能
的
原始视频帧数据,允许设置功能?
浏览 3
提问于2017-09-15
得票数 2
回答已采纳
1
回答
Unity3D
和
OpenCV
的
集成
和
相互传递
的
相机
帧
performance
、
opencv
、
unity3d
、
augmented-reality
背景:我们
的
OpenCV程序
和
OpenCV库本身编译成一个动态库(so文件Linux)。到目前为止,一切看起来都很清楚,但问题在于:两个部分(Unity3D
和
OpenCV)都需要
相机
的
每一个
帧
,因此有多种方法可以为它们提供
相机
帧
: Unity3D读取
帧
(WebCamTexture
浏览 4
提问于2016-11-03
得票数 1
回答已采纳
2
回答
基于
AR
android应用程序
的
三维物体识别
android
、
opencv
、
augmented-reality
、
object-recognition
我正在尝试开发一个
AR
android应用程序。哪一种算法(在精度
和
速度方面)更好:筛选、冲浪、快速、ORB还是其他什么?2-我不知道探测
和
跟踪
的
过程是否会是这样
的
:
获取
摄像机
帧
,检测其关键点,计算其描述符,然后将其与数据库中可用
的
每一幅图像(
浏览 0
提问于2016-06-25
得票数 0
回答已采纳
2
回答
如何改变
AR
相机
,使其显示在两个图像(立体声)?
unity3d
、
augmented-reality
、
vuforia
、
google-cardboard
、
arcamera
我正在开发一个
AR
原型在团结,
以
识别目标
和
显示动画
模型
在他们上。我想使用这个原型与谷歌纸板,因此我需要它
的
工作在立体
相机
。我试图改变设备类型
的
在
AR
相机
检查器> Vuforia引擎配置>数字眼镜,从“掌上电脑”到“电话+查看器”。(我正在遵循本教程中所做
的
工作) 当我这样做时,一切都保持不变(
相机
不会改变为立体声),当我处于游戏模式时,一个叫做背景
的
黑色背景出现,所以我
浏览 6
提问于2021-02-07
得票数 1
回答已采纳
1
回答
如何在使用ARkit
的
增强现实应用程序中关闭/打开
AR
?
ios
、
swift
、
xcode
、
augmented-reality
、
arkit
我开始学习如何使用ARkit,我想添加一个按钮,就像Pokemon go应用程序中
的
按钮一样,您可以在
AR
ON (在现实世界中使用
模型
)
和
AR
OFF (不使用
相机
,只有固定背景
的
3D
模型
)之间切换。有什么简单
的
方法吗?
浏览 3
提问于2018-08-07
得票数 3
3
回答
如何使用XNA从
模型
生成位图?
performance
、
model
、
bitmap
、
xna
我希望使用XNA4.0从3D
模型
的
相机
视图动态创建图像(作为Texture2D)。我可以设置一个
模型
和
相机
来获得我想要
的
视图,但是因为我需要同时为每个
帧
的
许多大型
和
复杂
的
模型
做这件事,为了最好
的
性能,我认为如果我
以
某种
方式
绘制或写入一次视图到一个位图,然后重复地将它显示在屏幕上,将大大减少计算成本
浏览 0
提问于2013-05-14
得票数 1
回答已采纳
1
回答
在Unity中访问设备摄像头
google-project-tango
我需要从Unity
获取
安卓
相机
的
参数,比如焦距
和
曝光。我在我
的
项目中使用探戈
AR
相机
,使用Unity AndroidJavaClass,我可以
获取
Camera类,
获取
相机
数量,并打开一个
相机
以
获得更多选项。但是,当我调用Camera.open()方法时,应用程序摄像头停止显示提要,可能是因为open()方法断开了摄像头与探戈
AR
摄像头
的
连接。 是
浏览 5
提问于2016-03-23
得票数 0
1
回答
从openCV输出
获取
摄像机
帧
,而不是摄像机
的
原始
帧
java
、
android
、
opencv
、
image-processing
、
opencv4android
(在安卓),我想要
的
应用程序需要
获取
相机
帧
,从openCV输出,而不是
获取
相机
的
原始
帧
。例如,我有一个应用程序,打开
相机
和
显示摄像头
帧
,如视频,我希望这个应用程序从接口输出获得
相机
帧
(一些应用程序,获得原始
帧
的
凸轮
和
操纵它)。界面应用程序
的
行为/运行
方式
类似于后台服
浏览 0
提问于2018-12-28
得票数 0
1
回答
OpenTok iOS SDK 2.18.1屏幕共享质量问题
ios
、
opentok
、
screensharing
在确保控制发送给videoCaptureConsumer
的
FPS
以
限制带宽之后,我们仍然无法从订阅设备上
的
媒体路由器获得高质量
的
图像。尝试: 我试着用
CVPixelBuffer
和
OTVideoFrame发送图像。当没有从摄像机接收到
帧
时,使用两种方法:
CVPixelBuffer
用于照
相机
图像,OTVideoFrame用于黑色图像。但是结果流变得模糊
浏览 5
提问于2021-01-25
得票数 2
1
回答
CoreML与ARKit相结合
swift
、
ios11
、
xcode9-beta
、
arkit
、
coreml
我试图将CoreML
和
ARKit结合到我
的
项目中,在苹果上使用给定
的
inceptionV3
模型
。我从ARKit
的
标准模板开始(Xcode 9 beta 3)sceneView.session.delegate = self 然后我扩展我
的
viewController
以
符合ARSe
浏览 15
提问于2017-07-20
得票数 5
回答已采纳
点击加载更多
扫码
添加站长 进交流群
领取专属
10元无门槛券
手把手带您无忧上云
相关
资讯
Core ML and Vision Framework on iOS 11
谷歌AI良心开源:一部手机就能完成3D目标检测,还是实时的那种
ARKit001_学习指导篇
Apple Glass 可与其他设备进行连接,以进行准确的 AR 映射
IMU协同相机颜色帧构建更真实的AR天空
热门
标签
更多标签
云服务器
ICP备案
实时音视频
即时通信 IM
对象存储
活动推荐
运营活动
广告
关闭
领券