腾讯云
开发者社区
文档
建议反馈
控制台
登录/注册
首页
学习
活动
专区
工具
TVP
最新优惠活动
文章/答案/技术大牛
搜索
搜索
关闭
发布
精选内容/技术社群/优惠产品,
尽在小程序
立即前往
文章
问答
(9999+)
视频
沙龙
1
回答
是否
从
ARWorldTrackingConfiguration
获取
当前
帧
作为
uiimage
?
、
、
我需要在配置
ARWorldTrackingConfiguration
时提取物理摄像头看到的
帧
(没有添加SCNScene )。我是ios的新手,所以也许我错过了一些东西,但我不能做到这一点。context = CIContext(options: nil)let
uiImage
=
UIImage
(cgImage: cgImage!)
浏览 32
提问于2019-03-11
得票数 1
回答已采纳
1
回答
使用MPMoviePlayerController
作为
UIView的容器
、
、
、
目前,我正在
获取
UIImage
中的流
帧
,并将
UIImage
传递给要显示给用户的UIView。这是伟大的工作到目前为止,但我想切换全屏,同时查看流。我想知道
是否
可以为此目的使用MPMoviePlayerController?因为我正在接收
UIImage
对象中的框架,所以我没有一个URL可以传递给MPMoviePlayerController,因此我无法让这个概念工作起来。我想简单地使用MPMoviePlayerController
作为
当前
处理
帧<
浏览 3
提问于2013-08-20
得票数 0
回答已采纳
1
回答
使用GPUImage
从
视频中提取
帧
我正在使用GPUImage,并想从视频提要GPUImageVideoCamera提取几
帧
,并保存为图像,当一个按钮被点击时审查。 做这件事最好的方法是什么?
浏览 0
提问于2012-11-28
得票数 1
回答已采纳
1
回答
是否
可以使用
从
ARReferenceImage 11.3.1上的图像编程创建的iOS对象?
、
、
我想跟踪
从
web服务下载并在本地存储的图像。我使用以下代码
从
它们创建ARImageReference对象: let image =
UIImage
(contentsOfFile: imageLocalPath),private lazy var configuration: ARConfigurationAspect_1)- static_cast(src_frame.i
浏览 6
提问于2020-06-19
得票数 1
回答已采纳
2
回答
在swift中检索实时摄像头预览的最后一
帧
、
、
、
、
我有一个AR应用程序,视图不断显示后置摄像头所看到的内容,并将每一
帧
发送到VisionRequest进行分析。当对象被识别后,我想要捕获特定的最后一
帧
,并将其保存为常规的
UIImage
,然后将其沿着分段链发送到最终视图控制器,在那里我将显示最后一
帧
。我在捕获并显示最后一
帧
时遇到了问题。这是我到目前为止尝试过的: 当图像以足够高的置信度被识别时,我尝试
从
CVPixelBuffer中检索
当前
的最后一
帧
,并将其保存在一个本地变量中,该变量稍后将以段的形式传递
浏览 19
提问于2019-04-12
得票数 4
2
回答
UIImagePickerController:
从
视频中
获取
图像
、
、
、
、
我正在尝试
从
视频中提取一
帧
作为
图像。视频是使用UIImagePickerController录制的。 当视频被录制后,我获得它的URL并使用AVURLAsset加载它。然后,我创建了一个AVAssetReader和AVAssetReaderTrackOutput来
获取
各个
帧
。当我以CMSampleBufferRef的形式获得
帧
时,我将它们传递给苹果的imageFromSampleBuffer方法,该方法应该返回一个
UIImage
。当我使用AVCaptureSession
浏览 0
提问于2011-02-17
得票数 5
回答已采纳
3
回答
使用Swift
从
视频中抓取
帧
、
、
我想在特定的时间
从
视频中抓取
帧
。我用指定为秒的时间
作为
Float64调用抓取
帧
函数。问题是它没有抓住
当前
的框架。它似乎忽略了小数。如果我用1.22和1.70调用函数,它将返回相同的
帧
。func generateThumnail(url : NSURL, fromTime:Float64) ->
UIImage
{ var asset :AVAsset = AVAsset.assetWithURLCGImageRef = assetImgGenerate.c
浏览 2
提问于2015-08-29
得票数 9
回答已采纳
1
回答
如何在播放m3u8视频流之前
获取
帧
图像?iOS
、
、
、
、
我有一个要求:在播放视频streaming(m3u8)之前
获取
帧
图像,
作为
视频预览显示。我只在播放视频流到
帧
图像时才使用AVPlayerItemVideoOutpu copyPixelBufferForItemTime: itemTimeForDisplay:,您有其他方法吗?谢谢!!pixelBuffer),
UIImage</e
浏览 4
提问于2016-04-28
得票数 7
1
回答
苹果ARKit --
从
CGImage中创建一个ARFrame
、
、
我想使用ARKit
从
图像中获得光的估计值。我能够
从
视频中的
帧
中检索到光的估计值。var SceneView = new ARSCNView();float light = frame.LightEstimate.AmbientIntensity; 然而,
是否
可以使用一个实例化
浏览 0
提问于2017-11-21
得票数 0
3
回答
如何在特定的
帧
中将UIView捕获为
UIImage
?
、
、
、
你好,我想把我的UIView换成
UIImage
,特别是
帧
大小,请帮帮我。我有'UITableView`‘,它
作为
水平滚动的'UIScrollView’的子视图添加,我的表视图框架大小是(0,0,12000,768)。我希望在滚动后将
当前
可见的UITableView转换为
UIImage
。 如果我水平滚动我的表视图,一定距离意味着
当前
可见的是(150,1200,768),这意味着完整的设备屏幕。如果我使用以下代码: UIGraphicsBeginImage
浏览 2
提问于2014-03-25
得票数 2
2
回答
SceneKit -将呈现的场景
从
SCNView中
获取
为MTLTexture,而不使用单独的SCNRenderer
、
、
我的SCNView正在使用金属
作为
呈现API,我想知道
是否
有一种方法可以将呈现的场景
作为
MTLTexture,而不必使用单独的SCNRenderer?当我试图通过SCNView显示场景和通过SCNRenderer将场景
从
屏幕外重新呈现到MTLTexture时,性能就会下降(我试图
获取
每一
帧
的输出)。我尝试过的一些替代方法是尝试使用SCNView.snapshot()来
获取
UIImage
并对其进行转换,但性能甚至更差。
浏览 8
提问于2016-10-28
得票数 6
回答已采纳
1
回答
在MPMoviePlayerController上调用了renderInContext
、
我正在尝试以编程方式
从
MPMoviePlayerController视频的
当前
帧
创建图像。我正在使用在播放器的view.layer上调用的renderInContext,但是使用视频播放器控件创建的图像是全黑的,但我希望看到视频的
当前
帧
UIGraphicsBeginImageContextmoviePlayer.view.bounds.size); [moviePlayer.view.layer renderInContext:UIGraphicsGetCurrentContext()];
浏览 0
提问于2010-06-27
得票数 1
回答已采纳
2
回答
什么时候可以使用glReadPixels?
、
、
、
我想知道GLReadPixels函数的用法。/它是如何读取像素的?它是在读取GLKView像素还是UIView像素,还是在glreadFunction提供的范围内读取主屏幕上的任何东西。或者它只能在我们使用GLKView时使用??
浏览 0
提问于2012-07-10
得票数 4
1
回答
在放置在UIImageview上的矩形
帧
中创建图像
、
、
、
、
如何在UIView中创建具有指定
帧
的新图像,视图也包含图像视图和按钮,我还需要将指定
帧
中的图像
作为
新的图像。我试过了,但不正确。 我需要从UIView中
获取
数据,并将其
作为
一种新的
UIImage
。
浏览 3
提问于2013-09-27
得票数 2
回答已采纳
1
回答
是否
可以使用Java [Google-Project-探戈]获得深度
帧
?
、
是否
有可能从设备中
获取
深度
帧
(类似于
从
kinect
获取
深度
帧
)?我可以得到
当前
帧
的点云,以及rgb框架,但我正在寻找实际的深度框架。TangoCameraIntrinsics.TANGO_CAMERA_DEPTH) { }
作为
一个测试我还试着查看文档和例
浏览 3
提问于2015-11-25
得票数 1
回答已采纳
2
回答
iPhone的UIGetScreenImage()到底能做到多少fps呢?
、
限制屏幕截取的区域
是否
会显著提高帧率? 另外,对于今天节目的如意算盘部分,有没有人有指向使用UIGetScreenImage()来捕获视频的代码/库的指针?例如,我想要一个像Capture这样的API ( int fps,rect bound,int durationMs ),它可以打开相机,在给定的持续时间内,以给定的帧率记录一系列.png文件,
从
给定的屏幕
浏览 2
提问于2010-02-17
得票数 0
1
回答
从
使用snapshotViewAfterScreenUpdates创建的UIView执行
UIImage
:
、
、
、
、
是否
可以
从
使用snapshotViewAfterScreenUpdates创建的UIView中
获取
UIImage
?
从
snapshotViewAfterScreenUpdates返回的UIView在
作为
子视图添加时看起来很好,但以下代码会生成黑色图像:
UIImage
*snapshotImage = [self imageFromV
浏览 0
提问于2013-11-26
得票数 27
回答已采纳
7
回答
按
帧
显示动画?
、
、
、
我希望能够通过
帧
序列显示动画。例如,我宁愿使用第0
帧
到第32
帧
,而不是显示
从
0:00秒到0:32秒的动画。我需要这样做,因为我需要对动画进行大量的控制(即使是一
帧
的差异也会产生错误的结果)。我亲自绘制了每一
帧
,所以我知道每一
帧
的图像。我更喜欢一个详细的答案,因为我在网上找不
浏览 1
提问于2012-02-21
得票数 14
回答已采纳
2
回答
来自图像选择器模糊的
UIImage
、
、
我知道这个问题问了很多次了,但我不明白为什么我的
UIImage
还很模糊。
UIImage</em
浏览 4
提问于2013-08-19
得票数 0
回答已采纳
2
回答
AVSampleBufferDisplayLayer的快照
targetView.bounds.size);[avLayer renderInContext:context];
UIImage
浏览 2
提问于2014-10-02
得票数 3
点击加载更多
扫码
添加站长 进交流群
领取专属
10元无门槛券
手把手带您无忧上云
相关
资讯
混合栈开发,AliFlutter如何解决图片问题
SDWebImage源码阅读&原理解析
iOS性能优化——图片加载和处理
iOS小技巧总结,绝对有你想要的
iOS暗黑模式适配的完美解决方案
热门
标签
更多标签
云服务器
ICP备案
腾讯会议
云直播
对象存储
活动推荐
运营活动
广告
关闭
领券