我有一个显示相机图像的layerRect,如下所示:
CGRect layerRect = [[videoStreamView layer] bounds];
[[[self captureManager] previewLayer] setBounds:layerRect];
[[[self captureManager] previewLayer] setPosition:CGPointMake(CGRectGetMidX(layerRect),
CGRectGetMidY(layerRect))];
[[videoStreamView layer] addSublayer:[[self captureManager] previewLayer]];videoStreamView是我显示视频的视图,大小为150x150。但是我在我的AVCaptureVideoDataOutput上使用setSampleBufferDelegate,我得到的视频帧是整个相机图像(1280x720)。如何修改?谢谢。
发布于 2014-10-30 23:49:14
我相信它是由AVCaptureSession的sessionPreset属性控制的,我仍然在尝试弄清楚每个预设值在图像大小等方面的含义。
https://stackoverflow.com/questions/18272205
复制相似问题