首页
学习
活动
专区
工具
TVP
发布
社区首页 >专栏 >GPUImage详细解析(二)

GPUImage详细解析(二)

作者头像
落影
发布2018-04-27 15:55:14
1.4K0
发布2018-04-27 15:55:14
举报
文章被收录于专栏:落影的专栏落影的专栏

解析

GPUImage详细解析(一)

上一篇介绍的是GPUImageFramebufferGPUImageFilter

简单回顾一下:

  • GPUImageFilter就是用来接收源图像,通过自定义的顶点、片元着色器来渲染新的图像,并在绘制完成后通知响应链的下一个对象。
  • GPUImageFramebuffer就是用来管理纹理缓存的格式与读写帧缓存的buffer。

这一篇介绍的是GPUImageVideoCameraGPUImageView

GPUImageVideoCamera

GPUImageVideoCamera是GPUImageOutput的子类,提供来自摄像头的图像数据作为源数据,一般是响应链的源头。

1、视频图像采集 :AVCaptureSession

GPUImage使用AVFoundation框架来获取视频。

AVCaptureSession类从AV输入设备的采集数据到制定的输出。

为了实现实时的图像捕获,要实现AVCaptureSession类,添加合适的输入(AVCaptureDeviceInput)和输出(比如 AVCaptureMovieFileOutput)

调用startRunning开始输入到输出的数据流,调用stopRunning停止数据流。

需要注意的是startRunning函数会花费一定的时间,所以不能在主线程(UI线程)调用,防止卡顿。

sessionPreset 属性可以自定义一些设置。

特殊的选项比如说高帧率,可以通过 AVCaptureDevice来设置。

AVCaptureSession使用的简单示例:

_captureSession = [[AVCaptureSession alloc] init];
    [_captureSession beginConfiguration];
// 中间可以实现关于session属性的设置
    [_captureSession commitConfiguration];
  • AVCaptureVideoDataOutput AVCaptureVideoDataOutputAVCaptureOutput的子类,用来处理从摄像头采集的未压缩或者压缩过的图像帧。 通过captureOutput:didOutputSampleBuffer:fromConnection: delegate,可以访问图像帧。 通过下面这个方法,可以设置delegate。
- (void)setSampleBufferDelegate:
(id<AVCaptureVideoDataOutputSampleBufferDelegate>)sampleBufferDelegate 
queue:(dispatch_queue_t)sampleBufferCallbackQueue;

需要注意的是,当一个新的视频图像帧被采集后,它会被传送到output,调用这里设置的delegate。所有的delegate函数会在这个queue中调用。如果队列被阻塞,新的图像帧到达后会被自动丢弃(默认alwaysDiscardsLateVideoFrames = YES)。这允许app处理当前的图像帧,不需要去管理不断增加的内存,因为处理速度跟不上采集的速度,等待处理的图像帧会占用内存,并且不断增大

必须使用同步队列处理图像帧,保证帧的序列是顺序的。

  • frameRenderingSemaphore 帧渲染的信号量 下面有一个这样的调用,用于等待处理完一帧后,再接着处理下一帧。
        if (dispatch_semaphore_wait(frameRenderingSemaphore, DISPATCH_TIME_NOW) != 0)
        {
            return;
        }
        runAsynchronouslyOnVideoProcessingQueue(^{
              dispatch_semaphore_signal(frameRenderingSemaphore);
        });
  • rotateCamera 前后摄像头翻转:更改videoInput的设置。
2、颜色空间:YUV

YUV是被欧洲电视系统所采用的一种颜色编码方法。

采用YUV色彩空间的重要性是它的亮度信号Y色度信号U、V是分离的。如果只有Y信号分量而没有U、V分量,那么这样表示的图像就是黑白灰度图像。彩色电视采用YUV空间正是为了用亮度信号Y解决彩色电视机与黑白电视机的兼容问题,使黑白电视机也能接收彩色电视信号。

YCbCr或Y'CbCr有的时候会被写作:YCBCR或是Y'CBCR,是色彩空间的一种,通常会用于影片中的影像连续处理,或是数字摄影系统中。Y'为颜色的亮度(luma)成分、而CB和CR则为蓝色和红色的浓度偏移量成份。

YUV主要用于优化彩色视频信号的传输,使其向后相容老式黑白电视。与RGB视频信号传输相比,它最大的优点在于只需占用极少的频宽(RGB要求三个独立的视频信号同时传输)。

CbCr 则是在世界数字组织视频标准研制过程中作为ITU - R BT.601 建议的一部分,其实是YUV经过缩放和偏移的翻版。其中Y与YUV 中的Y含义一致,Cb,Cr 同样都指色彩,只是在表示方法上不同而已。在YUV 家族中,YCbCr 是在计算机系统中应用最多的成员,其应用领域很广泛,JPEG、MPEG均采用此格式。一般人们所讲的YUV大多是指YCbCr。YCbCr 有许多取样格式,如4∶4∶4,4∶2∶2,4∶1∶1 和4∶2∶0。

百度百科的介绍

YUV数据格式-图文详解

GPUImage中的YUV

GLProgram *yuvConversionProgram; 将YUV颜色空间转换成RGB颜色空间的GLSL。

CVPixelBufferGetPlaneCount()返回缓冲区的平面数。

通过CVOpenGLESTextureCacheCreateTextureFromImage()创建两个纹理luminanceTextureRef(亮度纹理)和chrominanceTextureRef(色度纹理)。

convertYUVToRGBOutput()把YUV颜色空间的纹理转换成RGB颜色空间的纹理

顶点着色器-通用kGPUImageVertexShaderString

片元着色器:

1、kGPUImageYUVFullRangeConversionForLAFragmentShaderString

2、kGPUImageYUVVideoRangeConversionForLAFragmentShaderString

区别在不同的格式

video-range (luma=16,235 chroma=16,240)

full-range (luma=0,255 chroma=1,255)

3、纹理绘制

glActiveTextue 并不是激活纹理单元,而是选择当前活跃的纹理单元。每一个纹理单元都有GL_TEXTURE_1D, 2D, 3D 和 CUBE_MAP。

    glActiveTexture(GL_TEXTURE1);
    glGenTextures(1, &_texture);
    glBindTexture(GL_TEXTURE_2D, _texture);

SO的详细介绍

GPUImageView

GPUImageView是响应链的终点,一般用于显示GPUImage的图像。

1、填充模式

GPUImageFillModeType fillMode图像的填充模式。

sizeInPixels 像素区域大小。

recalculateViewGeometry() 重新计算图像顶点位置数据。

AVMakeRectWithAspectRatioInsideRect() 在保证宽高比不变的前提下,得到一个尽可能大的矩形。

如果是kGPUImageFillModeStretch

图像拉伸,直接使宽高等于1.0即可,原图像会直接铺满整个屏幕。

如果是kGPUImageFillModePreserveAspectRatio

保持原宽高比,并且图像不超过屏幕。那么以当前屏幕大小为准。

widthScaling = insetRect.size.width / currentViewSize.width;

如果是kGPUImageFillModePreserveAspectRatioAndFill

保持原宽高比,并且图像要铺满整个屏幕。那么图像大小为准。

widthScaling = currentViewSize.height / insetRect.size.height;

imageVertices存放着顶点数据,上面的修改都会存放在这个数组。

2、OpenGL ES绘制

- (void)newFrameReadyAtTime:(CMTime)frameTime atIndex:(NSInteger)textureIndex;源图像已经准备好,开始绘制。

setDisplayFramebuffer()会绑定GPUImageView的帧缓存,同时调试视口大小为view的大小。

glActiveTexture上面已经介绍过,是选择一个纹理单元。先选择纹理单元4,然后把源图像数据绑定到GL_TEXTURE_2D的位置上。最后告诉片元着色器,纹理单元是4。

        glActiveTexture(GL_TEXTURE4);
        glBindTexture(GL_TEXTURE_2D, [inputFramebufferForDisplay texture]);
        glUniform1i(displayInputTextureUniform, 4);

这两行是分别绑定顶点坐标数据和纹理坐标数据。

        glVertexAttribPointer(displayPositionAttribute, 2, GL_FLOAT, 0, 0, imageVertices);
        glVertexAttribPointer(displayTextureCoordinateAttribute, 2, GL_FLOAT, 0, 0, [GPUImageView textureCoordinatesForRotation:inputRotation]);

这两行是设定输入的源图像数据缓存,并且对缓存加锁。

    inputFramebufferForDisplay = newInputFramebuffer;
    [inputFramebufferForDisplay lock];

在准备好着色器、纹理data、顶点位置坐标和纹理坐标后,就可以调用

glDrawArrays(GL_TRIANGLE_STRIP, 0, 4);绘制图像。

demo

这里有一个简单的示例,介绍如何用GPUImageVideoCamera采集图像并且用GPUImageView显示出来。

十分简单,核心代码不过十行。

本文参与 腾讯云自媒体分享计划,分享自作者个人站点/博客。
原始发表:2016.05.17 ,如有侵权请联系 cloudcommunity@tencent.com 删除

本文分享自 作者个人站点/博客 前往查看

如有侵权,请联系 cloudcommunity@tencent.com 删除。

本文参与 腾讯云自媒体分享计划  ,欢迎热爱写作的你一起参与!

评论
登录后参与评论
0 条评论
热度
最新
推荐阅读
目录
  • 解析
  • GPUImageVideoCamera
    • 1、视频图像采集 :AVCaptureSession
      • 2、颜色空间:YUV
      • 3、纹理绘制
      • GPUImageView
        • 1、填充模式
        • 2、OpenGL ES绘制
        • demo
        领券
        问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档