本文内容参考自以下文章:KM文章一张图教你看懂GPUImage、iOS 图像处理系列 - GPUImage源码解读(一),博文GPUImage文集。文中不再详细标注引用来源。
GPUImage框架是一个开源iOS类库,基于OpenGL进行图像和视频处理,借助GPU加速实现各种滤镜效果,并支持摄像头拍摄实时渲染。
它具有以下特性:
· 对OpenGL资源创建和滤镜做统一封装,接口简单易用,内置cache模块进行framebuffer管理。
· 框架设计灵活,支持上下级滤镜的串联、并联,以实现复杂的滤镜响应链。
· 有丰富的输入、输出组件及封装好的内置滤镜,可满足大多数场景的应用。
· 可继承GPUImageFilter实现自定义滤镜效果,扩展非常方便。
GPUImage功能的实现依赖四个部分:资源管理、Sources、Filters、Outputs。核心架构用下图概括:
1. 资源管理
GLProgram是GPUImage对OpenGL ES中的program的封装,可用vertexShader和fragmentShader创建GLProgram对象,实现自定义滤镜效果。
GPUImageContext是GPUImage对OpenGL ES上下文的封装,并添加GPUImge相关的上下文,如上下文队列(contextQueue,解决OpenGLContext不是多线程安全的问题)、CV纹理缓存(coreVideoTexttureCache)、framebuffer缓存、program使用的缓存等。
GPUImageFramebuffer是管理纹理缓存格式、帧缓存的buffer,完成缓存创建、指定渲染目标、调整视口、解锁等。其中,newCGImageFromFramebufferContents函数从缓存中获取图像数据,创建CGImageRef并返回。
GPUImageFramebufferCache是GPUImageFramebuffer的管理类。
2. Sources
Sources目录结构如上图所示。GPUImageOutput是其他输入源的基类,输入组件将图像或视频帧数据转换成OpenGL纹理传递给滤镜组件。下面以滤镜视频拍摄这一场景下使用的GPUImageVideoCamera为例进行介绍。
GUPImagVideoCamera利用AVCaptureSession从AV输入设备采集数据。
流程概述如下:
1) 找到摄像头设备_inoutCamera、麦克风_microphone,创建摄像头输入videoInput和麦克风输入audioInput,设置为_captureSession的输入。
2) 创建摄像头输出videoOutput和麦克风输出audioOutput,设置为_captureSession的输出,设置二者的输出delegate。
3) 调用[_captureSessionstartRunning]开始获取音视频数据。
4) 音频数据到达后发送给设置的audioEncordingTarget处理。
5) 视频数据到达后利用下面的函数处理回调:
摄像头默认采样格式为YUV420,Y通道数据和UV通道数据分别存放在两个plane中,processVideoSampleBuffer:函数将两个plane的数据取出,处理后在convertYUVToRGBOutput函数中通过颜色转换的shader,得到了RGB格式的GPU纹理提供给下一级滤镜组件,完成数据输入工作。
3. Filters
GPUImageFilter是各滤镜类的基类。它实现了GPUImageInput协议,可以作为输出对象。GPUImageInput定义了组件作为响应链中的target(上一级组件的输出对象)需要实现的接口。
另一方面GPUImageFilter继承自Sources中的GPUImageOutput,因此一个滤镜组件也可以作为输入对象。基于这种设计,输入组件、滤镜组件、输出组件可以链式串联起来,推动输入数据的处理与传递。
GPUImageFilter及子类接受一个或多个输入,调用关联的GLProgram进行渲染,将结果输出到targets属性保存的对象列表中的每一个对象。输入、输出的纹理由GPUImageFrameBuffer管理。
输入数据通过setInputFramebuffer:接口传入,由响应链中的上一级组件调用。
读入输入数据后,下图接口实现了渲染和数据向下级组件的传递。
其中,renderToTextureWithVertices:函数实现滤镜渲染,将渲染结果输出到outputframebuffer指定的缓存。
informTargetsAboutNewFrameAtTime:将自己获得的渲染结果数据传递给下一级组件,并推动其处理数据。
4. Outputs
Outputs组件是响应链的终点,负责将处理结果输出。这组组件同样实现GPUImageInput协议,处理上一级组件的输出结果。GPUImageView是UIView的子类,用于实时将滤波结果显示在屏幕上,GPUImageMovieWriter将滤镜视频保存在本地,GPUImageTextureOutput输出GPU纹理,GPUImageRawDataOutput提供输出完成的delegate回调和读区像素数据的接口。录制滤镜视频时需要用到GPUImageView和GPUImageMovieWriter。
GPUImageMovieWriter将视频输出到磁盘,通过设置、使用AVAssetWriter,在newFrameReadyAtTime:中实现功能。
GPUImageView内部将自己的CALayer申明为CAEAGLayer,在初始化后调用createDisplayFramebuffer方法:
将renderBuffer和CALayer关联,newFrameReadyAtTime:渲染后图像会输出至CALayer上。
下面的例子利用GPUImage录制视频、实现实时的滤镜效果渲染并将视频文件保存到本地。
通过GPUImageVideoCamera采集视频和音频数据,音频直接传递至GPUImageMovieWriter;视频传入滤镜链,经过滤镜处理后,输出的渲染结果传递给GPUImageMovieWriter准备写入本地文件,并通过GPUImageView显示在屏幕上。
下图是视频录制页面,使用内置滤镜GPUImageSwirlFilter,屏幕下方滑动条可以调整滤波核参数,实时的改变滤镜渲染的效果(本例表现为螺旋形的角度)。点击左上方按钮启动/结束录制,结束录制后视频文件保存在本地相册。
录制界面
设置响应链:
点击录制按钮开始录制视频,用NSURL及尺寸初始化_movieWriter:
结束录制:
其他滤镜效果:
玻璃球 阴影边框
泊松图像融合 左图中的水印原图
形态学开运算 形态学闭运算
风格化之素描画 卡通