前往小程序,Get更优阅读体验!
立即前往
首页
学习
活动
专区
工具
TVP
发布
社区首页 >专栏 >关于GPUImage

关于GPUImage

作者头像
MelonTeam
发布2018-01-04 16:44:37
2.3K0
发布2018-01-04 16:44:37
举报
文章被收录于专栏:MelonTeam专栏MelonTeam专栏

本文内容参考自以下文章:KM文章一张图教你看懂GPUImageiOS 图像处理系列 - GPUImage源码解读(一),博文GPUImage文集。文中不再详细标注引用来源。

关于GPUImage

GPUImage框架是一个开源iOS类库,基于OpenGL进行图像和视频处理,借助GPU加速实现各种滤镜效果,并支持摄像头拍摄实时渲染。

它具有以下特性:

·             对OpenGL资源创建和滤镜做统一封装,接口简单易用,内置cache模块进行framebuffer管理。

·             框架设计灵活,支持上下级滤镜的串联、并联,以实现复杂的滤镜响应链。

·             有丰富的输入、输出组件及封装好的内置滤镜,可满足大多数场景的应用。

·             可继承GPUImageFilter实现自定义滤镜效果,扩展非常方便。

GPUImage框架

GPUImage功能的实现依赖四个部分:资源管理、Sources、Filters、Outputs。核心架构用下图概括:

1.     资源管理

GLProgram是GPUImage对OpenGL ES中的program的封装,可用vertexShader和fragmentShader创建GLProgram对象,实现自定义滤镜效果。

GPUImageContext是GPUImage对OpenGL ES上下文的封装,并添加GPUImge相关的上下文,如上下文队列(contextQueue,解决OpenGLContext不是多线程安全的问题)、CV纹理缓存(coreVideoTexttureCache)、framebuffer缓存、program使用的缓存等。

GPUImageFramebuffer是管理纹理缓存格式、帧缓存的buffer,完成缓存创建、指定渲染目标、调整视口、解锁等。其中,newCGImageFromFramebufferContents函数从缓存中获取图像数据,创建CGImageRef并返回。

GPUImageFramebufferCache是GPUImageFramebuffer的管理类。

2.    Sources

Sources目录结构如上图所示。GPUImageOutput是其他输入源的基类,输入组件将图像或视频帧数据转换成OpenGL纹理传递给滤镜组件。下面以滤镜视频拍摄这一场景下使用的GPUImageVideoCamera为例进行介绍。

GUPImagVideoCamera利用AVCaptureSession从AV输入设备采集数据。

流程概述如下:

1) 找到摄像头设备_inoutCamera、麦克风_microphone,创建摄像头输入videoInput和麦克风输入audioInput,设置为_captureSession的输入。

2) 创建摄像头输出videoOutput和麦克风输出audioOutput,设置为_captureSession的输出,设置二者的输出delegate。

3)     调用[_captureSessionstartRunning]开始获取音视频数据。

4)      音频数据到达后发送给设置的audioEncordingTarget处理。

5)     视频数据到达后利用下面的函数处理回调:

摄像头默认采样格式为YUV420,Y通道数据和UV通道数据分别存放在两个plane中,processVideoSampleBuffer:函数将两个plane的数据取出,处理后在convertYUVToRGBOutput函数中通过颜色转换的shader,得到了RGB格式的GPU纹理提供给下一级滤镜组件,完成数据输入工作。

3.     Filters

GPUImageFilter是各滤镜类的基类。它实现了GPUImageInput协议,可以作为输出对象。GPUImageInput定义了组件作为响应链中的target(上一级组件的输出对象)需要实现的接口。

另一方面GPUImageFilter继承自Sources中的GPUImageOutput,因此一个滤镜组件也可以作为输入对象。基于这种设计,输入组件、滤镜组件、输出组件可以链式串联起来,推动输入数据的处理与传递。

GPUImageFilter及子类接受一个或多个输入,调用关联的GLProgram进行渲染,将结果输出到targets属性保存的对象列表中的每一个对象。输入、输出的纹理由GPUImageFrameBuffer管理。

输入数据通过setInputFramebuffer:接口传入,由响应链中的上一级组件调用。

读入输入数据后,下图接口实现了渲染和数据向下级组件的传递。

其中,renderToTextureWithVertices:函数实现滤镜渲染,将渲染结果输出到outputframebuffer指定的缓存。

informTargetsAboutNewFrameAtTime:将自己获得的渲染结果数据传递给下一级组件,并推动其处理数据。

4.     Outputs

Outputs组件是响应链的终点,负责将处理结果输出。这组组件同样实现GPUImageInput协议,处理上一级组件的输出结果。GPUImageView是UIView的子类,用于实时将滤波结果显示在屏幕上,GPUImageMovieWriter将滤镜视频保存在本地,GPUImageTextureOutput输出GPU纹理,GPUImageRawDataOutput提供输出完成的delegate回调和读区像素数据的接口。录制滤镜视频时需要用到GPUImageView和GPUImageMovieWriter。

GPUImageMovieWriter将视频输出到磁盘,通过设置、使用AVAssetWriter,在newFrameReadyAtTime:中实现功能。

GPUImageView内部将自己的CALayer申明为CAEAGLayer,在初始化后调用createDisplayFramebuffer方法:

将renderBuffer和CALayer关联,newFrameReadyAtTime:渲染后图像会输出至CALayer上。

录制滤镜视频

下面的例子利用GPUImage录制视频、实现实时的滤镜效果渲染并将视频文件保存到本地。

通过GPUImageVideoCamera采集视频和音频数据,音频直接传递至GPUImageMovieWriter;视频传入滤镜链,经过滤镜处理后,输出的渲染结果传递给GPUImageMovieWriter准备写入本地文件,并通过GPUImageView显示在屏幕上。

下图是视频录制页面,使用内置滤镜GPUImageSwirlFilter,屏幕下方滑动条可以调整滤波核参数,实时的改变滤镜渲染的效果(本例表现为螺旋形的角度)。点击左上方按钮启动/结束录制,结束录制后视频文件保存在本地相册。

录制界面

设置响应链:

点击录制按钮开始录制视频,用NSURL及尺寸初始化_movieWriter:

结束录制:

其他滤镜效果:

玻璃球                                       阴影边框

泊松图像融合                            左图中的水印原图

 形态学开运算                               形态学闭运算

风格化之素描画                                卡通

本文参与 腾讯云自媒体分享计划,分享自作者个人站点/博客。
原始发表:2017-05-27,如有侵权请联系 cloudcommunity@tencent.com 删除

本文分享自 作者个人站点/博客 前往查看

如有侵权,请联系 cloudcommunity@tencent.com 删除。

本文参与 腾讯云自媒体分享计划  ,欢迎热爱写作的你一起参与!

评论
登录后参与评论
0 条评论
热度
最新
推荐阅读
目录
  • 关于GPUImage
  • GPUImage框架
  • 录制滤镜视频
相关产品与服务
图像处理
图像处理基于腾讯云深度学习等人工智能技术,提供综合性的图像优化处理服务,包括图像质量评估、图像清晰度增强、图像智能裁剪等。
领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档