GPUImage详细解析(二)

解析

GPUImage详细解析(一) 上一篇介绍的是GPUImageFramebufferGPUImageFilter。 简单回顾一下:

  • GPUImageFilter就是用来接收源图像,通过自定义的顶点、片元着色器来渲染新的图像,并在绘制完成后通知响应链的下一个对象。
  • GPUImageFramebuffer就是用来管理纹理缓存的格式与读写帧缓存的buffer。

这一篇介绍的是GPUImageVideoCameraGPUImageView

GPUImageVideoCamera

GPUImageVideoCamera是GPUImageOutput的子类,提供来自摄像头的图像数据作为源数据,一般是响应链的源头。

1、视频图像采集 :AVCaptureSession

GPUImage使用AVFoundation框架来获取视频。 AVCaptureSession类从AV输入设备的采集数据到制定的输出。 为了实现实时的图像捕获,要实现AVCaptureSession类,添加合适的输入(AVCaptureDeviceInput)和输出(比如 AVCaptureMovieFileOutput) 调用startRunning开始输入到输出的数据流,调用stopRunning停止数据流。 需要注意的是startRunning函数会花费一定的时间,所以不能在主线程(UI线程)调用,防止卡顿。 sessionPreset 属性可以自定义一些设置。 特殊的选项比如说高帧率,可以通过 AVCaptureDevice来设置。 AVCaptureSession使用的简单示例:

_captureSession = [[AVCaptureSession alloc] init];
    [_captureSession beginConfiguration];
// 中间可以实现关于session属性的设置
    [_captureSession commitConfiguration];
  • AVCaptureVideoDataOutput AVCaptureVideoDataOutputAVCaptureOutput的子类,用来处理从摄像头采集的未压缩或者压缩过的图像帧。 通过captureOutput:didOutputSampleBuffer:fromConnection: delegate,可以访问图像帧。 通过下面这个方法,可以设置delegate。
- (void)setSampleBufferDelegate:
(id<AVCaptureVideoDataOutputSampleBufferDelegate>)sampleBufferDelegate 
queue:(dispatch_queue_t)sampleBufferCallbackQueue;

需要注意的是,当一个新的视频图像帧被采集后,它会被传送到output,调用这里设置的delegate。所有的delegate函数会在这个queue中调用。如果队列被阻塞,新的图像帧到达后会被自动丢弃(默认alwaysDiscardsLateVideoFrames = YES)。这允许app处理当前的图像帧,不需要去管理不断增加的内存,因为处理速度跟不上采集的速度,等待处理的图像帧会占用内存,并且不断增大。 必须使用同步队列处理图像帧,保证帧的序列是顺序的。

  • frameRenderingSemaphore 帧渲染的信号量 下面有一个这样的调用,用于等待处理完一帧后,再接着处理下一帧。
        if (dispatch_semaphore_wait(frameRenderingSemaphore, DISPATCH_TIME_NOW) != 0)
        {
            return;
        }
        runAsynchronouslyOnVideoProcessingQueue(^{
              dispatch_semaphore_signal(frameRenderingSemaphore);
        });
  • rotateCamera 前后摄像头翻转:更改videoInput的设置。

2、颜色空间:YUV

YUV是被欧洲电视系统所采用的一种颜色编码方法。 采用YUV色彩空间的重要性是它的亮度信号Y色度信号U、V是分离的。如果只有Y信号分量而没有U、V分量,那么这样表示的图像就是黑白灰度图像。彩色电视采用YUV空间正是为了用亮度信号Y解决彩色电视机与黑白电视机的兼容问题,使黑白电视机也能接收彩色电视信号。

YCbCr或Y'CbCr有的时候会被写作:YCBCR或是Y'CBCR,是色彩空间的一种,通常会用于影片中的影像连续处理,或是数字摄影系统中。Y'为颜色的亮度(luma)成分、而CB和CR则为蓝色和红色的浓度偏移量成份。 YUV主要用于优化彩色视频信号的传输,使其向后相容老式黑白电视。与RGB视频信号传输相比,它最大的优点在于只需占用极少的频宽(RGB要求三个独立的视频信号同时传输)。

CbCr 则是在世界数字组织视频标准研制过程中作为ITU - R BT.601 建议的一部分,其实是YUV经过缩放和偏移的翻版。其中Y与YUV 中的Y含义一致,Cb,Cr 同样都指色彩,只是在表示方法上不同而已。在YUV 家族中,YCbCr 是在计算机系统中应用最多的成员,其应用领域很广泛,JPEG、MPEG均采用此格式。一般人们所讲的YUV大多是指YCbCr。YCbCr 有许多取样格式,如4∶4∶4,4∶2∶2,4∶1∶1 和4∶2∶0。 百度百科的介绍 YUV数据格式-图文详解 GPUImage中的YUV GLProgram *yuvConversionProgram; 将YUV颜色空间转换成RGB颜色空间的GLSL。 CVPixelBufferGetPlaneCount()返回缓冲区的平面数。 通过CVOpenGLESTextureCacheCreateTextureFromImage()创建两个纹理luminanceTextureRef(亮度纹理)和chrominanceTextureRef(色度纹理)。 convertYUVToRGBOutput()把YUV颜色空间的纹理转换成RGB颜色空间的纹理 顶点着色器-通用kGPUImageVertexShaderString 片元着色器: 1、kGPUImageYUVFullRangeConversionForLAFragmentShaderString 2、kGPUImageYUVVideoRangeConversionForLAFragmentShaderString 区别在不同的格式 video-range (luma=[16,235] chroma=[16,240]) full-range (luma=[0,255] chroma=[1,255])

3、纹理绘制

glActiveTextue 并不是激活纹理单元,而是选择当前活跃的纹理单元。每一个纹理单元都有GL_TEXTURE_1D, 2D, 3D 和 CUBE_MAP。

    glActiveTexture(GL_TEXTURE1);
    glGenTextures(1, &_texture);
    glBindTexture(GL_TEXTURE_2D, _texture);

SO的详细介绍

GPUImageView

GPUImageView是响应链的终点,一般用于显示GPUImage的图像。

1、填充模式

GPUImageFillModeType fillMode图像的填充模式。 sizeInPixels 像素区域大小。 recalculateViewGeometry() 重新计算图像顶点位置数据。 AVMakeRectWithAspectRatioInsideRect() 在保证宽高比不变的前提下,得到一个尽可能大的矩形。 如果是kGPUImageFillModeStretch 图像拉伸,直接使宽高等于1.0即可,原图像会直接铺满整个屏幕。

如果是kGPUImageFillModePreserveAspectRatio 保持原宽高比,并且图像不超过屏幕。那么以当前屏幕大小为准。 widthScaling = insetRect.size.width / currentViewSize.width;

如果是kGPUImageFillModePreserveAspectRatioAndFill 保持原宽高比,并且图像要铺满整个屏幕。那么图像大小为准。 widthScaling = currentViewSize.height / insetRect.size.height;

imageVertices存放着顶点数据,上面的修改都会存放在这个数组。

2、OpenGL ES绘制

- (void)newFrameReadyAtTime:(CMTime)frameTime atIndex:(NSInteger)textureIndex;源图像已经准备好,开始绘制。 setDisplayFramebuffer()会绑定GPUImageView的帧缓存,同时调试视口大小为view的大小。 glActiveTexture上面已经介绍过,是选择一个纹理单元。先选择纹理单元4,然后把源图像数据绑定到GL_TEXTURE_2D的位置上。最后告诉片元着色器,纹理单元是4。

        glActiveTexture(GL_TEXTURE4);
        glBindTexture(GL_TEXTURE_2D, [inputFramebufferForDisplay texture]);
        glUniform1i(displayInputTextureUniform, 4);

这两行是分别绑定顶点坐标数据和纹理坐标数据。

        glVertexAttribPointer(displayPositionAttribute, 2, GL_FLOAT, 0, 0, imageVertices);
        glVertexAttribPointer(displayTextureCoordinateAttribute, 2, GL_FLOAT, 0, 0, [GPUImageView textureCoordinatesForRotation:inputRotation]);

这两行是设定输入的源图像数据缓存,并且对缓存加锁。

    inputFramebufferForDisplay = newInputFramebuffer;
    [inputFramebufferForDisplay lock];

在准备好着色器、纹理data、顶点位置坐标和纹理坐标后,就可以调用 glDrawArrays(GL_TRIANGLE_STRIP, 0, 4);绘制图像。

demo

这里有一个简单的示例,介绍如何用GPUImageVideoCamera采集图像并且用GPUImageView显示出来。 十分简单,核心代码不过十行。

本文参与腾讯云自媒体分享计划,欢迎正在阅读的你也加入,一起分享。

发表于

我来说两句

0 条评论
登录 后参与评论

相关文章

来自专栏大数据文摘

三种可视化方法,手把手教你用R绘制地图网络图!

27940
来自专栏懒人开发

(7.1)James Stewart Calculus 5th Edition:Integration by Parts

注意: 这样做,目的是为了 降阶, 如果转换后,对应的没有起到 降阶 的作用,就没有什么意义了

12010
来自专栏新智元

PyTorch 最新版发布:API 变动,增加新特征,多项运算和加载速度提升

【新智元导读】PyTorch 发布了最新版,API 有一些变动,增加了一系列新的特征,多项运算或加载速度提升,而且修改了大量bug。官方文档也提供了一些示例。 ...

65970
来自专栏菩提树下的杨过

Oracle BIEE (Business Intelligence) 11g 11.1.1.6.0 学习(4)创建多维钻取分析

  在上一节时,我们创建了一个基于部门号的工资分类汇总。 这里就引出了一个概念:维度   专业的解释大家自行百度,这里就不班门弄斧了。从数据的使用角度看,维度可...

21190
来自专栏MixLab科技+设计实验室

设计师编程指南之Sketch插件开发 6

往期文章索引: 1 / 入门基本概念、page的相关操作 2 / artboard 、NSFileManager 和 NSString 关于文件及文件夹的相关操...

33750
来自专栏诸葛青云的专栏

Python识别验证码!学会这步,百分之60的网站你基本都能识别了!

127是我们设定的阈值,像素值大于127被置成了0,小于127的被置成了255。处理后的图片变成了这样

14800
来自专栏落影的专栏

OpenGL光照学习以及OpenGL4环境

前言 最近稍有空闲,整理下之前学习光照的笔记,以及在配置OpenGL4环境过程中遇到的问题。 光照 1、模拟灯光 模拟灯光:通过GPU来计算场景中的几何图...

42270
来自专栏大数据文摘

手把手丨输验证码输到崩溃?教你15分钟黑掉全球最流行的验证码插件

17410
来自专栏Spark学习技巧

复习:聊聊hive随机采样①

数据量大的时候,对数据进行采样,然后再做模型分析。作为数据仓库的必备品hive,我们如何对其进行采样呢?

30930
来自专栏日常学python

WordCloud 中英文词云图绘制,看这一篇就够了

摘要: 当我们手中有一篇文档,比如书籍、小说、电影剧本,若想快速了解其主要内容是什么,则可以采用绘制 WordCloud 词云图,显示主要的关键词(高频词)这种...

83140

扫码关注云+社区

领取腾讯云代金券