前往小程序,Get更优阅读体验!
立即前往
首页
学习
活动
专区
工具
TVP
发布
社区首页 >专栏 >GPUImage详细解析(六)-用视频做视频水印

GPUImage详细解析(六)-用视频做视频水印

作者头像
落影
发布2018-04-27 16:26:34
2.2K0
发布2018-04-27 16:26:34
举报
文章被收录于专栏:落影的专栏落影的专栏

回顾

之前解析介绍的是GPUImage源码解析、图片模糊、视频滤镜,明白了GPUImage的强大功能,这次介绍的是两个视频的重叠,可以把两个视频文件合并,也可以把视频和录像结合在一起。

效果展示

视频的截图如下,视频由两个视频合成,一个来自于文件abc.mp4,一个来自于摄像头。

核心思路

摄像头采集的数据通过GPUImageVideoCamera进入响应链,视频文件的数据通过GPUImageMovie进入响应链,在GPUImageDissolveBlenderFilter进行合并,最后把数据传给响应链的终点GPUImageView以显示到UI和GPUImageMovieWriter以写入临时文件,最后临时文件通过ALAssetsLibrary写入系统库。

具体细节

1、GPUImageDissolveBlendFilter

GPUImageDissolveBlendFilter类继承GPUImageTwoInputFilter,添加属性mix作为片元着色器的mix参数。GPUImageDissolveBlendFilter在响应链上需要接受两个输入,当两个输入都就绪时,会通过mix()操作把输入混合,并且输出到响应链上。

思考1:如果只有一个输入会如何?

2、GPUImageMovie

GPUImageMovie类继承了GPUImageOutput类,一般作为响应链的源头,可以通过url、playerItem、asset初始化。

3、GPUImageMovieWriter

GPUImageMovieWriter类实现GPUImageInput协议,一般作为响应链的终点。shouldPassthroughAudio表示是否使用源音源。 movieFile.audioEncodingTarget = movieWriter;表示音频来源是文件。

代码语言:javascript
复制
if (audioFromFile) {
        // 响应链
        [movieFile addTarget:filter];
        [videoCamera addTarget:filter];
        movieWriter.shouldPassthroughAudio = YES;
        movieFile.audioEncodingTarget = movieWriter;
        [movieFile enableSynchronizedEncodingUsingMovieWriter:movieWriter];
    }
    else {
        // 响应链
        [videoCamera addTarget:filter];
        [movieFile addTarget:filter];
        movieWriter.shouldPassthroughAudio = NO;
        videoCamera.audioEncodingTarget = movieWriter;
        movieWriter.encodingLiveVideo = NO;
    }

思考2:音频来源的不同会对响应链造成什么样的影响?为什么?

4、响应链 响应链以GPUImageVideoCamera和GPUImageMovie作为输入,最终以GPUImageMovieWriter为输出。

  • 开始响应链的输入。
代码语言:javascript
复制
    [videoCamera startCameraCapture];
    [movieWriter startRecording];
    [movieFile startProcessing];
  • 设置movieWriter的结束回调。
代码语言:javascript
复制
[movieWriter setCompletionBlock:^{
}];

思考3:movieWriter的回调是什么时候调用的?由哪里触发?

思考4:movieWriter的encodingLiveVideo有什么用?把其设置为YES和NO试试,观察是否有影响?

总结

做demo的过程中遇到坑,GPUImage上面有Issues,但是并没有人解答ʕ̡̢̡ʘ̅͟͜͡ʘ̲̅ʔ̢̡̢。 代码地址在这里,参考链接上有趟坑的时候查到的一些资料。

附录

几个思考题都是做demo过程比较迷惑不解的地方和遇到的问题,答案分别是:

思考1:输入只有一个输入的时候,会一直等待第二个输入,不会有输出。问题出现在把videoCamera声明为临时变量,以为添加target会持有videoCamera的引用。实际上就会发生输入只有一个的时候(只有视频文件的信号),同时屏幕是白屏。

思考2:音频的来源不同会导致CMTime的不同,响应链视频信息的CMTime默认采用第一个输入的CMTime,故而修改音频来源的时候需要修改响应链的输入顺序,否则几秒钟的视频文件会产生两个多小时的文件(CMTime不同步导致)。

思考3:movieWriter的回调会在视频处理结束的时候调用,由GPUImageMovie的 reader.status == AVAssetReaderStatusCompleted触发。

思考4:encodingLiveVideo影响的其实是expectsMediaDataInRealTime属性,YES时用于输入流是实时的,比如说摄像头。

本文参与 腾讯云自媒体分享计划,分享自作者个人站点/博客。
原始发表:2016.06.17 ,如有侵权请联系 cloudcommunity@tencent.com 删除

本文分享自 作者个人站点/博客 前往查看

如有侵权,请联系 cloudcommunity@tencent.com 删除。

本文参与 腾讯云自媒体分享计划  ,欢迎热爱写作的你一起参与!

评论
登录后参与评论
0 条评论
热度
最新
推荐阅读
目录
  • 回顾
  • 效果展示
  • 核心思路
  • 具体细节
    • 1、GPUImageDissolveBlendFilter
      • 2、GPUImageMovie
        • 3、GPUImageMovieWriter
          • 总结
            • 附录
            相关产品与服务
            媒体处理
            媒体处理(Media Processing Service,MPS)是一种云端音视频处理服务。基于腾讯多年音视频领域的深耕,为您提供极致的编码能力,大幅节约存储及带宽成本、实现全平台播放,同时提供视频截图、音视频增强、内容理解、内容审核等能力,满足您在各种场景下对视频的处理需求。
            领券
            问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档