前往小程序,Get更优阅读体验!
立即前往
首页
学习
活动
专区
工具
TVP
发布
社区首页 >专栏 >感知优化深度图像压缩

感知优化深度图像压缩

作者头像
用户1324186
发布2019-12-23 16:25:55
5900
发布2019-12-23 16:25:55
举报
文章被收录于专栏:媒矿工厂

本文是来自alliance for open media research symposium2019的演讲,作者是来自于UT Austin的PhD,Li-Heng Chen。本次演讲主要讲述如何在感知上优化深度图像压缩。

Li-Heng Chen这次的工作是基于Ballé’s BLS2017 model进行的改进。在演讲中,Li-Heng Chen提出了他最初的想法:将经过预训练的网络作为VMAF的代理:

  1. 用一个简单的网络根据给定的ref./dis. patches来预测VMAF分数,指导Ballé’s BLS2017 model进行深度图像压缩;
  2. 将预训练的ProxIQA网络作为损失函数。

但这样的做法存在一些问题:

  1. 训练图像数据集的失真类型与需解决的问题不符合;
  2. 它会产生adversarial examples,预测出的VMAF分数会随着训练不断提高至100分。

为了解决这些问题,Li-Heng Chen提出了一种替代的学习框架,将Ballé’s BLS2017 model和ProxIQA网络连接在一起,固定ProxIQA网络,在综合考虑两个模型分别的像素和码率两个维度的损失的情况下调整整体网络的损失函数,以此来训练出一个适用于此应用场景的网络模型。

最后,Li-Heng Chen给出了方法在Kodak dataset上不同情况下的BD-rate和一些主观实验结果,展示了其为深度图像压缩带来的优化。

本文参与 腾讯云自媒体同步曝光计划,分享自微信公众号。
原始发表:2019-12-19,如有侵权请联系 cloudcommunity@tencent.com 删除

本文分享自 媒矿工厂 微信公众号,前往查看

如有侵权,请联系 cloudcommunity@tencent.com 删除。

本文参与 腾讯云自媒体同步曝光计划  ,欢迎热爱写作的你一起参与!

评论
登录后参与评论
0 条评论
热度
最新
推荐阅读
领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档