前往小程序,Get更优阅读体验!
立即前往
首页
学习
活动
专区
工具
TVP
发布
社区首页 >专栏 >HDR关键技术:色调映射(二)

HDR关键技术:色调映射(二)

作者头像
用户1324186
发布2018-07-26 16:54:47
11.3K1
发布2018-07-26 16:54:47
举报
文章被收录于专栏:媒矿工厂媒矿工厂

摘要:

HDR技术近年来发展迅猛,在未来将会成为图像与视频领域的主流。如何让HDR图像与视频也能够同时兼容地在现有的SDR显示设备上显示,是非常重要的技术挑战。色调映射技术(Tone Mapping)就是用来实现将HDR源信号,转换到SDR源信号的技术。在本系列中,我们将会详细地总结色调映射技术的相关问题,并介绍经典的色调映射算法。将分为三个部分:(一)是色调映射技术的综合介绍;(二)是图像色调映射算法的总结与经典算法介绍;(三)将介绍视频色调映射算法。接前贴,Let's go ahead!

图像色调映射算法

图像色调映射算法可以分为全局(空间不变)算法和局部(空间变化)算法,他们的建模方式的区别在于部分算法只基于图像全局特性进行调整,另外一部分算法结合图像的全局和局部的视觉特性进行不同的调整。全局色调映射算法对整幅图像的所有像素点采用相同的转换函数,也就是说整幅图像中的所有相同的像素点,在转换后的像素值也是相同的,它们可以是幂函数、对数函数、Sigmoid或者是基于图像内容的函数。局部色调映射算法在图像中不同的空间区域采用不同的转换函数,这种情况下,映射前颜色相同的区域,在映射后的颜色可能不同,这与其所在位置和周围的像素点值有关。总的来看,全局色调映射算法相对于局部算法来看,有着更快的速度,因局部算法有着更高的计算复杂度。全局算法中,查找表可以更快的处理图片,因此更适合用于照相机中和视频处理。

全局色调映射方法适用于动态范围与显示设备支持的动态范围相近的场景,或者更低。当场景的动态范围远远超过显示设备的显示能力时,全局色调映射方法过度压缩色调范围,导致对比度和可视细节上的无法避免的损失。因此,除了全局色调映射算法外,我们还需要引入局部处理使其具有更好的视觉效果。局部处理算法允许增加局部对比度,从而提高图像某些部分的细节可见性,而全局处理算法将图像的整体动态范围缩放到显示设备支持的动态范围。

1. 全局色调映射

使用全局色调映射算法,就意味着对整幅图像的所有像素点采用一个相同的映射函数来进行处理。这样做的好处是,对所有的像素点进行相同的操作可以保留整幅图片的全局对比度。映射函数有时可能会对输入的图像先做一次处理来计算得到一些重要的全局信息,然后使用计算得到的全局信息来进行色调映射。色调映射算法中常用的全局信息包括最大亮度、最小亮度、对数平均值和算数平均值等。为了增强算法的鲁棒性并减少结果中的异常值,这些全局信息一般使用百分数计算,尤其是最大亮度和最小亮度信息。在时域上应用全局映射算法也是十分直观的,在多数情况下我们需要暂时过滤计算完成的图像数据,因为这可以避免因为序列中的结构不连续导致的闪烁问题。全局映射算法的主要缺陷在于因为操作过程中使用的是图像的全局信息,因此无法获得图像的全局对比度以及原始HDR图像中良好的细节。

全局色调映射方法的设计通常遵循两种不同的思路:第一种是从传统的数字图像处理的方法出发,通过计算得到图像的某些全局信息,来对像素点进行操作;第二种是从人类视觉感知系统的某些特性出发,通过人类视觉感知系统的某些结论,来设计色调映射算法。基于数字图像处理方法是最先应用到色调映射算法当中的,而随着人类对视觉的研究越发深入,基于人类视觉感知系统的色调映射方法才逐渐进入人们的视野。通常情况下,基于人类视觉感知系统的色调映射算法得到的结果要更加优秀。

本节中,我们将首先按照介绍两种基于数字图像处理的算法:简单映射算法以及直方图校准算法。接着,我们将介绍两种主要的基于人类视觉感知系统的算法:视觉适应模型算法以及时变视觉适应算法。这些方法各有优劣,并且已经很少在实践中使用了,但是这些方法的设计思路以及应用到的原理,仍然能够带给我们一些启发,因此本节介绍的这些算法中,我们不用过于关注具体实现以及数学推导,我们需要关注的重点是这些算法的设计思路与想法。

1.1 简单映射算法

我们介绍的第一种基于数字图像处理的色调映射算法称为简单映射算法。全局色调映射技术是将HDR图像的每一个像素点通过同一个映射因子映射到SDR图像的范围内。因此,本质上来说,色调映射就是两个图像空间的映射,而最简单也是最直观的映射方式就是使用一些基本初等函数进行映射。基于基本初等函数的色调映射算法就被称为简单映射算法。

简单映射算法中使用的基本函数通常为线性函数、对数函数和指数函数。尽管这些基本函数可以简单而快速的实现整个映射过程,但他们却无法将图像的动态范围准确的压缩。线性曝光是显示HDR图像的一种非常直接的方法,初始图像被乘以一个因子e,就像数码相机处理曝光度的方法一样:

使用者可以根据关注的信息来选择e的取值,当

时,上式被称为标准化形式,此时得到的结果是图像会变得很暗。当e的取值能使图像中有着最多的曝光良好的像素点时,上式可以被称为自动曝光形式。但是,一个简单的线性变换无法很好的完成动态范围的压缩任务,因为线性变换只能良好的显示其中一小部分的信息。

对数映射则是利用对数函数对HDR图像进行映射操作,对数映射将会以HDR图像中的最大值为标准,将整幅图像非线性地映射到[0,1]区间内,其映射函数可以写为:

其中q,k∈[1,+∞)是由使用者定义的参数,这两个参数可以决定映射算法的具体表现。

指数映射是利用指数函数对HDR图像进行映射操作,指数映射将图像各像素点的值通过由指数函数构成的函数映射到[0,1]区间内,具体的映射函数定义如下:

同样,q,k也是使用者需要调节的参数。使用上述几种方法得到的效果如图1所示。

图1 简单映射方法的结果图示例:(a)标准化形式;(b)自动曝光形式;

(c)对数映射,其中q=0.01, k=1;(d)指数映射,其中q=0.1, k=1。

对数映射和指数映射都可以在处理出于中段动态范围的内容时,获得很好的效果。但是,这两种方法在计算整幅HDR图片时却效果欠佳,这将导致图像过于明亮或过于阴暗,全局对比度也会有失真并且图像细节不够自然。

1.2 直方图校准

最后一种基于数字图像处理的算法是直方图校准算法,在这种算法中,也加入了一些人类视觉感知系统的理论应用。Larson将传统的直方图均衡技术进行了修改和调整,使它能够用于色调映射技术上,Larson同时也在其映射算法中模拟了人类视觉系统的一些特性。首先,这种方法要计算输入图像的灰度直方图I,并在对数域内使用二进制数

表示。Larson通过实验证明,最多需要100个二进制数就足够准确地表示结果,此时,累计直方图P表示如下:

其中x是二进制数,这里需要注意的是累计直方图是一个积分形式,而灰度直方图是它在适宜尺度下的导数:

随后,灰度直方图需要均衡化,传统的均衡化对比度方法如下:

这种操作因为只利用了很少的点进行区域内的色度域压缩并用最中间的点进行拓展,所以会引起图像中一大片区域的对比度失真,因此他们使用了一种直接的方法,可以用下式表示:

综合上面的三个式子,我们可以得到:

上式可以简化为:

因此,当上式的条件无法满足时,对比度的失真就产生了,解决方法就是截断f(x),不过这种操作需要迭代的进行,以避免改变T和c。这种算法引入了一些模拟人类视觉系统的机制,例如对比度、锐度和颜色敏感度等,这些都是受启发于Ferwerda之前的工作。

总的来说,这种色调映射算法提供了一种改进HDR图像的直方图均衡方法,可以提供效果更好的动态范围压缩以及良好的整体对比度。

1.3 视觉适应模型

Ferwerda提出了一种视觉适应模型色调映射算法,这种算法根据人类视觉系统的适应机制,对人类视觉系统的部分方面进行建模,如阈值可见性、颜色感知、视觉灵敏度和时间灵敏度等,通过分段函数来实现对于视杆细胞(

)和视锥细胞(

映射过程是对每个颜色通道使用一个简单的线性方程来重建光照效果,同时加入了一个用于适应暗条件的消色差项,因此方程可以表示为:

其中

表示显示屏幕的亮度适应范围,

表示图像的亮度适应范围,

是两个取决于分段函数的权重因子,通过以下等式定义:

图2 Ferwerda的方法下不同平均亮度设定时的结果。(a)0.01 cd/m2;

(b) 0.1 cd/m2;(c) 1 cd/m2;(d) 10 cd/m2;(e) 100 cd/m2。

当然,本色调映射方法提供了多种引入人类视觉系统仿真的想法,在缩放动态范围的同时,通过对人类视觉系统部分特性的建模,实现了暗环境细节在SDR显示器上显示时的适应能力,但是其动态范围的减少是通过一个简单的线性缩放,因此无法达到更好的动态范围压缩效果。

2. 局部色调映射

相比于全局色调映射因子,局部色调映射因子更能提高色调映射图片的质量,因为局部色调映射因子不仅着眼于全局的对比度构建,也着眼于局部的对比度构建。映射因子f通过将正在映射的像素点,以及这个像素点周围的像素点的强度值同时纳入计算,进而得到映射后的图像的像素值。尽管局部色调映射方法在理论上产生的图像效果要好于全局色调映射因子,但是,在局部色调映射算法的实际应用中通常会出现一个问题,进而影响图像的质量。这个问题就是光晕现象。

在局部色调映射算法的设计过程中,如果周围的像素点的选择不够好,进行的映射方法的设计不够好,就有可能在图像某些区域的边缘出现明显的光晕。尽管在一些时候使用者希望认为产生光晕,因为这可以提醒人们去注意某一特定区域,但是,由于光晕的产生无法被控制,并且通常情况下会给图像效果带来不良影响,因此,在实际算法设计过程中,通常都需要考虑如何避免光晕的产生。

局部色调映射算法的理论基础较为复杂。大多数局部色调映射算法都是综合了很多人类视觉感知系统的结论或是基于相关研究而得出的。在本节我们将给出四种经典的局部色调映射算法,我们在了解算法的同时,也应当注意在这些算法中是如何消除光晕的。

2.1 空间不均匀缩放

Chiu最先提出了一种保持局部对比度的方法。这种色调映射因子通过一个像素点周围的其他像素点的均值来衡量这个像素点的亮度。定义如下:

这里的s(x)是用来衡量周围像素点局部平均值的测量函数。定义如下:

其中

是一个高斯滤波器,k是用来衡量最终结果的常数。这种色调映射算法存在的一个问题是如果σ过小,那么产生的图像的对比度就会很低,效果不好;如果σ过大,那么产生的图像中会出现光晕。光晕通常会出现在明亮区域与阴暗区域的交界处,这意味着

。为了减轻这种情况带来的影响,我们将在

时,把s(x)的值固定为

。在

的点上,s仍然会有些人为操作的痕迹在里面,主要的表现形式是会有陡坡的出现。一个解决的方法是使用一个3×3的高斯滤波器来迭代地平滑s(x)。最后,该算法再使用一个低通滤波器来掩盖那些引人注意的人为产生的光晕。

图3 Chiu局部色调映射算法的示例。

如图3所示,是本方法的结果图示例,其中(a)是σ=3的简单算法,可以看出局部信息保留着,但全局信息丢失严重;(b)代表σ=27的简单算法,这种情况下局部信息和全局信息都被保留了,但图中的光晕非常明显;(c)是σ=27并固定s值,光晕有所消减;(d) σ=27并有眩光模拟,消除了大量光晕。

这是人们提出的第一个局部色调映射操作因子,但是在减轻光晕带来的影响时,这种操作因子产生的计算代价过于高昂(在平滑阶段大约需要进行1000次迭代)。有太多的参数需要去被调整,而且在一系列的操作之后,光晕仍然只能被减轻,而不能被完全消除。

2.2 摄影学色调重现

Reinhard提出了一种基于摄影原理的局部色调映射因子,这种方法模拟了摄影技术中使用了超过一个世纪的burning&dodge效应,这种算法灵感来源于Adams提出的Zonal系统。这种算法的全局分量主要对高亮度的部分进行压缩:

其中

是对

进行缩放的原始亮度,a是选定的曝光度,

是场景键值的对数平均数估计值。键值主观地认定该场景是明亮的、正常的还是暗的,并且会被用在区域系统中来预测一个场景亮度是如何映射到打印区域中的。注意到在上式中,高亮度被压缩,而其他亮度则是被线性缩放的。但是,上式并不会出现明亮的区域变得更亮,但在摄影中,摄影人很可能会为了强调某些场景而加大曝光,加大对比度。因此,上式可以被修改成下面这种形式:

这里的

表示会被映射到白色的最小亮度值,默认情况下它与

相等,

作为截断值,会将超过该值的像素点值截断为

图4 Reinhard摄影学色调重现的示例。(a)Φ=4,α=0.05,

;(b) Φ=4,α=0.05,

与窗口亮度接近。

通过之前的叙述可以定义一个局部色调映射算法,具体的操作方式是找到一个最大的没有明显边界的局部区域,这样可以避免产生光晕效应。这样的区域可以通过比较不同尺寸的高斯滤波之后的图片

,如果其差别很小甚至趋近于零,那就说明没有明显边界,否则有明显边界,判别方程如下:

当所有像素点的最大 都满足上式,也就是都没有明显边界时,全局操作因子就会被更改为局部操作因子,具体如下:

式中的

是图像像素周围最大区域

的平均亮度值。摄影学色调重现是一种保留了边界效应,并且避免了光晕效应的局部色调映射算法,除此之外它还有个优势,不需要输入校正后的图片。

3. 频域算法

前面两节介绍的全局与局部色调映射算法可以统一地看做在空间域上,对图像进行色调映射的操作,本节,我们将介绍两种在频域下对图像进行色调映射操作的方法:快速双边滤波算法以及梯度域压缩算法,以供读者参考。

基于频域的算法具有与局部映射算法相同的目标,也就是保持边缘和局部对比度的目标,在频率运算符的情况下,通过在频域下而不是空间域下的计算来实现。这种方法当且仅当大型特征和细节直接完全分离时,边缘信息和局部对比度信息才能得以保留。因此,频域算法的主要任务,实际上是将图像滤波出高频与低频部分,然后分别进行处理。

快速双边滤波算法

双边滤波(Bilateral Filter)是一种非线性的滤波,可以将图像分离为高频图像,被称为细节层,并将保留边缘的低频图像成为基本层。Durand和Dorsey利用这个特性设计了一个通用且高效的色调映射框架,保留了局部对比度特性。

图5 快速双边滤波算法的流程框图

方法的流程框图如图5所示,框架的第一步是将HDR图像分解为亮度分量和色度分量,此时用双边滤波器对对数域内的亮度进行滤波,并通过亮度与滤波后的商来计算细节层,滤波后的亮度随后使用一个全局算法进行色调映射。最后,将色调映射的基本层、细节层和色度分量重组,形成色调映射的最终结果。

图6 使用双边滤波结构与否的效果对比。(a)亮度再现方法的结果;(b)亮度再现方法与双边滤波结构结合方法的效果。

Durand和Dorsey提出了一个使用近似双边滤波和降采样的加速滤波器,然而这种技术已经被后来引入的加速双边滤波器淘汰了,这种加速方法可以应用于任何一种全局色调映射算法。图6显示了一种例子,与这种方法相关的一个问题是,光晕并没有被完全消除,因此对该种方法的改进,有使用三边滤波器等方法出现。

4. 近期一些新算法

近年来,随着人们对于图像以及视觉的研究不断深入,色调映射算法的设计也逐渐变得更加复杂,适应性与通用性也逐渐加强。本节,我们将介绍两种近年来表现效果良好的三种色调映射算法:分割色调映射算法,Reinhard色调映射算法以及自动淡化与加深算法。

4.1 分割色调映射算法

最近,一种新的色调映射算法将分割算子的思想纳入其中。强边缘和大多数局部对比知觉位于大均匀区域的边界上。分割算子将图像分割成均匀的段,在每个段上应用一个全局算子,最后合并它们。这种方法的另一个优点是,最小化色域修改,因为在每个情况下,每个片段的线性算子有时都是足够的。

色调映射中的明度感知

Krawezyk提出了一种基于明度感知锚定理论的色调映射算法,这种理论指出人类视觉系统可以将视野中的最高亮度值也叫锚点,视为白色,这种感知方法受到相对区域的影响。当最高亮度覆盖一小个区域时,它看起来是自发光的。为了将光度理论应用于复杂的图像,Gilchrist等人提出在可以应用锚定理论的区域中分解图像,被称为框架。

算法的第一步是确定框架,然后在log10的对数域下计算图像直方图,使用k-means聚类算法确定直方图中的质心

,通过基于像素计数的加权平均合并接近质心。为了避免接缝或不连续性,使用软分割生成框架。每个框架定义一个概率函数,确定这个像素是否属于基于质心的框架,如下所示:

其中σ等于两个框架之间的最大距离,

使用双边滤波平滑处理,以删除局部的小变化,如图7所示。一个框架的局部锚点

通过计算框架中亮度第95%的点来确定。最终色调映射的图片可以被计算为:

色调映射的最终图片示例可以从图7看到,算法通过将其与摄影色调再现算法和快速双边滤波算法的结合来比较验证Gelb效应,这是一种与明度不愿相关的错觉。试验结果表明,基于亮度的算法可以重现这种效果,算法可以快速直观地进行实施,但在将其应用于动态场景时需要特别小心,以避免出现重影伪像等情况。

图7 Krawezyk色调映射算法结果图示例。其中(a)、(c)框架中使用锚点,(b)、(d)将(a)、(c)的概率分布平滑处理,(e)是通过合并框架得到的最终色调映射后的图像。

曝光融合

在色调映射之前,HDR图像通常需要由一系列SDR图像组合而成,Mertens提出来一种可以避免色调映射步骤的新方法,该算法的核心概念是合并每次曝光中曝光良好的像素点。

算法第一步是分析每个SDR图像以确定在合并时需要使用哪些像素,这是通过计算每个像素的三个度量来实现的:对比度、饱和度和良好曝光度。对比度C是指图像中渐变的绝对值,饱和度S定义为红色、绿色、蓝色三通道的标准偏差,亮度L的良好曝光度E确定像素是否以模糊方式良好曝光。

这三种度量结合,得到了一个权重和

,它决定这个像素点在当前曝光度下的重要性:

其中i指第i张图像,

是增加度量标准对其他标准影响的指数,N个权重图都被归一化处理过,使得它们的总和在每个像素位置处等于1,以便获得一致的结果。

图8 Mertens的曝光融合算法示例。(a)是HDR图像的第一个曝光度;(b)是(a)的权重图;(c)是HDR图像的第二个曝光度;(d)是(c)的权重图;(e)是使用拉普拉斯金字塔融合后的色调映射图像。

分析之后,曝光结合在最终图像中,为了避免接缝和不连续性,图像混合使用拉普拉斯金字塔。虽然如用运算符G表示的那样在高斯金字塔中分解权重,但是如运算符L所示,曝光图像

被分解为拉普拉斯金字塔,因此混合计算可以定义为:

其中l表示拉普拉斯或高斯金字塔的第l层。最终

消掉了,得到了色调映射后的图片

,如图8所示。

该算法的主要优点是使用者不需要生成HDR图像,此外,它还可以最大限度地减少传统色调映射算法中可能出现先的颜色偏差,这是因为曝光良好的像素是在没有应用实际压缩功能的情况下拍摄的,只是线性关系。

4.2 Reinhard色调映射算法

Reinhard算法是一种基于区域系统的算法。在具体的操作过程中,算法会利用到一些摄影领域的技术,主要的应用就是利用区域系统的基本概念模型来对色调重构进行选择。操作过程中,我们首先会对图像进行缩放处理,就像照相机的曝光那样。然后,如果需要的话,我们会对图像进行自动淡化或加深处理,这样可以实现动态范围的压缩。

首先要做的是如何基于场景的关键值来设定输出图像的色调范围。与很多其他的色调映射方法类似,我们也认为对数平均亮度是场景关键值的有效近似。这个值

可由下式得到:

是真实世界中(x,y)这个像素点的亮度值。N是图像中的像素总数。δ是用来避免奇异化的一个很小的量。如果场景的关键值是正常的,那么我们会把亮度映射到显示图形的中间灰度去,或者0.18.从0到1进行缩放。如下式:

L(x,y)是缩放后的亮度,a=0.18。对于低关键值和高关键值的图像我们允许使用者将对数平均值映射到a的不同取值上。一般地,a向上会取0.36,0.72;向下会取0.09,0.045。

上面的式子存在的一个问题是,虽然大多数场景的主要部分都属于正常的亮度范围内,但是仍然有少数高亮的部分以及天空部分属于高亮度范围。在传统摄影技术中这种问题是通过同时压缩高低亮度部分来完成的。

但是,在现在的图像技术中,我们不再继续使用这种同时压缩高低亮度的“s”型的映射曲线,而是主要对高亮度部分进行压缩。一个符合这种要求的简单操作因子如下:

高亮度部分的缩放比约为1⁄L,而低亮度部分则为1。这种方法在两种缩放方式之间达成了很好的协调。而且这个式子可以保证将所有的亮度都映射到可以显示的亮度范围内。但是,并不是所有时候都需要这样的效果,上式可以经过适当的修改,然后可以让高亮度部分在可控范围内得到加强:

是会被映射为白色的最小的亮度值。这个式子可以看做前面的操作因子与线性映射的混合。

对于大多数HDR图像来说,上面的方法提供的动态范围压缩方式已经足够保存低对比度区域的细节了。但是对于那些有着非常高的动态范围的图像来说,这种方法不足以保存它们存在于高动态范围的细节,因此对这些图像来说,淡化与加深算法是需要的。

相关链接

2017 HDR技术动态

HDR关键技术:色调映射(一)

参考文献

[1] C. Schlicks , Quantization techniques for visualization of high dynamic range pictures, Springer-Verlag, pp. 7-20.

[2] G Eilertsen, R Wanat, R. K. Mantiuk, J. Unger, Evaluation of Tone Mapping Operators for HDR-Video, in: Computer Graphics Forum Vol.32, no 7, 2013.

[3] R. Boitard, R. Cozot, D. Thoreau, K. Bouatouch, Survey of temporal brightness artifacts in video tone mapping, in: HDRi2014-Second International Conference and SME Workshop on HDR imaging, 2014.

[4] P. Debevec, A median cut algorithm for light probe sampling, in: ACM SIGGRAPH 2008 Classes , New York, NY, USA, SIG- GRAPH ’08, ACM, pp. 33:1–33:3, 2008

[5] T. O. Aydin, N. Stefanoski, S. Croci, M. Gross, A. Smolic, Temporally coherent local tone mapping of HDR video, in: ACM Trans. Graphics 33, 6, p. 1–13, 2014.

[6] B. Guthier, S. Kopf, M. Eble, W. Effelsberg, Flicker reduction in tone mapped high dynamic range video, in: Proc. SPIE, 2011.

[7] R. Boitard, K. Bouatouch, R. Cozot, D. Thoreau, A. Gruson, Temporal coherency for video tone mapping, in: SPIE 8499, Applications of Digital Image Processing XXXV, San Diego, 2012.

[8] M. Lang, O. Wang, T. Aydin, A. Smolic, M. Gross, Practical temporal consistency for image-based graphics applications, in: ACM Trans. Graph, Vol.31, no 4, p. 34:1–34:8, July 2012.

[9] X. Dong, B. Bonev, Y. Zhu, A.L. Yuille, Region-based temporally consistent video post-processing, in: The IEEE Conference on Computer Vision and Pattern Recognition(CVPR), 2015.

[10] N. Bonneel, J. Tompkin, K. Sunkavalli, D. Sun, S. Paris, H. Pfister, Blind video temporal consistency, in: ACM Trans. Graph, Vol.34, no 6, p. 196:1–196:9, Oct. 2015.

[11] E. P. Bennett, L. Mcmillan, Video enhancement usingper-pixel virtual exposures, in: ACM Trans. Graphics, Vol.24, no 3, p. 845–852., 2005.

[12] J. H. Van Hateren, Encoding of high dynamic range video with a model of human cones, in: ACM Trans. Graphics 25, pp. 1380-1399, 2006.

[13] G. Eilertsen, R. K. Mantiuk, J. Unger, Real-time noise-aware tone mapping, in: ACM Trans. Graph, Vol.34, no 6, 2015.

[14] J. Li, O. Skorka, K. Ranaweera, D. Joseph, Novel real-time tone-mapping operator for noisy logarithmic cmos image sensors, in: Journal of Imaging Science and Technology, Vol.60, no 2, p. 1–13, 2016.

[15] G. Eilertsen, R. Wanat, R. K. Mantiuk, J. Unger, Evaluation of Tone Mapping Operators for HDR-Video, in: Computer Graphics Forum, Vol.32, no 7, p. 275–284, 2013.

[16] F. Dufaux, P. L. Callet, R. K. Mantiuk, M. Mrak, High Dynamic Range Video: From Acquisition, to Display and Applications, Vol.1, Academic Press, 2016.

[17] J. A. Ferwerda, S. N. Pattanaik, P. Shirley, D. P. Green- Berg, A model of visual adaptation for realistic image synthesis, in: Proceedings of the 23rd annual conference on Computer graphics and interactive techniques, New York, NY, USA,, 1996.

[18] S. N. Pattanaik, J. Tumblin, H. Yee, D. P. Greenberg, Time-dependent visual adaptation for fast realistic image display, in: Proc. SIGGRAPH 00 (2000), Annual Conference Series, 2000.

[19] S. B. Kang, M. Uyttendaele, S. Winder, R. Szeliski, High dynamic range video, in: ACM Trans. Graph, Vol.22, no 3, p. 319–325, 2003.

[20] E. Reinhard, M. Stark, P. Shirley, J. Ferwerda, Photographic tone reproduction for digital images., in: ACM Trans. Graph, Vol.21, no 3, p. 267–276, 2002.

[21]N. Goodnight, R. Wang, C. Woolley, G. Humphreys, Interactive time-dependent tone mapping using programmable graphics hardware, in: Proceedings of the 14th Eurographics Workshop on Rendering, Aire-la-Ville, Switzerland, Switzerland, 2003.

[22] P. Ledda, L. P. Santos, A. Chalmers, A local model of eye adaptation for high dynamic range images, in: International Conference on Computer Graphics, Virtual Reality, Visualisation and Interaction in Africa, 2004.

[23] G. Krawczyk, K. Myszkowski, H. P. Seidel, Perceptual effects in real-time tone-mapping, in: Proceedings of the 21st Spring Conference on Computer Graphics, 2005.

[24] F. Durand, J. Dorsey, Interactive Tone Mapping, in: Rendering Techniques 2000: Proceedings of the Eurographics Workshop, Brno, Czech Republic, 2000, p. 219–230.

[25] H. Wang, R. Raskar, N. Ahuja, High dynamic range video using split aperture camera, in: IEEE 6th Workshop on Omnidirectional Vision, Camera Networks and Non-classical Cameras, Washington, DC, USA, 2005.

[26] C. Lee, C. S. Kim, Gradient domain tone mapping of high dynamic range videos, in International Conference on Image Processing, 2007.

[27] A. Benoit, D. Alleysson, J. Herault, P. L. Callet, Spatio-temporal tone mapping operator based on a retina model, in: Computational Color Imaging Workshop(CCIW’09), 2009.

[28] J. Hérault, B. Durette, Modeling Visual Perception for Image Processing, Berlin, Heidelberg: Springer Berlin Heidelberg, 2007, pp. 662-675.

[29] L. Meylan, D. Alleysson, S. Süsstrunk, Model of retinal local adaptation for the tone mapping of color filter array images, in: J. Opt. Soc. Am. A Vol.24, no 9, p. 2807–2816, Sep 2007.

[30] Stevens , "The surprising simplicity of sensory metrics," in: American psychologist, p. 29, 1962.

[31] H. Shahid, D. Li, A. Fanaswala, M. T. Pourazad, P. Na- Siopoulos, A new hybrid tone mapping scheme for high dynamic range (hdr) videos, in: IEEE International Conference on Consumer Electronics (ICCE), 2015.

[32] S. T. Anand, S. Jeeva, S. Thivya, Edge detection using directional filter bank, in: International Journal of Applied Information Systems 1, pp. 21-27, 2012.

[33] J. Kuang, G. M. Johnson, M. D. Fairchild, icam06: A refined image appearance model for {HDR} image rendering, in: Journal of Visual Communication and Image Representation, Vol.18, no 5 , pp. 406-414, 2007.

[34] G. Ward Larson, H. Rushmeier, C. Piatko, A visibility matching tone reproduction operator for high dynamic range scenes, in: IEEE Trans. Visualization and Computer Graphics Vol.3, no 4, pp. 291-306, 1997.

[35] G. Eilertsen, R. K. Mantiuk, J. Unger, Real-time noise aware tone mapping, in: ACM Trans. Graph, Vol.34, no 6, p. 198:1–198:15, Oct 2015.

[36] R. Mantiuk, S. Daly, L. Kerofsky, Display adaptive tone mapping, in: ACM Trans. Graphics, Vol.27, no 3, p. 68:1–68:10, 2008.

本文参与 腾讯云自媒体分享计划,分享自微信公众号。
原始发表:2018-07-12,如有侵权请联系 cloudcommunity@tencent.com 删除

本文分享自 媒矿工厂 微信公众号,前往查看

如有侵权,请联系 cloudcommunity@tencent.com 删除。

本文参与 腾讯云自媒体分享计划  ,欢迎热爱写作的你一起参与!

评论
登录后参与评论
0 条评论
热度
最新
推荐阅读
目录
  • 2017 HDR技术动态
  • HDR关键技术:色调映射(一)
相关产品与服务
媒体处理
媒体处理(Media Processing Service,MPS)是一种云端音视频处理服务。基于腾讯多年音视频领域的深耕,为您提供极致的编码能力,大幅节约存储及带宽成本、实现全平台播放,同时提供视频截图、音视频增强、内容理解、内容审核等能力,满足您在各种场景下对视频的处理需求。
领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档