前往小程序,Get更优阅读体验!
立即前往
首页
学习
活动
专区
工具
TVP
发布
社区首页 >专栏 >医学图像处理案例(二十二)——基于cuda的小波变换的图像融合

医学图像处理案例(二十二)——基于cuda的小波变换的图像融合

作者头像
医学处理分析专家
发布2024-04-02 16:46:01
1590
发布2024-04-02 16:46:01
举报

今天将介绍使用cuda小波变换来对多景深图像进行融合。

1、图像融合概述

图像融合(Image Fusion)是指将多源信道所采集到的关于同一目标的图像数据经过图像处理和计算机技术等,最大限度的提取各自信道中的有利信息,最后综合成高质量的图像,以提高图像信息的利用率、改善计算机解译精度和可靠性、提升原始图像的空间分辨率和光谱分辨率,利于监测。

2、小波变换特点介绍

小波变换的固有特性使其在图像处理中有如下优点:完善的重构能力,保证信号在分解过程中没有信息损失和冗余信息;把图像分解成低频图像和细节(高频)图像的组合,分别代表了图像的不同结构,因此容易提取原始图像的结构信息和细节信息;小波分析提供了与人类视觉系统方向相吻合的选择性图像。

一般图像融合的小波分解采用离散小波变换(Discrete Wavelet Transform, DWT)。DWT的函数基由一个称为母小波或分析小波的单一函数通过膨胀和平移获得。因而,DWT同时具有时域和频域分析能力,与一般的金字塔分解相比,DWT图像分解具有以下优势:

1)具有方向性,在提取图像低频信息的同时,还可获得了水平、垂直和对角三个方向的高频信息;

2)通过合理的选择母小波,可使DWT在压缩噪声的同时更有效的提取纹理、边缘等显著信息;

3)金字塔分解各尺度之间具有信息的相关性,而DWT在不同尺度上具有更高的独立性。

3、基于小波变换的图像融合

DWT 融合算法基本思想:首先对源图像进行小波变换,然后按照一定规则对变换系数进行合并;最后对合并后的系数进行小波逆变换得到融合图像。

3.1、小波分解原理简介

LL:水平低频,垂直低频

LH:水平低频,垂直高频

HL:水平高频,垂直低频

HH:水平高频,垂直高频

其中,L表示低频,H表示高频,下标1、2表示一级或二级分解。在每一分解层上,图像均被分解为LL,LH,HH和HL四个频带,下一层的分解仅对低频分量LL进行分解。这四个子图像中的每一个都是由原图与一个小波基函数的内积后,再经过在x和y方向都进行2倍的间隔采样而生成的,这是正变换,也就是图像的分解;逆变换,也就是图像的重建,是通过图像的增频采样和卷积来实现的。

3.2、融合规则

规则一:系数绝对值较大法

该融合规则适合高频成分比较丰富,亮度、对比度比较高的源图像,否则在融合图像中只保留一幅源图像的特征,其他的特征被覆盖。小波变换的实际作用是对信号解相关,并将信号的全部信息集中到一部分具有大幅值的小波系数中。这些大的小波系数含有的能量远比小系数含有的能量大,从而在信号的重构中,大的系数比小的系数更重要。

规则二:加权平均法

权重系数可调,适用范围广,可消除部分噪声,源图像信息损失较少,但会造成图像对比度的下降,需要增强图像灰度。

4、基于cuda小波变换的图像融合代码实现

将分享python版本代码来实现多景深医学图像融合,融合策略是低频图像采用平均值法,高频图像采用最大值法。python版本中需要用ptwt库,可以使用下面命令来安装,具体可以见原文链接。

代码语言:javascript
复制
pip install ptwt

python版本(cuda加速)代码

代码语言:javascript
复制
import pywt
import ptwt
import torch
import numpy as np

def channelTransformgpu(ch1, ch2, ch3, FUSION_METHOD):
    # wavelet transformation
    cooef1 = ptwt.wavedec2(torch.as_tensor(ch1).contiguous().to(device=device, dtype=torch.float32),
                           pywt.Wavelet("haar"), level=1, mode="constant")
    cooef2 = ptwt.wavedec2(torch.as_tensor(ch2).contiguous().to(device=device, dtype=torch.float32),
                           pywt.Wavelet("haar"), level=1, mode="constant")
    cooef3 = ptwt.wavedec2(torch.as_tensor(ch3).contiguous().to(device=device, dtype=torch.float32),
                           pywt.Wavelet("haar"), level=1, mode="constant")
    cA1, (cH1, cV1, cD1) = cooef1
    cA2, (cH2, cV2, cD2) = cooef2
    cA3, (cH3, cV3, cD3) = cooef3
    # wavelet transformation coor fusion
    cA = (cA1+ cA2+ cA3) / 3
    if FUSION_METHOD == "max":
        cH = torch.max(torch.max(cH1, cH2), cH3)
        cV = torch.max(torch.max(cV1, cV2), cV3)
        cD = torch.max(torch.max(cD1, cD2), cD3)
    elif FUSION_METHOD == "min":
        cH = torch.min(torch.min(cH1, cH2), cH3)
        cV = torch.min(torch.min(cV1, cV2), cV3)
        cD = torch.min(torch.min(cD1, cD2), cD3)
    else:
        cH = (cH1 + cH2 + cH3) / 3
        cV = (cV1 + cV2 + cV3) / 3
        cD = (cD1 + cD2 + cD3) / 3
    fincoC = [cA, (cH, cV, cD)]
    # wavelet iverse transformation
    reconstruction = ptwt.waverec2(fincoC, pywt.Wavelet("haar"))
    reconstruction = reconstruction.detach().cpu().squeeze().numpy()
    return reconstruction

python版本(cpu)代码

代码语言:javascript
复制
import pywt
import ptwt
import torch
import numpy as np


def channelTransform(ch1, ch2, ch3, FUSION_METHOD):
    # wavelet transformation
    cooef1 = pywt.wavedec2(ch1, 'haar', level=1)
    cooef2 = pywt.wavedec2(ch2, 'haar', level=1)
    cooef3 = pywt.wavedec2(ch3, 'haar', level=1)
    cA1, (cH1, cV1, cD1) = cooef1
    cA2, (cH2, cV2, cD2) = cooef2
    cA3, (cH3, cV3, cD3) = cooef3
    # wavelet transformation coor fusion
    cA = (cA1+ cA2+ cA3) / 3
    if FUSION_METHOD == "max":
        cH = np.maximum(cH1, cH2, cH3)
        cV = np.maximum(cV1, cV2, cV3)
        cD = np.maximum(cD1, cD2, cD3)
    elif FUSION_METHOD == "min":
        cH = np.minimum(cH1, cH2, cH3)
        cV = np.minimum(cV1, cV2, cV3)
        cD = np.minimum(cD1, cD2, cD3)
    else:
        cH = (cH1 + cH2 + cH3) / 3
        cV = (cV1 + cV2 + cV3) / 3
        cD = (cD1 + cD2 + cD3) / 3
    fincoC = [cA, (cH, cV, cD)]
    # wavelet iverse transformation
    outImageC = pywt.waverec2(fincoC, 'haar')
    return outImageC

5、融合结果

下图是多个景深的宫颈癌细胞病理图像。

下图第一个是cuda融合结果,第二个是cpu融合结果,通过计算图像清晰度数值,可以看到融合的结果是一样的,融合后图像比融合前的三张图像质量都好,而计算时间cuda是1s,cpu是6s。

本文参与 腾讯云自媒体同步曝光计划,分享自微信公众号。
原始发表:2024-03-25,如有侵权请联系 cloudcommunity@tencent.com 删除

本文分享自 最新医学影像技术 微信公众号,前往查看

如有侵权,请联系 cloudcommunity@tencent.com 删除。

本文参与 腾讯云自媒体同步曝光计划  ,欢迎热爱写作的你一起参与!

评论
登录后参与评论
0 条评论
热度
最新
推荐阅读
相关产品与服务
图像处理
图像处理基于腾讯云深度学习等人工智能技术,提供综合性的图像优化处理服务,包括图像质量评估、图像清晰度增强、图像智能裁剪等。
领券
问题归档专栏文章快讯文章归档关键词归档开发者手册归档开发者手册 Section 归档