图像各向异性滤波

各向异性概念

各向异性(英文名称:anisotropy)是指材料在各方向的力学和物理性能呈现差异的特性。晶体的各向异性即沿晶格的不同方向,原子排列的周期性和疏密程度不尽相同,由此导致晶体在不同方向的物理化学特性也不同,这就是晶体的各向异性。亦称“非均质性”。物体的全部或部分物理、化学等性质随方向的不同而各自表现出一定的差异的特性。即在不同的方向所测得的性能数值不同。对图像来说各向异性就是在每个像素点周围四个方向上梯度变化都不一样,滤波的时候我们要考虑图像的各向异性对图像的影响,而各向同性显然是说各个方向的值都一致,常见的图像均值或者高斯均值滤波可以看成是各向同性滤波。

各向异性滤波

是将图像看成物理学的力场或者热流场,图像像素总是向跟他的值相异不是很大的地方流动或者运动,这样那些差异大的地方(边缘)就得以保留,所以本质上各向异性滤波是图像边缘保留滤波器(EPF)。它在各个方向的扩散可以表示如下如下公式:

演示效果

左侧是原图,右侧是各向异性滤波之后的图像

实现代码

#include <opencv2/opencv.hpp>

#include <iostream>


using namespace cv;

using namespace std;

float k = 15;

float lambda = 0.25;

int N = 20;


void anisotropy_demo(Mat &image, Mat &result);

int main(int argc, char** argv) {

    Mat src = imread("D:/vcprojects/images/example.png");

    if (src.empty()) {

        printf("could not load image...\n");

        return -1;

    }

    namedWindow("input image", CV_WINDOW_AUTOSIZE);

    imshow("input image", src);

    vector<Mat> mv;

    vector<Mat> results;

    split(src, mv);

    for (int n = 0; n < mv.size(); n++) {

        Mat m = Mat::zeros(src.size(), CV_32FC1);

        mv[n].convertTo(m, CV_32FC1);

        results.push_back(m);

    }


    int w = src.cols;

    int h = src.rows;

    Mat copy = Mat::zeros(src.size(), CV_32FC1);

    for (int i = 0; i < N; i++) {

        anisotropy_demo(results[0], copy);

        copy.copyTo(results[0]);


        anisotropy_demo(results[1], copy);

        copy.copyTo(results[1]);


        anisotropy_demo(results[2], copy);

        copy.copyTo(results[2]);


    }

    Mat output;

    normalize(results[0], results[0], 0, 255, NORM_MINMAX);

    normalize(results[1], results[1], 0, 255, NORM_MINMAX);

    normalize(results[2], results[2], 0, 255, NORM_MINMAX);


    results[0].convertTo(mv[0], CV_8UC1);

    results[1].convertTo(mv[1], CV_8UC1);

    results[2].convertTo(mv[2], CV_8UC1);


    Mat dst;

    merge(mv, dst);


    imshow("result", dst);

    imwrite("D:/result.png", dst);

    waitKey(0);

    return 0;

}


void anisotropy_demo(Mat &image, Mat &result) {

    int width = image.cols;

    int height = image.rows;


    // 四邻域梯度

    float n = 0, s = 0, e = 0, w = 0; 

    // 四邻域系数

    float nc = 0, sc = 0, ec = 0, wc = 0; 

    float k2 = k*k;

    for (int row = 1; row < height -1; row++) {

        for (int col = 1; col < width -1; col++) {

            // gradient

            n = image.at<float>(row - 1, col) - image.at<float>(row, col);

            s = image.at<float>(row + 1, col) - image.at<float>(row, col);

            e = image.at<float>(row, col - 1) - image.at<float>(row, col);

            w = image.at<float>(row, col + 1) - image.at<float>(row, col);

            nc = exp(-n*n / k2);

            sc = exp(-s*s / k2);

            ec = exp(-e*e / k2);

            wc = exp(-w*w / k2);

            result.at<float>(row, col) = image.at<float>(row, col) + lambda*(n*nc + s*sc + e*ec + w*wc);

        }

    }

}

原文发布于微信公众号 - OpenCV学堂(CVSCHOOL)

原文发表时间:2017-11-01

本文参与腾讯云自媒体分享计划,欢迎正在阅读的你也加入,一起分享。

发表于

我来说两句

0 条评论
登录 后参与评论

相关文章

来自专栏wym

opencv学习笔记--直方图的均值化

46210
来自专栏AI研习社

深度学习的快速目标跟踪

第一部分:CPU real-time tracker ? 终极鲁棒的人脸跟踪 关于跟踪,除了鲁棒性 (robust) 和准确性 (accuracy),这个专...

87170
来自专栏人工智能LeadAI

为什么ResNet和DenseNet可以这么深? | 一文详解残差块为何能解决梯度弥散问题

传统的“提拉米苏”式卷积神经网络模型,都以层叠卷积层的方式提高网络深度,从而提高识别精度。但层叠过多的卷积层会出现一个问题,就是梯度弥散(Vanishing),...

38670
来自专栏人工智能头条

Yoshua Bengio:在能量模型中使用提前推断近似反向传播

17920
来自专栏视觉求索无尽也

SIFT特征的原理学习资料开始学习

SIFT特征不只具有尺度不变性,即使改变图像的旋转角度,亮度或拍摄视角,仍然能够得到好的检测效果。

15620
来自专栏机器之心

良心GitHub项目:各种机器学习任务的顶级结果(论文)汇总

434110
来自专栏FD的专栏

良心GitHub项目:各种机器学习任务的顶级结果(论文)汇总

项目地址:https://github.com//RedditSota/state-of-the-art-result-for-machine-learning...

21050
来自专栏华章科技

良心GitHub项目:各种机器学习任务的顶级结果(论文)汇总

该 GitHub 库提供了所有机器学习问题的当前最优结果,并尽最大努力保证该库是最新的。如果你发现某个问题的当前最优结果已过时或丢失,请作为问题提出来(附带:论...

9920
来自专栏深度学习与数据挖掘实战

【今日热门&优质资源】TensorFlow和TF-Slim实现图像分类与分割

14830
来自专栏新智元

神经网络决策过程可视化:AI眼中马云、马化腾、李彦宏谁最有吸引力?

来源:thehive.ai 作者:Hive机器学习工程师Ryan 编译:费欣欣 【新智元导读】神经网络在进行图像分类时如何做决策?The Hive的机器学习工程...

41890

扫码关注云+社区

领取腾讯云代金券