C++版本OpenCv教程(三十一)可分离滤波

前面介绍的滤波函数使用的滤波器都是固定形式的滤波器,有时我们需要根据实际需求调整滤波模板,例如在滤波计算过程中滤波器中心位置的像素值不参与计算,滤波器中参与计算的像素值不是一个矩形区域等。OpenCV 4无法根据每种需求单独编写滤波函数,因此OpenCV 4提供了根据自定义滤波器实现图像滤波的函数,就是我们本章最开始介绍的卷积函数filter2D(),不过根据函数的名称,这里称呼为滤波函数更为准确一些,输入的卷积模板也应该称为滤波器或者滤波模板。该函数的使用方式我们在一开始已经介绍,只需要根据需求定义一个卷积模板或者滤波器,便可以实现自定义滤波。

无论是图像卷积还是滤波,在原图像上移动滤波器的过程中每一次的计算结果都不会影响到后面过程的计算结果,因此图像滤波是一个并行的算法,在可以提供并行计算的处理器中可以极大的加快图像滤波的处理速度。除此之外,图像滤波还具有可分离性,这个性质我们在高斯滤波中有简单的接触,可分离性指的是先对X(Y)方向滤波,再对Y(X)方向滤波的结果与将两个方向的滤波器联合后整体滤波的结果相同。两个方向的滤波器的联合就是将两个方向的滤波器相乘,得到一个矩形的滤波器,例如X方向的滤波器为 ,Y方向的滤波器为 ,两个方向联合滤波器可以用式(5.7)计算,无论先进行X方向滤波还是Y方向滤波,两个方向联合滤波器都是相同的。
在这里插入图片描述
因此在高斯滤波中,我们利用getGaussianKernel()函数分别得到X方向和Y方向的滤波器,之后通过生成联合滤波器或者分别用两个方向的滤波器进行滤波的计算结果相同。但是两个方向联合滤波需要在使用filter2D()函数滤波之前计算联合滤波器,而两个方向分别滤波需要调用两次filter2D()函数,增加了通过代码实现的复杂性,因此OpenCV 4提供了可以输入两个方向滤波器实现滤波的滤波函数sepFilter2D(),该函数的函数原型在代码清单5-16中给出。

void cv::sepFilter2D(InputArray  src,
                     OutputArray  dst,
                     int  ddepth,
                     InputArray  kernelX,
                     InputArray  kernelY,
                     Point  anchor = Point(-1,-1),
                     double  delta = 0,
                     int  borderType = BORDER_DEFAULT 
                     )
  • src:待滤波图像
  • dst:输出图像,与输入图像src具有相同的尺寸、通道数和数据类型。
  • ddepth:输出图像的数据类型(深度),根据输入图像的数据类型不同拥有不同的取值范围,具体的取值范围在表5-1给出,当赋值为-1时,输出图像的数据类型自动选择。
  • kernelX:X方向的滤波器,
  • kernelY:Y方向的滤波器。
  • anchor:内核的基准点(锚点),其默认值为(-1,-1)代表内核基准点位于kernel的中心位置。基准点即卷积核中与进行处理的像素点重合的点,其位置必须在卷积核的内部。
  • delta:偏值,在计算结果中加上偏值。
  • borderType:像素外推法选择标志,取值范围在表3-5中给出。默认参数为BORDER_DEFAULT,表示不包含边界值倒序填充。

该函数将可分离的线性滤波器分离成X方向和Y方向进行处理,与filter2D()函数不同之处在于,filter2D()函数需要通过滤波器的尺寸区分滤波操作是作用在X方向还是Y方向,例如滤波器尺寸为K×1时是Y方向滤波,1×K尺寸的滤波器是X方向滤波。而sepFilter2D()函数通过不同参数区分滤波器是作用在X方向还是Y方向,无论输入滤波器的尺寸是K×1还是1×K,都不会影响滤波结果。

为了更加了解线性滤波的可分离性,在代码清单5-17中给出了利用filter2D()函数和sepFilter2D()函数实现滤波的示例程序。程序中利用filter2D()函数依次进行Y方向和X方向滤波,将结果与两个方向联合滤波器滤波结果相比较,验证两种方式计算结果的一致性。同时将两个方向的滤波器输入sepFilter2D()函数中,验证该函数计算结果是否与前面的计算结果一致。最后利用自定义的滤波器,对图像依次进行X方向滤波和Y方向滤波,查看滤波结果是否与使用联合滤波器的滤波结果一致。程序的计算结果依次在图5-19、图5-20给出。

#include <opencv2/opencv.hpp>
#include <opencv2/highgui/highgui.hpp>
using namespace cv;
using namespace std;

int main(){
    
    
    float points[25]={
    
    1,2,3,4,5,
                      6,7,8,9,10,
                      11,12,13,14,15,
                      16,17,18,19,20,
                      21,22,23,24,25};
    Mat data(5,5,CV_32FC1,points);
    //X方向、Y方向和联合滤波器的构建
    Mat a=(Mat_<float>(3,1)<<-1,3,-1);//构造一个kernel,这也是构造Mat矩阵的一种方法
    Mat b=a.reshape(1,1);
    Mat ab=a*b;
    cout<<"a = "<<endl;
    cout<<a<<endl;
    cout<<"b = "<<endl;
    cout<<b<<endl;
    cout<<"ab = "<<endl;
    cout<<ab<<endl;
    //验证高斯滤波的可分离性
    Mat gaussX=getGaussianKernel(3,1);
    Mat gaussData,gaussDataXY;
    GaussianBlur(data,gaussData,Size(3,3),1,1,BORDER_CONSTANT);
    sepFilter2D(data,gaussDataXY,-1,gaussX,gaussX,Point(-1,-1),0,BORDER_CONSTANT);
    //输入烦两种高斯滤波的计算结果
    cout<<"gaussData = "<<endl;
    cout<<gaussData<<endl;
    cout<<"gaussDataXY = "<<endl;
    cout<<gaussDataXY<<endl;
    //线性滤波的可分离性
    Mat dataYX,dataY,dataXY,dataXY_sep;
    filter2D(data,dataY,-1,a,Point(-1,-1),0,BORDER_CONSTANT);
    filter2D(dataY,dataYX,-1,b,Point(-1,-1),0,BORDER_CONSTANT);
    filter2D(data,dataXY,-1,ab,Point(-1,-1),0,BORDER_CONSTANT);
    sepFilter2D(data,dataXY_sep,-1,b,b,Point(-1,-1),0,BORDER_CONSTANT);
    //输出分离滤波和联合滤波的计算结果
    cout<<"dataY = "<<endl;
    cout<<dataY<<endl;
    cout<<"dataYX = "<<endl;
    cout<<dataYX<<endl;
    cout<<"dataXY = "<<endl;
    cout<<dataXY<<endl;
    cout<<"dataXY_sep = "<<endl;
    cout<<dataXY_sep<<endl;

    //对图像的分离操作
    Mat img=imread("luffy.jpg");
    Mat luffy;
    resize(img,luffy,Size(img.rows/2,img.cols/2));
    if(luffy.empty()){
    
    
        cout<<"请确认输入的图片路径是否正确"<<endl;
        return -1;
    }
    Mat imgXY,imgY,imgYX;
    filter2D(luffy,imgY,-1,a,Point(-1,-1),0,BORDER_CONSTANT);
    filter2D(imgY,imgYX,-1,b,Point(-1,-1),0,BORDER_CONSTANT);
    filter2D(luffy,imgXY,-1,ab,Point(-1,-1),0,BORDER_CONSTANT);
    imshow("luffy",luffy);
    imshow("imgY",imgY);
    imshow("imgYX",imgYX);
    imshow("imgXY",imgXY);
    waitKey(0);
    return 0;
}

运行结果:

a = 
[-1;
 3;
 -1]
b = 
[-1, 3, -1]
ab = 
[1, -3, 1;
 -3, 9, -3;
 1, -3, 1]
gaussData = 
[1.7207065, 2.8222058, 3.5481372, 4.2740688, 3.430702;
 4.6296568, 7, 8, 9, 6.9852448;
 8.2593136, 12, 13, 14, 10.614902;
 11.88897, 17, 18, 19, 14.244559;
 10.270683, 14.600147, 15.326078, 16.05201, 11.98068]
gaussDataXY = 
[1.7207065, 2.8222058, 3.5481372, 4.2740688, 3.430702;
 4.6296568, 7, 8, 9, 6.9852448;
 8.2593136, 12, 13, 14, 10.614902;
 11.88897, 17, 18, 19, 14.244559;
 10.270683, 14.600147, 15.326078, 16.05201, 11.98068]
dataY = 
[-3, -1, 1, 3, 5;
 6, 7, 8, 9, 10;
 11, 12, 13, 14, 15;
 16, 17, 18, 19, 20;
 47, 49, 51, 53, 55]
dataYX = 
[-8, -1, 1, 3, 12;
 11, 7, 8, 9, 21;
 21, 12, 13, 14, 31;
 31, 17, 18, 19, 41;
 92, 49, 51, 53, 112]
dataXY = 
[-8, -1, 1, 3, 12;
 11, 7, 8, 9, 21;
 21, 12, 13, 14, 31;
 31, 17, 18, 19, 41;
 92, 49, 51, 53, 112]
dataXY_sep = 
[-8, -1, 1, 3, 12;
 11, 7, 8, 9, 21;
 21, 12, 13, 14, 31;
 31, 17, 18, 19, 41;
 92, 49, 51, 53, 112]

在这里插入图片描述

猜你喜欢

转载自blog.csdn.net/qq_33287871/article/details/112549284