【OpenCV学习笔记 023】两种图像分割方法比较

图像标准分割Berkeley图像库:http://www.eecs.berkeley.edu/Research/Projects/CS/vision/bsds/

此次研究两种图像分割法,分别是基于形态学的分水岭算法和基于图割理论的GrabCut算法。OpenCV均提供了两张算法或其变种。鉴于研究所需,记录一些知识点,开发平台为OpenCV2.4.9+Qt5.3.2。

一、使用分水岭算法进行图像分割

分水岭变换是一种常用的图像处理算法,在网上很容易搜到详细的原理分析。简单来说,这是一种基于拓扑理论的数学形态学的图像分割方法,其基本思想是把图像看作是测地学上的拓扑地貌,图像中每一点像素的灰度值表示该点的海拔高度,每一个局部极小值及其影响区域称为集水盆,而集水盆的边界则形成分水岭。分水岭的概念和形成可以通过模拟浸入过程来说明。在每一个局部极小值表面,刺穿一个小孔,然后把整个模型慢慢浸入水中,随着浸入的加深,每一个局部极小值的影响域慢慢向外扩展,在两个集水盆汇合处构筑大坝,即形成分水岭。

分水岭算法简单,因此存在一些缺陷,如容易导致图像的过度分割。分水岭算法对微弱边缘具有良好的响应,图像中的噪声、物体表面细微的灰度变化,都会产生过度分割的现象。

为消除分水岭算法产生的过度分割,有两种常规的处理方法,一是利用先验知识去除无关边缘信息。二是修改梯度函数使得集水盆只响应想要探测的目标。

OpenCV提供了该算法的改进版本,使用预定义的一组标记来引导对图像的分割,该算法是通过cv::watershed函数来实现的。

要实现分水岭算法,首先新建一个类WaterShedSegmentation,在watershedsegmentation.h中添加:

#ifndef WATERSHEDSEGMENTATION_H
#define WATERSHEDSEGMENTATION_H
#include <opencv2/core/core.hpp>
#include <opencv2/highgui/highgui.hpp>
#include <opencv2/imgproc/imgproc.hpp>

class WaterShedSegmentation
{
public:

    void setMarkers(const cv::Mat &markerImage); // 将原图像转换为整数图像
    cv::Mat process(const cv::Mat &image); // // 分水岭算法实现
    // 以下是两种简化结果的特殊方法
    cv::Mat getSegmentation();
    cv::Mat getWatersheds();

private:
    cv::Mat markers; // 用于非零像素点的标记
};

#endif // WATERSHEDSEGMENTATION_H
  • 1
  • 2
  • 3
  • 4
  • 5
  • 6
  • 7
  • 8
  • 9
  • 10
  • 11
  • 12
  • 13
  • 14
  • 15
  • 16
  • 17
  • 18
  • 19
  • 20
  • 21
  • 22
  • 1
  • 2
  • 3
  • 4
  • 5
  • 6
  • 7
  • 8
  • 9
  • 10
  • 11
  • 12
  • 13
  • 14
  • 15
  • 16
  • 17
  • 18
  • 19
  • 20
  • 21
  • 22

接着,在watershedsegmentation.cpp中添加:

#include "watershedsegmentation.h"
#include <opencv2/core/core.hpp>
#include <opencv2/highgui/highgui.hpp>
#include <opencv2/imgproc/imgproc.hpp>

void WaterShedSegmentation::setMarkers(const cv::Mat &markerImage) // 该函数将原图像转换为整数图像
{
    markerImage.convertTo(markers,CV_32S);
}

cv::Mat WaterShedSegmentation::process(const cv::Mat &image)
{
  // 使用分水岭算法
  cv::watershed(image,markers);
  return markers;
}

// 以下是两种简化结果的特殊方法
// 以图像的形式返回分水岭结果
cv::Mat WaterShedSegmentation::getSegmentation()
{
  cv::Mat tmp;
  // 所有像素值高于255的标签分割均赋值为255
  markers.convertTo(tmp,CV_8U);
  return tmp;
}

cv::Mat WaterShedSegmentation::getWatersheds()
{
  cv::Mat tmp;
  markers.convertTo(tmp,CV_8U,255,255);
  return tmp;
}
  • 1
  • 2
  • 3
  • 4
  • 5
  • 6
  • 7
  • 8
  • 9
  • 10
  • 11
  • 12
  • 13
  • 14
  • 15
  • 16
  • 17
  • 18
  • 19
  • 20
  • 21
  • 22
  • 23
  • 24
  • 25
  • 26
  • 27
  • 28
  • 29
  • 30
  • 31
  • 32
  • 33
  • 1
  • 2
  • 3
  • 4
  • 5
  • 6
  • 7
  • 8
  • 9
  • 10
  • 11
  • 12
  • 13
  • 14
  • 15
  • 16
  • 17
  • 18
  • 19
  • 20
  • 21
  • 22
  • 23
  • 24
  • 25
  • 26
  • 27
  • 28
  • 29
  • 30
  • 31
  • 32
  • 33

main函数修改如下:

#include <QCoreApplication>
#include "watershedsegmentation.h"
#include <opencv2/core/core.hpp>
#include <opencv2/highgui/highgui.hpp>
#include <opencv2/imgproc/imgproc.hpp>

int main(int argc, char *argv[])
{
    QCoreApplication a(argc, argv);

    // 输入待处理的图像
    cv::Mat image= cv::imread("c:/Fig4.41(a).jpg");
    if (!image.data)
        return 0;

    cv::namedWindow("Original Image");
    cv::imshow("Original Image",image);

    // 输入图像,将其转化为二值图像
    cv::Mat binary;
    binary= cv::imread("c:/Fig4.41(a).jpg",0);

    // 显示二值图像
    cv::namedWindow("Binary Image");
    cv::imshow("Binary Image",binary);

    // 移除噪点
    cv::Mat fg;
    cv::erode(binary,fg,cv::Mat(),cv::Point(-1,-1),6);

    // 显示前景图像
    cv::namedWindow("Foreground Image");
    cv::imshow("Foreground Image", fg);

    // 识别背景图像,生成的黑色像素对应背景像素
    cv::Mat bg;
    cv::dilate(binary,bg,cv::Mat(),cv::Point(-1,-1),6);
    cv::threshold(bg, bg, 1, 128, cv::THRESH_BINARY_INV);

    // 显示背景图像
    cv::namedWindow("Background Image");
    cv::imshow("Background Image", bg);

    // 显示标记图像
    cv::Mat markers(binary.size(), CV_8U,cv::Scalar(0));
    markers= fg + bg;
    cv::namedWindow("Markers");
    cv::imshow("Markers", markers);

    // 以下进行分水岭算法
    WaterShedSegmentation segmenter;

    segmenter.setMarkers(markers);
    segmenter.process(image);

    // 以下是两种处理结果,显示分割结果
    cv::namedWindow("Segmentation");
    cv::imshow("Segmentation", segmenter.getSegmentation());

    cv::namedWindow("Watersheds");
    cv::imshow("Watersheds",segmenter.getWatersheds());

    return a.exec();
}
  • 1
  • 2
  • 3
  • 4
  • 5
  • 6
  • 7
  • 8
  • 9
  • 10
  • 11
  • 12
  • 13
  • 14
  • 15
  • 16
  • 17
  • 18
  • 19
  • 20
  • 21
  • 22
  • 23
  • 24
  • 25
  • 26
  • 27
  • 28
  • 29
  • 30
  • 31
  • 32
  • 33
  • 34
  • 35
  • 36
  • 37
  • 38
  • 39
  • 40
  • 41
  • 42
  • 43
  • 44
  • 45
  • 46
  • 47
  • 48
  • 49
  • 50
  • 51
  • 52
  • 53
  • 54
  • 55
  • 56
  • 57
  • 58
  • 59
  • 60
  • 61
  • 62
  • 63
  • 64
  • 1
  • 2
  • 3
  • 4
  • 5
  • 6
  • 7
  • 8
  • 9
  • 10
  • 11
  • 12
  • 13
  • 14
  • 15
  • 16
  • 17
  • 18
  • 19
  • 20
  • 21
  • 22
  • 23
  • 24
  • 25
  • 26
  • 27
  • 28
  • 29
  • 30
  • 31
  • 32
  • 33
  • 34
  • 35
  • 36
  • 37
  • 38
  • 39
  • 40
  • 41
  • 42
  • 43
  • 44
  • 45
  • 46
  • 47
  • 48
  • 49
  • 50
  • 51
  • 52
  • 53
  • 54
  • 55
  • 56
  • 57
  • 58
  • 59
  • 60
  • 61
  • 62
  • 63
  • 64

效果1:算法识别出属于前景和背景的像素(有误差)。

这里写图片描述

效果2:组合前景和背景图,形成标记图形,这是分水岭的输入参数。

这里写图片描述

效果3:分割结果中,标记图像得到更新。

这里写图片描述

效果4:显示边界图像。

这里写图片描述

可以看出,分水岭算法对微弱边缘具有良好的响应,是得到封闭连续边缘的保证的。但对于不同质量的图像其分割效果不尽相同,但总的来说效果仍需要改进。

二、使用GrabCut算法分割图像

GrabCut是另一种同样较为流行的图像分割算法。GrabCut是在GraphCut基础上改进的一种图像分割算法,它并非基于图像形态学,而是基于图割理论(参考:http://www.cnblogs.com/tornadomeet/archive/2012/11/06/2757585.html)。在使用GrabCut时,需要人工给定一定区域的目标或者背景,然后算法根据设定的参数来进行分割。GrabCut在计算时比分水岭算法更加复杂,尤其适合从静态图像中提取前景照片的应用。
OpenCV中提供了cv::grabcut函数,因此只需提供图像并标记背景像素和前景像素,基于局部的标记,算法即可将图像中的像素进行分割。在这里使用的局部标记方法是定义一个矩形。cv::grabcut的函数定义如下:

    cv::grabCut(image,    // 输入图像
                result,   // 分割输出结果
                rectangle,// 包含前景物体的矩形
                bgModel,fgModel, // 模型
                1,        // 迭代次数
                cv::GC_INIT_WITH_RECT); // 使用矩形进行初始化
  • 1
  • 2
  • 3
  • 4
  • 5
  • 6
  • 1
  • 2
  • 3
  • 4
  • 5
  • 6

在main函数添加:

    // GrabCut算法
    cv::Mat image= cv::imread("c:/Fig8.04(a).jpg");

    // 设定矩形
    cv::Rect rectangle(50,70,image.cols-150,image.rows-180);

    cv::Mat result; // 分割结果 (4种可能取值)
    cv::Mat bgModel,fgModel; // 模型(内部使用)
    // 进行GrabCut分割
    cv::grabCut(image, result, rectangle, bgModel, fgModel, 1, cv::GC_INIT_WITH_RECT); 
    // 得到可能为前景的像素
    cv::compare(result, cv::GC_PR_FGD, result,cv::CMP_EQ);
    // 生成输出图像
    cv::Mat foreground(image.size(), CV_8UC3, cv::Scalar(255,255,255));
    image.copyTo(foreground, result); // 不复制背景数据

    // 包含矩形的原始图像
    cv::rectangle(image, rectangle, cv::Scalar(255,255,255),1);
    cv::namedWindow("Orginal Image");
    cv::imshow("Orginal Image", image);

    // 输出前景图像结果
    cv::namedWindow("Foreground Of Segmented Image");
    cv::imshow("Foreground Of Segmented Image", foreground);
  • 1
  • 2
  • 3
  • 4
  • 5
  • 6
  • 7
  • 8
  • 9
  • 10
  • 11
  • 12
  • 13
  • 14
  • 15
  • 16
  • 17
  • 18
  • 19
  • 20
  • 21
  • 22
  • 23
  • 24
  • 1
  • 2
  • 3
  • 4
  • 5
  • 6
  • 7
  • 8
  • 9
  • 10
  • 11
  • 12
  • 13
  • 14
  • 15
  • 16
  • 17
  • 18
  • 19
  • 20
  • 21
  • 22
  • 23
  • 24

效果:
这里写图片描述

在函数cv::grabCut中,最后一个参数表示我们使用的是包围盒模式,而该算法支持的输入/输出分割图像可以有四种数值,如函数cv::compare函数中的参数:
cv::GC_BGD:确定属于背景的像素;
cv::GC_FGD:确定属于前景的元素;
cv::GC_PR_BGD:可能属于背景的元素;
cv::GC_PR_FGD:可能属于前景的元素。

在上图中,GrabCut算法通过指定方框区域来提取前景物体。同时,也可将数值cv::GC_BGD和cv::GC_FGD赋予分割图像的某些特定像素,并且把这类分割图像作为cv::grabcut函数的第二个参数(此时需要指定GC_INIT_WITH_MASK作为输入模式)。

基于这些信息,GrabCut通过以下主要步骤创建分割:

  1. 前景标签(cv::GC_PR_FGD)被临时赋予所有为标记的像素。基于当前的分类,算法将像素归类为颜色或灰度值相似的聚类。
  2. 通过引入背景与前景像素的边界进行分割。这个优化的过程尝试将标签相似的像素相连接,这里利用了在强度相对已知的区域之间对边界像素的(惩罚?)。这个最优化问题通过GraphCut算法得到高效解决。
  3. 对获取的分割结果产生新的像素标签,重复聚类过程,找到新的最优解。根据场景的复杂度,得到最佳结果,对于简单的场景,有时只需要一次迭代。

关于GrabCut算法,还需要进一步研究GraphCut才能深刻理解。

猜你喜欢

转载自blog.csdn.net/DaveBobo/article/details/72832126