若该文为原创文章,未经允许不得转载
原博主博客地址:https://blog.csdn.net/qq21497936
原博主博客导航:https://blog.csdn.net/qq21497936/article/details/102478062
本文章博客地址:https://blog.csdn.net/qq21497936/article/details/104811545
各位读者,知识无穷而人力有穷,要么改需求,要么找专业人士,要么自己研究
目录
OpenCV开发专栏
《OpenCV开发笔记(〇):使用mingw530_32编译openCV3.4.1源码,搭建Qt5.9.3的openCV开发环境》
《OpenCV开发笔记(三):OpenCV图像的概念和基本操作》
《OpenCV开发笔记(四):OpenCV图片和视频数据的读取与存储》
《OpenCV开发笔记(五):OpenCV读取与操作摄像头》
《OpenCV开发笔记(六):OpenCV基础数据结构、颜色转换函数和颜色空间》
《OpenCV开发笔记(八):OpenCV常用操作之计时、缩放、旋转、镜像》
《OpenCV开发笔记(九):OpenCV区域图像(ROI)和整体、局部图像混合》
《OpenCV开发笔记(十):OpenCV图像颜色通道分离和图像颜色多通道混合》
《OpenCV开发笔记(十一):OpenCV编译支持Gpu(cuda) 加速开发之win-qt-mingw32编译》
《OpenCV开发笔记(十二):OpenCV编译支持Gpu(cuda) 加速开发之win-qt-msvc2015编译(opencv3.4.0、cuda9.0、VS2015)》
《OpenCV开发笔记(十三):OpenCV图像对比度、亮度的调整》
《OpenCV开发笔记(十四):算法基础之线性滤波-方框滤波》
《OpenCV开发笔记(十五):算法基础之线性滤波-均值滤波》
《OpenCV开发笔记(十六):算法基础之线性滤波-高斯滤波》
《OpenCV开发笔记(十七):算法基础之线性滤波对比-方框、均值、高斯滤波》
《OpenCV开发笔记(十八):算法基础之非线性滤波-中值滤波》
《OpenCV开发笔记(十九):算法基础之非线性滤波-双边滤波》
《OpenCV开发笔记(二十):算法基础之非线性滤波对比-中值、双边滤波》
《OpenCV开发笔记(二十一):算法基础之形态学滤波-膨胀》
《OpenCV开发笔记(二十二):算法基础之形态学滤波-腐蚀》
《OpenCV开发笔记(二十三):算法基础之形态学滤波-开运算》
《OpenCV开发笔记(二十四):算法基础之形态学滤波-闭运算》
《OpenCV开发笔记(二十五):算法基础之形态学滤波-形态学梯度》
《OpenCV开发笔记(二十六):算法基础之形态学滤波-顶帽(礼帽)》
《OpenCV开发笔记(二十七):算法基础之形态学滤波-黑帽》
《OpenCV开发笔记(二十八):带你学习图像识别之阈值化》
《OpenCV开发笔记(二十九):带你学习图像识别之自适应阈值》
《OpenCV开发笔记(三十):带你学习图像识别之经典OTSU算法阈值化》
《OpenCV开发笔记(三十一):带你学习图像识别之双阈值化》
《OpenCV开发笔记(三十二):带你学习图像识别之半阈值化》
持续补充中…
OpenCV开发笔记(二十九):带你学习图像识别之自适应阈值化
前言
上一篇中讲解了阈值化(固定阈值化),对应的还有自适应阈值化。
Demo
自适应阈值化
概述
自适应阈值化是相对于固定阈值化的叫法,之前通过固定阈值化的篇章《OpenCV开发笔记(二十八):带你学习图像识别之阈值化》可以从Demo上看出可以分割的效果。但是在实际的场景用,目标和背景区域通常是依存的图像块中,于是可以通过图像像素领域块的分布特征 来自适应确定区域的二值化阈值。
自适应阈值化就是根据图像中亮度变化明显的区域(亮或暗),自适应阈值通常会,进而保证图像中各个像素的阈值会随着周围领域块的变化而变化。
也就是说,没有固定阈值了,完全是通过周围色差对比来进行阈值化,这样便于背景与物体本身差距有点大的图片分割,也就能得到更好的分割效果。
自适应阈值化函数原型
void adaptiveThreshold( InputArray src,
OutputArray dst,
double maxValue,
int adaptiveMethod,
int thresholdType,
int blockSize,
double C );
- 参数一:InputArray类型,一般是cv::Mat,只能处理单通道的8位图像。
- 参数二;OutputArray类型,输出的目标图像,需要和原图片有一样的尺寸和类型。
- 参数三:double类型的maxval,分配给满足条件的像素的最大值非零值。
- 参数四:int类型的adaptiveMethod,adaptiveMethod要使用的自适应阈值算法,使用#BORDER_REPLICATE或#BORDER_ISOLATED来处理边界。、
- 参数五:int类型的thresholdType,阈值类型必须是#THRESH_BINARY或#THRESH_BINARY_INV。
- 参数六:int类型的blockSize,块大小像素邻域的大小,用于计算像素:3、5、7等。
- 参数七:double类型的C,C从平均值或加权平均值中减去的常数(见下面的详细信息)。一般来说是正的,但也可以是零或负的。
颜色空间转换函数原型
void cvtColor( InputArray src,
OutputArray dst,
int code,
int dstCn = 0 );
- 参数一:InputArray类型,一般是cv::Mat,8位无符号,16位无符号(CV_16UC…)或单精度浮点,主要与code对颜色空间的转换一一对应。
- 参数二;OutputArray类型,输出的目标图像,主要与code对颜色空间的转换一一对应(通道数),与输入图像的尺寸大小和深度是一样的,当参数四dstCn不等于0时,则依据设置生成。
- 参数三:int类型的code,代码颜色空间转换代码(请参见ColorConversionCodes枚举)。
- 参数四:int类型的dstCn,目标图像中的通道数;如果参数为0,则通道是从src和代码自动派生的。
Demo源码
void OpenCVManager::testAdaptiveThreshold()
{
QString fileName1 = "E:/qtProject/openCVDemo/openCVDemo/modules/openCVManager/images/4.jpg";
cv::Mat srcMat = cv::imread(fileName1.toStdString());
cv::Mat thresh1Mat = cv::imread("E:/qtProject/openCVDemo/openCVDemo/modules/openCVManager/images/thresh1.png");
cv::Mat thresh2Mat = cv::imread("E:/qtProject/openCVDemo/openCVDemo/modules/openCVManager/images/thresh2.png");
cv::resize(thresh1Mat, thresh1Mat, cv::Size(160, 80));
cv::resize(thresh2Mat, thresh2Mat, cv::Size(160, 80));
int width = 200;
int height = 160;
cv::resize(srcMat, srcMat, cv::Size(width, height));
cv::String windowName = _windowTitle.toStdString();
cvui::init(windowName);
if(!srcMat.data)
{
qDebug() << __FILE__ << __LINE__
<< "Failed to load image:" << fileName1;
return;
}
qDebug() << __FILE__ << __LINE__
<< "Succeed to load image, type =" << srcMat.type()
<< "channels = " << srcMat.channels();
cv::Mat dstMat;
dstMat = cv::Mat::zeros(srcMat.size(), srcMat.type());
cv::Mat windowMat = cv::Mat(cv::Size(dstMat.cols * 4, dstMat.rows * 3),
srcMat.type());
int maxValue = 255;
int blockSize = 1;
int c = 0;
while(true)
{
windowMat = cv::Scalar(0, 0, 0);
// 原图先copy到左边
cv::Mat leftMat = windowMat(cv::Range(0, srcMat.rows),
cv::Range(0, srcMat.cols));
cv::addWeighted(leftMat, 1.0f, srcMat, 1.0f, 0.0f, leftMat);
// 调整阈值化的参数maxValue
cvui::printf(windowMat, width * 2 + 100, 0 + height * 0, "maxValue");
cvui::trackbar(windowMat, width * 2 + 100, 10 + height * 0, 250, &maxValue, 0, 255);
// 调整阈值化的参数blockSize
cvui::printf(windowMat, width * 2 + 100, 45 + height * 0, "blockSize");
cvui::trackbar(windowMat, width * 2 + 100, 55 + height * 0, 250, &blockSize, 1, 25);
// 调整阈值化的参数c
cvui::printf(windowMat, width * 2 + 100, 90 + height * 0, "c");
cvui::trackbar(windowMat, width * 2 + 100, 100 + height * 0, 250, &c, -100, 100);
cv::Mat tempMat;
cvui::printf(windowMat, width * 0 + 0, 0 + height * 1, "ADAPTIVE_THRESH_MEAN_C");
cvui::printf(windowMat, width * 0 + 0, 15 + height * 1, "THRESH_BINARY");
cvui::printf(windowMat, width * 0 + 0, 30 + height * 1, "maxValue = %d", maxValue);
cvui::printf(windowMat, width * 0 + 0, 45 + height * 1, "blockSize = %d", blockSize * 2 + 1);
cvui::printf(windowMat, width * 0 + 0, 60 + height * 1, "c = %d", c);
tempMat = windowMat(cv::Range(srcMat.rows * 1 + 70, srcMat.rows * 2 - 10),
cv::Range(srcMat.cols * 0 + 20, srcMat.cols * 1 - 20));
cv::addWeighted(tempMat, 0.0f, thresh1Mat, 1.0f, 0.0f, tempMat);
cvui::printf(windowMat, width * 1 + 0, 0 + height * 1, "ADAPTIVE_THRESH_MEAN_C");
cvui::printf(windowMat, width * 1 + 0, 15 + height * 1, "THRESH_BINARY_INV");
cvui::printf(windowMat, width * 1 + 0, 30 + height * 1, "maxValue = %d", maxValue);
cvui::printf(windowMat, width * 1 + 0, 45 + height * 1, "blockSize = %d", blockSize * 2 + 1);
cvui::printf(windowMat, width * 1 + 0, 60 + height * 1, "c = %d", c);
tempMat = windowMat(cv::Range(srcMat.rows * 1 + 70, srcMat.rows * 2 - 10),
cv::Range(srcMat.cols * 1 + 20, srcMat.cols * 2 - 20));
cv::addWeighted(tempMat, 0.0f, thresh2Mat, 1.0f, 0.0f, tempMat);
cvui::printf(windowMat, width * 2 + 0, 0 + height * 1, "ADAPTIVE_THRESH_GAUSSIAN_C");
cvui::printf(windowMat, width * 2 + 0, 15 + height * 1, "THRESH_BINARY");
cvui::printf(windowMat, width * 2 + 0, 30 + height * 1, "maxValue = %d", maxValue);
cvui::printf(windowMat, width * 2 + 0, 45 + height * 1, "blockSize = %d", blockSize * 2 + 1);
cvui::printf(windowMat, width * 2 + 0, 60 + height * 1, "c = %d", c);
tempMat = windowMat(cv::Range(srcMat.rows * 1 + 70, srcMat.rows * 2 - 10),
cv::Range(srcMat.cols * 2 + 20, srcMat.cols * 3 - 20));
cv::addWeighted(tempMat, 0.0f, thresh1Mat, 1.0f, 0.0f, tempMat);
cvui::printf(windowMat, width * 3 + 0, 0 + height * 1, "ADAPTIVE_THRESH_GAUSSIAN_C");
cvui::printf(windowMat, width * 3 + 0, 15 + height * 1, "THRESH_BINARY_INV");
cvui::printf(windowMat, width * 3 + 0, 30 + height * 1, "maxValue = %d", maxValue);
cvui::printf(windowMat, width * 3 + 0, 45 + height * 1, "blockSize = %d", blockSize * 2 + 1);
cvui::printf(windowMat, width * 3 + 0, 60 + height * 1, "c = %d", c);
tempMat = windowMat(cv::Range(srcMat.rows * 1 + 70, srcMat.rows * 2 - 10),
cv::Range(srcMat.cols * 3 + 20, srcMat.cols * 4 - 20));
cv::addWeighted(tempMat, 0.0f, thresh2Mat, 1.0f, 0.0f, tempMat);
// 转换成灰度图像
cv::Mat grayMat; // 多通道
cv::Mat grayMat2; // 单通道
#if 1
// CV_XXXX 与 cv::COLOR_BGR2GRAY 实际并没有区别 是高低版本表现形式的问题
cv::cvtColor(srcMat, grayMat2, CV_BGR2GRAY);
cv::cvtColor(grayMat2, grayMat, CV_GRAY2BGR);
#else
cv::cvtColor(srcMat, grayMat2, cv::COLOR_BGR2GRAY);
cv::cvtColor(grayMat2, grayMat, cv::COLOR_GRAY2BGR);
#endif
// 效果图copy
cv::Mat rightMat = windowMat(cv::Range(srcMat.rows * 0, srcMat.rows * 1),
cv::Range(srcMat.cols * 1, srcMat.cols * 2));
cv::addWeighted(rightMat, 0.0f, grayMat, 1.0f, 0.0f, rightMat);
{
// 自适应阈值
cv::adaptiveThreshold(grayMat2,
dstMat,
maxValue,
cv::ADAPTIVE_THRESH_MEAN_C,
cv::THRESH_BINARY,
blockSize * 2 + 1,
c);
cv::cvtColor(dstMat, dstMat, CV_GRAY2BGR);
// 效果图copy
cv::Mat center = windowMat(cv::Range(srcMat.rows * 2, srcMat.rows * 3),
cv::Range(srcMat.cols * 0, srcMat.cols * 1));
cv::addWeighted(center, 0.0f, dstMat, 1.0f, 0.0f, center);
// 自适应阈值
cv::adaptiveThreshold(grayMat2,
dstMat,
maxValue,
cv::ADAPTIVE_THRESH_MEAN_C,
cv::THRESH_BINARY_INV,
blockSize * 2 + 1,
c);
cv::cvtColor(dstMat, dstMat, CV_GRAY2BGR);
// 效果图copy
cv::Mat center2 = windowMat(cv::Range(srcMat.rows * 2, srcMat.rows * 3),
cv::Range(srcMat.cols * 1, srcMat.cols * 2));
cv::addWeighted(center2, 0.0f, dstMat, 1.0f, 0.0f, center2);
// 自适应阈值
cv::adaptiveThreshold(grayMat2,
dstMat,
maxValue,
cv::ADAPTIVE_THRESH_GAUSSIAN_C,
cv::THRESH_BINARY,
blockSize * 2 + 1,
c);
cv::cvtColor(dstMat, dstMat, CV_GRAY2BGR);
// 效果图copy
cv::Mat center3 = windowMat(cv::Range(srcMat.rows * 2, srcMat.rows * 3),
cv::Range(srcMat.cols * 2, srcMat.cols * 3));
cv::addWeighted(center3, 0.0f, dstMat, 1.0f, 0.0f, center3);
// 自适应阈值
cv::adaptiveThreshold(grayMat2,
dstMat,
maxValue,
cv::ADAPTIVE_THRESH_GAUSSIAN_C,
cv::THRESH_BINARY_INV,
blockSize * 2 + 1,
c);
cv::cvtColor(dstMat, dstMat, CV_GRAY2BGR);
// 效果图copy
cv::Mat center4 = windowMat(cv::Range(srcMat.rows * 2, srcMat.rows * 3),
cv::Range(srcMat.cols * 3, srcMat.cols * 4));
cv::addWeighted(center4, 0.0f, dstMat, 1.0f, 0.0f, center4);
}
// 更新
cvui::update();
// 显示
cv::imshow(windowName, windowMat);
// esc键退出
if(cv::waitKey(25) == 27)
{
break;
}
}
}
工程模板:对应版本号v1.24.0
对应版本号v1.24.0
原博主博客地址:https://blog.csdn.net/qq21497936
原博主博客导航:https://blog.csdn.net/qq21497936/article/details/102478062
本文章博客地址:https://blog.csdn.net/qq21497936/article/details/104811545