OpenCV C++-Fallübung Acht „Konturanpassung basierend auf Hu-Momenten“
Vorwort
In diesem Artikel wird OpenCV C++ verwendet, um eine Konturanpassung basierend auf Hu-Momenten durchzuführen.
1. Finden Sie die Gliederung
Originalbild
Testbild
vector<vector<Point>>findContour(Mat Image)
{
Mat gray;
cvtColor(Image, gray, COLOR_BGR2GRAY);
Mat thresh;
threshold(gray, thresh, 0, 255, THRESH_BINARY_INV | THRESH_OTSU);
vector<vector<Point>>contours;
findContours(thresh, contours, RETR_EXTERNAL, CHAIN_APPROX_NONE);
vector<vector<Point>>EffectConts;
for (int i = 0; i < contours.size(); i++)
{
double area = contourArea(contours[i]);
if (area > 1000)
{
EffectConts.push_back(contours[i]);
}
}
return EffectConts;
}
Wie gezeigt ist dies die äußerste gefundene Kontur. Als nächstes führen wir einen Abgleich basierend auf Konturen durch.
Zweitens berechnen Sie das Hu-Moment
OpenCV stellt die Moments-API zur Berechnung des zentralen Moments des Bildes bereit; die HuMoments-API wird verwendet, um das Hu-Moment aus dem zentralen Moment zu berechnen. Bitte recherchieren Sie selbst nach dem relevanten Wissen über Momente von HuMoments.
Moments m_test = moments(test_contours[0]);
Mat hu_test;
HuMoments(m_test, hu_test);
double MinDis = 1000;
int MinIndex = 0;
for (int i = 0; i < src_contours.size(); i++)
{
Moments m_src = moments(src_contours[i]);
Mat hu_src;
HuMoments(m_src, hu_src);
double dist = matchShapes(hu_test, hu_src, CONTOURS_MATCH_I1, 0);
if (dist < MinDis)
{
MinDis = dist;
MinIndex = i;
}
}
Die allgemeine Idee des obigen Codesegments ist: Berechnen Sie zuerst das Hu-Moment des Testbilds, berechnen Sie dann mithilfe einer for-Schleife das Hu-Moment aller Konturen im Originalbild und berechnen Sie dann die Ähnlichkeit zwischen den beiden Hu Momente. Hier werden zwei Hu-Momente mithilfe der matchShapes-API berechnet. Der Rückgabewert der Funktion repräsentiert die Ähnlichkeit der beiden Hu-Momente. Genau das Gleiche gibt einen Wert von 0 zurück. Das heißt, indem Sie die Ähnlichkeit zwischen den beiden Hu-Momenten berechnen, finden Sie denjenigen mit dem kleinsten Rückgabewert als erfolgreiche Übereinstimmung.
3. Anzeigeeffekt
drawContours(src, src_contours, MinIndex, Scalar(0, 255, 0), 2);
Rect rect = boundingRect(src_contours[MinIndex]);
rectangle(src, rect, Scalar(0, 0, 255), 2);
Der endgültige Effekt ist in der Abbildung dargestellt.
4. Quellcode
#include<iostream>
#include<opencv2/opencv.hpp>
using namespace std;
using namespace cv;
vector<vector<Point>>findContour(Mat Image)
{
Mat gray;
cvtColor(Image, gray, COLOR_BGR2GRAY);
Mat thresh;
threshold(gray, thresh, 0, 255, THRESH_BINARY_INV | THRESH_OTSU);
vector<vector<Point>>contours;
findContours(thresh, contours, RETR_EXTERNAL, CHAIN_APPROX_NONE);
vector<vector<Point>>EffectConts;
for (int i = 0; i < contours.size(); i++)
{
double area = contourArea(contours[i]);
if (area > 1000)
{
EffectConts.push_back(contours[i]);
}
}
return EffectConts;
}
int main()
{
Mat src = imread("test/hand.jpg");
Mat test = imread("test/test-3.jpg");
if (src.empty() || test.empty())
{
cout << "No Image!" << endl;
system("pause");
return -1;
}
vector<vector<Point>>src_contours;
vector<vector<Point>>test_contours;
src_contours = findContour(src);
test_contours = findContour(test);
Moments m_test = moments(test_contours[0]);
Mat hu_test;
HuMoments(m_test, hu_test);
double MinDis = 1000;
int MinIndex = 0;
for (int i = 0; i < src_contours.size(); i++)
{
Moments m_src = moments(src_contours[i]);
Mat hu_src;
HuMoments(m_src, hu_src);
double dist = matchShapes(hu_test, hu_src, CONTOURS_MATCH_I1, 0);
if (dist < MinDis)
{
MinDis = dist;
MinIndex = i;
}
}
drawContours(src, src_contours, MinIndex, Scalar(0, 255, 0), 2);
Rect rect = boundingRect(src_contours[MinIndex]);
rectangle(src, rect, Scalar(0, 0, 255), 2);
imshow("test", test);
imshow("Demo", src);
waitKey(0);
system("pause");
return 0;
}
Zusammenfassen
Dieser Artikel verwendet OpenCV C++ basierend auf der Hu-Moment-Konturanpassung. Die wichtigsten Schritte sind wie folgt.
1. Finden Sie die Gliederung. Hier passe ich basierend auf der äußersten Kontur an.
2. Berechnen Sie das Hu-Moment der Kontur und berechnen Sie dann mit matchShapes den Abstand zwischen den beiden Hu-Momenten, um den Grad der Übereinstimmung zu bestimmen.