slambook2(ch7)—— orb_cv.cpp代码详解(ORB特征提取与匹配)

ORB特征提取与匹配

slambook2/ch7/orb_cv.cpp

1. 头文件

#include
#include
#include
#include
#include

using namespace std;
using namespace cv;

2. 图片输入

确保图像个数为2:

int main(int argc, char **argv) {
    if (argc != 3) {
        cout << "usage: feature_extraction img1 img2" << endl;
        return 1;
    }
    Mat img_1 = imread(argv[1], CV_LOAD_IMAGE_COLOR);
    Mat img_2 = imread(argv[2], CV_LOAD_IMAGE_COLOR);
    assert(img_1.data != nullptr && img_2.data != nullptr);
  • *imread&#x51FD;&#x6570;
#include
Mat cv::imread  (   const String &  filename,int flags = IMREAD_COLOR )

imread函数原型非常简单,可以总结为三点

  • &#x8FD4;&#x56DE;&#x503C;&#xFF0C;Mat &#x7C7B;&#x578B;, 即返回读取的图像,读取图像失败时返回一个空的矩阵对象(Mat::data == NULL)
  • &#x53C2;&#x6570;1 filename, 读取的图片文件名,可以使用相对路径或者绝对路径,但必须带完整的文件扩展名(图片格式后缀)
  • &#x53C2;&#x6570;2 flags, 一个读取标记,用于选择读取图片的方式,默认值为1,flag值的设定与用什么颜色格式读取图片有关

图像类型有以下几种:
CV_LOAD_IMAGE_UNCHANGED——等价取值为-1,这个标识在新版本中已被废置,可以忽略
CV_LOAD_IMAGE_GRAYSCALE——等价取值为0,返回灰色图像
CV_LOAD_IMAGE_COLOR——等价取值为1,返回彩色图像
CV_LOAD_IMAGE_ANYDEPTH——等价取值为2,若图像深度是16位或者32位,就返回对应深度,否则,返回8位图像
如果输入有冲突的标志,将采用较小的数字值

  • assert&#x51FD;&#x6570;
    assert() 的用法像是一种”契约式编程”,在我的理解中,其表达的意思就是,程序在我的假设条件下,能够正常良好的运作,其实就相当于一个 if 语句:
if(假设成立)
{
     程序正常运行;
}
else
{
      报错&&终止程序!(避免由程序运行引起更大的错误)
}

3. 初始化

    std::vector<KeyPoint> keypoints_1, keypoints_2;
    Mat descriptors_1, descriptors_2;
    Ptr<FeatureDetector> detector = ORB::create();
    Ptr<DescriptorExtractor> descriptor = ORB::create();
    Ptr<DescriptorMatcher> matcher = DescriptorMatcher::create("BruteForce-Hamming");
  1. FeatureDetector特征检测器类,通过创建该类对象来使用多种特征检测方法。【用于检测指定特征点的角点位置】
    OpenCV2.4.3中提供了10种特征检测方法:FAST,SIFT,SURF,ORB,HARRIS,SimpleBlob,STAR,MSER,GFTT,Dense。
    这里使用ORB特征检测方法
  2. DescriptorExtractor特征描述子提取类,提供了一些特征描述子提取的算法。
    其可以针对图像关键点,计算其特征描述子,其可以被表达成密集(dense),即固定维数的向量。
    其计算方式为每隔固定个像素计算。
    一个特征描述子是一个向量,特征描述子的集合为Mat格式,每一行是一个关键点的特征描述子。
    OpenCV支持四种类型的特征描述子提取方法:SIFT,SURF,ORB,BRIEF。
  3. DescriptorMatcher特征匹配类,提供了一些特征点匹配的方法。
    该类主要包含图像对之间的匹配以及图像和一个图像集之间的匹配。
    OpenCV2中的特征匹配方法都继承自该类。
    对于误匹配情况,提供了KNNMatch方法。

  4. *vector

vector<T> v1;
  • *Ptr<featuredetector> detector = ORB::create();</featuredetector>
 static Ptr<ORB> cv::ORB::create (
        int     nfeatures = 500,
        float   scaleFactor = 1.2f,

        int     nlevels = 8,

        int     edgeThreshold = 31,
        int     firstLevel = 0,
        int     WTA_K = 2,
        int     scoreType = ORB::HARRIS_SCORE,

        int     patchSize = 31,

        int     fastThreshold = 20
   )

nfeatures &#xFF1A;&#x6700;&#x591A;&#x63D0;&#x53D6;&#x7684;&#x7279;&#x5F81;&#x70B9;&#x7684;&#x6570;&#x91CF;&#xFF1B;
scaleFactor &#xFF1A; &#x91D1;&#x5B57;&#x5854;&#x56FE;&#x50CF;&#x4E4B;&#x95F4;&#x7684;&#x5C3A;&#x5EA6;&#x53C2;&#x6570;&#xFF0C;&#x7C7B;&#x4F3C;&#x4E8E;SIFT&#x4E2D;&#x7684;?&#xFF1B;
nlevels&#xFF1A; &#x9AD8;&#x65AF;&#x91D1;&#x5B57;&#x5854;&#x7684;&#x5C42;&#x6570;&#xFF1B;
edgeThreshold &#xFF1A;&#x8FB9;&#x7F18;&#x9608;&#x503C;&#xFF0C;&#x8FD9;&#x4E2A;&#x503C;&#x4E3B;&#x8981;&#x662F;&#x6839;&#x636E;&#x540E;&#x9762;&#x7684;patchSize&#x6765;&#x5B9A;&#x7684;&#xFF0C;&#x9760;&#x8FD1;&#x8FB9;&#x7F18;edgeThreshold&#x4EE5;&#x5185;&#x7684;&#x50CF;&#x7D20;&#x662F;&#x4E0D;&#x68C0;&#x6D4B;&#x7279;&#x5F81;&#x70B9;&#x7684;&#x3002;
firstLevel-&#xFF1A;&#x770B;&#x8FC7;SIFT&#x90FD;&#x77E5;&#x9053;&#xFF0C;&#x6211;&#x4EEC;&#x53EF;&#x4EE5;&#x6307;&#x5B9A;&#x7B2C;&#x4E00;&#x5C42;&#x7684;&#x7D22;&#x5F15;&#x503C;&#xFF0C;&#x8FD9;&#x91CC;&#x9ED8;&#x8BA4;&#x4E3A;0&#x3002;
WET_K &#xFF1A; &#x7528;&#x4E8E;&#x4EA7;&#x751F;BIREF&#x63CF;&#x8FF0;&#x5B50;&#x7684;&#x70B9;&#x5BF9;&#x7684;&#x4E2A;&#x6570;&#xFF0C;&#x4E00;&#x822C;&#x4E3A;2&#x4E2A;&#xFF0C;&#x4E5F;&#x53EF;&#x4EE5;&#x8BBE;&#x7F6E;&#x4E3A;3&#x4E2A;&#x6216;4&#x4E2A;&#xFF0C;&#x90A3;&#x4E48;&#x8FD9;&#x65F6;&#x5019;&#x63CF;&#x8FF0;&#x5B50;&#x4E4B;&#x95F4;&#x7684;&#x8DDD;&#x79BB;&#x8BA1;&#x7B97;&#x5C31;&#x4E0D;&#x80FD;&#x7528;&#x6C49;&#x660E;&#x8DDD;&#x79BB;&#x4E86;&#xFF0C;&#x800C;&#x662F;&#x5E94;&#x8BE5;&#x7528;&#x4E00;&#x4E2A;&#x53D8;&#x79CD;&#x3002;OpenCV&#x4E2D;&#xFF0C;&#x5982;&#x679C;&#x8BBE;&#x7F6E;WET_K = 2&#xFF0C;&#x5219;&#x9009;&#x7528;&#x70B9;&#x5BF9;&#x5C31;&#x53EA;&#x6709;2&#x4E2A;&#x70B9;&#xFF0C;&#x5339;&#x914D;&#x7684;&#x65F6;&#x5019;&#x8DDD;&#x79BB;&#x53C2;&#x6570;&#x9009;&#x62E9;NORM_HAMMING&#xFF0C;&#x5982;&#x679C;WET_K&#x8BBE;&#x7F6E;&#x4E3A;3&#x6216;4&#xFF0C;&#x5219;BIREF&#x63CF;&#x8FF0;&#x5B50;&#x4F1A;&#x9009;&#x62E9;3&#x4E2A;&#x6216;4&#x4E2A;&#x70B9;&#xFF0C;&#x90A3;&#x4E48;&#x540E;&#x9762;&#x5339;&#x914D;&#x7684;&#x65F6;&#x5019;&#x5E94;&#x8BE5;&#x9009;&#x62E9;&#x7684;&#x8DDD;&#x79BB;&#x53C2;&#x6570;&#x4E3A;NORM_HAMMING2&#x3002;
scoreType &#xFF1A;&#x7528;&#x4E8E;&#x5BF9;&#x7279;&#x5F81;&#x70B9;&#x8FDB;&#x884C;&#x6392;&#x5E8F;&#x7684;&#x7B97;&#x6CD5;&#xFF0C;&#x4F60;&#x53EF;&#x4EE5;&#x9009;&#x62E9;HARRIS_SCORE&#xFF0C;&#x4E5F;&#x53EF;&#x4EE5;&#x9009;&#x62E9;FAST_SCORE&#xFF0C;&#x4F46;&#x662F;&#x5B83;&#x4E5F;&#x53EA;&#x662F;&#x6BD4;&#x524D;&#x8005;&#x5FEB;&#x4E00;&#x70B9;&#x70B9;&#x800C;&#x5DF2;&#x3002;
patchSize &#xFF1A;&#x7528;&#x4E8E;&#x8BA1;&#x7B97;BIREF&#x63CF;&#x8FF0;&#x5B50;&#x7684;&#x7279;&#x5F81;&#x70B9;&#x90BB;&#x57DF;&#x5927;&#x5C0F;&#x3002;

4. 第一步:检测 Oriented FAST 角点位置

使用detect方法,将其存入Keypoints变量中

  chrono::steady_clock::time_point t1 = chrono::steady_clock::now();
  detector->detect(img_1, keypoints_1);
  detector->detect(img_2, keypoints_2);
  • *&#x65F6;&#x95F4;&#x5DE5;&#x5177;chrono

使用 chrono 时,最主要应该是下面这两种用来记录时间的类别:
纪录时间点的 : time_point
纪录时间长度的 : duration
Chrono 一般来说有提供两种 clock 可以使用,分别是:system_clock 和 steady_clock。
system_clock :是直接去抓系统的时间,有可能在使用中会被被修改(参考);
steady_clock :则是确实地去纪录时间的流逝,所以不会出现时间倒退的状况

举例:

std::chrono::steady_clock::time_point t1 = std::chrono::steady_clock::now();
std::cout << "Hello World\n";
std::chrono::steady_clock::time_point t2 = std::chrono::steady_clock::now();
std::cout << "Printing took "
  << std::chrono::duration_cast<std::chrono::microseconds>(t2 - t1).count()
  << "us.\n";

通过 clock 类别所提供的 now() 这个函数,可以快速地取得 &#x73B0;&#x5728;&#x7684;&#x65F6;&#x95F4;;而两者相减的话,则会产生一个型别为 duration 的结果;在上面的例子里面,就是一开始先取得当下的时间 t1,然后输出一个字串后、再去取得一个时间 t2,之后两者相减,就可以取得 &#x4E2D;&#x95F4;&#x8FC7;&#x7A0B;&#x6240;&#x82B1;&#x8D39;&#x7684;&#x65F6;&#x95F4;了。在这边则是在相减后,把结果转换成以 micro second 为单位后,再做输出。

5. 第二步:根据角点位置计算 BRIEF 描述子

  descriptor->compute(img_1, keypoints_1, descriptors_1);
  descriptor->compute(img_2, keypoints_2, descriptors_2);
  chrono::steady_clock::time_point t2 = chrono::steady_clock::now();
  chrono::duration<double> time_used = chrono::duration_cast<chrono::duration<double>>(t2 - t1);
  cout << "extract ORB cost = " << time_used.count() << " seconds. " << endl;

  Mat outimg1;
  drawKeypoints(img_1, keypoints_1, outimg1, Scalar::all(-1), DrawMatchesFlags::DEFAULT);
  imshow("ORB features", outimg1);

slambook2(ch7)—— orb_cv.cpp代码详解(ORB特征提取与匹配)
  • *drawKeypoint&#x51FD;&#x6570;
cv2.drawKeypoints(image, keypoints, outImage, color=None, flags=None)

image
原始图像,可以使三通道或单通道图像;
keypoints
特征点向量,向量内每一个元素是一个KeyPoint对象,包含了特征点的各种属性信息;
outImage
特征点绘制的画布图像,可以是原图像;
color
绘制的特征点的颜色信息,默认绘制的是随机彩色; Scalar::all(-1) // &#x989C;&#x8272;&#x968F;&#x673A;
flags
特征点的绘制模式,其实就是设置特征点的那些信息需要绘制,那些不需要绘制,有以下几种模式可选:
DEFAULT:只绘制特征点的坐标点,显示在图像上就是一个个小圆点,每个小圆点的圆心坐标都是特征点的坐标。
DRAW_OVER_OUTIMG:函数不创建输出的图像,而是直接在输出图像变量空间绘制,要求本身输出图像变量就是一个初始化好了的,size与type都是已经初始化好的变量
NOT_DRAW_SINGLE_POINTS:单点的特征点不被绘制
DRAW_RICH_KEYPOINTS:绘制特征点的时候绘制的是一个个带有方向的圆,这种方法同时显示图像的坐标,size,和方向,是最能显示特征的一种绘制方式。

6. 第三步:对两幅图像中的BRIEF描述子进行匹配,使用 Hamming 距离

  vector<DMatch> matches;
  t1 = chrono::steady_clock::now();
  matcher->match(descriptors_1, descriptors_2, matches);

  t2 = chrono::steady_clock::now();
  time_used = chrono::duration_cast<chrono::duration<double>>(t2 - t1);
  cout << "match ORB cost = " << time_used.count() << " seconds. " << endl;

7. 第四步:匹配点对筛选


  auto min_max = minmax_element(matches.begin(), matches.end(),
                                [](const DMatch &m1, const DMatch &m2) { return m1.distance < m2.distance; });

  double min_dist = min_max.first->distance;
  double max_dist = min_max.second->distance;

  printf("-- Max dist : %f \n", max_dist);
  printf("-- Min dist : %f \n", min_dist);

  std::vector<DMatch> good_matches;
  for (int i = 0; i < descriptors_1.rows; i++)
   {
    if (matches[i].distance  max(2 * min_dist, 30.0))

    {
      good_matches.push_back(matches[i]);
    }
  }
  • *minmax_element() &#x51FD;&#x6570;
    minmax_element (ForwardIterator first, ForwardIterator last, Compare comp);

first:一个输入迭代器,指示要比较的范围的第一个位置。
last:一个输入迭代器,指示要比较的范围中过去的最后一个元素。
comp: 一个用户定义的二元谓词函数,它接受两个参数,如果两个参数按顺序返回真,否则返回假。它遵循严格的 &#x5F31;&#x6392;&#x5E8F;&#x6765;&#x5BF9;&#x5143;&#x7D20;&#x8FDB;&#x884C;&#x6392;&#x5E8F;

8. 第五步:绘制匹配结果

  Mat img_match;
  Mat img_goodmatch;
  drawMatches(img_1, keypoints_1, img_2, keypoints_2, matches, img_match);
  drawMatches(img_1, keypoints_1, img_2, keypoints_2, good_matches, img_goodmatch);
  imshow("all matches", img_match);
  imshow("good matches", img_goodmatch);
  waitKey(0);

slambook2(ch7)—— orb_cv.cpp代码详解(ORB特征提取与匹配)
slambook2(ch7)—— orb_cv.cpp代码详解(ORB特征提取与匹配)
  • *drawMatches()&#x51FD;&#x6570;

void drawMatches( const Mat& img1, const vector<KeyPoint>& keypoints1,
                  const Mat& img2, const vector<KeyPoint>& keypoints2,
                  const vector<vector<DMatch> >& matches1to2, Mat& outImg,
                  const Scalar& matchColor=Scalar::all(-1), const Scalar& singlePointColor=Scalar::all(-1),
                  const vector<vector<char> >& matchesMask=vector<vector<char> >(), int flags=DrawMatchesFlags::DEFAULT );

img1 – 源图像1
keypoints1 – 源图像1的特征点.

img2 – 源图像2.

keypoints2 – 源图像2的特征点
matches1to2 – 源图像1的特征点匹配源图像2的特征点[matches[i]] .
outImg – 输出图像具体由flags决定.

matchColor– 匹配的颜色(特征点和连线),若matchColor ==Scalar::all(-1),颜色随机.

singlePointColor – 单个点的颜色,即未配对的特征点,若matchColor ==Scalar::all(-1),颜色随机.

matchesMask –Mask决定哪些点将被画出,若为空,则画出所有匹配点.

flags – Fdefined by DrawMatchesFlags.

  • *waitKey()&#x51FD;&#x6570;

1.waitKey()与waitKey(0),都代表 &#x65E0;&#x9650;&#x7B49;&#x5F85;,waitKey函数的默认参数就是int delay = 0,故这俩形式本质是一样的。

2.waitKey(n),等待 n&#x6BEB;&#x79D2;后,关闭显示的窗口。

完整程序

#include
#include
#include
#include
#include

using namespace std;
using namespace cv;

int main(int argc, char **argv) {
  if (argc != 3) {
    cout << "usage: feature_extraction img1 img2" << endl;
    return 1;
  }

  Mat img_1 = imread(argv[1], CV_LOAD_IMAGE_COLOR);
  Mat img_2 = imread(argv[2], CV_LOAD_IMAGE_COLOR);
  assert(img_1.data != nullptr && img_2.data != nullptr);

  std::vector<KeyPoint> keypoints_1, keypoints_2;
  Mat descriptors_1, descriptors_2;
  Ptr<FeatureDetector> detector = ORB::create();
  Ptr<DescriptorExtractor> descriptor = ORB::create();
  Ptr<DescriptorMatcher> matcher = DescriptorMatcher::create("BruteForce-Hamming");

  chrono::steady_clock::time_point t1 = chrono::steady_clock::now();
  detector->detect(img_1, keypoints_1);
  detector->detect(img_2, keypoints_2);

  descriptor->compute(img_1, keypoints_1, descriptors_1);
  descriptor->compute(img_2, keypoints_2, descriptors_2);
  chrono::steady_clock::time_point t2 = chrono::steady_clock::now();
  chrono::duration<double> time_used = chrono::duration_cast<chrono::duration<double>>(t2 - t1);
  cout << "extract ORB cost = " << time_used.count() << " seconds. " << endl;

  Mat outimg1;
  drawKeypoints(img_1, keypoints_1, outimg1, Scalar::all(-1), DrawMatchesFlags::DEFAULT);
  imshow("ORB features", outimg1);

  vector<DMatch> matches;
  t1 = chrono::steady_clock::now();
  matcher->match(descriptors_1, descriptors_2, matches);
  t2 = chrono::steady_clock::now();
  time_used = chrono::duration_cast<chrono::duration<double>>(t2 - t1);
  cout << "match ORB cost = " << time_used.count() << " seconds. " << endl;

  auto min_max = minmax_element(matches.begin(), matches.end(),
                                [](const DMatch &m1, const DMatch &m2) { return m1.distance < m2.distance; });
  double min_dist = min_max.first->distance;
  double max_dist = min_max.second->distance;

  printf("-- Max dist : %f \n", max_dist);
  printf("-- Min dist : %f \n", min_dist);

  std::vector<DMatch> good_matches;
  for (int i = 0; i < descriptors_1.rows; i++) {
    if (matches[i].distance  max(2 * min_dist, 30.0)) {
      good_matches.push_back(matches[i]);
    }
  }

  Mat img_match;
  Mat img_goodmatch;
  drawMatches(img_1, keypoints_1, img_2, keypoints_2, matches, img_match);
  drawMatches(img_1, keypoints_1, img_2, keypoints_2, good_matches, img_goodmatch);
  imshow("all matches", img_match);
  imshow("good matches", img_goodmatch);
  waitKey(0);

  return 0;
}

代码实践

https://blog.csdn.net/qq_38364548/article/details/122108705

Original: https://blog.csdn.net/qq_38364548/article/details/125096415
Author: @曾记否
Title: slambook2(ch7)—— orb_cv.cpp代码详解(ORB特征提取与匹配)

原创文章受到原创版权保护。转载请注明出处:https://www.johngo689.com/704060/

转载文章受原作者版权保护。转载请注明原作者出处!

(0)

大家都在看

亲爱的 Coder【最近整理,可免费获取】👉 最新必读书单  | 👏 面试题下载  | 🌎 免费的AI知识星球