【OpenCV】SIFT原理与源码分析

【OpenCV】SIFT原理与源码分析SIFT简介ScaleInvariantFeatureTransform,尺度不变特征变换匹配算法,是由DavidG.Lowe在1999年(《ObjectRecognitionfromLocalScale-InvariantFeatures》)提出的高效区域检测算法,在2004年(《DistinctiveImageFeaturesfromScale-Inva

大家好,又见面了,我是你们的朋友全栈君。

SIFT简介

Scale Invariant Feature Transform,尺度不变特征变换匹配算法,是由David G. Lowe在1999年(《Object Recognition from Local Scale-Invariant Features》)提出的高效区域检测算法,在2004年(《Distinctive Image Features from Scale-Invariant Keypoints》)得以完善。

SIFT特征对旋转、尺度缩放、亮度变化等保持不变性,是非常稳定的局部特征,现在应用很广泛。而SIFT算法是将Blob检测,特征矢量生成,特征匹配搜索等步骤结合在一起优化。我会更新一系列文章,分析SIFT算法原理及OpenCV 2.4.2实现的SIFT源码:

  1. DoG尺度空间构造(Scale-space extrema detection
  2. 关键点搜索与定位(Keypoint localization
  3. 方向赋值(Orientation assignment
  4. 关键点描述(Keypoint descriptor
  5. OpenCV实现:特征检测器FeatureDetector
  6. SIFT中LoG和DoG的比较
OpenCV2.3之后实现了SIFT的代码,2.4改掉了一些bug。本系列文章主要分析OpenCV 2.4.2SIFT函数源码。
SIFT位于OpenCV nonfree的模块,
David G. Lowe申请了算法的版权,请尊重作者权力,务必在允许范围内使用。

SIFT in OpenCV

OpenCV中的SIFT函数主要有两个接口。

构造函数:

SIFT::SIFT(int nfeatures=0, int nOctaveLayers=3, double contrastThreshold=0.04, double edgeThreshold=10, double sigma=1.6)

nfeatures:特征点数目(算法对检测出的特征点排名,返回最好的nfeatures个特征点)。


nOctaveLayers:金字塔中每组的层数(算法中会自己计算这个值,后面会介绍)。


contrastThreshold:过滤掉较差的特征点的对阈值。contrastThreshold越大,返回的特征点越少。


edgeThreshold:过滤掉边缘效应的阈值。edgeThreshold越大,特征点越多(被多滤掉的越少)。


sigma:金字塔第0层图像高斯滤波系数,也就是σ。


重载操作符:

void SIFT::operator()(InputArray img, InputArray mask, vector<KeyPoint>& keypoints, OutputArraydescriptors, bool useProvidedKeypoints=false)


img:8bit灰度图像


mask:图像检测区域(可选)


keypoints:特征向量矩阵


descipotors:特征点描述的输出向量(如果不需要输出,需要传cv::noArray())。


useProvidedKeypoints:是否进行特征点检测。ture,则检测特征点;false,只计算图像特征描述。


函数源码

构造函数SIFT()主要用来初始化参数,并没有特定的操作:
SIFT::SIFT( int _nfeatures, int _nOctaveLayers,           double _contrastThreshold, double _edgeThreshold, double _sigma )    : nfeatures(_nfeatures), nOctaveLayers(_nOctaveLayers),    contrastThreshold(_contrastThreshold), edgeThreshold(_edgeThreshold), sigma(_sigma)	// sigma:对第0层进行高斯模糊的尺度空间因子。	// 默认为1.6(如果是软镜摄像头捕获的图像,可以适当减小此值){}

主要操作还是利用重载操作符()来执行:

void SIFT::operator()(InputArray _image, InputArray _mask,                      vector<KeyPoint>& keypoints,                      OutputArray _descriptors,                      bool useProvidedKeypoints) const// mask :Optional input mask that marks the regions where we should detect features.// Boolean flag. If it is true, the keypoint detector is not run. Instead,// the provided vector of keypoints is used and the algorithm just computes their descriptors.// descriptors – The output matrix of descriptors.// Pass cv::noArray() if you do not need them.			  {    Mat image = _image.getMat(), mask = _mask.getMat();    if( image.empty() || image.depth() != CV_8U )        CV_Error( CV_StsBadArg, "image is empty or has incorrect depth (!=CV_8U)" );    if( !mask.empty() && mask.type() != CV_8UC1 )        CV_Error( CV_StsBadArg, "mask has incorrect type (!=CV_8UC1)" );			// 得到第1组(Octave)图像    Mat base = createInitialImage(image, false, (float)sigma);    vector<Mat> gpyr, dogpyr;	// 每层金字塔图像的组数(Octave)    int nOctaves = cvRound(log( (double)std::min( base.cols, base.rows ) ) / log(2.) - 2);    // double t, tf = getTickFrequency();    // t = (double)getTickCount();		// 构建金字塔(金字塔层数和组数相等)    buildGaussianPyramid(base, gpyr, nOctaves);	// 构建高斯差分金字塔    buildDoGPyramid(gpyr, dogpyr);    //t = (double)getTickCount() - t;    //printf("pyramid construction time: %g\n", t*1000./tf);		// useProvidedKeypoints默认为false	// 使用keypoints并计算特征点的描述符    if( !useProvidedKeypoints )    {        //t = (double)getTickCount();        findScaleSpaceExtrema(gpyr, dogpyr, keypoints);		//除去重复特征点        KeyPointsFilter::removeDuplicated( keypoints ); 		// mask标记检测区域(可选)        if( !mask.empty() )            KeyPointsFilter::runByPixelsMask( keypoints, mask );		// retainBest:根据相应保留指定数目的特征点(features2d.hpp)        if( nfeatures > 0 )            KeyPointsFilter::retainBest(keypoints, nfeatures);        //t = (double)getTickCount() - t;        //printf("keypoint detection time: %g\n", t*1000./tf);    }    else    {        // filter keypoints by mask        // KeyPointsFilter::runByPixelsMask( keypoints, mask );    }	// 特征点输出数组    if( _descriptors.needed() )    {        //t = (double)getTickCount();        int dsize = descriptorSize();        _descriptors.create((int)keypoints.size(), dsize, CV_32F);        Mat descriptors = _descriptors.getMat();        calcDescriptors(gpyr, keypoints, descriptors, nOctaveLayers);        //t = (double)getTickCount() - t;        //printf("descriptor extraction time: %g\n", t*1000./tf);    }}

函数中用到的构造金字塔: buildGaussianPyramid(base, gpyr, nOctaves);等步骤请参见文章后续系列。



(转载请注明作者和出处:http://blog.csdn.net/xiaowei_cqu 未经允许请勿用于商业用途)



版权声明:本文内容由互联网用户自发贡献,该文观点仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌侵权/违法违规的内容, 请联系我们举报,一经查实,本站将立刻删除。

发布者:全栈程序员-站长,转载请注明出处:https://javaforall.net/151699.html原文链接:https://javaforall.net

(0)
全栈程序员-站长的头像全栈程序员-站长


相关推荐

  • javaweb-oracle-1-57

    javaweb-oracle-1-57

    2021年5月18日
    128
  • Cinemachine(二)制作不会穿墙(会避开障碍物)的摄像头(Cinemachine Collider)

    Cinemachine(二)制作不会穿墙(会避开障碍物)的摄像头(Cinemachine Collider)在许多的第三人称游戏中,我们的摄像机往往保持着一定的偏移,跟随着我们的角色。但是常常会出现的一种情况就是,当我们的角色走进室内或者靠近墙边或障碍物的时候,如果这个偏移保持不变的话,我们的摄像机就可能会跑到墙体里,或者看向角色时被墙体或障碍物所挡住。因此这种情况下我们的相机往往需要一些特殊的处理,例如修改偏移量来拉近相机与角色的距离等,来防止上述情况的出现。在以往我们可能需要通过射线检测或者碰撞检测等,然后编写一大堆的代码做一堆复杂的判断来修改我们的摄像机的位置。视频链接:https://www.bi

    2022年5月8日
    96
  • 如何查询手机当前基站编号信息呢_基站实测

    如何查询手机当前基站编号信息呢_基站实测Android:拨号*#*#4636#*#*进入手机信息工程模式后查看。iPhone:拨号*3001#12345#*进入FieldTest,LAC(MMInfo>ServingPLMN),3Gcellid(UMTSCellEnvironment>UMTSRRInfo),2Gcellid(GSMCellEnvironment>GSMCellInfo>

    2025年7月5日
    4
  • 武道释义 &#183; 零散

    武道释义 &#183; 零散

    2022年1月29日
    42
  • 一步一步写算法(之hash表)

    一步一步写算法(之hash表)

    2021年11月23日
    50
  • 图形界面JAVA_aardio plus

    图形界面JAVA_aardio plus前阵子在用python写一些小程序,写完后就开始思考怎么给python程序配一个图形界面,毕竟控制台实在太丑陋了。于是百度了下python的图形界面库,眼花缭乱的一整页,拣了几件有“特色”有“噱头”的下载下来做了个demo,仍旧不是很满意,不是下载安装繁琐,就是界面丑陋或者难写难用,文档不齐全。后来那天,整理电脑文件发现了6年前下载的aatuo(现已更名aardio),顿时一阵惊喜。先说说aard…

    2025年8月12日
    2

发表回复

您的邮箱地址不会被公开。 必填项已用 * 标注

关注全栈程序员社区公众号