https://www.cnblogs.com/zyly/p/9508131.html

 

目录

 


OpenCV可以检测图像的主要特征,然后提取这些特征、使其成为图像描述符,这类似于人的眼睛和大脑。这些图像特征可作为图像搜索的数据库。此外,人们可以利用这些关键点将图像拼接起来,组成一个更大的图像,比如将许多图像放在一块,然后形成一个360度全景图像。

这里我们将学习使用OpenCV来检测图像特征,并利用这些特征进行图像匹配和搜索。我们会选取一些图像,并通过单应性,检测这些图像是否在另一张图像中。

一 特征检测算法

有许多用于特征检测和提取的算法,我们将会对其中大部分进行介绍。OpenCV最常使用的特征检测和提取算法有:

  • Harris:该算法用于检测角点;
  • SIFT:该算法用于检测斑点;
  • SURF:该算法用于检测角点;
  • FAST:该算法用于检测角点;
  • BRIEF:该算法用于检测斑点;
  • ORB:该算法代表带方向的FAST算法与具有旋转不变性的BRIEF算法;

通过以下方法进行特征匹配:

  • 暴力(Brute-Force)匹配法;
  • 基于FLANN匹配法;

可以采用单应性进行空间验证。

 

二 特征定义

那么,究竟什么是特征呢?为什么一副图像的某个特定区域可以作为一个特征,而其他区域不能呢?粗略的讲,特征就是有意义的图像区域,该区域具有独特特征和易于识别性。因此角点及高密度区域都是很好的特征,而大量重复的模式或低密度区域(例如图像中的蓝色天空)则不是很好的特征。边缘可以将图像分为两个区域,因此也可以看做好的特征。斑点是与周围有很大差别的像素区域,也是有意义的特征。

大多数特征检测算法都会涉及图像的角点、边和斑点的识别,也有一些涉及脊向的概念,可以认为脊向是细长物体的对称轴,例如识别图像中的一条路。角点和边都好理解,那什么是斑点呢?斑点通常是指与周围有着颜色和灰度差别的区域。在实际地图中,往往存在着大量这样的斑点,如一颗树是一个斑点,一块草地是一个斑点,一栋房子也可以是一个斑点。由于斑点代表的是一个区域,相比单纯的角点,它的稳定性要好,抗噪声能力要强,所以它在图像配准上扮演了很重要的角色。

由于某些算法在识别和提取某类型特征的时候有较好的效果,所以知道输入图像是什么很重要,这样做有利于选择最合适的OpenCV工具包。

三 Harris检测角点特征

在这之前其实我们已经接触过角点检测了,在相机标定的时候,我们就利用到了角点检测。不过那时候没有深入的去研究。在这里,我们将会深入原理去学习角点检测。

下面我们从使用cornerHarris()函数讲起。

cornerHarris(src, blockSize, ksize,k[,dst[,borderType]]);
参数详解:
  • image:输入的单通道8位或者浮点图像;
  • blockSize:就是扫描时候窗口的大小。
  • ksize:cornerHarris函数会使用Sobel算子,该参数定义了Sobel算子的中孔。简单来说,该函数定义了角点检测的敏感度,其值必须介于3~31之间的奇数。
  • k:harris 计算响应公式中的kk值,一般取0.04~0.06;
  • borderType:像素插值方法;

函数 cornerHarris 对输入图像进行 Harris 边界检测。输出是一幅浮点值图像,大小与输入图像大小相同,浮点值越高,表明越可能是特征角点(我们可以对图像进行阈值化)。

复制代码
# -*- coding: utf-8 -*-
"""
Created on Mon Aug 20 20:17:34 2018

@author: lenovo
"""

'''
Harris角点检测
'''
import cv2
import numpy as np

img = cv2.imread('./image/cali.bmp')
img = cv2.resize(img,dsize=(600,400))
gray = cv2.cvtColor(img,cv2.COLOR_BGR2GRAY)
gray = np.float32(gray)
#角点检测 第三个参数为角点检测的敏感度,其值必须介于3~31之间的奇数
dst = cv2.cornerHarris(gray,3,23,0.04)
print(dst.shape)  #(400, 600)
img[dst>0.01*dst.max()] = [0,0,255]
cv2.imshow('',img)
cv2.waitKey(0)
cv2.destroyAllWindows()
复制代码

运行结果如下:

如果我们把第三个参数改为3:,可以看到:

 四 Harris检测原理

上面我们已经通过实例演示了Harris检测的效果,相信你对Harris角点检测已经有了初步的认识。这里我将带你深入了解Harris角点检测的原理。

我们先来看一幅图片,了解一下什么是角点?

上图中E,F中的角我们通常称作角点(corner points),他们具有以下特征:

  • 轮廓之间的交点;
  • 对于同一场景,即使视角发生变化,通常具备稳定性质的特征;
  • 该点附近区域的像素点无论在梯度方向上还是其梯度幅值上有着较大变化;

 

harris特征角最早在paper A Combined Corner and Edge Detector中被Chris Harris & Mike Stephens提出。

Harris角点检测的基本思想:算法基本思想是使用一个固定窗口在图像上进行任意方向上的滑动,比较滑动前与滑动后两种情况,窗口中的像素灰度变化程度,如果存在任意方向上的滑动,都有着较大灰度变化,那么我们可以认为该窗口中存在角点。

1、灰度变化描述

 当窗口发生[u,v][u,v]移动时,那么滑动前与滑动后对应的窗口中的像素点灰度变化描述如下:

 

E(u,v)=(x,y)Ww(x,y)[I(x+u,y+v)I(x,y)]2E(u,v)=∑(x,y)€Ww(x,y)[I(x+u,y+v)−I(x,y)]2

 

参数解释:

  • [u,v][u,v]是窗口WW的偏移量;
  • (x,y)(x,y)是窗口WW所对应的像素坐标位置,窗口有多大,就有多少个位置;
  • I(x,y)I(x,y)是像素坐标位置(x,y)(x,y)的图像灰度值;
  • I(x+u,y+v)I(x+u,y+v)是像素坐标位置(x+u,y+v)(x+u,y+v)的图像灰度值;
  • w(x,y)w(x,y)是窗口函数,最简单情形就是窗口WW内的所有像素所对应的ww权重系数均为1.但有时候,我们会将w(x,y)w(x,y)函数设置为以窗口WW中心为原点的二元正太分布。如果窗口WW中心点是角点时,移动前与移动后,该点在灰度变化贡献最大;而离窗口WW中心(角点)较远的点,这些点的灰度变化几近平缓,这些点的权重系数,可以设定小值,以示该点对灰度变化贡献较小,那么我们自然而然想到使用二元高斯函数来表示窗口函数;

我们的窗口函数通常有如下两种形式:

根据上述表达式,当窗口在平潭区域上移动,可以想象得到,灰度不会发生什么变换。E(u,v)=0E(u,v)=0;如果窗口处在纹理比较丰富的区域上滑动,那么灰度变化会很大。算法最终思想就是计算灰度发生较大变化时所对应的位置,当然这个较大是指任意方向上的滑动,并非单指某个方向。

2、E(u,v)E(u,v)化简

首先需要了解泰勒公式,任何一个函数表达式,均可有泰勒公式进行展开,以逼近原函数,我们可以对下面函数进行一阶展开(如果对泰勒公式忘记了,可以翻翻本科所学的高等数学)。

 

f(x+u,y+v)f(x,y)+ufx(x,y)+vfy(x,y)f(x+u,y+v)≈f(x,y)+ufx(x,y)+vfy(x,y)

 

那么

 

(x,y)Ww(x,y)[I(x+u,y+v)I(x,y)]2∑(x,y)€Ww(x,y)[I(x+u,y+v)−I(x,y)]2

 

 

(x,y)Ww(x,y)[I(x,y)+uIx+vIyI(x,y)]2≈∑(x,y)€Ww(x,y)[I(x,y)+uIx+vIy−I(x,y)]2

 

 

=(x,y)Ww(x,y)[u2I2x+2uvIxIy+v2I2y]=∑(x,y)€Ww(x,y)[u2Ix2+2uvIxIy+v2Iy2]

 

 

=(x,y)Ww(x,y)[uv][I2xIxIyIxIyI2y][uv]=∑(x,y)€Ww(x,y)[uv][Ix2IxIyIxIyIy2][uv]

 

 

=[uv]((x,y)Ww(x,y)[I2xIxIyIxIyI2y])[uv]=[uv](∑(x,y)€Ww(x,y)[Ix2IxIyIxIyIy2])[uv]

 

所以E(u,v)E(u,v)表达式可以更新为:

 

E(u,v)=[uv]M[uv]E(u,v)=[uv]M[uv]

 

其中:M=(x,y)Ww(x,y)[I2xIxIyIxIyI2y]M=∑(x,y)€Ww(x,y)[Ix2IxIyIxIyIy2],IxIx,IyIy分别为窗口内像素点(x,y)(x,y)在xx方向上和yy方向上的梯度值。

 

3、矩阵MM的关键性

难道我们是直接求上述的E(u,v)E(u,v)值来判断角点吗?Harris角点检测并没有这样做,而是通过对窗口内的每个像素的xx方向上的梯度与yy方向上的梯度进行统计分析。这里以IxIx和IyIy为坐标轴,因此每个像素的梯度坐标可以表示成(Ix,Iy)(Ix,Iy)。针对平坦区域,边缘区域以及角点区域三种情形进行分析:

下图是对这三种情况窗口中的对应像素的梯度分布进行绘制:

不知道大家有没有注意到这三种区域的特点:

  • 平坦区域上的每个像素点所对应的(Ix,Iy)(Ix,Iy)坐标分布在原点附近,其实也很好理解,针对平坦区域的像素点,他们的梯度方向虽然各异,但是其幅值都不是很大,所以均聚集在原点附近;
  • 边缘区域有一坐标轴分布较散,至于是哪一个坐标上的数据分布较散不能一概而论,这要视边缘在图像上的具体位置而定,如果边缘是水平或者垂直方向,那么IyIy轴方向或者IxIx方向上的数据分布就比较散;
  • 角点区域的xx、yy方向上的梯度分布都比较散。

我们是不是可以根据这些特征来判断哪些区域存在角点呢?

上面我们已经计算出了MM矩阵:

M=(x,y)Ww(x,y)[I2xIxIyIxIyI2y]=[ACCB]M=∑(x,y)€Ww(x,y)[Ix2IxIyIxIyIy2]=[ACCB]

我们可以将E(u,v)E(u,v)近似为二项函数:

 

E(u,v)=Au2+2Cuv+Bv2E(u,v)=Au2+2Cuv+Bv2

 

其中

 

A=(x,y)Ww(x,y)I2xA=∑(x,y)€Ww(x,y)∗Ix2

 

 

B=(x,y)Ww(x,y)I2yB=∑(x,y)€Ww(x,y)∗Iy2

 

 

C=(x,y)Ww(x,y)IxIyC=∑(x,y)€Ww(x,y)∗IxIy

 

二次项函数本质上就是一个椭圆函数。椭圆的长和宽是由MM的特征值λ1,λ2λ1,λ2决定的(椭圆的长短轴正是矩阵MM特征值平方根的倒数),椭圆的方向是由MM的特征向量决定的,椭圆方程为:

 

[uv]M[uv]=1[uv]M[uv]=1

 

如果使用椭圆进行数据集表示,则绘制图示如下:

虽然我们利用E(u,v)E(u,v)来描述角点的基本思想,然而最终我们仅仅使用的是矩阵MM。让我们看看矩阵MM形式,是不是跟协方差矩阵形式很像,像归像,但是还是有些不同,哪儿不同?一般协方差矩阵对应维的随机变量需要减去该维随机变量的均值:

IxIx,IyIy看成两个字段,假设窗口内有m个像素点,也就是等价于有m个样本,我们先计算每个字段的均值:

 

Ix¯=i=1mIxiIx¯=∑i=1mIxi

 

 

Iy¯=i=1mIyiIy¯=∑i=1mIyi

 

我们仍然使用(Ixi,Iyi)(Ixi,Iyi)表示样本(Ixi,Iyi)(Ixi,Iyi)去均值后的值,则由这m个样本组成的矩阵:

 

X=[Ix1Iy1Ix2Iy2......IxmIym]X=[Ix1Ix2...IxmIy1Iy2...Iym]

 

则对应协方差矩阵可以写成:

C=1mXXT=1mi=1m[I2xIxIyIxIyI2y]C=1mXXT=1m∑i=1m[Ix2IxIyIxIyIy2]

 

但矩阵MM中并没有这样做,所以在矩阵MM里,我们先进行各维的均值化处理,那么各维所对应的随机变量的均值为0,协方差矩阵就大大简化了,简化的最终结果就是矩阵MM,是否明白了(注意为了简化运算,我们先假设MM矩阵中的权重系数w(x,y)=1w(x,y)=1,并且省略掉了求均值)我们的目的是分析数据的主要成分,相信了解PCA原理的,应该都了解均值化的作用。

M=(x,y)W[I2xIxIyIxIyI2y]M=∑(x,y)€W[Ix2IxIyIxIyIy2]

 

如果我们对协方差矩阵MM进行对角化,很明显,其对角线就是各个字段的方差,这点大家应该明白吧?不明白的话可以复习下PCA原理。

  • 如果两个字段(Ix,Iy)(Ix,Iy)所对应的特征值都比较大,说明什么? 像素点的梯度分布比较散,梯度变化程度比较大,符合角点在窗口区域的特点;
  • 如果是平坦区域,那么像素点的梯度所构成的点集比较集中在原点附近,因为窗口区域内的像素点的梯度幅值非常小,此时矩阵MM的对角化的两个特征值比较小;
  • 如果是边缘区域,在计算像素点的xx、yy方向上的梯度时,边缘上的像素点的某个方向的梯度幅值变化比较明显,另一个方向上的梯度幅值变化较弱,其余部分的点都还是集中原点附近,这样MM对角化后的两个特征值理论应该是一个比较大,一个比较小,当然对于边缘这种情况,可能是呈45°的边缘,致使计算出的特征值并不是都特别的大,总之跟含有角点的窗口的分布情况还是不同的。

注:MM为协方差矩阵,需要大家自己去理解下,窗口中的像素集构成一个矩阵(XR2×mX€R2×m,假设这里有m个像素点),使用该矩阵乘以该矩阵的转置,即是协方差矩阵。

因此可以得出下列结论:

  • 特征值都比较大时,即窗口中含有角点;
  • 特征值一个较大,一个较小,窗口中含有边缘;
  • 特征值都比较小,窗口处在平坦区域;

 

4、如何度量角点响应

通常用下面表达式进行度量,对每一个窗口计算得到一个分数RR,根据RR的大小来判定窗口内是否存在harris特征角。分数RR根据下面公式计算得到:

 

R=det(M)k(trace(M))2R=det(M)−k(trace(M))2

 

 

det(M)=λ1λ2det(M)=λ1λ2

 

 

trace(M)=λ1+λ2trace(M)=λ1+λ2

 

这里λ1,λ2λ1,λ2是矩阵MM的2个特征值,kk是一个指定值,这是一个经验参数,需要实验确定它的合适大小,通常它的值在0.04和0.06之间,它的存在只是调节函数的形状而已。

 RR取决于MM的特征值,对于角点|R||R|很大,平坦的区域|R||R|很小,边缘的RR为负值;

但是为什么会使用这样的表达式呢?一下子是不是感觉很难理解?其实也不难理解,函数表达式一旦出来,我们就可以绘制它的图像,而这个函数图形正好满足上面几个区域的特征。 通过绘制函数图像,直观上更能理解。绘制的RR函数图像如下:

所以说难点不在于理解这个函数表达式,而在于如何创造出这个函数表达式。Harris也许对很多函数模型非常了解,对于创造出这样的一个函数表达式,易如反掌,当然在我们看来感觉是很了不起的,那是因为我们见过的函数模型太少。

最后设定R的阈值,进行角点判断。当然其中还有些后处理步骤就不再说了,比如说角点的极大值抑制等。

非极大值抑制的原理,在一个窗口内,如果有很多角点则用值最大的那个角点,其他的角点都删除。

注意:有些朋友在问是如何通过矩阵判断角点的? 其实上面,我们已经推导出E(u,v)E(u,v)的表达式,大家看看这个表达式有什么特征,其中矩阵M是实对称矩阵,那么E表达式其实就是二次型,对于二次型想必大家会有印象,uu,vv代表窗口滑动方向以及滑动量,EE代表灰度变化,通过矩阵M进行特征值求解,而特征值所对应的特征向量即为灰度变化方向。如果两个特征值较大,则表示有两个方向灰度变化较快。所以可以直接通过求解MM的特征值进行角点判断.

五 自己实现Harris角点检测

Harris角点检测可以分为5个步骤:

1、计算图像I(x,y)I(x,y)在xx和yy两个方向的梯度IxIx,IyIy;

 

Ix=Ix=I×[101]Ix=∂I∂x=I×[−101]

 

 

Iy=Iy=I×[101]TIy=∂I∂y=I×[−101]T

 

2、计算图像两个方向梯度的乘积;

 

I2x=IxIxIx2=Ix∗Ix

 

 

I2y=IyIyIy2=Iy∗Iy

 

 

IxIy=IxIyIxIy=Ix∗Iy

 

3、使用高斯函数对I2xIx2、I2yIy2、IxIyIxIy进行高斯加权(取σ=2,ksize=3),计算中心点为(x,y)(x,y)的窗口WW对应的矩阵MM;

 

A=(x,y)Wg(I2x)=(x,y)WI2xw(x,y)A=∑(x,y)€Wg(Ix2)=∑(x,y)€WIx2∗w(x,y)

 

 

B=(x,y)Wg(I2y)=(x,y)WI2yw(x,y)B=∑(x,y)€Wg(Iy2)=∑(x,y)€WIy2∗w(x,y)

 

 

C=(x,y)Wg(IxIy)=(x,y)WIxIyw(x,y)C=∑(x,y)€Wg(IxIy)=∑(x,y)€WIxIy∗w(x,y)

 

其中M=[ACCB]=(x,y)Ww(x,y)[I2xIxIyIxIyI2y]M=[ACCB]=∑(x,y)€Ww(x,y)[Ix2IxIyIxIyIy2].

4、计算每个像素点(x,y)(x,y)处的Harris响应值RR;

 

R=det(M)k(trace(M))2R=det(M)−k(trace(M))2

 

5、过滤大于某一阈值tt的RR值;

 

R={R:det(M)k(trace(M))2>t}R={R:det(M)−k(trace(M))2>t}

 

如果需要在3×3或者5×5的邻域进行非最大值抑制,则局部最大值点即为图像中的角点。

以上所有公式*表示逐像素点乘。

复制代码
# -*- coding: utf-8 -*-
"""
Created on Mon Aug 20 20:17:34 2018

@author: lenovo
"""

'''
Harris角点检测
'''
import cv2
import numpy as np

def test():
    '''
    调用系统库函数进行测试
    '''
    img = cv2.imread('./image/cali.bmp')
    img = cv2.resize(img,dsize=(600,400))
    gray = cv2.cvtColor(img,cv2.COLOR_BGR2GRAY)
    gray = np.float32(gray)
    #角点检测 第三个参数为角点检测的敏感度,其值必须介于3~31之间的奇数
    dst = cv2.cornerHarris(gray,3,3,0.04)
    print(dst.shape)  #(400, 600)
    img[dst>0.01*dst.max()] = [0,0,255]
    cv2.imshow('',img)
    cv2.waitKey(0)
    cv2.destroyAllWindows()
    
def harris_detect(img,ksize=3):
    '''
    自己实现角点检测
    
    params:
        img:灰度图片
        ksize:Sobel算子窗口大小
        
    return:
        corner:与源图像一样大小,角点处像素值设置为255
    '''
    k = 0.04                 #响应函数k
    threshold = 0.01         #设定阈值  
    WITH_NMS = False         #是否非极大值抑制
    
    
    #1、使用Sobel计算像素点x,y方向的梯度
    h,w = img.shape[:2]
    #Sobel函数求完导数后会有负值,还有会大于255的值。而原图像是uint8,即8位无符号数,所以Sobel建立的图像位数不够,会有截断。因此要使用16位有符号的数据类型,即cv2.CV_16S。
    grad = np.zeros((h,w,2),dtype=np.float32)
    grad[:,:,0] = cv2.Sobel(img,cv2.CV_16S,1,0,ksize=3)
    grad[:,:,1] = cv2.Sobel(img,cv2.CV_16S,0,1,ksize=3)

    #2、计算Ix^2,Iy^2,Ix*Iy 
    m = np.zeros((h,w,3),dtype=np.float32)
    m[:,:,0] = grad[:,:,0]**2
    m[:,:,1] = grad[:,:,1]**2
    m[:,:,2] = grad[:,:,0]*grad[:,:,1]
        
    #3、利用高斯函数对Ix^2,Iy^2,Ix*Iy进行滤波
    m[:,:,0] = cv2.GaussianBlur(m[:,:,0],ksize=(ksize,ksize),sigmaX=2)    
    m[:,:,1] = cv2.GaussianBlur(m[:,:,1],ksize=(ksize,ksize),sigmaX=2)
    m[:,:,2] = cv2.GaussianBlur(m[:,:,2],ksize=(ksize,ksize),sigmaX=2)    
    m = [np.array([[m[i,j,0],m[i,j,2]],[m[i,j,2],m[i,j,1]]]) for i in range(h) for j in range(w)]
    
    #4、计算局部特征结果矩阵M的特征值和响应函数R(i,j)=det(M)-k(trace(M))^2  0.04<=k<=0.06
    D,T = list(map(np.linalg.det,m)),list(map(np.trace,m))
    R = np.array([d-k*t**2 for d,t in zip(D,T)])

    #5、将计算出响应函数的值R进行非极大值抑制,滤除一些不是角点的点,同时要满足大于设定的阈值
    #获取最大的R值
    R_max = np.max(R)    
    #print(R_max)
    #print(np.min(R))
    R = R.reshape(h,w)
    corner = np.zeros_like(R,dtype=np.uint8)
    for i in range(h):
        for j in range(w):
            if WITH_NMS:
                #除了进行进行阈值检测 还对3x3邻域内非极大值进行抑制(导致角点很小,会看不清)
                if R[i,j] > R_max*threshold and R[i,j] == np.max(R[max(0,i-1):min(i+2,h-1),max(0,j-1):min(j+2,w-1)]):
                    corner[i,j] = 255
            else:
                #只进行阈值检测
                if R[i,j] > R_max*threshold :
                    corner[i,j] = 255   
    return corner
    
if __name__=='__main__':
    img = cv2.imread('./image/cali.bmp')
    img = cv2.resize(img,dsize=(600,400))
    #转换为灰度图像
    gray = cv2.cvtColor(img,cv2.COLOR_BGR2GRAY)
    dst = harris_detect(gray)
    print(dst.shape)  #(400, 600)
    img[dst>0.01*dst.max()] = [0,0,255]
    cv2.imshow('',img)
    cv2.waitKey(0)
    cv2.destroyAllWindows()
复制代码

运行效果如下:

 

 六 Harries角点的性质

 

1、参数kk对角点检测的影响

假设已经得到了矩阵MM的特征值λ1λ20λ1≥λ2≥0,令λ2=αλ1λ2=αλ1,0α10≤α≤1。由特征值与矩阵MM的直迹和行列式的关系可得:

 

detM=iλidetM=∏iλi

 

trace(M)=iλitrace(M)=∑iλi

 

从而可以得到角点的响应:

 

R=λ1λ2k(λ1+λ2)2=λ21(αk(1+α)2)R=λ1λ2−k(λ1+λ2)2=λ12(α−k(1+α)2)

 

假设R0R≥0,则有:

 

0kα(1+α)20.250≤k≤α(1+α)2≤0.25

 

对于较小的αα值,Rλ21(αk),α<kR≈λ12(α−k),α<k。

由此,可以得出这样的结论,增大kk的值,降低角点检测的灵敏度,减少被检测角点的数量;减少kk值,增加角点检测的灵敏度,增加被检测角点的数量。

 

2、Harris角点检测算子对亮度和对比度的变化不灵敏

这是因为在进行Harris角点检测时,使用了微分算子对图像进行微分运算,而微分运算对图像密度的拉升或收缩和对亮度的抬高或下降不敏感。换言之,对亮度和对比度的仿射变换并不改变Harris响应的极值点出现的位置,但是,由于阈值的选择,可能会影响角点检测的数量。

左图表示亮度变化,右图表示对比度变化。

 

3、Harris角点检测算子具有旋转不变性

Harris角点检测算子使用的是角点附近的区域灰度二阶矩矩阵。而二阶矩矩阵可以表示成一个椭圆,椭圆的长短轴正是二阶矩矩阵特征值平方根的倒数。当特征椭圆转动时,特征值并不发生变化,所以判断角点响应值RR也不发生变化,由此说明Harris角点检测算子具有旋转不变性。

 

4.、Harris角点检测算子不具有尺度不变性

如下图所示,当图像被缩小时,在检测窗口尺寸不变的前提下,在窗口内所包含图像的内容是完全不同的。左侧的图像可能被检测为边缘或曲线,而右侧的图像则可能被检测为一个角点。

 参考文献:

[1]OpenCV教程(43) harris角的检测(1)

[2]Harris角点检测原理详解

[3]PCA的数学原理

[4]图像处理基础(4):高斯滤波器详解

[5]Harris角点

[6]『Python』Harris角点检测代码实现

[7]斑点检测

[8]Harris原理及源码解析(C++)

 

 

https://zhuanlan.zhihu.com/p/83064609

Shi-Tomasi 角点检测器

知道了什么是 Harris 角点检测,后来有大佬在论文《Good_Features_to_Track》中提出了它的改进版——Shi-Tomasi 角点检测,Shi-Tomasi 方法在很多情况下可以得到比 Harris 算法更好的结果。

 

Harris 角点检测中每个窗口的分数公式是将矩阵 M 的行列式与 M 的迹相减:

[公式]

由于 Harris 角点检测算法的稳定性和 k 值有关,而 k 是个经验值,不好设定最佳值。

Shi-Tomasi 发现,角点的稳定性其实和矩阵 M 的较小特征值有关,于是直接用较小的那个特征值作为分数。这样就不用调整k值了。

所以 Shi-Tomasi 将分数公式改为如下形式:

[公式]

和 Harris 一样,如果该分数大于设定的阈值,我们就认为它是一个角点。

我们可以把它绘制到 λ1 ~ λ2 空间中,就会得到下图:

Shi-Tomasi 角点检测

OpenCV 提供了 Shi-Tomasi 的函数: cv2.goodFeaturesToTrack(),来获取图像中前 N 个最好的角点。

函数原型如下:

goodFeaturesToTrack(image, maxCorners, qualityLevel, minDistance[, corners[, mask[, blockSize[, useHarrisDetector[, k]]]]])

其中的参数如下:

  • image:输入灰度图像,float32类型
  • maxCorners:返回角点的最大数目,值为0表表示没有设置最大值限制,返回所有检测到的角点。
  • qualityLevel:质量系数(小于1.0的正数,一般在0.01-0.1之间),表示可接受角点的最低质量水平。该系数乘以最好的角点分数(也就是上面较小的那个特征值),作为可接受的最小分数;例如,如果最好的角点分数值为1500且质量系数为0.01,那么所有质量分数小于15的角都将被忽略。
  • minDistance:角之间最小欧式距离,忽略小于此距离的点。
  • corners:输出角点坐标
  • mask:可选的感兴趣区域,指定想要检测角点的区域。
  • blockSize:默认为3,角点检测的邻域大小(窗口尺寸)
  • useHarrisDetector:用于指定角点检测的方法,如果是true则使用Harris角点检测,false则使用Shi Tomasi算法。默认为False。
  • k:默认为0.04,Harris角点检测时使用。

 

设定好这些参数,函数就能在图像上找到角点。所有低于质量水平的角点都会被忽略,然后再把合格角点按角点质量进行降序排列。

然后保留质量最高的一个角点,将它附近(最小距离之内)的角点都删掉(类似于非极大值抑制),按这样的方式最后得到 N 个最佳角点。

import numpy as np
import cv2

maxCorners = 100
qualityLevel = 0.01
minDistance = 10

img = cv2.imread('bird.jpg')
gray = cv2.cvtColor(img,cv2.COLOR_BGR2GRAY)
corners = cv2.goodFeaturesToTrack(gray, maxCorners, qualityLevel, minDistance)

corners = np.int0(corners)
for i in corners:
    x,y = i.ravel()
    cv2.circle(img,(x,y),2,(0,0,255),-1)
    
cv2.imwrite('new_bird.jpg', img)

 

最后得到的结果如下:

三张图分别为原图,harris图和Shi-Tomasi图

 

Harris 和 Shi-Tomasi 都是基于梯度计算的角点检测方法,Shi-Tomasi 的效果要好一些。基于梯度的检测方法有一些缺点: 计算复杂度高,图像中的噪声可以阻碍梯度计算。

想要提高检测速度的话,可以考虑基于模板的方法:FAST角点检测算法。该算法原理比较简单,但实时性很强。

 

posted on 2021-06-22 14:00  Manuel  阅读(410)  评论(0编辑  收藏  举报