脚本之家,脚本语言编程技术及教程分享平台!
分类导航

Python|VBS|Ruby|Lua|perl|VBA|Golang|PowerShell|Erlang|autoit|Dos|bat|

服务器之家 - 脚本之家 - Python - 详解opencv Python特征检测及K-最近邻匹配

详解opencv Python特征检测及K-最近邻匹配

2021-05-19 00:11天煞孤星0严 Python

这篇文章主要介绍了详解opencv Python特征检测及K-最近邻匹配,小编觉得挺不错的,现在分享给大家,也给大家做个参考。一起跟随小编过来看看吧

鉴于即将启程旅行,先上传篇简单的图像检索介绍,与各位一起学习opencv的同学共勉

一.特征检测

图片的特征主要分为角点,斑点,边,脊向等,都是常用特征检测算法所检测到的图像特征·

1.harris角点检测

先将图片转换为灰度模式,再使用以下函数检测图片的角点特征:

?
1
dst=cv2.cornerharris(src, blocksize, ksize, k[, dst[, bordertype]])

重点关注第三个参数,这里使用了sobel算子,简单来说,其取为3-31间的奇数,定义了角点检测的敏感性,不同图片需要进行调试。

k 是 harris 角点检测方程中的自由参数,取值参数为[0,04,0.06].

2.dog角点检测及sift特征变换

harris角点检测在面对图像尺度性发生改变时极其容易丢失图像细节,造成检测失误。因此在检测图像特征时,常常我们需要一些拥有尺度不变性的特征检测算法。

dog角点检测即将两幅图像在不同参数下的高斯滤波结果相减,得到dog图。步骤:用两个不同的5x5高斯核对图像进行卷积,然后再相减的操作。重复三次得到三个差分图a,b,c。计算出的a,b,c三个dog图中求图b中是极值的点。图b的点在当前由a,b,c共27个点组成的block中是否为极大值或者极小值。若满足此条件则认为是角点。

sift对象会使用dog检测关键点,并对每个关键点周围的区域计算特征向量。事实上他仅做检测和计算,其返回值是关键点信息(关键点)和描述符。

?
1
2
3
4
5
#下列代码即先创建一个sift对象,然后计算灰度图像
sift = cv2.xfeatures2d.sift_create()
keypoints, descriptor = sift.detectandcompute(gray, none)
 
#sift对象会使用dog检测关键点,对关键点周围的区域计算向量特征,检测并计算

需要注意的是,返回的是关键点和描述符

关键点是点的列表

描述符是检测到的特征的局部区域图像列表

介绍一下关键点的属性:pt: 点的x y坐标 size: 表示特征的直径 angle: 特征方向 response: 关键点的强度 octave: 特征所在金字塔层级,算法进行迭代的时候, 作为参数的图像尺寸和相邻像素会发生变化octave属性表示检测到关键点所在的层级 id: 检测到关键点的id

sift特征不只具有尺度不变性,即使改变旋转角度,图像亮度或拍摄视角,仍然能够得到好的检测效果。

3.surf提取和检测特征

surf是sift的加速版算法,采用快速hessian算法检测关键点

借用下度娘的说法:surf算法原理:

1.构建hessian矩阵构造高斯金字塔尺度空间

2.利用非极大值抑制初步确定特征点

3精确定位极值点

4选取特征点的主方向

5构造surf特征点描述算子

具体应用看代码

?
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
import cv2
import numpy as np
img = cv2.imread('/home/yc/pictures/jianbin.jpg')
#参数为hessian矩阵的阈值
surf = cv2.xfeatures2d.surf_create(4000)
#设置是否要检测方向
surf.setupright(true)
#输出设置值
print(surf.getupright())
#找到关键点和描述符
key_query,desc_query = surf.detectandcompute(img,none)
img=cv2.drawkeypoints(img,key_query,img)
#输出描述符的个数
print(surf.descriptorsize())
cv2.namedwindow("jianbin",cv2.window_normal)
cv2.imshow('jianbin',img)
cv2.waitkey(0)
cv2.destroyallwindows()

这是检测效果,图中已标志出特征点,不要问我为什么选这种鬼畜样图,可能是因为情怀(滑稽)

详解opencv Python特征检测及K-最近邻匹配

样图

需要注意的是,需要安装之前版本的opencv-contrib库才可以使用,surf及sift均受专利保护

4.orb特征提取

orb算法使用fast算法寻找关键点,然后使用harris角点检测找到这些点当中的最好的n个点,采用brief描述子的特性。orb算法处于起步阶段,速度优于前两种算法,也吸收了其优点,同时他是开源的。

?
1
2
3
4
5
6
# 创建orb特征检测器和描述符
orb = cv2.orb_create()
kp = orb.detect(img,none)
 # 对图像检测特征和描述符
kp, des = orb.compute(img, kp)
#注意kp是一个包含若干点的列表,des对应每个点的描述符 是一个列表, 每一项都是检测>到的特征的局部图像

二、特征匹配

1.bf暴力匹配

暴力匹配的算法难以进行优化,是一种描述符匹配方法,将每个对应的描述符的特征进行比较,每次比较给出一个距离值,最好的结果贼被认为是一个匹配。

?
1
2
3
4
5
6
7
8
9
10
11
12
# 暴力匹配bfmatcher,遍历描述符,确定描述符是否匹配,然后计算匹配距离并排序
# bfmatcher函数参数:
# normtype:norm_l1, norm_l2, norm_hamming, norm_hamming2。
# norm_l1和norm_l2是sift和surf描述符的优先选择,norm_hamming和norm_hamming2是用于orb算法
bf = cv2.bfmatcher(normtype=cv2.norm_hamming, crosscheck=true)
matches = bf.match(des1,des2)
matches = sorted(matches, key = lambda x:x.distance)
# matches是dmatch对象,具有以下属性:
# dmatch.distance - 描述符之间的距离。 越低越好。
# dmatch.trainidx - 训练描述符中描述符的索引
# dmatch.queryidx - 查询描述符中描述符的索引
# dmatch.imgidx - 训练图像的索引。

2.k-最近邻匹配

knn算法可能是最简单的机器学习算法,即给定一个已训练的数据集,对新的输入实例,在训练数据集中找到与该实例最邻近的k个实例,这k个实例的多数属于某个类,则判定该输入实例同属此类。

概念比较冗长,大致可以理解为如果一个样本在特征空间中的k个最相似(即特征空间中最邻近)的样本中的大多数属于某一个类别,则该样本也属于这个类别,我个人简单的理解为由那离自己最近的k个点来投票决定待分类数据归为哪一类。

这里我们直接调用opencv库中的knn函数,使用较简单。该knn匹配利用bf匹配后的数据进行匹配。

完整代码:

?
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
# coding:utf-8
 
 import cv2
 
# 按照灰度图像读入两张图片
img1 = cv2.imread("/home/yc/pictures/cat.jpg", cv2.imread_grayscale)
img2 = cv2.imread("/home/yc/pictures/cat2.jpg", cv2.imread_grayscale)
 
# 获取特征提取器对象
orb = cv2.orb_create()
# 检测关键点和特征描述
keypoint1, desc1 = orb.detectandcompute(img1, none)
keypoint2, desc2 = orb.detectandcompute(img2, none)
"""
keypoint 是关键点的列表
desc 检测到的特征的局部图的列表
"""
# 获得knn检测器
bf = cv2.bfmatcher(cv2.norm_hamming, crosscheck=true)
matches = bf.knnmatch(desc1, desc2, k=1)
 
"""
knn 匹配可以返回k个最佳的匹配项
bf返回所有的匹配项
"""
# 画出匹配结果
img3 = cv2.drawmatchesknn(img1, keypoint1, img2, keypoint2, matches, img2, flags=2)
cv2.imshow("cat", img3)
cv2.waitkey()
cv2.destroyallwindows()

也许这里得到的结果与match函数所得到的结果差距不大,但二者主要区别是knnmatch所返回的是k个匹配值,可以容许我们继续处理,而match返回最佳匹配。

以下为样图

详解opencv Python特征检测及K-最近邻匹配

cat

实现简单的图像检索功能时,此类特征匹配算法对硬件的要求较低,效率较高,但是准确度有待考量

与一起学习opencv的同学共勉,希望对大家的学习有所帮助,也希望大家多多支持服务器之家。

原文链接:https://www.jianshu.com/p/bad83a08b1a8

延伸 · 阅读

精彩推荐