阅读 136

OpenCV基于无标记的增强现实详解(opencv未定义标识符)

基于无标记的增强现实

基于无标记的增强现实,可以从图像中推导出相机姿态估计,以找到环境中已知点与其相机投影之间的对应关系。在本节中,我们将看到如何从图像中提取特征以获得相机姿态。基于这些特征及其匹配,我们将看到如何最终推导出相机姿态估计。

特征检测

一个特征可以被描述为图像中的一小块区域,它对图像的缩放、旋转和照明尽可能保持不变。因此,可以从同一场景不同视角的不同图像中检测到相同的特征。综上,一个好的特征应具备以下特性:

  1. 可重复(可以从同一物体的不同图像中提取相同的特征)

  2. 可区分(不同结构的图像具有不同的特征)

OpenCV 提供了许多算法来检测图像的特征,包括:哈里斯角检测 (Harris Corner Detection)、Shi-Tomasi 角检测 (Shi-Tomasi Corner Detection)、SIFT (Scale Invariant Feature Transform)、SURF (Speeded-Up Robust Features)、FAST (Features from Accelerated Segment Test)、BRIEF (Binary Robust Independent Elementary Features) 以及 ORB (Oriented FAST and Rotated BRIEF) 等。

接下里,以 ORB 算法为例,对图像进行特征检测和描述。 ORB 可以看作是 FAST 关键点检测器和 BRIE 描述符的组合,并进行了关键改进以提高性能。

首先是检测关键点,ORB 使用修改后的 FAST-9 算法 (radius = 9 ,并存储检测到的关键点的方向)检测关键点 (keypoints, 默认为 500个)。一旦检测到关键点,下一步就是计算描述符以获得与每个检测到的关键点相关联的信息。ORB 使用改进的 BRIEF-32 描述符来获取每个检测到的关键点的描述符。检测到的关键点的描述符结构如下:

[ 43 106  98  30 127 147 250  72  95  68 244 175  40 200 247 164 254 168 146 197 198 191  46 255  22  94 129 171  95  14 122 207] 复制代码

根据上述讲解,第一步是创建 ORB 检测器:

orb = cv2.ORB_create() 复制代码

然后是检测图像中的关键点:

# 加载图像 image = cv2.imread('example.png') # 检测图像中的关键点 keypoints = orb.detect(image, None) 复制代码

检测到关键点后,下一步就是计算检测到的关键点的描述符:

keypoints, descriptors = orb.compute(image, keypoints) 复制代码

请注意,也可以执行通过 orb.detectAndCompute(image, None) 函数同时检测关键点并计算检测到的关键点的描述符。

最后,使用 cv2.drawKeypoints() 函数绘制检测到的关键点:

image_keypoints = cv2.drawKeypoints(image, keypoints, None, color=(255, 0, 255), flags=0) 复制代码

运行结果如下所示,右侧图像显示了由 ORB 关键点检测器检测到的关键点(为了更好的进行观察,对图像进行了局部放大):

特征检测

特征匹配

接下来,将介绍如何匹配检测到的特征。 OpenCV 提供了两种匹配器:

  • 蛮力 (Brute-Force, BF) 匹配器:该匹配器利用为第一组中检测到的特征计算的描述符与第二组中的所有描述符进行匹配。最后,它返回距离最近的匹配项。

  • Fast Library for Approximate Nearest Neighbors (FLANN) 匹配器:对于大型数据集,此匹配器比 BF 匹配器运行速度更快,它利用了最近邻搜索的优化算法。

接下来,我们使用 BF 匹配器来查看如何匹配检测到的特征,第一步是检测关键点并计算描述符:

# 加载图像 image_1 = cv2.imread('example_1.png') image_2 = cv2.imread('example_2.png') # ORB 检测器初始化 orb = cv2.ORB_create() # 使用 ORB 检测关键点并计算描述符 keypoints_1, descriptors_1 = orb.detectAndCompute(image_1, None) keypoints_2, descriptors_2 = orb.detectAndCompute(image_2, None) 复制代码

下一步是使用 cv2.BFMatcher() 创建 BF 匹配器对象:

bf_matcher = cv2.BFMatcher(cv2.NORM_HAMMING, crossCheck=True) 复制代码

cv2.BFMatcher() 函数的第一个参数 normType 用于设置距离测量方法,默认为 cv2.NORM_L2,如果使用 ORB 描述符(或其他基于二进制的描述符,例如 BRIEFBRISK),则要使用的距离测量方法 cv2.NORM_HAMMING;第二个参数 crossCheck (默认为 False) 可以设置为 True,以便在匹配过程中只返回两个集合中相互匹配的特征。

创建匹配器对象后,使用 BFMatcher.match() 方法匹配检测到的描述符:

bf_matches = bf_matcher.match(descriptors_1, descriptors_2) 复制代码

descriptors_1descriptors_2 是计算得到的描述符;返回值为两个图像中获得了最佳匹配,我们可以按距离的升序对匹配项进行排序:

bf_matches = sorted(bf_matches, key=lambda x: x.distance) 复制代码

最后,我们可以使用 cv2.drawMatches() 函数绘制匹配特征对,为了更好的可视化效果,仅显示前 20 个匹配项:

result = cv2.drawMatches(image_query, keypoints_1, image_scene, keypoints_2, bf_matches[:20], None, matchColor=(255, 255, 0), singlePointColor=(255, 0, 255), flags=0) 复制代码

cv2.drawMatches() 函数水平拼接两个图像,并绘制从第一个图像到第二个图像的线条以显示匹配特征对,程序的运行结果如下所示:

特征匹配

利用特征匹配和单应性计算以查找对象

最后我们将利用上述特征匹配和单应性计算查找对象。为了达到此目的,在完成特征匹配后,下一步需要使用 cv2.findHomography() 函数在两幅图像中找到匹配关键点位置之间的透视变换。

OpenCV 提供了多种计算单应矩阵的方法,包括 RANSAC、最小中值 (LMEDS) 和 PROSAC (RHO)。我们以使用 RANSAC 方法为例:

# 提取匹配的关键点 pts_src = np.float32([keypoints_1[m.queryIdx].pt for m in best_matches]).reshape(-1, 1, 2) pts_dst = np.float32([keypoints_2[m.trainIdx].pt for m in best_matches]).reshape(-1, 1, 2) # 计算单应性矩阵 M, mask = cv2.findHomography(pts_src, pts_dst, cv2.RANSAC, 5.0) 复制代码

其中,pts_src 是匹配的关键点在源图像中的位置,pts_dst 是匹配的关键点在查询图像中的位置。 第四个参数 ransacReprojThreshold 设置最大重投影误差以将点对视为内点,如果重投影误差大于 5.0,则相应的点对被视为异常值。此函数计算并返回由关键点位置定义的源平面和目标平面之间的透视变换矩阵 M

最后,基于透视变换矩阵 M,计算查询图像中对象的四个角,用于绘制匹配的目标边界框。为此,需要根据原始图像的形状计算其四个角,并使用 cv2.perspectiveTransform() 函数将它们转换为目标角:

# 获取“查询”图像的角坐标 h, w = image_query.shape[:2] pts_corners_src = np.float32([[0, 0], [0, h - 1], [w - 1, h - 1], [w - 1, 0]]).reshape(-1, 1, 2) # 使用矩阵 M 和“查询”图像的角点执行透视变换,以获取“场景”图像中“检测”对象的角点: pts_corners_dst = cv2.perspectiveTransform(pts_corners_src, M) 复制代码

其中,pts_corners_src 包含原图的四个角坐标,M 为透视变换矩阵; pts_corners_dst 输出包含查询图像中对象的四个角,之后,我们可以使用 cv2.polyline() 函数来绘制检测对象的轮廓:

img_obj = cv2.polylines(image_scene, [np.int32(pts_corners_dst)], True, (0, 255, 255), 10) 复制代码

最后,使用 cv2.drawMatches() 函数绘制匹配特征点:

img_matching = cv2.drawMatches(image_query, keypoints_1, img_obj, keypoints_2, best_matches, None, matchColor=(255, 255, 0), singlePointColor=(255, 0, 255), flags=0) 复制代码

利用特征匹配和单应性计算以查找对象


作者:盼小辉丶
链接:https://juejin.cn/post/7065138664367456287


文章分类
代码人生
文章标签
版权声明:本站是系统测试站点,无实际运营。本文内容由互联网用户自发贡献,该文观点仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌抄袭侵权/违法违规的内容, 请发送邮件至 XXXXXXo@163.com 举报,一经查实,本站将立刻删除。
相关推荐