以下代码如何修正corners = cv2.goodFeaturesToTrack(gray, 200, 0.01, 20) corners = corners.astype(int) sorted_idx = np.lexsort((corners[:, 1], corners[:, 0])) sorted_corners = corners[sorted_idx]

时间: 2024-03-01 08:52:12 浏览: 21
这段代码中存在一个问题,即`goodFeaturesToTrack`函数返回的`corners`数组的元素类型为`float32`,而在后续的代码中需要将其转换为`int`类型。这样做可能会导致精度的损失,从而影响后续的计算结果。 为了修正这个问题,可以将`corners`数组在转换为`int`类型之前先进行四舍五入的操作,从而保留一定的精度。修改后的代码如下: ``` python corners = cv2.goodFeaturesToTrack(gray, 200, 0.01, 20) corners = np.round(corners).astype(int) sorted_idx = np.lexsort((corners[:, 1], corners[:, 0])) sorted_corners = corners[sorted_idx] ``` 这样做可以避免精度损失,从而保证后续计算的准确性。
相关问题

import cv2 import numpy as np img = cv2.imread('021.png') gray = cv2.cvtColor(img, cv2.COLOR_BGR2GRAY) corners = cv2.goodFeaturesToTrack(gray, 200, 0.01, 20) corners = np.round(corners).astype(int) print(corners)如何对corners进行排序

你可以根据corners的坐标进行排序,按照x坐标或者y坐标进行升序或降序排序。下面是一个按照x坐标升序排序的示例代码: ``` sorted_corners = sorted(corners, key=lambda x: x[0]) ``` 这里使用了Python的内置函数sorted(),并且通过lambda表达式指定了按照x坐标进行排序。如果你想按照其他方式进行排序,只需要修改lambda表达式即可。

检查改进代码:import cv2 # 读取图像 img1 = cv2.imread('qiao1.jpg') img2 = cv2.imread('qiao2.jpg') # 转为灰度图像 gray1 = cv2.cvtColor(img1, cv2.COLOR_BGR2GRAY) gray2 = cv2.cvtColor(img2, cv2.COLOR_BGR2GRAY) # 使用Shi-Tomasi算法检测特征点 corners1 = cv2.goodFeaturesToTrack(gray1, 100, 0.01, 10) corners2 = cv2.goodFeaturesToTrack(gray2, 100, 0.01, 10) # 将特征点转为整数 corners1 = corners1.astype(int) corners2 = corners2.astype(int) # 进行暴力匹配 matcher = cv2.BFMatcher(cv2.NORM_L2, crossCheck=True) matches = matcher.match(gray1, gray2) # 根据距离排序 matches = sorted(matches, key=lambda x: x.distance) # 取前10个最佳匹配 matches = matches[:10] # 绘制匹配点连线图 matched_img = cv2.drawMatches(img1, corners1, img2, corners2, matches, None) cv2.imshow('Matched', matched_img) cv2.waitKey(0) # 进行图像拼接 src_pts = np.float32([corners1[m.queryIdx].flatten() for m in matches]).reshape(-1, 1, 2) dst_pts = np.float32([corners2[m.trainIdx].flatten() for m in matches]).reshape(-1, 1, 2) M, _ = cv2.findHomography(src_pts, dst_pts, cv2.RANSAC, 5.0) result = cv2.warpPerspective(img1, M, (img1.shape[1] + img2.shape[1], img1.shape[0])) result[0:img2.shape[0], 0:img2.shape[1]] = img2 cv2.imshow('Result', result) cv2.waitKey(0)

代码看起来不错,但是有一些可以改进的地方: 1. 在进行暴力匹配之前,需要将特征点转换为描述符。可以使用ORB、SIFT或SURF等算法来提取描述符。 2. 在进行图像拼接之前,可以先使用RANSAC算法进行特征点匹配,以排除错误的匹配点。 3. 在绘制匹配点连线图之前,可以使用cv2.drawKeypoints函数绘制特征点的位置和方向,以更好地观察匹配结果。 4. 在进行图像拼接之后,可以使用cv2.resize函数对结果进行缩放,以便更好地观察。 下面是改进后的代码: import cv2 import numpy as np # 读取图像 img1 = cv2.imread('qiao1.jpg') img2 = cv2.imread('qiao2.jpg') # 转为灰度图像 gray1 = cv2.cvtColor(img1, cv2.COLOR_BGR2GRAY) gray2 = cv2.cvtColor(img2, cv2.COLOR_BGR2GRAY) # 提取特征点和描述符 orb = cv2.ORB_create() kp1, des1 = orb.detectAndCompute(gray1, None) kp2, des2 = orb.detectAndCompute(gray2, None) # 进行特征点匹配 matcher = cv2.BFMatcher(cv2.NORM_HAMMING, crossCheck=True) matches = matcher.match(des1, des2) # 使用RANSAC算法排除错误匹配点 src_pts = np.float32([kp1[m.queryIdx].pt for m in matches]).reshape(-1, 1, 2) dst_pts = np.float32([kp2[m.trainIdx].pt for m in matches]).reshape(-1, 1, 2) M, mask = cv2.findHomography(src_pts, dst_pts, cv2.RANSAC, 5.0) # 绘制特征点位置和方向 img1_kp = cv2.drawKeypoints(img1, kp1, None) img2_kp = cv2.drawKeypoints(img2, kp2, None) cv2.imshow('Keypoints1', img1_kp) cv2.imshow('Keypoints2', img2_kp) # 绘制匹配点连线图 matches_img = cv2.drawMatches(img1, kp1, img2, kp2, matches, None, flags=cv2.DrawMatchesFlags_NOT_DRAW_SINGLE_POINTS) cv2.imshow('Matches', matches_img) # 进行图像拼接 result = cv2.warpPerspective(img1, M, (img1.shape[1] + img2.shape[1], img1.shape[0])) result[0:img2.shape[0], 0:img2.shape[1]] = img2 # 缩放结果图像 result = cv2.resize(result, None, fx=0.5, fy=0.5) cv2.imshow('Result', result) cv2.waitKey(0) cv2.destroyAllWindows()

相关推荐

import cv2 # 读取两幅待处理的图像 img1 = cv2.imread('image1.jpg', cv2.IMREAD_GRAYSCALE) img2 = cv2.imread('image2.jpg', cv2.IMREAD_GRAYSCALE) # 对图像进行高斯模糊 img1 = cv2.GaussianBlur(img1, (5, 5), 0) img2 = cv2.GaussianBlur(img2, (5, 5), 0) # 使用Shi-Tomasi算法检测特征点 corners1 = cv2.goodFeaturesToTrack(img1, 100, 0.01, 10) corners2 = cv2.goodFeaturesToTrack(img2, 100, 0.01, 10) # 对特征点进行亚像素定位 corners1 = cv2.cornerSubPix(img1, corners1, (5, 5), (-1, -1), criteria=(cv2.TERM_CRITERIA_EPS + cv2.TERM_CRITERIA_MAX_ITER, 30, 0.001)) corners2 = cv2.cornerSubPix(img2, corners2, (5, 5), (-1, -1), criteria=(cv2.TERM_CRITERIA_EPS + cv2.TERM_CRITERIA_MAX_ITER, 30, 0.001)) # 对特征点进行匹配 matcher = cv2.DescriptorMatcher_create(cv2.DESCRIPTOR_MATCHER_BRUTEFORCE_HAMMING) kps1, descs1 = sift.detectAndCompute(img1, None) kps2, descs2 = sift.detectAndCompute(img2, None) matches = matcher.match(descs1, descs2) # 使用RANSAC算法进行匹配点筛选 src_pts = np.float32([kps1[m.queryIdx].pt for m in matches]).reshape(-1, 1, 2) dst_pts = np.float32([kps2[m.trainIdx].pt for m in matches]).reshape(-1, 1, 2) M, mask = cv2.findHomography(src_pts, dst_pts, cv2.RANSAC, 5.0) # 对图像进行配准和拼接 result = cv2.warpPerspective(img1, M, (img1.shape[1] + img2.shape[1], img1.shape[0])) result[0:img2.shape[0], 0:img2.shape[1]] = img2 # 显示结果 cv2.imshow('Result', result) cv2.waitKey() cv2.destroyAllWindows()改进这段代码使其输出特征点连线图和拼接图

import cv2 import numpy as np # 读取图像 img1 = cv2.imread('D:/wzk/JIEMIAN/images/yi_duibidu.jpg') img2 = cv2.imread('D:/wzk/JIEMIAN/images/er_duibidu.jpg') # 判断图像是否读取成功 if img1 is None or img2 is None: print("Failed to read image!") exit() # 将图像转化为灰度图像 gray1 = cv2.cvtColor(img1, cv2.COLOR_BGR2GRAY) gray2 = cv2.cvtColor(img2, cv2.COLOR_BGR2GRAY) # 使用Shi-tomasi算法检测关键点 corners1 = cv2.goodFeaturesToTrack(gray1, 500, 0.01, 10) corners2 = cv2.goodFeaturesToTrack(gray2, 500, 0.01, 10) # 调整图像大小 corners1 = cv2.resize(corners1, (640, 480)) corners2 = cv2.resize(corners2, (640, 480)) # 使用Lucas-Kanade算法进行光流跟踪 lk_params = dict(winSize=(15, 15), maxLevel=2, criteria=(cv2.TERM_CRITERIA_EPS | cv2.TERM_CRITERIA_COUNT, 10, 0.03)) p1, st, err = cv2.calcOpticalFlowPyrLK(gray1, gray2, corners1, None, **lk_params) # 计算转换矩阵 M, mask = cv2.findHomography(p1, corners2, cv2.RANSAC, 5.0) # 将图像1应用转换矩阵 result = cv2.warpPerspective(img1, M, (img1.shape[1] + img2.shape[1], img1.shape[0])) # 将图像2拼接到图像1后面 result[0:img2.shape[0], img1.shape[1]:img1.shape[1] + img2.shape[1]] = img2 # 显示拼接后的图像 cv2.imshow("Result", result) cv2.waitKey(0) cv2.destroyAllWindows()解决cv2.error: OpenCV(4.7.0) D:\a\opencv-python\opencv-python\opencv\modules\video\src\lkpyramid.cpp:1260: error: (-215:Assertion failed) (npoints = prevPtsMat.checkVector(2, CV_32F, true)) >= 0 in function 'cv::anonymous-namespace'::SparsePyrLKOpticalFlowImpl::calc'

最新推荐

recommend-type

Android开发BLE 串口调试工具,用来和底层进行一些握手协议的调试

【Android】开发BLE 串口调试工具,用来和底层进行一些握手协议的调试。
recommend-type

机械设计自动锁垫片机(sw18可编辑+工程图+BOM)非常好的设计图纸100%好用.zip

机械设计自动锁垫片机(sw18可编辑+工程图+BOM)非常好的设计图纸100%好用.zip
recommend-type

RTL8188FU-Linux-v5.7.4.2-36687.20200602.tar(20765).gz

REALTEK 8188FTV 8188eus 8188etv linux驱动程序稳定版本, 支持AP,STA 以及AP+STA 共存模式。 稳定支持linux4.0以上内核。
recommend-type

管理建模和仿真的文件

管理Boualem Benatallah引用此版本:布阿利姆·贝纳塔拉。管理建模和仿真。约瑟夫-傅立叶大学-格勒诺布尔第一大学,1996年。法语。NNT:电话:00345357HAL ID:电话:00345357https://theses.hal.science/tel-003453572008年12月9日提交HAL是一个多学科的开放存取档案馆,用于存放和传播科学研究论文,无论它们是否被公开。论文可以来自法国或国外的教学和研究机构,也可以来自公共或私人研究中心。L’archive ouverte pluridisciplinaire
recommend-type

Redis验证与连接:安装成功验证技巧

![Redis从入门到精通](https://img-blog.csdnimg.cn/6f39d0a2adc3456b96e804eb45032480.png) # 1. Redis安装与验证** ### 2.2 Redis验证方法 Redis验证可以通过以下方法进行: - **命令行验证:** - 打开终端,输入 `redis-cli` 命令进入 Redis 命令行。 - 输入 `ping` 命令,如果返回 "PONG",则表示 Redis 正在运行。 - **客户端验证:** - 使用 Redis 客户端(如 RedisInsight)连接到 Redis 服务器。
recommend-type

3、自定义一个函数int compareStr(char *p1, char *p2),实现两个字符串的比较。相等返回0,大于返回1,小于返回0;编写主函数main()来调用自定义函数完成测试。

下面是自定义的 `compareStr` 函数的代码实现: ```c #include <stdio.h> int compareStr(char *p1, char *p2) { while (*p1 && *p2 && (*p1 == *p2)) { p1++; p2++; } return (*p1 > *p2) - (*p1 < *p2); } int main() { char str1[100], str2[100]; int result; printf("请输入第一个字符串:");
recommend-type

c++校园超市商品信息管理系统课程设计说明书(含源代码) (2).pdf

校园超市商品信息管理系统课程设计旨在帮助学生深入理解程序设计的基础知识,同时锻炼他们的实际操作能力。通过设计和实现一个校园超市商品信息管理系统,学生掌握了如何利用计算机科学与技术知识解决实际问题的能力。在课程设计过程中,学生需要对超市商品和销售员的关系进行有效管理,使系统功能更全面、实用,从而提高用户体验和便利性。 学生在课程设计过程中展现了积极的学习态度和纪律,没有缺勤情况,演示过程流畅且作品具有很强的使用价值。设计报告完整详细,展现了对问题的深入思考和解决能力。在答辩环节中,学生能够自信地回答问题,展示出扎实的专业知识和逻辑思维能力。教师对学生的表现予以肯定,认为学生在课程设计中表现出色,值得称赞。 整个课程设计过程包括平时成绩、报告成绩和演示与答辩成绩三个部分,其中平时表现占比20%,报告成绩占比40%,演示与答辩成绩占比40%。通过这三个部分的综合评定,最终为学生总成绩提供参考。总评分以百分制计算,全面评估学生在课程设计中的各项表现,最终为学生提供综合评价和反馈意见。 通过校园超市商品信息管理系统课程设计,学生不仅提升了对程序设计基础知识的理解与应用能力,同时也增强了团队协作和沟通能力。这一过程旨在培养学生综合运用技术解决问题的能力,为其未来的专业发展打下坚实基础。学生在进行校园超市商品信息管理系统课程设计过程中,不仅获得了理论知识的提升,同时也锻炼了实践能力和创新思维,为其未来的职业发展奠定了坚实基础。 校园超市商品信息管理系统课程设计的目的在于促进学生对程序设计基础知识的深入理解与掌握,同时培养学生解决实际问题的能力。通过对系统功能和用户需求的全面考量,学生设计了一个实用、高效的校园超市商品信息管理系统,为用户提供了更便捷、更高效的管理和使用体验。 综上所述,校园超市商品信息管理系统课程设计是一项旨在提升学生综合能力和实践技能的重要教学活动。通过此次设计,学生不仅深化了对程序设计基础知识的理解,还培养了解决实际问题的能力和团队合作精神。这一过程将为学生未来的专业发展提供坚实基础,使其在实际工作中能够胜任更多挑战。
recommend-type

"互动学习:行动中的多样性与论文攻读经历"

多样性她- 事实上SCI NCES你的时间表ECOLEDO C Tora SC和NCESPOUR l’Ingén学习互动,互动学习以行动为中心的强化学习学会互动,互动学习,以行动为中心的强化学习计算机科学博士论文于2021年9月28日在Villeneuve d'Asq公开支持马修·瑟林评审团主席法布里斯·勒菲弗尔阿维尼翁大学教授论文指导奥利维尔·皮耶昆谷歌研究教授:智囊团论文联合主任菲利普·普雷教授,大学。里尔/CRISTAL/因里亚报告员奥利维耶·西格德索邦大学报告员卢多维奇·德诺耶教授,Facebook /索邦大学审查员越南圣迈IMT Atlantic高级讲师邀请弗洛里安·斯特鲁布博士,Deepmind对于那些及时看到自己错误的人...3谢谢你首先,我要感谢我的两位博士生导师Olivier和Philippe。奥利维尔,"站在巨人的肩膀上"这句话对你来说完全有意义了。从科学上讲,你知道在这篇论文的(许多)错误中,你是我可以依
recommend-type

Linux系统Redis安装:依赖安装与编译全攻略

![Linux系统Redis安装:依赖安装与编译全攻略](https://img-blog.csdnimg.cn/ae7b8258c74742a4918aaae0e34b0603.png?x-oss-process=image/watermark,type_ZHJvaWRzYW5zZmFsbGJhY2s,shadow_50,text_Q1NETiBAaGFo5p2o5aSn5LuZ,size_20,color_FFFFFF,t_70,g_se,x_16) # 1.1 Redis简介 Redis(Remote Dictionary Server)是一个开源的、内存中的、键值对数据库,用于存储和
recommend-type

2.假设在某30分钟内学生到达图书馆的间隔时间服从在区间均值为5秒的指数分布(exprnd(5)),请编程产生30分钟内所有到达图书馆的学生的到达时刻,并输出到达人数;并绘制学生的到达时刻散点图(横轴为人的序号,纵轴为到达时刻;学生从序号1开始编号).

可以使用Matlab来完成这个任务。代码如下: ```matlab % 生成到达图书馆的学生的到达时刻 lambda = 1/5; % 指数分布的参数 t = 0; % 初始时刻为0 arrivals = []; % 到达时刻数组 while t < 30*60 % 30分钟 t = t + exprnd(lambda); % 生成下一个到达时刻 arrivals(end+1) = t; % 将到达时刻添加到数组中 end % 输出到达人数 num_arrivals = length(arrivals); disp(['到达人数:', num2str(num_arrival