# 读取模板图片 template = cv2.imread(template_path) # 转为灰度图像 template_gray = cv2.cvtColor(template, cv2.COLOR_BGR2GRAY) # 创建Linemod匹配器 detector = cv2.linemod.getDefaultLINE() # 添加模板信息 detector.addTemplate(template_gray,'1', object_mask=None)# 将模板图像添加到检测器中,设置名称为 "template" # 读取待匹配图像 image = cv2.imread(image_path) # 转为灰度图像 image_gray = cv2.cvtColor(image, cv2.COLOR_BGR2GRAY) # 进行匹配 matches, scores = detector.match(image_gray,threshold=99)报错error: OpenCV(4.6.0) D:\a\opencv-python\opencv-python\opencv_contrib\modules\rgbd\src\linemod.cpp:1397: error: (-215:Assertion failed) sources.size() == modalities.size() in function 'cv::linemod::Detector::match'
时间: 2024-02-03 15:14:57 浏览: 143
这个报错可能是由于添加模板信息时没有指定模板的尺寸和深度导致的。你可以尝试在添加模板信息时指定模板的尺寸和深度,例如:
```
detector.addTemplate(template_gray, '1', img_size=template_gray.shape[::-1], depth=cv2.CV_8U)
```
其中,`img_size`参数指定模板图像的尺寸,`depth`参数指定模板图像的深度。这样可以确保匹配器能够正确地处理模板图像。
相关问题
[ WARN:0] global /home/nvidia/host/build_opencv/nv_opencv/modules/videoio/src/cap_gstreamer.cpp (933) open OpenCV | GStreamer warning: Cannot query video position: status=0, value=-1, duration=-1 Traceback (most recent call last): File "color.py", line 50, in <module> find_template(template_path, video_device) File "color.py", line 28, in find_template loc = cv2.where(result >= threshold) AttributeError: module 'cv2' has no attribute 'where'
非常抱歉,我之前给出的示例代码中存在错误。在OpenCV中,`cv2.where`函数不存在,所以导致了`AttributeError: module 'cv2' has no attribute 'where'`的错误。
请改用`cv2.findNonZero`函数来获取匹配结果大于阈值的位置。以下是更新后的示例代码:
```python
import cv2
import numpy as np
def find_template(template_path, video_device):
# 读取模板图片
template = cv2.imread(template_path, 0)
# 打开视频流
cap = cv2.VideoCapture(video_device)
while True:
# 读取视频帧
ret, frame = cap.read()
if not ret:
print("无法读取视频流")
break
# 转换为灰度图像
gray = cv2.cvtColor(frame, cv2.COLOR_BGR2GRAY)
# 进行模板匹配
result = cv2.matchTemplate(gray, template, cv2.TM_CCOEFF_NORMED)
# 设置匹配阈值
threshold = 0.8
# 获取匹配结果大于阈值的位置
loc = np.where(result >= threshold)
# 在原始图像中绘制矩形框
for pt in zip(*loc[::-1]):
cv2.rectangle(frame, pt, (pt[0] + template.shape[1], pt[1] + template.shape[0]), (0, 255, 0), 2)
# 显示图像
cv2.imshow('Video', frame)
# 按下 'q' 键退出循环
if cv2.waitKey(1) & 0xFF == ord('q'):
break
# 释放视频流和窗口
cap.release()
cv2.destroyAllWindows()
# 指定模板图片和视频设备索引
template_path = 'template.png'
video_device = 0
# 调用函数进行模板匹配
find_template(template_path, video_device)
```
这次使用了`np.where`函数来获取匹配结果大于阈值的位置。希望这次能够正常运行。如果还有其他问题,请随时提问。
解析代码from imutils import contours import numpy as np import argparse #参数设置包 import imutils #图像处理包 import cv2 import myutils#自定义包 #设置参数 ap=argparse.ArgumentParser()#创建一个解析对象 ap.add_argument("-i","--image",required=True,help="path to input image")#向该对象中添加你要关
于的参数 ap.add_argument("-r","--reference",required=True,help="path to reference OCR-A image") ap.add_argument("-p","--preprocess",type=str,default="thresh",help="type of preprocessing to be done") args=vars(ap.parse_args())#将参数解析为字典形式 #读取图像 image=cv2.imread(args["image"])#读取输入参数指定的图像 gray=cv2.cvtColor(image,cv2.COLOR_BGR2GRAY)#将图像转换为灰度图 thresh=cv2.threshold(gray,0,255,cv2.THRESH_BINARY_INV|cv2.THRESH_OTSU)[1]#对灰度图进行二值化处理 #预处理 reference=cv2.imread(args["reference"])#读取参数指定的OCR-A字符图像 gray2=cv2.cvtColor(reference,cv2.COLOR_BGR2GRAY)#将OCR-A字符图像转换为灰度图 if args["preprocess"]=="thresh":gray2=cv2.threshold(gray2,0,255,cv2.THRESH_BINARY_INV|cv2.THRESH_OTSU)[1]#二值化 thresh2=gray2 cv2.imshow("thresh2",thresh2)#显示处理后的OCR-A字符图像 cv2.waitKey(0) #调用 myutils.py 中的 sort_contours 函数,对图像中的轮廓进行排序 contours= cv2.findContours(thresh.copy(),cv2.RETR_EXTERNAL,cv2.CHAIN_APPROX_SIMPLE) contours=imutils.grab_contours(contours) contours=myutils.sort_contours(contours,method="left-to-right") #用来存储结果的字符串,初始化为空 res="" #循环处理每个字符 for c in contours: #计算外接矩形并提取字符区域 (x,y,w,h)=cv2.boundingRect(c) roi=gray[y:y+h,x:x+w] #将字符区域重新调整为固定大小 image=cv2.resize(roi,(57,88)) #计算匹配得分 scores=[] #在模板中计算每个字符的匹配得分 for (digit,template) in digits.items(): #将模板调整为固定大小 template=cv2.resize(template,(57,88)) #计算匹配得分 score=cv2.matchTemplate(image,template,cv2.TM_CCOEFF) (_,score,_,_)=cv2.minMaxLoc(score) scores.append(score) #获取匹配得分最高的模板的索引值 maxIndex=int(np.argmax(scores)) res+=str(maxIndex) #在图像上绘制出结果 cv2.rectangle(image,(0,0),(57,88),(0,0,255),3) cv2.putText(image,res,(2,56),cv2.FONT_HERSHEY_SIMPLEX,0.75,(0,0,255),2) cv2.imshow("image",image) cv2.waitKey(0) #重点在于对输入参数进行解析,并读取对应的图像文件。然后进行二值化、轮廓排序等操作,最后对每个字符进行匹配。若匹配得分最高的模板索引值为 i,则将其转换为字符串,并依次拼接起来,最终得到完整的字符序列。
阅读全文