def medianBlur(image,winSize): # 图像的高、宽 rows,cols = image.shape[:2] # 窗口的高、宽,均为奇数 winH,winW = winSize halfWinH = (winH-1)/2 halfWinW = (winW-2)/2 # 中值滤波后的输出图像 medianBlurImg = np.zeros(image.shape,image.dtype) for r in range(rows): for c in range(cols): # 判断边界 rTop = 0 if r-halfWinH<0 else r-halfWinH rBottom = rows-1 if r+halfWinH > rows-1 else r+halfWinH cLeft = 0 if c-halfWinW < 0 else c-halfWinW cRight = cols-1 if c+halfWinW > cols-1 else c+halfWinW print(rTop,rBottom,cLeft,cRight) # 取邻域 region = image[rTop:rBottom,cLeft:int(cRight)] # 求中值 medianBlurImg[r][c] = np.median(region) return medianBlurImg。出现错误:TypeError: slice indices must be integers or None or have an index method

时间: 2024-02-14 21:20:43 浏览: 27
看起来是在取邻域时出现了问题。错误提示中说“slice indices must be integers or None or have an index method”,也就是说切片的索引必须是整数或者是 `None`,或者是具有 `__index__` 方法的对象。 在你的代码中,`cLeft` 和 `cRight` 的计算中出现了一个小错误。应该改为: ```python cLeft = 0 if c-halfWinW < 0 else c-halfWinW cRight = cols-1 if c+halfWinW > cols-1 else c+halfWinW+1 # 注意这里加 1 ``` 原因是切片操作是左闭右开区间,所以右边界要加 1。 另外,`halfWinH` 和 `halfWinW` 的计算也应该改为: ```python halfWinH = (winH-1) // 2 halfWinW = (winW-1) // 2 ``` 这样可以保证窗口的大小为奇数。 修改后的代码如下: ```python def medianBlur(image, winSize): # 图像的高、宽 rows, cols = image.shape[:2] # 窗口的高、宽,均为奇数 winH, winW = winSize halfWinH = (winH-1) // 2 halfWinW = (winW-1) // 2 # 中值滤波后的输出图像 medianBlurImg = np.zeros(image.shape, image.dtype) for r in range(rows): for c in range(cols): # 判断边界 rTop = 0 if r-halfWinH < 0 else r-halfWinH rBottom = rows-1 if r+halfWinH > rows-1 else r+halfWinH cLeft = 0 if c-halfWinW < 0 else c-halfWinW cRight = cols-1 if c+halfWinW > cols-1 else c+halfWinW+1 # 取邻域 region = image[rTop:rBottom, cLeft:cRight] # 求中值 medianBlurImg[r][c] = np.median(region) return medianBlurImg ``` 希望这个答案能够帮到你!

相关推荐

改进下面代码使其输出特征连线图和拼接图import cv2 import numpy as np #加载两张需要拼接的图片: img1 = cv2.imread('men3.jpg') img2 = cv2.imread('men4.jpg') #将两张图片转换为灰度图像: gray1 = cv2.cvtColor(img1, cv2.COLOR_BGR2GRAY) gray2 = cv2.cvtColor(img2, cv2.COLOR_BGR2GRAY) #使用Shi-Tomasi角点检测器找到两张图片中的特征点: # 设定Shi-Tomasi角点检测器的参数 feature_params = dict(maxCorners=100, qualityLevel=0.3, minDistance=7, blockSize=7) # 检测特征点 p1 = cv2.goodFeaturesToTrack(gray1, **feature_params) p2 = cv2.goodFeaturesToTrack(gray2, **feature_params) #使用Lucas-Kanade光流法计算特征点的移动向量: # 设定Lucas-Kanade光流法的参数 lk_params = dict(winSize=(15, 15), maxLevel=2, criteria=(cv2.TERM_CRITERIA_EPS | cv2.TERM_CRITERIA_COUNT, 10, 0.03)) # 计算特征点的移动向量 p1, st, err = cv2.calcOpticalFlowPyrLK(gray1, gray2, p1, None, **lk_params) p2, st, err = cv2.calcOpticalFlowPyrLK(gray2, gray1, p2, None, **lk_params) #计算两张图片的变换矩阵: # 使用RANSAC算法计算变换矩阵 M, mask = cv2.findHomography(p1, p2, cv2.RANSAC, 5.0) #将两张图片拼接成一张: # 计算拼接后的图像大小 h, w = img1.shape[:2] pts = np.array([[0, 0], [0, h - 1], [w - 1, h - 1], [w - 1, 0]], dtype=np.float32).reshape(-1, 1, 2) dst = cv2.perspectiveTransform(pts, M) xmin, ymin = np.int32(dst.min(axis=0).ravel() - 0.5) xmax, ymax = np.int32(dst.max(axis=0).ravel() + 0.5) tx, ty = -xmin, -ymin H, W = xmax - xmin, ymax - ymin # 计算拼接后的图像 timg = np.zeros((H, W, 3), dtype=np.uint8) timg[ty:ty + h, tx:tx + w] = img1 new_p2 = cv2.perspectiveTransform(p2, M) timg = cv2.polylines(timg, [np.int32(new_p2 + (tx, ty))], True, (0, 255, 255), 1, cv2.LINE_AA)

import cv2 import numpy as np # 读取图像 img1 = cv2.imread('D:/wzk/JIEMIAN/images/yi_duibidu.jpg') img2 = cv2.imread('D:/wzk/JIEMIAN/images/er_duibidu.jpg') # 判断图像是否读取成功 if img1 is None or img2 is None: print("Failed to read image!") exit() # 将图像转化为灰度图像 gray1 = cv2.cvtColor(img1, cv2.COLOR_BGR2GRAY) gray2 = cv2.cvtColor(img2, cv2.COLOR_BGR2GRAY) # 使用Shi-tomasi算法检测关键点 corners1 = cv2.goodFeaturesToTrack(gray1, 500, 0.01, 10) corners2 = cv2.goodFeaturesToTrack(gray2, 500, 0.01, 10) # 调整图像大小 corners1 = cv2.resize(corners1, (640, 480)) corners2 = cv2.resize(corners2, (640, 480)) # 使用Lucas-Kanade算法进行光流跟踪 lk_params = dict(winSize=(15, 15), maxLevel=2, criteria=(cv2.TERM_CRITERIA_EPS | cv2.TERM_CRITERIA_COUNT, 10, 0.03)) p1, st, err = cv2.calcOpticalFlowPyrLK(gray1, gray2, corners1, None, **lk_params) # 计算转换矩阵 M, mask = cv2.findHomography(p1, corners2, cv2.RANSAC, 5.0) # 将图像1应用转换矩阵 result = cv2.warpPerspective(img1, M, (img1.shape[1] + img2.shape[1], img1.shape[0])) # 将图像2拼接到图像1后面 result[0:img2.shape[0], img1.shape[1]:img1.shape[1] + img2.shape[1]] = img2 # 显示拼接后的图像 cv2.imshow("Result", result) cv2.waitKey(0) cv2.destroyAllWindows()解决cv2.error: OpenCV(4.7.0) D:\a\opencv-python\opencv-python\opencv\modules\video\src\lkpyramid.cpp:1260: error: (-215:Assertion failed) (npoints = prevPtsMat.checkVector(2, CV_32F, true)) >= 0 in function 'cv::anonymous-namespace'::SparsePyrLKOpticalFlowImpl::calc'

from __future__ import print_function from imutils.object_detection import non_max_suppression from imutils import paths import numpy as np import argparse import imutils import cv2 ap = argparse.ArgumentParser() ap.add_argument("-i", "--images",required=True, help="path to images directory") winSize = (128,128) blockSize = (16,16) blockStride = (8,8) cellSize = (8,8) nbins = 9 hog = cv2.HOGDescriptor(winSize, blockSize, blockStride, cellSize, nbins) defaultdetector=cv2.HOGDescriptor_getDefaultPeopleDetector() hog.setSVMDetector(defaultdetector) image_Path="./images" sig=0 for imagePath in paths.list_images(image_Path): #args["images"] image = cv2.imread(imagePath) # image = imutils.resize(image, width=min(400, image.shape[1])) image = imutils.resize(image, (128,128)) orig = image.copy() # (rects, weights) = hog.detectMultiScale(image, winStride=(4, 4), # padding=(8, 8), scale=1.05) (rects, weights) = hog.detectMultiScale(image, winStride=(4, 4), padding=(8, 8), scale=1.05) for (x, y, w, h) in rects: cv2.rectangle(orig, (x, y), (x + w, y + h), (0, 0, 255), 2) rects = np.array([[x, y, x + w, y + h] for (x, y, w, h) in rects]) pick = non_max_suppression(rects, probs=None, overlapThresh=0.65) for (xA, yA, xB, yB) in pick: cv2.rectangle(image, (xA, yA), (xB, yB), (0, 255, 0), 2) filename = imagePath[imagePath.rfind("/") + 1:] print("[INFO] {}: {} original boxes, {} after suppression".format( filename, len(rects), len(pick))) cv2.imwrite("./Saves/"+str(sig)+"orig.jpg",orig) cv2.imwrite("./Saves/"+str(sig)+"image.jpg",image) sig+=1改正以上代码

最新推荐

recommend-type

zigbee-cluster-library-specification

最新的zigbee-cluster-library-specification说明文档。
recommend-type

管理建模和仿真的文件

管理Boualem Benatallah引用此版本:布阿利姆·贝纳塔拉。管理建模和仿真。约瑟夫-傅立叶大学-格勒诺布尔第一大学,1996年。法语。NNT:电话:00345357HAL ID:电话:00345357https://theses.hal.science/tel-003453572008年12月9日提交HAL是一个多学科的开放存取档案馆,用于存放和传播科学研究论文,无论它们是否被公开。论文可以来自法国或国外的教学和研究机构,也可以来自公共或私人研究中心。L’archive ouverte pluridisciplinaire
recommend-type

优化MATLAB分段函数绘制:提升效率,绘制更快速

![优化MATLAB分段函数绘制:提升效率,绘制更快速](https://ucc.alicdn.com/pic/developer-ecology/666d2a4198c6409c9694db36397539c1.png?x-oss-process=image/resize,s_500,m_lfit) # 1. MATLAB分段函数绘制概述** 分段函数绘制是一种常用的技术,用于可视化不同区间内具有不同数学表达式的函数。在MATLAB中,分段函数可以通过使用if-else语句或switch-case语句来实现。 **绘制过程** MATLAB分段函数绘制的过程通常包括以下步骤: 1.
recommend-type

SDN如何实现简易防火墙

SDN可以通过控制器来实现简易防火墙。具体步骤如下: 1. 定义防火墙规则:在控制器上定义防火墙规则,例如禁止某些IP地址或端口访问,或者只允许来自特定IP地址或端口的流量通过。 2. 获取流量信息:SDN交换机会将流量信息发送给控制器。控制器可以根据防火墙规则对流量进行过滤。 3. 过滤流量:控制器根据防火墙规则对流量进行过滤,满足规则的流量可以通过,不满足规则的流量则被阻止。 4. 配置交换机:控制器根据防火墙规则配置交换机,只允许通过满足规则的流量,不满足规则的流量则被阻止。 需要注意的是,这种简易防火墙并不能完全保护网络安全,只能起到一定的防护作用,对于更严格的安全要求,需要
recommend-type

JSBSim Reference Manual

JSBSim参考手册,其中包含JSBSim简介,JSBSim配置文件xml的编写语法,编程手册以及一些应用实例等。其中有部分内容还没有写完,估计有生之年很难看到完整版了,但是内容还是很有参考价值的。
recommend-type

"互动学习:行动中的多样性与论文攻读经历"

多样性她- 事实上SCI NCES你的时间表ECOLEDO C Tora SC和NCESPOUR l’Ingén学习互动,互动学习以行动为中心的强化学习学会互动,互动学习,以行动为中心的强化学习计算机科学博士论文于2021年9月28日在Villeneuve d'Asq公开支持马修·瑟林评审团主席法布里斯·勒菲弗尔阿维尼翁大学教授论文指导奥利维尔·皮耶昆谷歌研究教授:智囊团论文联合主任菲利普·普雷教授,大学。里尔/CRISTAL/因里亚报告员奥利维耶·西格德索邦大学报告员卢多维奇·德诺耶教授,Facebook /索邦大学审查员越南圣迈IMT Atlantic高级讲师邀请弗洛里安·斯特鲁布博士,Deepmind对于那些及时看到自己错误的人...3谢谢你首先,我要感谢我的两位博士生导师Olivier和Philippe。奥利维尔,"站在巨人的肩膀上"这句话对你来说完全有意义了。从科学上讲,你知道在这篇论文的(许多)错误中,你是我可以依
recommend-type

揭秘MATLAB分段函数绘制技巧:掌握绘制分段函数图的精髓

![揭秘MATLAB分段函数绘制技巧:掌握绘制分段函数图的精髓](https://img-blog.csdnimg.cn/direct/3821ea2a63d44e65925d8251196d5ca9.png) # 1. MATLAB分段函数的概念和基本语法** 分段函数是一种将函数域划分为多个子域,并在每个子域上定义不同函数表达式的函数。在MATLAB中,可以使用`piecewise`函数来定义分段函数。其语法为: ``` y = piecewise(x, x1, y1, ..., xn, yn) ``` 其中: * `x`:自变量。 * `x1`, `y1`, ..., `xn`,
recommend-type

如何用python运行loam算法

LOAM (Lidar Odometry and Mapping) 是一种基于激光雷达的SLAM算法,可以用于室内或室外环境的建图和定位。下面是一个基本的步骤来在Python中运行LOAM算法: 1. 安装ROS (Robot Operating System)和LOAM的ROS包 ``` sudo apt-get install ros-<distro>-loam-velodyne ``` 2. 安装Python的ROS客户端库rospy: ``` sudo apt-get install python-rospy ``` 3. 创建ROS工作空间并编译 ``` mkdir -p ~/ca
recommend-type

c++校园超市商品信息管理系统课程设计说明书(含源代码) (2).pdf

校园超市商品信息管理系统课程设计旨在帮助学生深入理解程序设计的基础知识,同时锻炼他们的实际操作能力。通过设计和实现一个校园超市商品信息管理系统,学生掌握了如何利用计算机科学与技术知识解决实际问题的能力。在课程设计过程中,学生需要对超市商品和销售员的关系进行有效管理,使系统功能更全面、实用,从而提高用户体验和便利性。 学生在课程设计过程中展现了积极的学习态度和纪律,没有缺勤情况,演示过程流畅且作品具有很强的使用价值。设计报告完整详细,展现了对问题的深入思考和解决能力。在答辩环节中,学生能够自信地回答问题,展示出扎实的专业知识和逻辑思维能力。教师对学生的表现予以肯定,认为学生在课程设计中表现出色,值得称赞。 整个课程设计过程包括平时成绩、报告成绩和演示与答辩成绩三个部分,其中平时表现占比20%,报告成绩占比40%,演示与答辩成绩占比40%。通过这三个部分的综合评定,最终为学生总成绩提供参考。总评分以百分制计算,全面评估学生在课程设计中的各项表现,最终为学生提供综合评价和反馈意见。 通过校园超市商品信息管理系统课程设计,学生不仅提升了对程序设计基础知识的理解与应用能力,同时也增强了团队协作和沟通能力。这一过程旨在培养学生综合运用技术解决问题的能力,为其未来的专业发展打下坚实基础。学生在进行校园超市商品信息管理系统课程设计过程中,不仅获得了理论知识的提升,同时也锻炼了实践能力和创新思维,为其未来的职业发展奠定了坚实基础。 校园超市商品信息管理系统课程设计的目的在于促进学生对程序设计基础知识的深入理解与掌握,同时培养学生解决实际问题的能力。通过对系统功能和用户需求的全面考量,学生设计了一个实用、高效的校园超市商品信息管理系统,为用户提供了更便捷、更高效的管理和使用体验。 综上所述,校园超市商品信息管理系统课程设计是一项旨在提升学生综合能力和实践技能的重要教学活动。通过此次设计,学生不仅深化了对程序设计基础知识的理解,还培养了解决实际问题的能力和团队合作精神。这一过程将为学生未来的专业发展提供坚实基础,使其在实际工作中能够胜任更多挑战。
recommend-type

关系数据表示学习

关系数据卢多维奇·多斯桑托斯引用此版本:卢多维奇·多斯桑托斯。关系数据的表示学习机器学习[cs.LG]。皮埃尔和玛丽·居里大学-巴黎第六大学,2017年。英语。NNT:2017PA066480。电话:01803188HAL ID:电话:01803188https://theses.hal.science/tel-01803188提交日期:2018年HAL是一个多学科的开放存取档案馆,用于存放和传播科学研究论文,无论它们是否被公开。论文可以来自法国或国外的教学和研究机构,也可以来自公共或私人研究中心。L’archive ouverte pluridisciplinaireUNIVERSITY PIERRE和 MARIE CURIE计算机科学、电信和电子学博士学院(巴黎)巴黎6号计算机科学实验室D八角形T HESIS关系数据表示学习作者:Ludovic DOS SAntos主管:Patrick GALLINARI联合主管:本杰明·P·伊沃瓦斯基为满足计算机科学博士学位的要求而提交的论文评审团成员:先生蒂埃里·A·退休记者先生尤尼斯·B·恩