def letterbox_image(self, image, size): image = image.convert("RGB") iw, ih = image.size w, h = size scale = min(w/iw, h/ih) nw = int(iw*scale) nh = int(ih*scale)
时间: 2024-02-14 15:30:27 浏览: 143
这段代码是一个实现图像缩放和填充的函数 `letterbox_image`。它接受两个参数:`image` 是要处理的图像, `size` 是目标尺寸。
首先,通过 `image.convert("RGB")` 将输入图像转换为 RGB 模式,确保图像的通道数为 3 通道。
然后,获取原始图像的宽度 `iw` 和高度 `ih`。
接下来,将目标尺寸的宽度 `w` 和高度 `h` 与原始图像的尺寸进行比较,计算缩放比例 `scale`。为了保持原始图像的宽高比,我们选择较小的缩放比例。
然后,根据缩放比例将原始图像的宽度和高度进行缩放,得到新的宽度 `nw` 和新的高度 `nh`,使用 `int()` 函数将其转换为整数值。
这样,我们就得到了按比例缩放后的图像尺寸。在后续的代码中,可以根据需要使用这个新尺寸进行进一步的图像处理操作。
相关问题
def button_image_open(self): print('button_image_open') name_list = [] img_name, _ = QtWidgets.QFileDialog.getOpenFileName( self, "打开图片", "", "*.jpg;;*.png;;All Files(*)") if not img_name: return img = cv2.imread(img_name) print(img_name) showimg = img with torch.no_grad(): img = letterbox(img, new_shape=self.opt.img_size)[0] # Convert # BGR to RGB, to 3x416x416 img = img[:, :, ::-1].transpose(2, 0, 1) img = np.ascontiguousarray(img) img = torch.from_numpy(img).to(self.device) img = img.half() if self.half else img.float() # uint8 to fp16/32 img /= 255.0 # 0 - 255 to 0.0 - 1.0 if img.ndimension() == 3: img = img.unsqueeze(0) # Inference pred = self.model(img, augment=self.opt.augment)[0] # Apply NMS pred = non_max_suppression(pred, self.opt.conf_thres, self.opt.iou_thres, classes=self.opt.classes, agnostic=self.opt.agnostic_nms) print(pred) # Process detections for i, det in enumerate(pred): if det is not None and len(det): # Rescale boxes from img_size to im0 size det[:, :4] = scale_coords( img.shape[2:], det[:, :4], showimg.shape).round() for *xyxy, conf, cls in reversed(det): label = '%s %.2f' % (self.names[int(cls)], conf) name_list.append(self.names[int(cls)]) plot_one_box(xyxy, showimg, label=label, color=self.colors[int(cls)], line_thickness=10)
这是一个用于打开图片并进行目标检测的函数,使用了OpenCV和PyTorch进行图像处理和模型推理。具体流程如下:
1. 使用QtWidgets.QFileDialog打开一个图片选择对话框,选中需要检测的图片。
2. 使用OpenCV的cv2.imread函数读取所选图片。
3. 对读取的图片进行预处理,包括调整图片大小、转换颜色空间、归一化等操作,使其符合模型输入要求。
4. 使用PyTorch进行模型推理,得到目标检测结果。
5. 对检测结果进行处理,包括将检测框坐标还原到原始图片尺寸、绘制检测框、输出检测结果等操作。
6. 返回检测到的目标类别列表。
解析代码:img = cv2.imread(img_name) print(img_name) showimg = img with torch.no_grad(): img = letterbox(img, new_shape=self.opt.img_size)[0] # Convert # BGR to RGB, to 3x416x416 img = img[:, :, ::-1].transpose(2, 0, 1) img = np.ascontiguousarray(img) img = torch.from_numpy(img).to(self.device) img = img.half() if self.half else img.float() # uint8 to fp16/32 img /= 255.0 # 0 - 255 to 0.0 - 1.0 if img.ndimension() == 3: img = img.unsqueeze(0) # Inference pred = self.model(img, augment=self.opt.augment)[0] # Apply NMS pred = non_max_suppression(pred, self.opt.conf_thres, self.opt.iou_thres, classes=self.opt.classes, agnostic=self.opt.agnostic_nms) print(pred) # Process detections for i, det in enumerate(pred): if det is not None and len(det): # Rescale boxes from img_size to im0 size det[:, :4] = scale_coords( img.shape[2:], det[:, :4], showimg.shape).round() for *xyxy, conf, cls in reversed(det): label = '%s %.2f' % (self.names[int(cls)], conf) name_list.append(self.names[int(cls)]) plot_one_box(xyxy, showimg, label=label, color=self.colors[int(cls)], line_thickness=10) cv2.imwrite('prediction.jpg', showimg) self.result = cv2.cvtColor(showimg, cv2.COLOR_BGR2BGRA) self.result = cv2.resize( self.result, (640, 480), interpolation=cv2.INTER_AREA) self.QtImg = QtGui.QImage( self.result.data, self.result.shape[1], self.result.shape[0], QtGui.QImage.Format_RGB32) self.label.setPixmap(QtGui.QPixmap.fromImage(self.QtImg))
这段代码主要是进行目标检测的推理过程,并将检测结果展示在界面上。
首先,使用OpenCV读取图片,然后对图片进行预处理,包括缩放、转换颜色空间、转换数据类型等。然后,将处理后的图片输入模型进行推理,得到检测结果,再对结果进行非极大值抑制,去除重复的检测框。最后,将检测结果绘制在原图上,保存展示图片,并将展示图片转换为Qt中可以显示的QImage格式,并在界面上展示。
阅读全文