怎么解决QFileDialog.getOpenFileName返回的路径cv2.imread读取不了
时间: 2024-04-30 20:24:13 浏览: 72
可以尝试使用以下代码解决这个问题:
```python
import cv2
from PyQt5.QtWidgets import QFileDialog
filename, _ = QFileDialog.getOpenFileName(None, "选择文件", "", "Image Files (*.png *.jpg *.bmp)")
if filename:
img = cv2.imdecode(np.fromfile(filename, dtype=np.uint8), cv2.IMREAD_COLOR)
```
这里使用了cv2.imdecode来读取文件,而不是cv2.imread。同时使用了numpy中的fromfile函数来读取文件数据。希望能够帮到你。
相关问题
def button_image_open(self): print('button_image_open') name_list = [] img_name, _ = QtWidgets.QFileDialog.getOpenFileName( self, "打开图片", "", "*.jpg;;*.png;;All Files(*)") if not img_name: return img = cv2.imread(img_name) print(img_name) showimg = img with torch.no_grad(): img = letterbox(img, new_shape=self.opt.img_size)[0] # Convert # BGR to RGB, to 3x416x416 img = img[:, :, ::-1].transpose(2, 0, 1) img = np.ascontiguousarray(img) img = torch.from_numpy(img).to(self.device) img = img.half() if self.half else img.float() # uint8 to fp16/32 img /= 255.0 # 0 - 255 to 0.0 - 1.0 if img.ndimension() == 3: img = img.unsqueeze(0) # Inference pred = self.model(img, augment=self.opt.augment)[0] # Apply NMS pred = non_max_suppression(pred, self.opt.conf_thres, self.opt.iou_thres, classes=self.opt.classes, agnostic=self.opt.agnostic_nms) print(pred) # Process detections for i, det in enumerate(pred): if det is not None and len(det): # Rescale boxes from img_size to im0 size det[:, :4] = scale_coords( img.shape[2:], det[:, :4], showimg.shape).round() for *xyxy, conf, cls in reversed(det): label = '%s %.2f' % (self.names[int(cls)], conf) name_list.append(self.names[int(cls)]) plot_one_box(xyxy, showimg, label=label, color=self.colors[int(cls)], line_thickness=10)
这是一个用于打开图片并进行目标检测的函数,使用了OpenCV和PyTorch进行图像处理和模型推理。具体流程如下:
1. 使用QtWidgets.QFileDialog打开一个图片选择对话框,选中需要检测的图片。
2. 使用OpenCV的cv2.imread函数读取所选图片。
3. 对读取的图片进行预处理,包括调整图片大小、转换颜色空间、归一化等操作,使其符合模型输入要求。
4. 使用PyTorch进行模型推理,得到目标检测结果。
5. 对检测结果进行处理,包括将检测框坐标还原到原始图片尺寸、绘制检测框、输出检测结果等操作。
6. 返回检测到的目标类别列表。
class classify_system(QMainWindow,Ui_MainWindow): def __init__(self,parent=None): super(classify_system,self).__init__(parent) self.setupUi(self) #将输入图片按钮,pushButton与openimage关联起来 self.pushButton.clicked.connect(self.openimage) self.label_2.setAlignment(Qt.AlignCenter)#图像居中显示 def openimage(self): name,type=QFileDialog.getOpenFileName(self,"打开图片","","*.jpg;;*.png;;*.jpeg;;All Files(*)") img=cv2.imread(name) img=cv2.resize(img,(400,400),interpolation=cv2.INTER_CUBIC) qimg=qimage2ndarray.array2qimage(img) self.label_2.setPixmap(QPixmap(qimg)) self.label_2.show() img=img.astype('float')/255.0 #224*224满足模型输入要求 img=cv2.resize(img,(224,224),interpolation=cv2.INTER_CUBIC) img=np.expand_dims(img,axis=0)#添加尺寸,满足模型输入需求 MobileNet=tf.keras.applications.MobileNet(include_top=True,weights='imagenet') result=MobileNet.predict(img)#模型预测 #获得预测结果 result=tf.keras.applications.imagenet_utils.decode_predictions(result,top=1) predictClass=result[0][0][1] predictProb=result[0][0][2] #将预测结果显示至图像上 return_img=cv2.putText(self.img,str(predictClass)+":"+str(predictProb),(50,100),cv2.FONT_HERSHEY_DUPLEX,1.2,(255,255,255),2,) qimg2=qimage2ndarray.array2qimage(return_img) self.label_2.setPixmap(QPixmap(qimg2)) self.label_2.show()
这段代码是一个基于 PyQt5 和 TensorFlow 的图像分类系统,它可以打开用户选择的图片,并使用 MobileNet 模型对其进行分类预测。具体来说,当用户点击“输入图片”按钮时,程序会弹出文件选择对话框,让用户选择一张图片。然后程序会使用 OpenCV 库读取该图片,并将其缩放到 400×400 像素大小,并显示在程序窗口中心的标签上。接着,程序会将图像转换为浮点格式,并缩放到 224×224 像素大小,以符合 MobileNet 模型的输入要求。然后程序会将图像添加一个维度,以便将其传递给 MobileNet 模型进行预测。在预测完成后,程序会将预测结果绘制在原始图像上,并显示在标签上,以便用户查看。
阅读全文