img = cv2.imread(filename) img = img[:,:,::-1] / 255.0 img = np.array(img).astype('float32') return img

时间: 2023-10-29 14:05:02 浏览: 211
PDF

PIL.Image.open和cv2.imread的比较与相互转换的方法

这段代码是使用 OpenCV 库读取一张图片,并将像素值归一化到 0~1 范围内,最后将图片格式转换为 float32 类型的 numpy 数组。具体解释如下: - cv2.imread(filename):使用 OpenCV 的 imread() 函数读取图片,其中 filename 表示图片路径和文件名。 - img[:,:,::-1]:将读取到的图片格式从 BGR 转换为 RGB,因为在 OpenCV 中默认读取的是 BGR 格式的图片。 - / 255.0:将像素值归一化到 0~1 范围内,因为在训练神经网络时,一般需要将输入数据归一化。 - np.array(img):将读取到的图片转换为 numpy 数组。 - .astype('float32'):将图片格式转换为 float32 类型的 numpy 数组,以便于后续进行计算和处理。 - return img:返回处理后的图片数组。
阅读全文

相关推荐

coding=UTF-8 from flask import Flask, render_template, request, send_from_directory from werkzeug.utils import secure_filename from iconflow.model.colorizer import ReferenceBasedColorizer from skimage.feature import canny as get_canny_feature from torchvision import transforms from PIL import Image import os import datetime import torchvision import cv2 import numpy as np import torch import einops transform_Normalize = torchvision.transforms.Compose([ transforms.Normalize(0.5, 1.0)]) ALLOWED_EXTENSIONS = set([‘png’, ‘jpg’, ‘jpeg’]) app = Flask(name) train_model = ReferenceBasedColorizer() basepath = os.path.join( os.path.dirname(file), ‘images’) # 当前文件所在路径 def allowed_file(filename): return ‘.’ in filename and filename.rsplit(‘.’, 1)[1] in ALLOWED_EXTENSIONS def load_model(log_path=‘/mnt/4T/lzq/IconFlowPaper/checkpoints/normal_model.pt’): global train_model state = torch.load(log_path) train_model.load_state_dict(state[‘net’]) @app.route(“/”, methods=[“GET”, “POST”]) def hello(): if request.method == ‘GET’: return render_template(‘upload.html’) @app.route(‘/upload’, methods=[“GET”, “POST”]) def upload_lnk(): if request.method == ‘GET’: return render_template(‘upload.html’) if request.method == ‘POST’: try: file = request.files['uploadimg'] except Exception: return None if file and allowed_file(file.filename): format = "%Y-%m-%dT%H:%M:%S" now = datetime.datetime.utcnow().strftime(format) filename = now + '_' + file.filename filename = secure_filename(filename) basepath = os.path.join( os.path.dirname(file), ‘images’) # 当前文件所在路径 # upload_path = os.path.join(basepath,secure_filename(f.filename)) file.save(os.path.join(basepath, filename)) else: filename = None return filename @app.route(‘/download/string:filename’, methods=[‘GET’]) def download(filename): if request.method == “GET”: if os.path.isfile(os.path.join(basepath, filename)): return send_from_directory(basepath, filename, as_attachment=True) pass def get_contour(img): x = np.array(img) canny = 0 for layer in np.rollaxis(x, -1): canny |= get_canny_feature(layer, 0) canny = canny.astype(np.uint8) * 255 kernel = np.array([ [0, 1, 1, 1, 0], [1, 1, 1, 1, 1], [1, 1, 1, 1, 1], [1, 1, 1, 1, 1], [0, 1, 1, 1, 0], ], dtype=np.uint8) canny = cv2.dilate(canny, kernel) # canny = Image.fromarray(canny) return canny @app.route(‘/embedding//’, methods=[“GET”, “POST”]) def icontran(img, reference): global train_model if request.method == ‘POST’: imgPath = os.path.join(basepath, img) referencePath = os.path.join(basepath, reference) img = cv2.imread(imgPath) if img is None or img.size <= 0: return None contour = get_contour(img).astype(np.float32).copy() contour = 255 - contour reference = cv2.imread(referencePath).astype(np.float32) reference = cv2.cvtColor(reference, cv2.COLOR_BGR2RGB) reference = transform_Normalize(torch.from_numpy(reference).permute(2, 0, 1).unsqueeze(0).float()/ 255.0) contour = transform_Normalize(torch.from_numpy(contour).unsqueeze(0).unsqueeze(0).float()/ 255.0) train_model.eval() transfer = train_model(contour, reference) transfer = transfer.squeeze(0) transfer = (transfer + 0.5).clamp(0, 1).mul_(255).permute(1, 2, 0).type(torch.uint8).numpy() transfer = transfer.numpy() cv2.imwrite(imgPath, transfer) return basepath # success if name == “main”: load_model() app.run(host=‘10.21.16.144’, port=9999, debug=True) 用puthon写一个调用这个服务器的gui

import cv2 import numpy as np import os # 提取图像的HOG特征 def get_hog_features(image): hog = cv2.HOGDescriptor() hog_features = hog.compute(image) return hog_features # 加载训练数据集 train_data = [r"I:\18Breakageratecalculation\SVM run\detection_cut\whole\train128"] train_labels = [r"I:\18Breakageratecalculation\SVM run\detection_cut\whole\train128\labels.txt"] num_samples = 681 for i in range(num_samples): img = cv2.imread(str(i).zfill(3)+'.jpg') hog_features = get_hog_features(image) hsv_image = cv2.cvtColor(image, cv2.COLOR_BGR2HSV) color_hist = cv2.calcHist([hsv_image], [0, 1], None, [180, 256], [0, 180, 0, 256]) color_features = cv2.normalize(color_hist, color_hist).flatten() train_data.append(hog_features) train_labels.append(labels[i]) # 训练SVM模型 svm = cv2.ml.SVM_create() svm.setType(cv2.ml.SVM_C_SVC) svm.setKernel(cv2.ml.SVM_LINEAR) svm.train(np.array(train_data), cv2.ml.ROW_SAMPLE, np.array(train_labels)) # 对测试图像进行分类 test_image = cv2.imread('I:\18Breakageratecalculation\mask-slic use\maskSLIC-master\result\split\result2\maskslic2_roi.png', 0) test_features = get_hog_features(test_image) result = svm.predict(test_features.reshape(1,-1)) # 显示分割结果 result_image = np.zeros(test_image.shape, np.uint8) for i in range(test_image.shape[0]): for j in range(test_image.shape[1]): if result[i,j] == 1: result_image[i,j] = 255 cv2.imshow('I:\18Breakageratecalculation\mask-slic use\maskSLIC-master\result\split\result2\Result.png', result_image) cv2.waitKey(0) cv2.destroyAllWindows()

from tkinter import * import cv2 import numpy as np from PIL import ImageGrab from tensorflow.keras.models import load_model from temp import * model = load_model('mnist.h5') image_folder = "img/" root = Tk() root.resizable(0, 0) root.title("HDR") lastx, lasty = None, None image_number = 0 cv = Canvas(root, width=1200, height=480, bg='white') cv.grid(row=0, column=0, pady=2, sticky=W, columnspan=2) def clear_widget(): global cv cv.delete('all') def draw_lines(event): global lastx, lasty x, y = event.x, event.y cv.create_line((lastx, lasty, x, y), width=8, fill='black', capstyle=ROUND, smooth=True, splinesteps=12) lastx, lasty = x, y def activate_event(event): global lastx, lasty cv.bind('<B1-Motion>', draw_lines) lastx, lasty = event.x, event.y cv.bind('<Button-1>', activate_event) def Recognize_Digit(): global image_number filename = f'img_{image_number}.png' root.update() widget = cv x = root.winfo_rootx() + widget.winfo_rootx() y = root.winfo_rooty() + widget.winfo_rooty() x1 = x + widget.winfo_width() y1 = y + widget.winfo_height() print(x, y, x1, y1) # get image and save ImageGrab.grab().crop((x, y, x1, y1)).save(image_folder + filename) image = cv2.imread(image_folder + filename, cv2.IMREAD_COLOR) gray = cv2.cvtColor(image.copy(), cv2.COLOR_BGR2GRAY) ret, th = cv2.threshold( gray, 0, 255, cv2.THRESH_BINARY_INV + cv2.THRESH_OTSU) # contours = cv2.findContours( # th, cv2.RETR_EXTERNAL, cv2.CHAIN_APPROX_SIMPLE)[0] Position = findContours(th) for m in range(len(Position)): # make a rectangle box around each curve cv2.rectangle(th, (Position[m][0], Position[m][1]), ( Position[m][2], Position[m][3]), (255, 0, 0), 1) # Cropping out the digit from the image corresponding to the current contours in the for loop digit = th[Position[m][1]:Position[m] [3], Position[m][0]:Position[m][2]] # Resizing that digit to (18, 18) resized_digit = cv2.resize(digit, (18, 18)) # Padding the digit with 5 pixels of black color (zeros) in each side to finally produce the image of (28, 28) padded_digit = np.pad(resized_digit, ((5, 5), (5, 5)), "constant", constant_values=0) digit = padded_digit.reshape(1, 28, 28, 1) digit = digit / 255.0 pred = model.predict([digit])[0] final_pred = np.argmax(pred) data = str(final_pred) + ' ' + str(int(max(pred) * 100)) + '%' print(data) font = cv2.FONT_HERSHEY_SIMPLEX fontScale = 0.5 color = (255, 0, 0) thickness = 1 cv2.putText(th, data, (Position[m][0], Position[m][1] - 5), font, fontScale, color, thickness) cv2.imshow('image', th) cv2.waitKey(0) cv2.destroyAllWindows() btn_save = Button(text='Recognize Digit', command=Recognize_Digit) btn_save.grid(row=2, column=0, pady=1, padx=1) button_clear = Button(text='Clear Widget', command=clear_widget) button_clear.grid(row=2, column=1, pady=1, padx=1) root.mainloop()

将以下python代码转化为c++版本。import math import cv2 import numpy as np import os thre1=10 thre2=-10 r=60 ang =0 def select_point(image,ang): #根据遥杆方向确定跟踪点坐标 sinA=math.sin(ang) cosA=math.cos(ang) dirBaseX=int(cosA1000) disBaseY=int(-sinA1000) dirValMax=-1000000000 for i in range(len(image)): for j in range(len(image[0])): if image[i][j]==255: dirVal=idisBaseY+jdirBaseX if dirVal>dirValMax: rstRow=i rstCol=j dirValMax=dirVal return [rstCol,rstRow] sequence_path = "./images/" save_path="./out/" for file in os.listdir(sequence_path): filename=os.path.join(sequence_path, file) image=cv2.imread(filename, 0) image=cv2.blur(image,(3,3)) img=np.zeros((len(image), len(image[0])),np.uint8) for i in range(r,len(image)-r): for j in range(r,len(image[0])-r): shizi_1=( int(image[i][j])-int(image[i-r][j])>thre1 and int(image[i][j])-int(image[i][j-r])>thre1 and (int(image[i][j])-int(image[i+r][j])>thre1) and int(image[i][j])-int(image[i][j+r])>thre1 ) xieshizi_1=( int(image[i][j])-int(image[i-r][j-r])<thre2 and int(image[i][j])-int(image[i+r][j-r])<thre2 and int(image[i][j])-int(image[i-r][j+r])<thre2 and int(image[i][j])-int(image[i+r][j+r])<thre2 ) if (shizi_1 or xieshizi_1): img[i][j]=255 else: img[i][j] =0 retval, labels, stats, centroids = cv2.connectedComponentsWithStats(img, connectivity=8) maxVal = 0 index = 0 for i in range(1, len(stats)): if stats[i][4] > maxVal: maxVal = stats[i][4] index = i #x,y,h,w s for i in range(len(labels)): for j in range(len(labels[0])): if labels[i][j]==index: labels[i][j]=255 else: labels[i][j] = 0 img2=np.array(labels) target_x,target_y=select_point(img2,ang) print("跟踪点坐标:{}".format((target_x,target_y))) cv2.imwrite(os.path.join(save_path, file), cv2.circle(image,(int(target_x),int(target_y)),5,(255,255,0),2))

能给一个完整的实例吗,比方说以下python代码:import cv2 import numpy as np # 加载图像 image = cv2.imread("/root/camera/test/v4l2_cap.jpg") # 查看图像中是否存在蓝色和红色 blue_pixels = np.sum(image[:, :, 0]) # 蓝色通道 red_pixels = np.sum(image[:, :, 2]) # 红色通道 colors = "0" if blue_pixels > red_pixels: color = "Blue" elif blue_pixels < red_pixels: color = "Red" else: color = "None" # 将图像转换为灰度图像 gray_image = cv2.cvtColor(image, cv2.COLOR_BGR2GRAY) # 边缘增强 enhanced_image = cv2.Canny(gray_image, 33, 45) # 形态学操作(腐蚀和膨胀) kernel = np.ones((3, 3), np.uint8) edges1 = cv2.dilate(enhanced_image, kernel, iterations=3) # 在灰度图像中检测圆形 circles = cv2.HoughCircles(edges1, cv2.HOUGH_GRADIENT, dp=1, minDist=100, param1=66, param2=25, minRadius=90, maxRadius=185) shape="" if circles is not None: # 在原始图像上绘制检测到的圆 circles = np.uint16(np.around(circles)) for circle in circles[0, :]: x, y, radius = circle[0], circle[1], circle[2] if abs(x - image.shape[1] // 2) > 100: continue shape = "Circle" cv2.circle(image, (x, y), 90, (0, 255, 0), 2) cv2.circle(image, (x, y), 2, (0, 0, 255), 3) else: shape = "None" # 判断是否同时出现 Rectangle 和 Triangle以及颜色是否有红,绿 if color == "Red" and shape != "Circle" : result = 'r' elif color == "Blue" and shape == "Circle" : result = 'b' else: result = 'n' # 打印检测到的形状、颜色 #print(f"Color:{color}") #print(f"shape:{shape}") print(f"Result: {result}") #cv2.imshow("enhanced_image", enhanced_image) #cv2.imshow("edges1", edges1) #cv2.imshow("Image", image) #cv2.waitKey(0) #cv2.destroyAllWindows()

最新推荐

recommend-type

技术资料分享SY8009非常好的技术资料.zip

技术资料分享SY8009非常好的技术资料.zip
recommend-type

技术资料分享ZigBee协议栈的分析与设计非常好的技术资料.zip

技术资料分享ZigBee协议栈的分析与设计非常好的技术资料.zip
recommend-type

IEEE 14总线系统Simulink模型开发指南与案例研究

资源摘要信息:"IEEE 14 总线系统 Simulink 模型是基于 IEEE 指南而开发的,可以用于多种电力系统分析研究,比如短路分析、潮流研究以及互连电网问题等。模型具体使用了 MATLAB 这一数学计算与仿真软件进行开发,模型文件为 Fourteen_bus.mdl.zip 和 Fourteen_bus.zip,其中 .mdl 文件是 MATLAB 的仿真模型文件,而 .zip 文件则是为了便于传输和分发而进行的压缩文件格式。" IEEE 14总线系统是电力工程领域中用于仿真实验和研究的基础测试系统,它是根据IEEE(电气和电子工程师协会)的指南设计的,目的是为了提供一个标准化的测试平台,以便研究人员和工程师可以比较不同的电力系统分析方法和优化技术。IEEE 14总线系统通常包括14个节点(总线),这些节点通过一系列的传输线路和变压器相互连接,以此来模拟实际电网中各个电网元素之间的电气关系。 Simulink是MATLAB的一个附加产品,它提供了一个可视化的环境用于模拟、多域仿真和基于模型的设计。Simulink可以用来模拟各种动态系统,包括线性、非线性、连续时间、离散时间以及混合信号系统,这使得它非常适合电力系统建模和仿真。通过使用Simulink,工程师可以构建复杂的仿真模型,其中就包括了IEEE 14总线系统。 在电力系统分析中,短路分析用于确定在特定故障条件下电力系统的响应。了解短路电流的大小和分布对于保护设备的选择和设置至关重要。潮流研究则关注于电力系统的稳态操作,通过潮流计算可以了解在正常运行条件下各个节点的电压幅值、相位和系统中功率流的分布情况。 在进行互连电网问题的研究时,IEEE 14总线系统也可以作为一个测试案例,研究人员可以通过它来分析电网中的稳定性、可靠性以及安全性问题。此外,它也可以用于研究分布式发电、负载管理和系统规划等问题。 将IEEE 14总线系统的模型文件打包为.zip格式,是一种常见的做法,以减小文件大小,便于存储和传输。在解压.zip文件之后,用户就可以获得包含所有必要组件的完整模型文件,进而可以在MATLAB的环境中加载和运行该模型,进行上述提到的多种电力系统分析。 总的来说,IEEE 14总线系统 Simulink模型提供了一个有力的工具,使得电力系统的工程师和研究人员可以有效地进行各种电力系统分析与研究,并且Simulink模型文件的可复用性和可视化界面大大提高了工作的效率和准确性。
recommend-type

管理建模和仿真的文件

管理Boualem Benatallah引用此版本:布阿利姆·贝纳塔拉。管理建模和仿真。约瑟夫-傅立叶大学-格勒诺布尔第一大学,1996年。法语。NNT:电话:00345357HAL ID:电话:00345357https://theses.hal.science/tel-003453572008年12月9日提交HAL是一个多学科的开放存取档案馆,用于存放和传播科学研究论文,无论它们是否被公开。论文可以来自法国或国外的教学和研究机构,也可以来自公共或私人研究中心。L’archive ouverte pluridisciplinaire
recommend-type

【数据安全黄金法则】:R语言中party包的数据处理与隐私保护

![【数据安全黄金法则】:R语言中party包的数据处理与隐私保护](https://media.geeksforgeeks.org/wp-content/uploads/20220603131009/Group42.jpg) # 1. 数据安全黄金法则与R语言概述 在当今数字化时代,数据安全已成为企业、政府机构以及个人用户最为关注的问题之一。数据安全黄金法则,即最小权限原则、加密保护和定期评估,是构建数据保护体系的基石。通过这一章节,我们将介绍R语言——一个在统计分析和数据科学领域广泛应用的编程语言,以及它在实现数据安全策略中所能发挥的独特作用。 ## 1.1 R语言简介 R语言是一种
recommend-type

Takagi-Sugeno模糊控制方法的原理是什么?如何设计一个基于此方法的零阶或一阶模糊控制系统?

Takagi-Sugeno模糊控制方法是一种特殊的模糊推理系统,它通过一组基于规则的模糊模型来逼近系统的动态行为。与传统的模糊控制系统相比,该方法的核心在于将去模糊化过程集成到模糊推理中,能够直接提供系统的精确输出,特别适合于复杂系统的建模和控制。 参考资源链接:[Takagi-Sugeno模糊控制原理与应用详解](https://wenku.csdn.net/doc/2o97444da0?spm=1055.2569.3001.10343) 零阶Takagi-Sugeno系统通常包含基于规则的决策,它不包含系统的动态信息,适用于那些系统行为可以通过一组静态的、非线性映射来描述的场合。而一阶
recommend-type

STLinkV2.J16.S4固件更新与应用指南

资源摘要信息:"STLinkV2.J16.S4固件.zip包含了用于STLinkV2系列调试器的JTAG/SWD接口固件,具体版本为J16.S4。固件文件的格式为二进制文件(.bin),适用于STMicroelectronics(意法半导体)的特定型号的调试器,用于固件升级或更新。" STLinkV2.J16.S4固件是指针对STLinkV2系列调试器的固件版本J16.S4。STLinkV2是一种常用于编程和调试STM32和STM8微控制器的调试器,由意法半导体(STMicroelectronics)生产。固件是指嵌入在设备硬件中的软件,负责执行设备的低级控制和管理任务。 固件版本J16.S4中的"J16"可能表示该固件的修订版本号,"S4"可能表示次级版本或是特定于某个系列的固件。固件版本号可以用来区分不同时间点发布的更新和功能改进,开发者和用户可以根据需要选择合适的版本进行更新。 通常情况下,固件升级可以带来以下好处: 1. 增加对新芯片的支持:随着新芯片的推出,固件升级可以使得调试器能够支持更多新型号的微控制器。 2. 提升性能:修复已知的性能问题,提高设备运行的稳定性和效率。 3. 增加新功能:可能包括对调试协议的增强,或是新工具的支持。 4. 修正错误:对已知错误进行修正,提升调试器的兼容性和可靠性。 使用STLinkV2.J16.S4固件之前,用户需要确保固件与当前的硬件型号兼容。更新固件的步骤大致如下: 1. 下载固件文件STLinkV2.J16.S4.bin。 2. 打开STLink的软件更新工具(可能是ST-Link Utility),该工具由STMicroelectronics提供,用于管理固件更新过程。 3. 通过软件将下载的固件文件导入到调试器中。 4. 按照提示完成固件更新过程。 在进行固件更新之前,强烈建议用户仔细阅读相关的更新指南和操作手册,以避免因操作不当导致调试器损坏。如果用户不确定如何操作,应该联系设备供应商或专业技术人员进行咨询。 固件更新完成后,用户应该检查调试器是否能够正常工作,并通过简单的测试项目验证固件的功能是否正常。如果存在任何问题,应立即停止使用并联系技术支持。 固件文件通常位于STMicroelectronics官方网站或专门的软件支持平台上,用户可以在这里下载最新的固件文件,以及获得技术支持和更新日志。STMicroelectronics网站上还会提供固件更新工具,它是更新固件的必备工具。 由于固件涉及到硬件设备的底层操作,错误的固件升级可能会导致设备变砖(无法使用)。因此,在进行固件更新之前,用户应确保了解固件更新的风险,备份好重要数据,并在必要时寻求专业帮助。
recommend-type

"互动学习:行动中的多样性与论文攻读经历"

多样性她- 事实上SCI NCES你的时间表ECOLEDO C Tora SC和NCESPOUR l’Ingén学习互动,互动学习以行动为中心的强化学习学会互动,互动学习,以行动为中心的强化学习计算机科学博士论文于2021年9月28日在Villeneuve d'Asq公开支持马修·瑟林评审团主席法布里斯·勒菲弗尔阿维尼翁大学教授论文指导奥利维尔·皮耶昆谷歌研究教授:智囊团论文联合主任菲利普·普雷教授,大学。里尔/CRISTAL/因里亚报告员奥利维耶·西格德索邦大学报告员卢多维奇·德诺耶教授,Facebook /索邦大学审查员越南圣迈IMT Atlantic高级讲师邀请弗洛里安·斯特鲁布博士,Deepmind对于那些及时看到自己错误的人...3谢谢你首先,我要感谢我的两位博士生导师Olivier和Philippe。奥利维尔,"站在巨人的肩膀上"这句话对你来说完全有意义了。从科学上讲,你知道在这篇论文的(许多)错误中,你是我可以依
recommend-type

【R语言高级用户指南】:10个理由让你深入挖掘party包的潜力

![R语言数据包使用详细教程party](https://img-blog.csdnimg.cn/5e7ce3f9b32744a09bcb208e42657e86.png?x-oss-process=image/watermark,type_d3F5LXplbmhlaQ,shadow_50,text_Q1NETiBA5aSa5Yqg54K56L6j5Lmf5rKh5YWz57O7,size_20,color_FFFFFF,t_70,g_se,x_16#pic_center) # 1. R语言和party包简介 R语言是一种广泛用于统计分析和数据可视化领域的编程语言。作为一种开源工具,它拥有庞
recommend-type

在设计基于80C51单片机和PCF8563的电子时钟时,如何编写中断服务程序以确保时间的精确更新和防止定时器溢出?

在设计电子时钟系统时,编写中断服务程序是确保时间精确更新和防止定时器溢出的关键步骤。首先,我们需要了解PCF8563的工作原理,它是一个实时时钟(RTC)芯片,能够通过I²C接口与80C51单片机通信。PCF8563具有内部振荡器和可编程计数器,可以通过编程设置定时器中断。 参考资源链接:[基于80C51与PCF8563的单片机电子时钟设计详解](https://wenku.csdn.net/doc/18at3ddgzi?spm=1055.2569.3001.10343) 要编写中断服务程序,你需要按照以下步骤操作: 1. **初始化定时器**:首先,需要初始化80C51的定时器模块,包