AssertionError: train: No labels found in D:\YOLO\datasets\Armor\labels\1.cache, can not start training.

时间: 2023-11-29 08:04:01 浏览: 1104
这个错误提示表明在训练YOLO模型时,找不到训练数据集中的标签文件。解决这个问题的方法如下: 1. 确认标签文件是否存在,标签文件应该与图像文件在同一目录下,且文件名相同,只是扩展名不同。标签文件的扩展名通常为.txt,每个文件应包含与其对应的图像文件中所有对象的标签信息。 2. 确认标签文件的格式是否正确。YOLO模型要求标签文件的格式为每行一个对象,每行包含对象的类别和位置信息。位置信息应该是相对于图像宽度和高度的归一化坐标,即左上角和右下角的坐标值应该在0到1之间。 3. 确认训练脚本中的数据集路径和标签文件路径是否正确。如果数据集路径或标签文件路径不正确,就会导致找不到标签文件的错误。 4. 修改datasets.py文件。在该文件中,需要将标签文件的路径替换为正确的路径。具体来说,需要将datasets.py文件中的JPEGImages替换为标签文件所在的目录。 以下是修改后的datasets.py文件的示例代码: ```python import glob import os import numpy as np import torch from PIL import Image from torch.utils.data import Dataset class LoadImagesAndLabels(Dataset): # for training/testing def __init__(self, path, img_size=640, batch_size=16, augment=False, hyp=None, rect=False, image_weights=False, cache_images=False, single_cls=False): path = str(Path(path)) # os-agnostic assert os.path.isfile(path), f'File not found {path}' with open(path, 'r') as f: self.img_files = [x.replace('\n', '') for x in f.readlines() if os.path.isfile(x.replace('\n', ''))] assert self.img_files, f'No images found in {path}' self.label_files = [x.replace('images', 'labels').replace('.png', '.txt').replace('.jpg', '.txt') .replace('.jpeg', '.txt') for x in self.img_files] self.img_size = img_size self.batch_size = batch_size self.augment = augment self.hyp = hyp self.rect = rect self.image_weights = image_weights self.cache_images = cache_images self.single_cls = single_cls def __len__(self): return len(self.img_files) def __getitem__(self, index): img_path = self.img_files[index % len(self.img_files)].rstrip() label_path = self.label_files[index % len(self.img_files)].rstrip() # Load image img = None if self.cache_images: # option 1 - caches small/medium images img = self.imgs[index % len(self.imgs)] if img is None: # option 2 - loads large images on-the-fly img = Image.open(img_path).convert('RGB') if self.cache_images: if img.size[0] < 640 or img.size[1] < 640: # if one side is < 640 img = img.resize((640, 640)) # resize self.imgs[index % len(self.imgs)] = img # save assert img.size[0] > 9, f'Width must be >9 pixels {img_path}' assert img.size[1] > 9, f'Height must be >9 pixels {img_path}' # Load labels targets = None if os.path.isfile(label_path): with open(label_path, 'r') as f: x = np.array([x.split() for x in f.read().splitlines()], dtype=np.float32) # Normalized xywh to pixel xyxy format labels = x.copy() if x.size > 0: labels[:, 1] = x[:, 1] * img.width # xmin labels[:, 2] = x[:, 2] * img.height # ymin labels[:, 3] = x[:, 3] * img.width # xmax labels[:, 4] = x[:, 4] * img.height # ymax labels[:, 1:5] = xywh2xyxy(labels[:, 1:5]) # xywh to xyxy targets = torch.zeros((len(labels), 6)) targets[:, 1:] = torch.from_numpy(labels) # Apply augmentations if self.augment: img, targets = random_affine(img, targets, degrees=self.hyp['degrees'], translate=self.hyp['translate'], scale=self.hyp['scale'], shear=self.hyp['shear'], border=self.img_size // 2) # border to remove # Letterbox img, ratio, pad = letterbox(img, new_shape=self.img_size, auto=self.rect, scaleup=self.augment, stride=self.hyp['stride']) targets[:, 2:6] = xyxy2xywh(targets[:, 2:6]) / self.img_size / ratio # normalized xywh (to grid cell) # Load into tensor img = np.array(img).transpose(2, 0, 1) # HWC to CHW img = torch.from_numpy(img).to(torch.float32) # uint8 to fp16/32 targets = targets[torch.where(targets[:, 0] == index % len(self.img_files))] # filter by image index return img, targets, index, img_path def coco_index(self, index): """Map dataset index to COCO index (minus 1)""" return int(Path(self.img_files[index]).stem) - 1 @staticmethod def collate_fn(batch): img, label, _, path = zip(*batch) # transposed for i, l in enumerate(label): l[:, 0] = i # add target image index for build_targets() return torch.stack(img, 0), torch.cat(label, 0), path class LoadImages(Dataset): # for inference def __init__(self, path, img_size=640, stride=32, auto=True): path = str(Path(path)) # os-agnostic if os.path.isdir(path): files = sorted(glob.glob('%s/*.*' % path)) elif os.path.isfile(path): files = [path] else: raise Exception(f'Error: {path} does not exist') images = [x for x in files if os.path.splitext(x)[-1].lower() in img_formats] videos = [x for x in files if os.path.splitext(x)[-1].lower() in vid_formats] ni, nv = len(images), len(videos) self.img_size = img_size self.stride = stride self.auto = auto self.video_flag = [False] * ni + [True] * nv self.img_files = images + videos self.cap = [cv2.VideoCapture(x) for x in videos] self.frame = [None] * nv self.ret = [False] * nv self.path = path def __len__(self): return len(self.img_files) def __getitem__(self, index): if self.video_flag[index]: return self.load_video(index) else: return self.load_image(index) def load_image(self, index): img_path = self.img_files[index] img = cv2.imread(img_path) # BGR assert img is not None, 'Image Not Found ' + img_path h0, w0 = img.shape[:2] # orig hw img = letterbox(img, new_shape=self.img_size, auto=self.auto)[0] img = img[:, :, ::-1].transpose(2, 0, 1) # BGR to RGB, to 3x416x416 img = np.ascontiguousarray(img) return torch.from_numpy(img), index, img_path, (h0, w0) def load_video(self, index): cap = self.cap[index] while True: self.ret[index], frame = cap.read() if not self.ret[index]: break if self.frame[index] is None: self.frame[index] = letterbox(frame, new_shape=self.img_size, auto=self.auto)[0] self.frame[index] = self.frame[index][:, :, ::-1].transpose(2, 0, 1) self.frame[index] = np.ascontiguousarray(self.frame[index]) else: self.frame[index] = torch.cat((self.frame[index][self.stride:], letterbox(frame, new_shape=self.img_size, auto=self.auto)[0]), 0) if self.ret[index]: return self.frame[index], index, self.img_files[index], frame.shape[:2] def __del__(self): if hasattr(self, 'cap'): for c in self.cap: c.release() def letterbox(img, new_shape=640, color=(114, 114, 114), auto=True, scaleFill=False, scaleup=True, stride=32): # Resize and pad image while meeting stride-multiple constraints shape = img.shape[:2] # current shape [height, width] if isinstance(new_shape, int): ratio = float(new_shape) / max(shape) else: ratio = min(float(new_shape[0]) / shape[0], float(new_shape[1]) / shape[1]) if ratio != 1: # always resize down, only resize up if shape < new_shape * 1.5 if scaleup or (ratio < 1 and max(shape) * ratio > stride * 1.5): interp = cv2.INTER_LINEAR if ratio < 1: img = cv2.resize(img, (int(round(shape[1] * ratio)), int(round(shape[0] * ratio))), interpolation=interp) else: img = cv2.resize(img, (int(round(shape[1] * ratio)), int(round(shape[0] * ratio))), interpolation=interp) else: interp = cv2.INTER_AREA img = cv2.resize(img, (int(round(shape[1] * ratio)), int(round(shape[0] * ratio))), interpolation=interp) new_shape = [round(shape[1] * ratio), round(shape[0] * ratio)] # Compute stride-aligned boxes if auto: stride = int(np.ceil(new_shape[0] / stride) * stride) top_pad = (stride - new_shape[0]) % stride # add top-padding (integer pixels only) left_pad = (stride - new_shape[1]) % stride # add left-padding (integer pixels only) if top_pad or left_pad: img = cv2.copyMakeBorder(img, top_pad // 2, top_pad - top_pad // 2, left_pad // 2, left_pad - left_pad // 2, cv2.BORDER_CONSTANT, value=color) # add border else: stride = 32 top_pad, left_pad = 0, 0 # Pad to rectangular shape divisible by stride h, w = img.shape[:2] if scaleFill or new_shape == (w, h): # scale-up width and height new_img = np.zeros((new_shape[1], new_shape[0], 3), dtype=np.uint8) + color # whole image nh, nw = h, w else: # scale width OR height nh = new_shape[1] - top_pad nw = new_shape[0] - left_pad assert nh > 0 and nw > 0, 'image size < new_size' new_img = np.zeros((new_shape[1], new_shape[0], 3), dtype=np.uint8) + color # whole image if nw / w <= nh / h: # resize by width, then pad height new_w = new_shape[0] new_h = int(nh * new_w / nw) assert new_h > 0, 'image size < new_size' img = cv2.resize(img, (new_w, new_h), interpolation=cv2.INTER_LINEAR) top = top_pad // 2 bottom = top_pad - top left = left_pad // 2 right = left_pad - left new_img[top:top + new_h, left:left + new_w] = img else: # resize by height, then pad width new_h = new_shape[1] new_w = int(nw * new_h / nh) assert new_w > 0, 'image size < new_size' img = cv2.resize(img, (new_w, new_h), interpolation=cv2.INTER_LINEAR) top = top_pad // 2 bottom = top_pad - top left = left_pad // 2 right = left_pad - left new_img[top:top + new_h, left:left + new_w] = img return new_img, ratio, (top_pad, left_pad) def xywh2xyxy(x): # Convert bounding box format from [x, y, w, h] to [x1, y1, x2, y2] y = x.copy() if isinstance(x, np.ndarray) else np.array(x) y[..., 0] = x[..., 0] - x[..., 2] / 2 y[..., 1] = x[..., 1] - x[..., 3] / 2 y[..., 2] = x[..., 0] + x[..., 2] / 2 y[..., 3] = x[..., 1] + x[..., 3] / 2 return y def xyxy2xywh(x): # Convert bounding
阅读全文

相关推荐

最新推荐

recommend-type

java+sql server项目之科帮网计算机配件报价系统源代码.zip

sql server+java项目之科帮网计算机配件报价系统源代码
recommend-type

JavaScript实现的高效pomodoro时钟教程

资源摘要信息:"JavaScript中的pomodoroo时钟" 知识点1:什么是番茄工作法 番茄工作法是一种时间管理技术,它是由弗朗西斯科·西里洛于1980年代末发明的。该技术使用一个定时器来将工作分解为25分钟的块,这些时间块之间短暂休息。每个时间块被称为一个“番茄”,因此得名“番茄工作法”。该技术旨在帮助人们通过短暂的休息来提高集中力和生产力。 知识点2:JavaScript是什么 JavaScript是一种高级的、解释执行的编程语言,它是网页开发中最主要的技术之一。JavaScript主要用于网页中的前端脚本编写,可以实现用户与浏览器内容的交云互动,也可以用于服务器端编程(Node.js)。JavaScript是一种轻量级的编程语言,被设计为易于学习,但功能强大。 知识点3:使用JavaScript实现番茄钟的原理 在使用JavaScript实现番茄钟的过程中,我们需要用到JavaScript的计时器功能。JavaScript提供了两种计时器方法,分别是setTimeout和setInterval。setTimeout用于在指定的时间后执行一次代码块,而setInterval则用于每隔一定的时间重复执行代码块。在实现番茄钟时,我们可以使用setInterval来模拟每25分钟的“番茄时间”,使用setTimeout来控制每25分钟后的休息时间。 知识点4:如何在JavaScript中设置和重置时间 在JavaScript中,我们可以使用Date对象来获取和设置时间。Date对象允许我们获取当前的日期和时间,也可以让我们创建自己的日期和时间。我们可以通过new Date()创建一个新的日期对象,并使用Date对象提供的各种方法,如getHours(), getMinutes(), setHours(), setMinutes()等,来获取和设置时间。在实现番茄钟的过程中,我们可以通过获取当前时间,然后加上25分钟,来设置下一个番茄时间。同样,我们也可以通过获取当前时间,然后减去25分钟,来重置上一个番茄时间。 知识点5:实现pomodoro-clock的基本步骤 首先,我们需要创建一个定时器,用于模拟25分钟的工作时间。然后,我们需要在25分钟结束后提醒用户停止工作,并开始短暂的休息。接着,我们需要为用户的休息时间设置另一个定时器。在用户休息结束后,我们需要重置定时器,开始下一个工作周期。在这个过程中,我们需要为每个定时器设置相应的回调函数,以处理定时器触发时需要执行的操作。 知识点6:使用JavaScript实现pomodoro-clock的优势 使用JavaScript实现pomodoro-clock的优势在于JavaScript的轻量级和易学性。JavaScript作为前端开发的主要语言,几乎所有的现代浏览器都支持JavaScript。因此,我们可以很容易地在网页中实现pomodoro-clock,用户只需要打开网页即可使用。此外,JavaScript的灵活性也使得我们可以根据需要自定义pomodoro-clock的各种参数,如工作时间长度、休息时间长度等。
recommend-type

管理建模和仿真的文件

管理Boualem Benatallah引用此版本:布阿利姆·贝纳塔拉。管理建模和仿真。约瑟夫-傅立叶大学-格勒诺布尔第一大学,1996年。法语。NNT:电话:00345357HAL ID:电话:00345357https://theses.hal.science/tel-003453572008年12月9日提交HAL是一个多学科的开放存取档案馆,用于存放和传播科学研究论文,无论它们是否被公开。论文可以来自法国或国外的教学和研究机构,也可以来自公共或私人研究中心。L’archive ouverte pluridisciplinaire
recommend-type

【WebLogic客户端兼容性提升秘籍】:一站式解决方案与实战案例

![WebLogic](https://docs.oracle.com/cd/F28299_01/pt857pbr3/eng/pt/tsvt/img/ia2cf27cn-7b68.png) # 摘要 WebLogic作为一款广泛使用的中间件产品,其客户端兼容性对于企业应用至关重要。本文从基本概念出发,系统地介绍了WebLogic的架构、组件以及兼容性问题的分类和影响。通过深入分析兼容性测试方法和诊断分析技术,探讨了如何有效地识别和解决客户端兼容性问题。进一步,本文提出了提升兼容性的策略,包括代码层面的设计、配置管理、补丁升级以及快速响应流程。最后,结合实战案例,本文详细说明了解决方案的实施过
recommend-type

使用jupyter读取文件“近5年考试人数.csv”,绘制近5年高考及考研人数发展趋势图,数据如下(单位:万人)。

在Jupyter Notebook中读取CSV文件并绘制图表,通常需要几个步骤: 1. 首先,你需要导入必要的库,如pandas用于数据处理,matplotlib或seaborn用于数据可视化。 ```python import pandas as pd import matplotlib.pyplot as plt ``` 2. 使用`pd.read_csv()`函数加载CSV文件: ```python df = pd.read_csv('近5年考试人数.csv') ``` 3. 确保数据已经按照年份排序,如果需要的话,可以添加这一行: ```python df = df.sor
recommend-type

CMake 3.25.3版本发布:程序员必备构建工具

资源摘要信息:"Cmake-3.25.3.zip文件是一个包含了CMake软件版本3.25.3的压缩包。CMake是一个跨平台的自动化构建系统,用于管理软件的构建过程,尤其是对于C++语言开发的项目。CMake使用CMakeLists.txt文件来配置项目的构建过程,然后可以生成不同操作系统的标准构建文件,如Makefile(Unix系列系统)、Visual Studio项目文件等。CMake广泛应用于开源和商业项目中,它有助于简化编译过程,并支持生成多种开发环境下的构建配置。 CMake 3.25.3版本作为该系列软件包中的一个点,是CMake的一个稳定版本,它为开发者提供了一系列新特性和改进。随着版本的更新,3.25.3版本可能引入了新的命令、改进了用户界面、优化了构建效率或解决了之前版本中发现的问题。 CMake的主要特点包括: 1. 跨平台性:CMake支持多种操作系统和编译器,包括但不限于Windows、Linux、Mac OS、FreeBSD、Unix等。 2. 编译器独立性:CMake生成的构建文件与具体的编译器无关,允许开发者在不同的开发环境中使用同一套构建脚本。 3. 高度可扩展性:CMake能够使用CMake模块和脚本来扩展功能,社区提供了大量的模块以支持不同的构建需求。 4. CMakeLists.txt:这是CMake的配置脚本文件,用于指定项目源文件、库依赖、自定义指令等信息。 5. 集成开发环境(IDE)支持:CMake可以生成适用于多种IDE的项目文件,例如Visual Studio、Eclipse、Xcode等。 6. 命令行工具:CMake提供了命令行工具,允许用户通过命令行对构建过程进行控制。 7. 可配置构建选项:CMake支持构建选项的配置,使得用户可以根据需要启用或禁用特定功能。 8. 包管理器支持:CMake可以从包管理器中获取依赖,并且可以使用FetchContent或ExternalProject模块来获取外部项目。 9. 测试和覆盖工具:CMake支持添加和运行测试,并集成代码覆盖工具,帮助开发者对代码进行质量控制。 10. 文档和帮助系统:CMake提供了一个内置的帮助系统,可以为用户提供命令和变量的详细文档。 CMake的安装和使用通常分为几个步骤: - 下载并解压对应平台的CMake软件包。 - 在系统中配置CMake的环境变量,确保在命令行中可以全局访问cmake命令。 - 根据项目需要编写CMakeLists.txt文件。 - 在含有CMakeLists.txt文件的目录下执行cmake命令生成构建文件。 - 使用生成的构建文件进行项目的构建和编译工作。 CMake的更新和迭代通常会带来更好的用户体验和更高效的构建过程。对于开发者而言,及时更新到最新稳定版本的CMake是保持开发效率和项目兼容性的重要步骤。而对于新用户,掌握CMake的使用则是学习现代软件构建技术的一个重要方面。"
recommend-type

"互动学习:行动中的多样性与论文攻读经历"

多样性她- 事实上SCI NCES你的时间表ECOLEDO C Tora SC和NCESPOUR l’Ingén学习互动,互动学习以行动为中心的强化学习学会互动,互动学习,以行动为中心的强化学习计算机科学博士论文于2021年9月28日在Villeneuve d'Asq公开支持马修·瑟林评审团主席法布里斯·勒菲弗尔阿维尼翁大学教授论文指导奥利维尔·皮耶昆谷歌研究教授:智囊团论文联合主任菲利普·普雷教授,大学。里尔/CRISTAL/因里亚报告员奥利维耶·西格德索邦大学报告员卢多维奇·德诺耶教授,Facebook /索邦大学审查员越南圣迈IMT Atlantic高级讲师邀请弗洛里安·斯特鲁布博士,Deepmind对于那些及时看到自己错误的人...3谢谢你首先,我要感谢我的两位博士生导师Olivier和Philippe。奥利维尔,"站在巨人的肩膀上"这句话对你来说完全有意义了。从科学上讲,你知道在这篇论文的(许多)错误中,你是我可以依
recommend-type

数字信号处理全攻略:掌握15个关键技巧,提升你的处理效率

![数字信号处理全攻略:掌握15个关键技巧,提升你的处理效率](https://img-blog.csdnimg.cn/img_convert/ea0cc949288a77f9bc8dde5da6514979.png) # 摘要 数字信号处理作为信息科技领域的重要分支,涵盖了从基础理论到高级应用的广泛内容。本文首先介绍了数字信号处理的基础知识,包括基本概念、时域与频域分析、以及核心算法和理论框架。接着,详细探讨了实现信号采样和量化、滤波器设计、以及信号增强和重建实践技巧。文章进一步深入到高级应用,包括信号压缩技术、多维信号处理,以及人工智能技术在信号处理中的集成。最后,本文评述了数字信号处理
recommend-type

给定不超过6的正整数A,考虑从A开始的连续4个数字。请输出所有由它们组成的无重复数字的3位数。编写一个C语言程序

为了编写一个C语言程序来解决这个问题,我们需要遍历给定范围内的所有连续4个数字,并检查每个组合是否能构成一个无重复数字的三位数。这里是一个简单的示例程序: ```c #include <stdio.h> // 函数定义,用于生成并检查无重复数字的3位数 void generate_unique_3_digit(int A) { for (int i = A; i <= A + 3; i++) { int num = i * 100 + (i+1) * 10 + (i+2); if (num >= 100 && num < 1000 && is_uni
recommend-type

直流无刷电机控制技术项目源码集合

资源摘要信息:"直流无刷实例源码.zip" 该资源为一个包含多个技术项目源码的压缩文件,涵盖了IT技术的多个领域。接下来将详细介绍这些领域,并对其在源码中的应用进行说明。 1. 前端开发:前端开发通常指使用HTML、CSS和JavaScript等技术进行网页界面的构建。前端源码可能包括实现用户交互界面的代码,响应式布局实现,以及一些前端框架(如React或Vue.js)的使用实例。 2. 后端开发:后端通常涉及服务器端的编程,使用如PHP、Java、Python、C#等语言,处理HTTP请求、数据库交互、业务逻辑实现等。源码中可能包含服务器的搭建、数据库设计、API接口的实现等方面的内容。 3. 移动开发:移动开发关注于移动设备上的应用开发,涉及iOS、Android等平台,使用Swift、Kotlin、Java或跨平台框架如Flutter等。源码可能包括移动界面的布局、触摸事件处理、应用与后端数据的交互等。 4. 操作系统:操作系统源码可能包括对Linux内核的修改、或是基于RTOS(实时操作系统)的嵌入式系统开发。这类源码往往更偏向底层,涉及系统级编程。 5. 人工智能:人工智能项目源码可能包含机器学习、深度学习的实现,使用Python的TensorFlow或PyTorch框架等。这些源码可能涉及图像识别、自然语言处理等复杂算法的实现。 6. 物联网:物联网项目源码可能包含设备端与云平台的数据交互,使用的技术可能包括MQTT协议、HTTP/HTTPS协议等,可能还会涉及ESP8266这样的Wi-Fi模块使用。 7. 信息化管理:这类项目源码可能包含企业信息系统的构建,使用的技术可能包括数据库操作、数据报表生成、工作流管理等。 8. 数据库:数据库源码可能包括数据库的设计、操作,比如使用MySQL、PostgreSQL、MongoDB等数据库系统的SQL编写、存储过程、触发器等。 9. 硬件开发:硬件开发源码可能涉及使用STM32微控制器、EDA工具(如Proteus)进行电路设计、模拟和编程。 10. 大数据:大数据源码可能包含数据采集、存储、处理和分析的过程,可能会用到Hadoop、Spark、Flink等大数据处理框架。 11. 课程资源:这部分源码可能是为教学目的设计的,它可能包括一些基本项目的实现,适合初学者学习和理解。 12. 音视频:音视频源码可能包括音视频播放、录制、编解码等技术的应用,可能涉及到webRTC、FFmpeg等技术。 13. 网站开发:网站开发源码可能包括从简单的静态页面到复杂的动态网站实现,涉及前端框架、后端逻辑、数据库交互等。 14. EDA:电子设计自动化(EDA)源码可能包括电路图设计、PCB布线等,使用如Altium Designer、Eagle等专业EDA工具。 15. Proteus:Proteus源码可能包括电路的模拟和测试,它可以模拟微控制器和其他电子元件的行为。 该资源所包含的项目源码均已通过严格测试,可以直接运行。源码的适用人群广泛,不仅适合初学者学习不同技术领域,也适合进阶学习者或专业人士作为参考或直接拿来修改扩展,实现新功能。所有源码的上传都经过确认其正常工作,确保下载者可以直接使用。 在使用这些源码时,如果遇到任何问题,可以随时与博主沟通,博主将提供及时的解答。此外,鼓励用户下载和使用这些资源,互相学习、共同进步。 由于压缩文件的文件名称列表中只提供了"直流无刷实例源码",没有具体项目名称,因此我们无法得知具体的项目实例。然而,根据文件描述,我们可以确定这些源码项目覆盖了从硬件到软件、从传统应用到现代技术的广泛范围,并且针对了直流无刷电机的控制实例进行了特别的说明。 请注意,由于资源的宽泛涵盖性,这里提供的信息并不包含特定项目的详细分析,而是根据描述中的关键词进行了技术领域的概括性描述。如果需要针对具体项目进行分析,建议下载资源并根据具体文件内容进行详细探讨。