torch.full((num_anchors,), -1, dtype=torch.long, device=device)

时间: 2024-06-05 17:13:18 浏览: 88
这行代码使用 PyTorch 创建一个形状为 (num_anchors,),数据类型为 long,所有元素均为 -1 的张量,并将其存储在指定的设备上(如 GPU)。在目标检测中,通常会将这个张量用作目标检测算法输出的分类预测中的背景类别的索引。由于背景类别没有对应的物体,因此将其索引设置为 -1,以便在后续处理中将其忽略。
相关问题

anchors_bbox_map = torch.full((num_anchors,), -1, dtype=torch.long, device=device)

这行代码创建了一个形状为 `(num_anchors,)` 的张量 `anchors_bbox_map`,并将其用数值 -1 填充整个张量。具体来说,这个张量的每个元素都表示一个 anchor 与哪个 ground-truth box 匹配,如果该 anchor 没有匹配到任何一个 ground-truth box,则对应的元素值为 -1。 这里,`dtype=torch.long` 表示创建的张量的数据类型为 64 位整型,`device=device` 表示创建的张量将被放在指定的设备上(可能是 GPU 或 CPU)。

yolov7 common.py 源码

以下是 YOLOv7 的 common.py 源码: ```python import math import torch.nn.functional as F import torch.nn as nn import torch def make_divisible(x, divisor): # Returns x evenly divisible by divisor return math.ceil(x / divisor) * divisor def autopad(k, p=None): # kernel, padding # Pad to 'same' if p is None: p = k // 2 if isinstance(k, int) else [x // 2 for x in k] return p class Conv(nn.Module): # Standard convolution def __init__(self, c1, c2, k=1, s=1, p=None, g=1, act=True): super(Conv, self).__init__() self.conv = nn.Conv2d(c1, c2, k, stride=s, padding=autopad(k, p), groups=g, bias=False) self.bn = nn.BatchNorm2d(c2) self.act = nn.Hardswish() if act else nn.Identity() def forward(self, x): return self.act(self.bn(self.conv(x))) class Bottleneck(nn.Module): # Standard bottleneck def __init__(self, c1, c2, shortcut=True, g=1, e=0.5): super(Bottleneck, self).__init__() c_ = int(c2 * e) # hidden channels self.cv1 = Conv(c1, c_, 1, 1) self.cv2 = Conv(c_, c2, 3, 1, g=g) self.add = shortcut and c1 == c2 self.identity = nn.Identity() if self.add else None def forward(self, x): return self.identity(x) + self.cv2(self.cv1(x)) class SPP(nn.Module): # Spatial pyramid pooling layer used in YOLOv3-SPP def __init__(self, c1, c2, k=(5, 9, 13)): super(SPP, self).__init__() c_ = c1 // 2 # hidden channels self.cv1 = Conv(c1, c_, 1, 1) self.cv2 = Conv(c_ * (len(k) + 1), c2, 1, 1) self.m = nn.ModuleList([nn.MaxPool2d(kernel_size=x, stride=1, padding=x // 2) for x in k]) def forward(self, x): x = self.cv1(x) return self.cv2(torch.cat([x] + [m(x) for m in self.m], 1)) class DWConv(nn.Module): # Depthwise convolution def __init__(self, c1, c2, k=1, s=1, p=None): super(DWConv, self).__init__() self.conv = nn.Conv2d(c1, c1, k, stride=s, padding=autopad(k, p), groups=c1, bias=False) self.bn = nn.BatchNorm2d(c1) self.act = nn.Hardswish() self.project = nn.Conv2d(c1, c2, 1, bias=False) self.bn2 = nn.BatchNorm2d(c2) self.act2 = nn.Hardswish() def forward(self, x): return self.act2(self.bn2(self.project(self.act(self.bn(self.conv(x)))))) class Focus(nn.Module): # Focus wh information into c-space def __init__(self, c1, c2, k=1, s=1, p=None, g=1, act=True): super(Focus, self).__init__() self.conv = Conv(c1 * 4, c2, k, s, p, g, act) def forward(self, x): # x(b,c,w,h) -> y(b,4c,w/2,h/2) return self.conv(torch.cat([x[..., ::2, ::2], x[..., 1::2, ::2], x[..., ::2, 1::2], x[..., 1::2, 1::2]], 1)) class Concat(nn.Module): # Concatenate a list of tensors along dimension def __init__(self, dimension=1): super(Concat, self).__init__() self.d = dimension def forward(self, x): return torch.cat(x, self.d) class Detect(nn.Module): # Detect layer def __init__(self, nc, anchors): super(Detect, self).__init__() self.nc = nc # number of classes self.no = nc + 5 # number of outputs per anchor self.na = len(anchors) # number of anchors self.anchors = torch.tensor(anchors).float().view(self.na, -1) self.anchors /= self.anchors.sum(1).view(self.na, 1) # normalized anchors self.register_buffer("anchor_grid", self.anchors.clone().view(1, -1, 1, 1)) self.m = nn.Conv2d(self.no * self.na, self.no * self.na, 1) # prediction conv def forward(self, x): # x(bs,255,h,w) -> p(bs,3,85,h,w) bs, _, ny, nx = x.shape device, dtype = x.device, x.dtype stride = self.anchor_grid.device / torch.tensor([nx, ny])[None, :, None, None].to(device) grid = torch.meshgrid([torch.arange(ny), torch.arange(nx)]) y = torch.stack(grid, 2).to(device).float() x = (x.sigmoid() * 2. - 0.5) * stride # x(?,255,?,?) --sig--> x(?,255,?,?) --*2-0.5--> x(?,255,?,?) --*stride--> x(?,255,?,?) y = (y + 0.5) * stride # y(?,2,?,?) --+0.5--> y(?,2,?,?) --*stride--> y(?,2,?,?) xy = torch.stack([x, y], 2).view(bs, 2, self.na * ny * nx).permute(0, 2, 1).contiguous().view(bs, self.na * ny * nx, 2) x = self.m(x.flatten(2).permute(0, 2, 1)).view(bs, self.na, self.no, ny, nx).permute(0, 1, 3, 4, 2).contiguous() # x(bs,na,ny,nx,na) --view--> x(bs,na,ny,nx,no) --permute--> x(bs,na,ny,nx,no) if not self.training: x[..., 4:] = x[..., 4:].sigmoid() return x else: # train return x, xy, self.anchor_grid.repeat(bs, 1, ny, nx) class Model(nn.Module): # YOLOv7 model https://github.com/WongKinYiu/yolov7 def __init__(self, nc=80, anchors=((10, 13), (16, 30), (33, 23), (30, 61), (62, 45), (59, 119), (116, 90), (156, 198), (373, 326)), ch=[256, 512, 1024, 2048], depth=0.33): super(Model, self).__init__() assert depth in [0.33, 0.67, 1.0] self.depth = depth # model depth multiplier self.grid = [torch.zeros(1)] * 5 # init grid self.stride = torch.tensor([8., 16., 32., 64., 128.]) self.create_backbone(ch) self.create_neck() self.create_head(nc, anchors) def forward(self, x): z = [] for i in range(5): x = self.backbone[i](x) z.append(x) x = self.neck(z) return self.head(x) def create_backbone(self, ch): # darknet backbone self.backbone = nn.ModuleList([Focus(3, ch[0], 3), Conv(ch[0], ch[1], 3, 2), Bottleneck(ch[1], ch[2]), Conv(ch[2], ch[3], 3, 2), Bottleneck(ch[3], ch[4]), Conv(ch[4], ch[5], 3, 2), SPP(ch[5], ch[5]), Bottleneck(ch[5], ch[6]), Conv(ch[6], ch[7], 1)]) c2 = make_divisible(ch[7] * self.depth) # ch_last self.backbone.append(Bottleneck(ch[7], c2, False)) self.out_channels = [c2, ch[4], ch[2], ch[0]] def create_neck(self): # FPN-like attentional output self.neck = nn.Sequential( Concat(), Conv(self.out_channels[0], self.out_channels[0], 1), DWConv(self.out_channels[0], self.out_channels[1], 3, s=2), DWConv(self.out_channels[1], self.out_channels[2], 3, s=2), DWConv(self.out_channels[2], self.out_channels[3], 3, s=2), SPP(self.out_channels[3], self.out_channels[3]), DWConv(self.out_channels[3], self.out_channels[3], 3, dilation=3), DWConv(self.out_channels[3], self.out_channels[3], 3, dilation=3), DWConv(self.out_channels[3], self.out_channels[3], 3, dilation=3), ) def create_head(self, nc, anchors): # detection head self.head = nn.Sequential( DWConv(self.out_channels[3], self.out_channels[3], 3, dilation=3), DWConv(self.out_channels[3], self.out_channels[3], 3, dilation=3), DWConv(self.out_channels[3], self.out_channels[3], 3, dilation=3), Concat(), Conv(self.out_channels[3] * 4, self.out_channels[3], 1), nn.Conv2d(self.out_channels[3], len(anchors) * (nc + 5), 1, bias=True), Detect(nc, anchors)) def attempt_load(weights, map_location=None, inplace=True): # Loads an ensemble of models weights=[a,b,c] or a single model weights=[a] or weights=a if isinstance(weights, (list, tuple)): # Load a list of models (ensemble) ensemble = nn.ModuleList() for w in weights: model = Model() model.to(next(w.parameters()).device) try: ckpt = torch.load(w, map_location=map_location) # load state_dict = ckpt['model'].float().state_dict() # to FP32 state_dict = {k: v for k, v in state_dict.items() if model.state_dict()[k].shape == v.shape} # filter model.load_state_dict(state_dict, strict=False) # load print(f"Transferred {len(state_dict)} from {w}") except: print(f"Error loading {w}") ensemble.append(model.eval()) return ensemble else: # Load a single model model = Model() model.to(next(weights.parameters()).device) try: ckpt = torch.load(weights, map_location=map_location) # load state_dict = ckpt['model'].float().state_dict() # to FP32 state_dict = {k: v for k, v in state_dict.items() if model.state_dict()[k].shape == v.shape} # filter model.load_state_dict(state_dict, strict=False) # load print(f"Transferred {len(state_dict)} from {weights}") except: print(f"Error loading {weights}") return model.eval() ```
阅读全文

相关推荐

最新推荐

recommend-type

torch-1.7.1+cu110-cp37-cp37m-linux_x86_64.whl离线安装包linux系统x86_64

在本文中,我们将详细讨论如何在Linux x86_64系统上离线安装`torch-1.7.1+cu110`和`torchvision-0.8.2+cu110`,这两个是针对Python 3.7(cp37)的版本,并且集成了CUDA 11.0支持。`torch`是一个广泛使用的深度学习库...
recommend-type

上市公司企业澄清公告数据(2001-2023年) .xlsx

详细介绍及样例数据:https://blog.csdn.net/li514006030/article/details/143896457
recommend-type

(源码)基于Java和MySQL的物联网环境监测系统.zip

# 基于Java和MySQL的物联网环境监测系统 ## 项目简介 本项目是一个基于Java和MySQL的物联网环境监测系统,旨在通过采集、存储和分析环境数据,实现对环境的实时监测和管理。系统涵盖了数据采集、数据存储、数据发送、数据接收、数据备份和日志记录等多个模块,确保数据的完整性和系统的稳定性。 ## 项目的主要特性和功能 1. 数据采集模块 从指定的数据文件(如radwtmp)中读取原始数据,并将其封装成Environment对象。 将多个Environment对象存储到集合中,便于后续处理。 2. 数据存储模块 创建数据库表结构,用于存储环境数据。 将采集到的环境数据批量存储到MySQL数据库中,支持批量处理以优化性能。 3. 网络模块 客户端调用采集模块获取数据,并将数据发送至服务器。 服务器端接收客户端发送的数据,并调用存储模块将数据存入数据库。支持多线程处理,提高并发性能。
recommend-type

深入浅出:自定义 Grunt 任务的实践指南

资源摘要信息:"Grunt 是一个基于 Node.js 的自动化任务运行器,它极大地简化了重复性任务的管理。在前端开发中,Grunt 经常用于压缩文件、运行测试、编译 LESS/SASS、优化图片等。本文档提供了自定义 Grunt 任务的示例,对于希望深入掌握 Grunt 或者已经开始使用 Grunt 但需要扩展其功能的开发者来说,这些示例非常有帮助。" ### 知识点详细说明 #### 1. 创建和加载任务 在 Grunt 中,任务是由 JavaScript 对象表示的配置块,可以包含任务名称、操作和选项。每个任务可以通过 `grunt.registerTask(taskName, [description, ] fn)` 来注册。例如,一个简单的任务可以这样定义: ```javascript grunt.registerTask('example', function() { grunt.log.writeln('This is an example task.'); }); ``` 加载外部任务,可以通过 `grunt.loadNpmTasks('grunt-contrib-jshint')` 来实现,这通常用在安装了新的插件后。 #### 2. 访问 CLI 选项 Grunt 支持命令行接口(CLI)选项。在任务中,可以通过 `grunt.option('option')` 来访问命令行传递的选项。 ```javascript grunt.registerTask('printOptions', function() { grunt.log.writeln('The watch option is ' + grunt.option('watch')); }); ``` #### 3. 访问和修改配置选项 Grunt 的配置存储在 `grunt.config` 对象中。可以通过 `grunt.config.get('configName')` 获取配置值,通过 `grunt.config.set('configName', value)` 设置配置值。 ```javascript grunt.registerTask('printConfig', function() { grunt.log.writeln('The banner config is ' + grunt.config.get('banner')); }); ``` #### 4. 使用 Grunt 日志 Grunt 提供了一套日志系统,可以输出不同级别的信息。`grunt.log` 提供了 `writeln`、`write`、`ok`、`error`、`warn` 等方法。 ```javascript grunt.registerTask('logExample', function() { grunt.log.writeln('This is a log example.'); grunt.log.ok('This is OK.'); }); ``` #### 5. 使用目标 Grunt 的配置可以包含多个目标(targets),这样可以为不同的环境或文件设置不同的任务配置。在任务函数中,可以通过 `this.args` 获取当前目标的名称。 ```javascript grunt.initConfig({ jshint: { options: { curly: true, }, files: ['Gruntfile.js'], my_target: { options: { eqeqeq: true, }, }, }, }); grunt.registerTask('showTarget', function() { grunt.log.writeln('Current target is: ' + this.args[0]); }); ``` #### 6. 异步任务 Grunt 支持异步任务,这对于处理文件读写或网络请求等异步操作非常重要。异步任务可以通过传递一个回调函数给任务函数来实现。若任务是一个异步操作,必须调用回调函数以告知 Grunt 任务何时完成。 ```javascript grunt.registerTask('asyncTask', function() { var done = this.async(); // 必须调用 this.async() 以允许异步任务。 setTimeout(function() { grunt.log.writeln('This is an async task.'); done(); // 任务完成时调用 done()。 }, 1000); }); ``` ### Grunt插件和Gruntfile配置 Grunt 的强大之处在于其插件生态系统。通过 `npm` 安装插件后,需要在 `Gruntfile.js` 中配置这些插件,才能在任务中使用它们。Gruntfile 通常包括任务注册、任务配置、加载外部任务三大部分。 - 任务注册:使用 `grunt.registerTask` 方法。 - 任务配置:使用 `grunt.initConfig` 方法。 - 加载外部任务:使用 `grunt.loadNpmTasks` 方法。 ### 结论 通过上述的示例和说明,我们可以了解到创建一个自定义的 Grunt 任务需要哪些步骤以及需要掌握哪些基础概念。自定义任务的创建对于利用 Grunt 来自动化项目中的各种操作是非常重要的,它可以帮助开发者提高工作效率并保持代码的一致性和标准化。在掌握这些基础知识后,开发者可以更进一步地探索 Grunt 的高级特性,例如子任务、组合任务等,从而实现更加复杂和强大的自动化流程。
recommend-type

管理建模和仿真的文件

管理Boualem Benatallah引用此版本:布阿利姆·贝纳塔拉。管理建模和仿真。约瑟夫-傅立叶大学-格勒诺布尔第一大学,1996年。法语。NNT:电话:00345357HAL ID:电话:00345357https://theses.hal.science/tel-003453572008年12月9日提交HAL是一个多学科的开放存取档案馆,用于存放和传播科学研究论文,无论它们是否被公开。论文可以来自法国或国外的教学和研究机构,也可以来自公共或私人研究中心。L’archive ouverte pluridisciplinaire
recommend-type

数据可视化在缺失数据识别中的作用

![缺失值处理(Missing Value Imputation)](https://img-blog.csdnimg.cn/20190521154527414.PNG?x-oss-process=image/watermark,type_ZmFuZ3poZW5naGVpdGk,shadow_10,text_aHR0cHM6Ly9ibG9nLmNzZG4ubmV0L3l1bmxpbnpp,size_16,color_FFFFFF,t_70) # 1. 数据可视化基础与重要性 在数据科学的世界里,数据可视化是将数据转化为图形和图表的实践过程,使得复杂的数据集可以通过直观的视觉形式来传达信息。它
recommend-type

ABB机器人在自动化生产线中是如何进行路径规划和任务执行的?请结合实际应用案例分析。

ABB机器人在自动化生产线中的应用广泛,其核心在于精确的路径规划和任务执行。路径规划是指机器人根据预定的目标位置和工作要求,计算出最优的移动轨迹。任务执行则涉及根据路径规划结果,控制机器人关节和运动部件精确地按照轨迹移动,完成诸如焊接、装配、搬运等任务。 参考资源链接:[ABB-机器人介绍.ppt](https://wenku.csdn.net/doc/7xfddv60ge?spm=1055.2569.3001.10343) ABB机器人能够通过其先进的控制器和编程软件进行精确的路径规划。控制器通常使用专门的算法,如A*算法或者基于时间最优的轨迹规划技术,以确保机器人运动的平滑性和效率。此
recommend-type

网络物理突变工具的多点路径规划实现与分析

资源摘要信息:"多点路径规划matlab代码-mutationdocker:变异码头工人" ### 知识点概述 #### 多点路径规划与网络物理突变工具 多点路径规划指的是在网络环境下,对多个路径点进行规划的算法或工具。该工具可能被应用于物流、运输、通信等领域,以优化路径和提升效率。网络物理系统(CPS,Cyber-Physical System)结合了计算机网络和物理过程,其中网络物理突变工具是指能够修改或影响网络物理系统中的软件代码的功能,特别是在自动驾驶、智能电网、工业自动化等应用中。 #### 变异与Mutator软件工具 变异(Mutation)在软件测试领域是指故意对程序代码进行小的改动,以此来检测程序测试用例的有效性。mutator软件工具是一种自动化的工具,它能够在编程文件上执行这些变异操作。在代码质量保证和测试覆盖率的评估中,变异分析是提高软件可靠性的有效方法。 #### Mutationdocker Mutationdocker是一个配置为运行mutator的虚拟机环境。虚拟机环境允许用户在隔离的环境中运行软件,无需对现有系统进行改变,从而保证了系统的稳定性和安全性。Mutationdocker的使用为开发者提供了一个安全的测试平台,可以在不影响主系统的情况下进行变异测试。 #### 工具的五个阶段 网络物理突变工具按照以下五个阶段进行操作: 1. **安装工具**:用户需要下载并构建工具,具体操作步骤可能包括解压文件、安装依赖库等。 2. **生成突变体**:使用`./mutator`命令,顺序执行`./runconfiguration`(如果存在更改的config.txt文件)、`make`和工具执行。这个阶段涉及到对原始程序代码的变异生成。 3. **突变编译**:该步骤可能需要编译运行环境的配置,依赖于项目具体情况,可能需要执行`compilerun.bash`脚本。 4. **突变执行**:通过`runsave.bash`脚本执行变异后的代码。这个脚本的路径可能需要根据项目进行相应的调整。 5. **结果分析**:利用MATLAB脚本对变异过程中的结果进行分析,可能需要参考文档中的文件夹结构部分,以正确引用和处理数据。 #### 系统开源 标签“系统开源”表明该项目是一个开放源代码的系统,意味着它被设计为可供任何人自由使用、修改和分发。开源项目通常可以促进协作、透明性以及通过社区反馈来提高代码质量。 #### 文件名称列表 文件名称列表中提到的`mutationdocker-master`可能是指项目源代码的仓库名,表明这是一个主分支,用户可以从中获取最新的项目代码和文件。 ### 详细知识点 1. **多点路径规划**是网络物理系统中的一项重要技术,它需要考虑多个节点或路径点在物理网络中的分布,以及如何高效地规划它们之间的路径,以满足例如时间、成本、距离等优化目标。 2. **突变测试**是软件测试的一种技术,通过改变程序中的一小部分来生成变异体,这些变异体用于测试软件的测试用例集是否能够检测到这些人为的错误。如果测试用例集能够正确地识别出大多数或全部的变异体,那么可以认为测试用例集是有效的。 3. **Mutator软件工具**的使用可以自动化变异测试的过程,包括变异体的生成、编译、执行和结果分析。使用此类工具可以显著提高测试效率,尤其是在大型项目中。 4. **Mutationdocker的使用**提供了一个简化的环境,允许开发者无需复杂的配置就可以进行变异测试。它可能包括了必要的依赖项和工具链,以便快速开始变异测试。 5. **软件的五个操作阶段**为用户提供了清晰的指导,从安装到结果分析,每个步骤都有详细的说明,这有助于减少用户在使用过程中的困惑,并确保操作的正确性。 6. **开源系统的特性**鼓励了代码共享、共同开发和创新,同时也意味着用户可以通过社区的力量不断改进软件工具,这也是开源项目可持续发展的核心。 通过以上描述和知识点的展开,我们可以了解到多点路径规划matlab代码-mutationdocker:变异码头工人是一个涵盖了网络物理系统、变异测试、自动化软件工具以及开源精神的综合性项目。它通过一系列操作流程为用户提供了一个高效和稳定的代码测试环境,并且以开源的形式促进了软件测试技术的共享和创新。
recommend-type

"互动学习:行动中的多样性与论文攻读经历"

多样性她- 事实上SCI NCES你的时间表ECOLEDO C Tora SC和NCESPOUR l’Ingén学习互动,互动学习以行动为中心的强化学习学会互动,互动学习,以行动为中心的强化学习计算机科学博士论文于2021年9月28日在Villeneuve d'Asq公开支持马修·瑟林评审团主席法布里斯·勒菲弗尔阿维尼翁大学教授论文指导奥利维尔·皮耶昆谷歌研究教授:智囊团论文联合主任菲利普·普雷教授,大学。里尔/CRISTAL/因里亚报告员奥利维耶·西格德索邦大学报告员卢多维奇·德诺耶教授,Facebook /索邦大学审查员越南圣迈IMT Atlantic高级讲师邀请弗洛里安·斯特鲁布博士,Deepmind对于那些及时看到自己错误的人...3谢谢你首先,我要感谢我的两位博士生导师Olivier和Philippe。奥利维尔,"站在巨人的肩膀上"这句话对你来说完全有意义了。从科学上讲,你知道在这篇论文的(许多)错误中,你是我可以依
recommend-type

自动化缺失值处理脚本编写

![缺失值处理(Missing Value Imputation)](https://img-blog.csdnimg.cn/20190521154527414.PNG?x-oss-process=image/watermark,type_ZmFuZ3poZW5naGVpdGk,shadow_10,text_aHR0cHM6Ly9ibG9nLmNzZG4ubmV0L3l1bmxpbnpp,size_16,color_FFFFFF,t_70) # 1. 自动化缺失值处理概览 在数据科学的实践中,数据分析和建模的一个常见挑战是处理含有缺失值的数据集。缺失值不仅会降低数据的质量,而且可能会导致不准