File "F:\python\python big\yolo\venv\Lib\site-packages\torch\nn\modules\module.py", line 1614, in __getattr__ raise AttributeError("'{}' object has no attribute '{}'".format( AttributeError: 'Upsample' object has no attribute 'recompute_scale_factor'

时间: 2023-06-21 08:12:15 浏览: 203
这个错误可能是因为您正在使用的 PyTorch 版本不兼容 Upsample 模块的 recompute_scale_factor 属性。这个属性是在 PyTorch 1.5 版本中引入的。如果您的 PyTorch 版本低于 1.5,那么您需要升级 PyTorch 到最新版本。 如果您已经使用了 PyTorch 1.5 或更高版本,那么可能是因为您的代码中的 Upsample 模块对象没有被正确地初始化。请确保您使用的 Upsample 模块对象是从 torch.nn.functional.interpolate() 函数中创建的,并且您已经正确地指定了 scale_factor 参数。 如果您仍然无法解决这个问题,请提供更多的代码和上下文,以便更好地帮助您解决问题。
相关问题

File "D:\ProgramData\Anaconda\envs\yolo\lib\site-packages\requests\adapters.py", line 507, in send

根据提供的引用内容,错误发生在文件 "D:\ProgramData\Anaconda\envs\yolo\lib\site-packages\requests\adapters.py" 的第 507 行。根据这个错误信息,我们可以看到错误发生在`send`函数中。具体的错误原因需要查看代码的上下文才能确定。 为了解决这个问题,可以尝试以下几个步骤: 1. 检查代码中是否有对`send`函数的调用,并确保调用的参数正确。 2. 检查代码中是否有对请求的URL或参数的错误处理。 3. 检查网络连接是否正常,确保可以访问所请求的资源。 如果以上步骤都没有解决问题,可以尝试以下方法: 1. 更新或重新安装`requests`库,确保使用的是最新版本。 2. 检查是否有其他库与`requests`库发生冲突,可以尝试卸载其他库或使用虚拟环境来隔离环境。 3. 如果问题仍然存在,可以尝试在`send`函数的调用前添加适当的日志输出,以便更好地理解错误的原因。

RuntimeError: Could not export Python function call 'F'. Remove calls to Python functions before export. Did you forget to add @script or @script_method annotation? If this is a nn.ModuleList, add it to __constants__: E:\bolang\yolov7-coupling\utils\activations.py(65): forward E:\anaconda\envs\pytorch-1.8.1\lib\site-packages\torch\nn\modules\module.py(860): _slow_forward E:\anaconda\envs\pytorch-1.8.1\lib\site-packages\torch\nn\modules\module.py(887): _call_impl E:\bolang\yolov7-coupling\models\common.py(112): fuseforward E:\anaconda\envs\pytorch-1.8.1\lib\site-packages\torch\nn\modules\module.py(860): _slow_forward E:\anaconda\envs\pytorch-1.8.1\lib\site-packages\torch\nn\modules\module.py(887): _call_impl E:\bolang\yolov7-coupling\models\yolo.py(744): forward_once E:\bolang\yolov7-coupling\models\yolo.py(707): forward E:\anaconda\envs\pytorch-1.8.1\lib\site-packages\torch\nn\modules\module.py(860): _slow_forward E:\anaconda\envs\pytorch-1.8.1\lib\site-packages\torch\nn\modules\module.py(887): _call_impl E:\anaconda\envs\pytorch-1.8.1\lib\site-packages\torch\jit\_trace.py(934): trace_module E:\anaconda\envs\pytorch-1.8.1\lib\site-packages\torch\jit\_trace.py(733): trace E:\bolang\yolov7-coupling\utils\torch_utils.py(363): __init__ E:\bolang\yolov7-coupling\detect.py(39): detect E:\bolang\yolov7-coupling\detect.py(196): <module>

这个错误是由于在导出模型时出现了问题。错误信息中提到了一个名为'F'的 Python 函数调用,但没有添加 `@script` 或 `@script_method` 注释。如果这是一个 `nn.ModuleList`,请将其添加到 `__constants__` 中。请检查您的代码中与这些部分相关的部分,并确保按照 PyTorch 的导出要求进行操作。

相关推荐

Traceback (most recent call last): File "E:\yolov5-master\train.py", line 642, in <module> main(opt) File "E:\yolov5-master\train.py", line 531, in main train(opt.hyp, opt, device, callbacks) File "E:\yolov5-master\train.py", line 312, in train pred = model(imgs) # forward File "F:\conda\envs\yolov5\lib\site-packages\torch\nn\modules\module.py", line 1501, in _call_impl return forward_call(*args, **kwargs) File "E:\yolov5-master\models\yolo.py", line 209, in forward return self._forward_once(x, profile, visualize) # single-scale inference, train File "E:\yolov5-master\models\yolo.py", line 121, in _forward_once x = m(x) # run File "F:\conda\envs\yolov5\lib\site-packages\torch\nn\modules\module.py", line 1501, in _call_impl return forward_call(*args, **kwargs) File "E:\yolov5-master\models\common.py", line 167, in forward return self.cv3(torch.cat((self.m(self.cv1(x)), self.cv2(x)), 1)) File "F:\conda\envs\yolov5\lib\site-packages\torch\nn\modules\module.py", line 1501, in _call_impl return forward_call(*args, **kwargs) File "F:\conda\envs\yolov5\lib\site-packages\torch\nn\modules\container.py", line 217, in forward input = module(input) File "F:\conda\envs\yolov5\lib\site-packages\torch\nn\modules\module.py", line 1501, in _call_impl return forward_call(*args, **kwargs) File "E:\yolov5-master\models\common.py", line 120, in forward return x + self.cv2(self.cv1(x)) if self.add else self.cv2(self.cv1(x)) File "F:\conda\envs\yolov5\lib\site-packages\torch\nn\modules\module.py", line 1501, in _call_impl return forward_call(*args, **kwargs) File "E:\yolov5-master\models\common.py", line 56, in forward return self.act(self.bn(self.conv(x))) File "F:\conda\envs\yolov5\lib\site-packages\torch\nn\modules\module.py", line 1501, in _call_impl return forward_call(*args, **kwargs) File "F:\conda\envs\yolov5\lib\site-packages\torch\nn\modules\activation.py", line 396, in forward return F.silu(input, inplace=self.inplace) File "F:\conda\envs\yolov5\lib\site-packages\torch\nn\functional.py", line 2058, in silu return torch._C._nn.silu_(input) torch.cuda.OutOfMemoryError: CUDA out of memory. Tried to allocate 16.00 MiB (GPU 0; 6.00 GiB total capacity; 2.92 GiB already allocated; 951.00 MiB free; 3.01 GiB reserved in total by PyTorch) If reserved memory is >> allocated memory try setting max_split_size_mb to avoid fragmentation. See documentation for Memory Management and PYTORCH_CUDA_ALLOC_CONF

File "E:/learning/NEW/code/yolov8/NWPU/yolov8-pytorch-master/train.py", line 548, in <module> fit_one_epoch(model_train, model, ema, yolo_loss, loss_history, eval_callback, optimizer, epoch, epoch_step, epoch_step_val, gen, gen_val, UnFreeze_Epoch, Cuda, fp16, scaler, save_period, save_dir, local_rank) File "E:\learning\NEW\code\yolov8\NWPU\yolov8-pytorch-master\utils\utils_fit.py", line 34, in fit_one_epoch outputs = model_train(images) File "D:\Anaconda3\envs\pytorch\lib\site-packages\torch\nn\modules\module.py", line 1130, in _call_impl return forward_call(*input, **kwargs) File "D:\Anaconda3\envs\pytorch\lib\site-packages\torch\nn\parallel\data_parallel.py", line 166, in forward return self.module(*inputs[0], **kwargs[0]) File "D:\Anaconda3\envs\pytorch\lib\site-packages\torch\nn\modules\module.py", line 1130, in _call_impl return forward_call(*input, **kwargs) File "E:\learning\NEW\code\yolov8\NWPU\yolov8-pytorch-master\nets\yolo.py", line 165, in forward self.anchors, self.strides = (x.transpose(0, 1) for x in make_anchors(x, self.stride, 0.5)) File "E:\learning\NEW\code\yolov8\NWPU\yolov8-pytorch-master\utils\utils_bbox.py", line 25, in make_anchors sy,sx = torch.meshgrid(sy, sx, indexing='ij') if TORCH_1_10 else torch.meshgrid(sy, sx) File "D:\Anaconda3\envs\pytorch\lib\site-packages\torch\functional.py", line 463, in meshgrid return _meshgrid(*tensors, indexing=indexing) File "D:\Anaconda3\envs\pytorch\lib\site-packages\torch\functional.py", line 478, in _meshgrid return _VF.meshgrid(tensors, **kwargs,indexing='ij') # type: ignore[attr-defined] TypeError: meshgrid() got multiple values for keyword argument 'indexing'

Transferred 349/355 items from pretrained weights AMP: running Automatic Mixed Precision (AMP) checks with YOLOv8n... Traceback (most recent call last): File "C:\Users\as729\.conda\envs\mypytorch\lib\runpy.py", line 197, in _run_module_as_main return _run_code(code, main_globals, None, File "C:\Users\as729\.conda\envs\mypytorch\lib\runpy.py", line 87, in _run_code exec(code, run_globals) File "C:\Users\as729\.conda\envs\mypytorch\Scripts\yolo.exe\__main__.py", line 7, in <module> File "C:\Users\as729\.conda\envs\mypytorch\lib\site-packages\ultralytics\cfg\__init__.py", line 410, in entrypoint getattr(model, mode)(**overrides) # default args from model File "C:\Users\as729\.conda\envs\mypytorch\lib\site-packages\ultralytics\engine\model.py", line 372, in train self.trainer.train() File "C:\Users\as729\.conda\envs\mypytorch\lib\site-packages\ultralytics\engine\trainer.py", line 192, in train self._do_train(world_size) File "C:\Users\as729\.conda\envs\mypytorch\lib\site-packages\ultralytics\engine\trainer.py", line 276, in _do_train self._setup_train(world_size) File "C:\Users\as729\.conda\envs\mypytorch\lib\site-packages\ultralytics\engine\trainer.py", line 219, in _setup_train self.amp = torch.tensor(check_amp(self.model), device=self.device) File "C:\Users\as729\.conda\envs\mypytorch\lib\site-packages\ultralytics\utils\checks.py", line 416, in check_amp assert amp_allclose(YOLO('yolov8n.pt'), im) File "C:\Users\as729\.conda\envs\mypytorch\lib\site-packages\ultralytics\engine\model.py", line 106, in __init__ self._load(model, task) File "C:\Users\as729\.conda\envs\mypytorch\lib\site-packages\ultralytics\engine\model.py", line 155, in _load self.model, self.ckpt = attempt_load_one_weight(weights) File "C:\Users\as729\.conda\envs\mypytorch\lib\site-packages\ultralytics\nn\tasks.py", line 622, in attempt_load_one_weight ckpt, weight = torch_safe_load(weight) # load ckpt File "C:\Users\as729\.conda\envs\mypytorch\lib\site-packages\ultralytics\nn\tasks.py", line 561, in torch_safe_load return torch.load(file, map_location='cpu'), file # load File "C:\Users\as729\.conda\envs\mypytorch\lib\site-packages\torch\serialization.py", line 801, in load File "C:\Users\as729\.conda\envs\mypytorch\lib\site-packages\torch\serialization.py", line 287, in __init__ RuntimeError: PytorchStreamReader failed reading zip archive: failed finding central directory 出现了什么问题 怎么解决

Traceback (most recent call last): File "train.py", line 354, in <module> fit_one_epoch(model_train, model, yolo_loss, loss_history, optimizer, epoch, epoch_step, epoch_step_val, gen, gen_val, UnFreeze_Epoch, Cuda, save_period, save_dir) File "/hy-tmp/yolov5-pytorch-bilibili/yolov5-pytorch-bilibili/utils/utils_fit.py", line 34, in fit_one_epoch outputs = model_train(images) File "/usr/local/miniconda3/lib/python3.8/site-packages/torch/nn/modules/module.py", line 1194, in _call_impl return forward_call(*input, **kwargs) File "/usr/local/miniconda3/lib/python3.8/site-packages/torch/nn/parallel/data_parallel.py", line 169, in forward return self.module(*inputs[0], **kwargs[0]) File "/usr/local/miniconda3/lib/python3.8/site-packages/torch/nn/modules/module.py", line 1194, in _call_impl return forward_call(*input, **kwargs) File "/hy-tmp/yolov5-pytorch-bilibili/yolov5-pytorch-bilibili/nets/yolo.py", line 102, in forward self.h3 = self.bottlenecklstm3(P3, self.h3, self.c3) # lstm File "/usr/local/miniconda3/lib/python3.8/site-packages/torch/nn/modules/module.py", line 1194, in _call_impl return forward_call(*input, **kwargs) File "/hy-tmp/yolov5-pytorch-bilibili/yolov5-pytorch-bilibili/nets/bottleneck_lstm.py", line 141, in forward new_h, new_c = self.cell(inputs, h, c) File "/usr/local/miniconda3/lib/python3.8/site-packages/torch/nn/modules/module.py", line 1194, in _call_impl return forward_call(*input, **kwargs) File "/hy-tmp/yolov5-pytorch-bilibili/yolov5-pytorch-bilibili/nets/bottleneck_lstm.py", line 68, in forward y = torch.cat((x, h),1) RuntimeError: Expected all tensors to be on the same device, but found at least two devices, cuda:0 and cpu! (when checking argument for argument tensors in method wrapper_cat)

最新推荐

recommend-type

pycharm下python使用yolov3/yolov3-tiny训练好的权重文件.weights进行行人检测,批量测试自定义文件夹下的图片并输出至指定文件夹

python使用yolov3/yolov3-tiny训练好的权重文件.weights进行行人检测,批量测试自定义文件夹下的图片并输出至指定文件夹 目录 python使用yolov3/yolov3-tiny训练好的权重文件.weights进行行人检测,批量测试自定义...
recommend-type

一文读懂目标检测:R-CNN、Fast R-CNN、Faster R-CNN、YOLO、SSD.doc

一文读懂目标检测:R-CNN、Fast R-CNN、Faster R-CNN、YOLO、SSD。传统的目标检测算法、候选区域/窗 + 深度学习分类
recommend-type

zigbee-cluster-library-specification

最新的zigbee-cluster-library-specification说明文档。
recommend-type

管理建模和仿真的文件

管理Boualem Benatallah引用此版本:布阿利姆·贝纳塔拉。管理建模和仿真。约瑟夫-傅立叶大学-格勒诺布尔第一大学,1996年。法语。NNT:电话:00345357HAL ID:电话:00345357https://theses.hal.science/tel-003453572008年12月9日提交HAL是一个多学科的开放存取档案馆,用于存放和传播科学研究论文,无论它们是否被公开。论文可以来自法国或国外的教学和研究机构,也可以来自公共或私人研究中心。L’archive ouverte pluridisciplinaire
recommend-type

实现实时数据湖架构:Kafka与Hive集成

![实现实时数据湖架构:Kafka与Hive集成](https://img-blog.csdnimg.cn/img_convert/10eb2e6972b3b6086286fc64c0b3ee41.jpeg) # 1. 实时数据湖架构概述** 实时数据湖是一种现代数据管理架构,它允许企业以低延迟的方式收集、存储和处理大量数据。与传统数据仓库不同,实时数据湖不依赖于预先定义的模式,而是采用灵活的架构,可以处理各种数据类型和格式。这种架构为企业提供了以下优势: - **实时洞察:**实时数据湖允许企业访问最新的数据,从而做出更明智的决策。 - **数据民主化:**实时数据湖使各种利益相关者都可
recommend-type

解释minorization-maximization (MM) algorithm,并给出matlab代码编写的例子

Minorization-maximization (MM) algorithm是一种常用的优化算法,用于求解非凸问题或含有约束的优化问题。该算法的基本思想是通过构造一个凸下界函数来逼近原问题,然后通过求解凸下界函数的最优解来逼近原问题的最优解。具体步骤如下: 1. 初始化参数 $\theta_0$,设 $k=0$; 2. 构造一个凸下界函数 $Q(\theta|\theta_k)$,使其满足 $Q(\theta_k|\theta_k)=f(\theta_k)$; 3. 求解 $Q(\theta|\theta_k)$ 的最优值 $\theta_{k+1}=\arg\min_\theta Q(
recommend-type

JSBSim Reference Manual

JSBSim参考手册,其中包含JSBSim简介,JSBSim配置文件xml的编写语法,编程手册以及一些应用实例等。其中有部分内容还没有写完,估计有生之年很难看到完整版了,但是内容还是很有参考价值的。
recommend-type

"互动学习:行动中的多样性与论文攻读经历"

多样性她- 事实上SCI NCES你的时间表ECOLEDO C Tora SC和NCESPOUR l’Ingén学习互动,互动学习以行动为中心的强化学习学会互动,互动学习,以行动为中心的强化学习计算机科学博士论文于2021年9月28日在Villeneuve d'Asq公开支持马修·瑟林评审团主席法布里斯·勒菲弗尔阿维尼翁大学教授论文指导奥利维尔·皮耶昆谷歌研究教授:智囊团论文联合主任菲利普·普雷教授,大学。里尔/CRISTAL/因里亚报告员奥利维耶·西格德索邦大学报告员卢多维奇·德诺耶教授,Facebook /索邦大学审查员越南圣迈IMT Atlantic高级讲师邀请弗洛里安·斯特鲁布博士,Deepmind对于那些及时看到自己错误的人...3谢谢你首先,我要感谢我的两位博士生导师Olivier和Philippe。奥利维尔,"站在巨人的肩膀上"这句话对你来说完全有意义了。从科学上讲,你知道在这篇论文的(许多)错误中,你是我可以依
recommend-type

实现实时监控告警系统:Kafka与Grafana整合

![实现实时监控告警系统:Kafka与Grafana整合](https://imgconvert.csdnimg.cn/aHR0cHM6Ly9tbWJpei5xcGljLmNuL21tYml6X2pwZy9BVldpY3ladXVDbEZpY1pLWmw2bUVaWXFUcEdLT1VDdkxRSmQxZXB5R1lxaWNlUjA2c0hFek5Qc3FyRktudFF1VDMxQVl3QTRXV2lhSWFRMEFRc0I1cW1ZOGcvNjQw?x-oss-process=image/format,png) # 1.1 Kafka集群架构 Kafka集群由多个称为代理的服务器组成,这
recommend-type

帮我实现在Androidstudio调用chapgpt并提供源码

首先,你需要运行一个ChitGPT的服务器,然后通过Android应用程序与该服务器进行通信。以下是一个简单的Android应用程序示例,可以与ChitGPT进行通信: 1. 首先,在Android Studio中创建一个新的项目,并添加以下依赖项: ``` implementation 'com.squareup.okhttp3:okhttp:4.9.0' implementation 'com.google.code.gson:gson:2.8.6' ``` 2. 创建一个新的Java类,用于与ChitGPT服务器通信。以下是一个简单的实现: ```java import com.