[06/01/2023-16:46:00] [I] TensorRT version: 8.2.1 [06/01/2023-16:46:01] [I] [TRT] [MemUsageChange] Init CUDA: CPU +323, GPU +0, now: CPU 335, GPU 1071 (MiB) [06/01/2023-16:46:01] [I] [TRT] [MemUsageSnapshot] Begin constructing builder kernel library: CPU 335 MiB, GPU 1067 MiB [06/01/2023-16:46:01] [I] [TRT] [MemUsageSnapshot] End constructing builder kernel library: CPU 470 MiB, GPU 1101 MiB [06/01/2023-16:46:01] [I] Start parsing network model [06/01/2023-16:46:01] [I] [TRT] ---------------------------------------------------------------- [06/01/2023-16:46:01] [I] [TRT] Input filename: /opt/projects/ultralytics/runs/detect/train/weights/best.onnx [06/01/2023-16:46:01] [I] [TRT] ONNX IR version: 0.0.8 [06/01/2023-16:46:01] [I] [TRT] Opset version: 17 [06/01/2023-16:46:01] [I] [TRT] Producer name: pytorch [06/01/2023-16:46:01] [I] [TRT] Producer version: 2.0.0 [06/01/2023-16:46:01] [I] [TRT] Domain: [06/01/2023-16:46:01] [I] [TRT] Model version: 0 [06/01/2023-16:46:01] [I] [TRT] Doc string: [06/01/2023-16:46:01] [I] [TRT] ---------------------------------------------------------------- [06/01/2023-16:46:01] [W] [TRT] onnx2trt_utils.cpp:366: Your ONNX model has been generated with INT64 weights, while TensorRT does not natively support INT64. Attempting to cast down to INT32. [06/01/2023-16:46:01] [E] [TRT] ModelImporter.cpp:773: While parsing node number 263 [Conv -> "/model.28/cv2.3/cv2.3.2/Conv_output_0"]: [06/01/2023-16:46:01] [E] [TRT] ModelImporter.cpp:774: --- Begin node --- [06/01/2023-16:46:01] [E] [TRT] ModelImporter.cpp:775: input: "/model.28/cv2.3/cv2.3.1/act/Mul_output_0" input: "model.28.cv2.3.2.weight" input: "model.28.cv2.3.2.bias" output: "/model.28/cv2.3/cv2.3.2/Conv_output_0" name: "/model.28/cv2.3/cv2.3.2/Conv" op_type: "Conv" attribute { name: "dilations" ints: 1 ints: 1 type: INTS } attribute { name: "group" i: 1 type: INT } attribute { name: "kernel_shape" ints: 1 ints: 1 type: INTS } attribute { name: "pads" ints: 0 ints: 0 ints: 0 ints: 0 type: INTS } attribute { name: "strides" ints: 1 ints: 1 type: INTS } [06/01/2023-16:46:01] [E] [TRT] ModelImporter.cpp:776: --- End node --- [06/01/2023-16:46:01] [E] [TRT] ModelImporter.cpp:779: ERROR: builtin_op_importers.cpp:647 In function importConv: [8] Assertion failed: inputs.at(2).is_weights() && "The bias tensor is required to be an initializer for the Conv operator." [06/01/2023-16:46:01] [E] Failed to parse onnx file

时间: 2024-01-31 08:04:55 浏览: 33
根据你的日志信息,看起来你在使用 TensorRT 进行 ONNX 模型的转换时出现了错误。具体来说,错误信息是: ``` ERROR: builtin_op_importers.cpp:647 In function importConv: [8] Assertion failed: inputs.at(2).is_weights() && "The bias tensor is required to be an initializer for the Conv operator." ``` 从错误信息来看,它似乎是在解析 ONNX 模型文件过程中遇到了问题,具体是在解析 Conv 运算符时,缺少了偏置张量输入。你可以检查一下 ONNX 模型中 Conv 运算符的输入是否有问题。
相关问题

YOLOV8基于Opset-12导出的ONNX模型,使用TensorRT-8.2.1.8转换模型时,提示以下错误,请问如何修复这个错误?: [06/01/2023-17:17:23] [I] TensorRT version: 8.2.1 [06/01/2023-17:17:23] [I] [TRT] [MemUsageChange] Init CUDA: CPU +323, GPU +0, now: CPU 335, GPU 1027 (MiB) [06/01/2023-17:17:24] [I] [TRT] [MemUsageSnapshot] Begin constructing builder kernel library: CPU 335 MiB, GPU 1027 MiB [06/01/2023-17:17:24] [I] [TRT] [MemUsageSnapshot] End constructing builder kernel library: CPU 470 MiB, GPU 1058 MiB [06/01/2023-17:17:24] [I] Start parsing network model [06/01/2023-17:17:24] [I] [TRT] ---------------------------------------------------------------- [06/01/2023-17:17:24] [I] [TRT] Input filename: /opt/projects/ultralytics/runs/detect/train/weights/best.onnx [06/01/2023-17:17:24] [I] [TRT] ONNX IR version: 0.0.8 [06/01/2023-17:17:24] [I] [TRT] Opset version: 17 [06/01/2023-17:17:24] [I] [TRT] Producer name: pytorch [06/01/2023-17:17:24] [I] [TRT] Producer version: 2.0.0 [06/01/2023-17:17:24] [I] [TRT] Domain: [06/01/2023-17:17:24] [I] [TRT] Model version: 0 [06/01/2023-17:17:24] [I] [TRT] Doc string: [06/01/2023-17:17:24] [I] [TRT] ---------------------------------------------------------------- [06/01/2023-17:17:24] [W] [TRT] onnx2trt_utils.cpp:366: Your ONNX model has been generated with INT64 weights, while TensorRT does not natively support INT64. Attempting to cast down to INT32. [06/01/2023-17:17:24] [E] [TRT] ModelImporter.cpp:773: While parsing node number 267 [Range -> "/model.28/Range_output_0"]: [06/01/2023-17:17:24] [E] [TRT] ModelImporter.cpp:774: --- Begin node --- [06/01/2023-17:17:24] [E] [TRT] ModelImporter.cpp:775: input: "/model.28/Constant_9_output_0" input: "/model.28/Cast_output_0" input: "/model.28/Constant_10_output_0" output: "/model.28/Range_output_0" name: "/model.28/Range" op_type: "Range" [06/01/2023-17:17:24] [E] [TRT] ModelImporter.cpp:776: --- End node --- [06/01/2023-17:17:24] [E] [TRT] ModelImporter.cpp:779: ERROR: builtin_op_importers.cpp:3352 In function importRange: [8] Assertion failed: inputs.at(0).isInt32() && "For range operator with dynamic inputs, this version of TensorRT only supports INT32!" [06/01/2023-17:17:24] [E] Failed to parse onnx file [06/01/2023-17:17:24] [I] Finish parsing network model [06/01/2023-17:17:24] [E] Parsing model failed [06/01/2023-17:17:24] [E] Failed to create engine from model. [06/01/2023-17:17:24] [E] Engine set up failed

这个错误提示是因为TensorRT不支持ONNX模型中的INT64类型权重。您需要将ONNX模型中的INT64类型权重转换为INT32类型,以便TensorRT能够正确地解析模型。可以使用ONNX官方提供的`onnx-tensorrt`工具来转换模型,该工具支持将INT64类型权重转换为INT32类型。具体步骤如下: 1. 安装`onnx-tensorrt`工具,可以使用`pip install onnx-tensorrt`命令来安装。 2. 使用`onnx-tensorrt`工具将ONNX模型转换为TensorRT引擎。具体命令如下: ``` import onnx import onnx_tensorrt.backend as backend from onnx_tensorrt.backend import prepare model = onnx.load('/path/to/onnx/model') engine = backend.prepare(model, device='CUDA:0', max_batch_size=max_batch_size) ``` 其中,`/path/to/onnx/model`是您的ONNX模型文件路径,`max_batch_size`是您想要设置的最大批处理大小。这个命令会将ONNX模型转换为TensorRT引擎,并返回一个TensorRT引擎对象。 注意,在使用`onnx-tensorrt`工具时,需要确保您的ONNX模型中不包含任何INT64类型的权重。如果您的模型中包含INT64类型权重,您需要手动将其转换为INT32类型,或者使用其他工具将其转换为INT32类型。

jdk1.8,检查下如下配置有何问题。VM Flags: Non-default VM flags: -XX:CICompilerCount=12 -XX:CMSInitiatingOccupancyFraction=80 -XX:InitialHeapSize=17179869184 -XX:MaxHeapSize=68719476736 -XX:MaxNewSize=22906142720 -XX:MinHeapDeltaBytes=524288 -XX:NewSize=5726273536 -XX:OldSize=11453595648 -XX:+PrintGC -XX:+PrintGCDateStamps -XX:+PrintGCDetails -XX:+PrintGCTimeStamps -XX:+PrintHeapAtGC -XX:+UseCMSInitiatingOccupancyOnly -XX:-UseCompressedOops -XX:+UseFastUnorderedTimeStamps -XX:+UseParallelGC Command line: -D[Standalone] -XX:+UseCompressedOops -XX:+UseCompressedOops -Xms16384m -Xmx65536m -XX:MaxPermSize=8192m -XX:CMSInitiatingOccupancyFraction=80 -XX:+UseCMSInitiatingOccupancyOnly -XX:+PrintGCDetails -XX:+PrintGCDateStamps -XX:+PrintHeapAtGC -Xloggc:gc.log -Djava.net.preferIPv4Stack=true -Djboss.modules.system.pkgs=org.jboss.byteman -Djava.awt.headless=true -Dorg.jboss.boot.log.file=/usr/Wildfly/wildfly-8.2.1.Final/standalone/log/server.log -Dlogging.configuration=file:/usr/Wildfly/wildfly-8.2.1.Final/standalone/configuration/logging.properties

根据你提供的配置,有以下几个问题需要注意: 1. 在 VM Flags 中重复了两次 `-XX:+UseCompressedOops`。建议移除其中一个重复的配置。 2. `-Xms16384m -Xmx65536m` 设置了初始堆大小为 16GB,最大堆大小为 64GB。根据你的需求和服务器的可用内存,这个配置可能是合理的。但请确保服务器有足够的内存来支持这个堆大小。 3. `-XX:MaxPermSize=8192m` 设置了永久代最大大小为 8GB。在 JDK 1.8 中,永久代已被元空间(Metaspace)取代。因此,这个配置对于 JDK 1.8 是无效的,可以移除。 4. `-Xloggc:gc.log` 配置了 GC 日志的输出路径为 `gc.log`。请确保指定的路径在文件系统中是可写的,并且有足够的磁盘空间来存储 GC 日志。 5. 其他的配置项看起来没有问题,但请确保这些配置与你的应用程序和服务器的需求相符合。 需要注意的是,这只是对配置文件的简单检查,具体的配置是否合适还需要根据你的应用程序和服务器的实际情况来确定。

相关推荐

最新推荐

recommend-type

SAP R/3 事务码速查手册SAP R/3 事务码速查手册

8.2.1 LO-MD-MM 物料主记录 176 8.2.2 LO-MD-BP-CM 客户主数据 178 8.2.3 LO-MD-BP-VM 供应商主数据 179 8.2.4 LO-MD-BOM 物料清单 180 8.2.5 LO-MD-PC 产品目录 182 8.2.6 LO-MD-PL 工厂主管 182 8.2.7 LO-MD-MG ...
recommend-type

GP-卡规范V2.1.1

6.4.2.2. 可执行装载文件的移除 46 6.4.2.3. 可执行装载文件和相关应用的移除 47 6.4.3. 内容的移交(context Extradition) 48 6.5. 委托管理 48 6.6. GP的注册表 49 6.6.1. 发行者域数据元素的描述 49 6.6.1.1. ...
recommend-type

TD-SCDMA网络规划仿真报告

8.2.1 接通率(考虑穿透损耗,20%室内用户) 44 8.2.2 接入失败的原因分析(考虑穿透损耗,20%室内用户) 44 8.2.3 接通率(考虑穿透损耗,50%室内用户) 45 8.2.4 接入失败的原因分析(考虑穿透损耗,50%室内...
recommend-type

中国电信计费模型:数据模型

6.2.16 事件内容位置(Event_Content_Index)实体 253 6.2.17 事件内容(Event_Content)实体 253 第7章 帐务域模型 255 7.1 帐务域概念设计 255 7.2 帐务域逻辑设计 255 7.2.1 帐户(Acct)实体 259 7.2.2 帐目(Acct_Item...
recommend-type

1-oracle傻瓜手册(自己修订版)

1.1 Oracle 8 & 8i 4 1.1.1 工具创建 4 1.1.2 手工创建 4 1.1.3 网络配置 5 1.2 Oracle 9i 6 1.2.1 手工创建数据库 6 1.2.2 创建用户表空间 7 1.2.3 MTS(multi-threaded server) 8 1.2.4 调整临时表空间 9 1.2.5 ...
recommend-type

zigbee-cluster-library-specification

最新的zigbee-cluster-library-specification说明文档。
recommend-type

管理建模和仿真的文件

管理Boualem Benatallah引用此版本:布阿利姆·贝纳塔拉。管理建模和仿真。约瑟夫-傅立叶大学-格勒诺布尔第一大学,1996年。法语。NNT:电话:00345357HAL ID:电话:00345357https://theses.hal.science/tel-003453572008年12月9日提交HAL是一个多学科的开放存取档案馆,用于存放和传播科学研究论文,无论它们是否被公开。论文可以来自法国或国外的教学和研究机构,也可以来自公共或私人研究中心。L’archive ouverte pluridisciplinaire
recommend-type

实现实时数据湖架构:Kafka与Hive集成

![实现实时数据湖架构:Kafka与Hive集成](https://img-blog.csdnimg.cn/img_convert/10eb2e6972b3b6086286fc64c0b3ee41.jpeg) # 1. 实时数据湖架构概述** 实时数据湖是一种现代数据管理架构,它允许企业以低延迟的方式收集、存储和处理大量数据。与传统数据仓库不同,实时数据湖不依赖于预先定义的模式,而是采用灵活的架构,可以处理各种数据类型和格式。这种架构为企业提供了以下优势: - **实时洞察:**实时数据湖允许企业访问最新的数据,从而做出更明智的决策。 - **数据民主化:**实时数据湖使各种利益相关者都可
recommend-type

解释minorization-maximization (MM) algorithm,并给出matlab代码编写的例子

Minorization-maximization (MM) algorithm是一种常用的优化算法,用于求解非凸问题或含有约束的优化问题。该算法的基本思想是通过构造一个凸下界函数来逼近原问题,然后通过求解凸下界函数的最优解来逼近原问题的最优解。具体步骤如下: 1. 初始化参数 $\theta_0$,设 $k=0$; 2. 构造一个凸下界函数 $Q(\theta|\theta_k)$,使其满足 $Q(\theta_k|\theta_k)=f(\theta_k)$; 3. 求解 $Q(\theta|\theta_k)$ 的最优值 $\theta_{k+1}=\arg\min_\theta Q(
recommend-type

JSBSim Reference Manual

JSBSim参考手册,其中包含JSBSim简介,JSBSim配置文件xml的编写语法,编程手册以及一些应用实例等。其中有部分内容还没有写完,估计有生之年很难看到完整版了,但是内容还是很有参考价值的。