linux下安装tensorrt
时间: 2025-01-08 17:07:55 浏览: 21
安装配置TensorRT教程
准备工作
为了成功安装TensorRT,在Linux系统中需先确认已正确安装CUDA和CUDNN。这可以通过访问官方文档获取详细的安装指南[^4]。
下载TensorRT
前往NVIDIA官方网站下载适用于Linux系统的TensorRT版本。确保选择与当前使用的CUDA版本兼容的TensorRT版本[^1]。
解压并设置环境变量
解压缩下载好的TensorRT包至指定位置,通常建议放置于/usr/local/
目录下。完成解压后,通过编辑.bashrc
文件来添加必要的环境变量:
export TENSORRT_DIR=/usr/local/TensorRT-<version>
export LD_LIBRARY_PATH=$TENSORRT_DIR/lib:$LD_LIBRARY_PATH
source ~/.bashrc
上述命令中的<version>
应替换为实际安装的TensorRT版本号[^2]。
复制库文件到系统路径
为了让编译器能够识别TensorRT的相关库和头文件,可以执行如下操作将其复制到全局可见的位置:
cd /usr/local/TensorRT-7.2.3.4/
sudo cp -r ./lib/* /usr/lib
sudo cp -r ./include/* /usr/include
此过程会将所需的共享库以及接口定义文件置于标准搜索路径内,从而简化后续开发流程。
验证安装
验证Python环境下能否正常导入TensorRT模块是一个有效的测试方法。如果之前未创建虚拟环境,则可以直接利用系统默认的Python解释器尝试加载该模块;反之则应在激活相应虚拟环境之后再做相同的操作[^5]。
对于已经存在预装TensorRT的情况,可通过查询其具体存储位置以便决定是否需要进一步处理:
import tensorrt as trt
print(trt.__file__)
最后一步是根据实际情况调整软件链接或复制必要组件至目标环境中,以保证应用程序能顺利调用TensorRT功能。