export LD_LIBRARY_PATH=/TensorRT-8.6.1.6/lib:$LD_LIBRARY_PATH
export LD_LIBRARY_PATH=/TensorRT-8.6.1.6/lib:$LD_LIBRARY_PATH
是一个环境变量的设置命令,用于将/TensorRT-8.6.1.6/lib
路径添加到LD_LIBRARY_PATH
环境变量中。这样做的目的是告诉系统在程序运行时在路径下查找动态链接库(shared library)。
当程序需要依赖某些动态链接库时,会根据LD_LIBRARY_PATH
环境量中的路径去查找对应的库文件。通过将TensorRT库所在路径添加到LD_LIBRARY
中,可以确保程序能够正确地找到并加载TensorRT相关的动态链接库。
请注意,上述命令中的$LD_LIBRARY_PATH
表示将原有的LD_LIBRARY_PATH
值保留,并将新路径添加到其前面。这样做是为了避免覆盖原有的LD_LIBRARY_PATH
设置,确保系统能够继续找到其他已有的动态链接库。
20.04 TensorRT-8.6
安装与配置TensorRT 8.6于Ubuntu 20.04
准备工作
对于准备工作的描述可以参照类似环境下的准备工作,例如在Ubuntu 20.04上操作时应确保服务器硬件兼容性以及操作系统版本匹配[^2]。
获取TensorRT
为了获取适用于Ubuntu 20.04的TensorRT 8.6版本,推荐通过NVIDIA官方渠道下载。通常情况下,这涉及到注册开发者账号并访问专门页面来下载所需的.deb包或者其他形式分发文件。
安装依赖项
安装前需确认已正确设置CUDA工具链及相关库路径:
export PATH=/usr/local/cuda-12.1/bin:$PATH
export LD_LIBRARY_PATH=/usr/local/cuda-12.1/lib64:$LD_LIBRARY_PATH
source /etc/profile
上述命令用于更新全局环境变量以适应新安装的CUDA版本需求[^4]。需要注意的是,虽然这里展示的例子针对CUDA 12.1,但对于TensorRT而言同样重要,因为两者紧密关联。
正式安装过程
完成前期准备之后,按照以下步骤继续进行TensorRT的具体安装:
- 使用
dpkg -i tensorrt.deb
指令执行初步安装; - 解决可能存在的依赖关系问题:
apt-get install -f
; - 验证安装成果——可以通过运行简单的推理样例程序来进行验证;
后续配置建议
考虑到后续可能会涉及更复杂的开发场景,在此提供一些额外提示:
- 尽量保持驱动、CUDA Toolkit 和 TensorRT 版本之间的最佳组合搭配;
- 对于特定应用领域(比如图像识别),可进一步探索优化参数调整的可能性;
tensorRT安装8.6.16 c++
安装 TensorRT 8.6.1.6 的 C++ 环境
设置环境变量
为了使系统能够找到 TensorRT 库,在终端通过命令行设置 LD_LIBRARY_PATH
变量,将解压后的 TensorRT 文件夹中的 lib 路径加入到现有路径中:
export LD_LIBRARY_PATH=$LD_LIBRARY_PATH:/home/sxj/xiazai/TensorRT-8.6.1.6/lib
为了让上述配置永久生效,可以在用户的 shell 配置文件 .bashrc
中添加相同的导出语句[^1]。
修改 .bashrc 文件
编辑器打开 .bashrc
文件并追加相应的库路径:
sudo gedit ~/.bashrc
在文件末尾加上之前提到的 export
命令,并保存更改。之后执行以下指令让新的环境变量立即生效:
source ~/.bashrc
编译和链接项目
对于基于 CMake 构建系统的工程来说,可以通过修改项目的 CMakeLists.txt 来指定 TensorRT SDK 和其依赖项的位置。下面是一个简单的例子来说明如何编译一个使用 TensorRT API 的程序:
假设有一个名为 main.cpp
的源代码文件,其中包含了调用 TensorRT 功能的部分,则对应的 CMakeLists.txt 如下所示:
cmake_minimum_required(VERSION 3.10)
project(TensorRtExample VERSION 1.0 LANGUAGES CXX)
set(CMAKE_CXX_STANDARD 17)
set(CMAKE_RUNTIME_OUTPUT_DIRECTORY ${CMAKE_BINARY_DIR}/bin)
find_package(TensorRT REQUIRED)
add_executable(main main.cpp)
target_link_libraries(main PRIVATE nvinfer)
这里的关键在于 find_package(TensorRT REQUIRED)
这一行会自动寻找已安装好的 TensorRT 并将其引入构建过程;而 target_link_libraries()
则用于告诉编译工具链哪些库应该被链接进来以便支持应用程序运行时所需的函数调用。
相关推荐
















