linux中安装tensorrt
时间: 2025-01-06 08:41:18 浏览: 18
如何在Linux系统上安装NVIDIA TensorRT
准备工作
确保环境中已经配置好支持CUDA的NVIDIA GPU,并确认驱动程序正常运行。可以通过nvidia-smi
命令验证GPU及其驱动是否被正确识别[^2]。
nvidia-smi
此命令应返回关于当前系统内NVIDIA GPU的状态信息,而不是错误消息。
下载TensorRT
前往NVIDIA官方下载页面[^3]获取适用于Linux系统的TensorRT包。根据具体的硬件架构(如x86_64或aarch64)和个人偏好选择合适的版本进行下载。
安装依赖项
在正式安装之前,可能还需要额外安装一些必要的软件库来满足TensorRT的要求:
sudo apt-get update && sudo apt-get install -y \
libcurl4-openssl-dev \
libnuma1 \
python3-pip
对于Python开发人员而言,建议创建一个新的虚拟环境用于隔离项目依赖关系:
python3 -m venv tensorrt_env
source tensorrt_env/bin/activate
pip install numpy
解压并设置路径变量
假设已下载了.tar.gz
格式的压缩文件,则可以按照如下方式解压它并将相应的目录加入到PATH环境变量中以便后续调用工具链中的组件:
tar zxvf NVIDIA-TensorRT*.tar.gz
cd NVIDIA-TensorRT*
export PATH=$PWD:$PATH
export LD_LIBRARY_PATH=$PWD/lib:$LD_LIBRARY_PATH
此时应该能够看到类似这样的输出结构:
.
├── bin/
│ └── trtexec (推理性能测试工具)
├── include/
└── lib/
为了使这些更改永久生效,可考虑将其添加至用户的shell初始化脚本(~/.bashrc
)里去。
验证安装成果
最后一步是通过执行简单的样例程序来检验整个过程是否顺利完成。可以从源码树下的samples
子目录找到多个示例应用;其中最基础的是mnist分类器,其构建方法如下所示:
make -C samples/sample_mnist
./samples/sample_mnist
如果一切顺利的话,上述指令将会打印出MNIST手写数字数据集上的预测结果,这标志着TensorRT已经在Linux平台上成功部署完毕。