jetpack TensorRT问题

您好,我想在NVIDIA Jetson开发板上创建Docker容器,并在容器内使用JetPack系统中已安装的TensorRT库。请问在创建新容器时,应该挂载哪些与TensorRT相关的主机文件或设备到容器中?
谢谢您!感激不尽!

参考示例

sudo docker run --runtime=nvidia \
  -v /usr/lib/aarch64-linux-gnu:/usr/lib/aarch64-linux-gnu \
  -v /usr/include/aarch64-linux-gnu:/usr/include/aarch64-linux-gnu \
  -v /usr/src/tensorrt:/usr/src/tensorrt \
  -v /usr/local/cuda:/usr/local/cuda \
  -v /usr/lib/aarch64-linux-gnu/libcudnn*:/usr/lib/aarch64-linux-gnu/ \
  -it --rm <your-docker-image> /bin/bash

实际路径请根据系统上的 JetPack/TensorRT 安装位置进行调整,TensorRT在不同版本JetPack下库文件和工具文件有细微差别,具体可以参考官方CSV挂载文件自动配置。

  • 强烈推荐使用官方 L4T(Linux for Tegra)基础镜像,如 nvcr.io/nvidia/l4t-basenvcr.io/nvidia/l4t-tensorrt,这些镜像已内置对主机 JetPack 和 TensorRT 的适配,不用再手动挂载大多数系统库。
  • 挂载路径需与主机安装对应,可通过 dpkg -L nvidia-tensorrtfind /usr -name '*nvinfer*' 等命令准确定位主机上的TensorRT库文件和目录。
  • nvidia-docker 相关包需安装完备nvidia-container-toolkitnvidia-container-csv-tensorrt等。

Jetson Docker 镜像制作参考