使用 TensorRT 在 NVIDIA Jetson 上部署 YOLOv8
本指南介绍了如何将 YOLOv8 模型部署到 NVIDIA Jetson 平台,并使用 TensorRT 进行推理。在这里,我们使用 TensorRT 来最大化 Jetson 平台上的推理性能。
本指南将介绍不同的计算机视觉任务,例如:
- 目标检测
- 图像分割
- 图像分类
- 姿态估计
- 目标跟踪

前置条件
- Ubuntu 主机 PC(原生或使用 VMware Workstation Player 的虚拟机)
- reComputer Jetson 或任何运行 JetPack 5.1.1 或更高版本的 NVIDIA Jetson 设备
本指南已在 reComputer J4012 和 reComputer Industrial J4012 上测试并验证,这些设备由 NVIDIA Jetson Orin NX 16GB 模块提供支持。
将 JetPack 刷写到 Jetson
现在,您需要确保 Jetson 设备已刷写 JetPack 系统。您可以使用 NVIDIA SDK Manager 或命令行将 JetPack 刷写到设备上。
有关 Seeed Jetson 驱动设备的刷写指南,请参考以下链接:
- reComputer J1010 | J101
- reComputer J2021 | J202
- reComputer J1020 | A206
- reComputer J4012 | J401
- A203 承载板
- A205 承载板
- Jetson Xavier AGX H01 套件
- Jetson AGX Orin 32GB H01 套件
请确保刷写 JetPack 版本 5.1.1,因为这是我们为本指南验证的版本。
一行代码将 YOLOv8 部署到 Jetson!
在您使用 JetPack 刷写 Jetson 设备后,只需运行以下命令即可运行 YOLOv8 模型。这将首先下载并安装必要的软件包和依赖项,设置环境,并从 YOLOv8 下载预训练模型,以执行目标检测、图像分割、姿态估计和图像分类任务!
wget files.seeedstudio.com/YOLOv8-Jetson.py && python YOLOv8-Jetson.py
上述脚本的源代码可以在这里找到。
使用预训练模型
使用 YOLOv8 的最快方式是使用 YOLOv8 提供的预训练模型。然而,这些是 PyTorch 模型,因此在 Jetson 上推理时只能使用 CPU。如果您希望在 Jetson 上运行这些模型时充分利用 GPU 的最佳性能,可以按照本 Wiki 的本节内容将 PyTorch 模型导出为 TensorRT。
- 目标检测
- 图像分类
- 图像分割
- 姿态估计
- 目标跟踪
YOLOv8 提供了 5 个用于目标检测的预训练 PyTorch 模型权重,这些模型在 COCO 数据集上以 640x640 的输入图像尺寸进行训练。您可以在下方找到它们:
模型 | 尺寸 (像素) | mAPval 50-95 | 速度 CPU ONNX (毫秒) | 速度 A100 TensorRT (毫秒) | 参数 (百万) | FLOPs (十亿) |
---|---|---|---|---|---|---|
YOLOv8n | 640 | 37.3 | 80.4 | 0.99 | 3.2 | 8.7 |
YOLOv8s | 640 | 44.9 | 128.4 | 1.20 | 11.2 | 28.6 |
YOLOv8m | 640 | 50.2 | 234.7 | 1.83 | 25.9 | 78.9 |
YOLOv8l | 640 | 52.9 | 375.2 | 2.39 | 43.7 | 165.2 |
YOLOv8x | 640 | 53.9 | 479.1 | 3.53 | 68.2 | 257.8 |
参考文档: https://docs.ultralytics.com/tasks/detect
您可以从上表中选择并下载所需的模型,然后执行以下命令对图像进行推理:
yolo detect predict model=yolov8n.pt source='https://ultralytics.com/images/bus.jpg' show=True
在这里,您可以将 model
参数更改为 yolov8s.pt、yolov8m.pt、yolov8l.pt 或 yolov8x.pt,它将下载相应的预训练模型。
您还可以连接一个网络摄像头并执行以下命令:
yolo detect predict model=yolov8n.pt source='0' show=True
如果在执行上述命令时遇到任何错误,请尝试在命令末尾添加 "device=0"
。

上述示例运行在 reComputer J4012/reComputer Industrial J4012 上,使用了 YOLOv8s 模型,该模型以 640x640 的输入尺寸进行训练,并使用了 TensorRT FP16 精度。
YOLOv8 提供了 5 个用于图像分类的预训练 PyTorch 模型权重,这些模型在 ImageNet 数据集上以 224x224 的输入图像尺寸进行训练。您可以在下方找到它们:
模型 | 尺寸 (像素) | 准确率 top1 | 准确率 top5 | 速度 CPU ONNX (毫秒) | 速度 A100 TensorRT (毫秒) | 参数 (百万) | FLOPs (十亿) at 640 |
---|---|---|---|---|---|---|---|
YOLOv8n-cls | 224 | 66.6 | 87.0 | 12.9 | 0.31 | 2.7 | 4.3 |
YOLOv8s-cls | 224 | 72.3 | 91.1 | 23.4 | 0.35 | 6.4 | 13.5 |
YOLOv8m-cls | 224 | 76.4 | 93.2 | 85.4 | 0.62 | 17.0 | 42.7 |
YOLOv8l-cls | 224 | 78.0 | 94.1 | 163.0 | 0.87 | 37.5 | 99.7 |
YOLOv8x-cls | 224 | 78.4 | 94.3 | 232.0 | 1.01 | 57.4 | 154.8 |
参考文档: https://docs.ultralytics.com/tasks/classify
您可以选择所需的模型并执行以下命令对图像进行推理:
yolo classify predict model=yolov8n-cls.pt source='https://ultralytics.com/images/bus.jpg' show=True
在这里,您可以将 model
参数更改为 yolov8s-cls.pt、yolov8m-cls.pt、yolov8l-cls.pt 或 yolov8x-cls.pt,它将下载相应的预训练模型。
您还可以连接一个网络摄像头并执行以下命令:
yolo classify predict model=yolov8n-cls.pt source='0' show=True
如果在执行上述命令时遇到任何错误,请尝试在命令末尾添加 "device=0"
。
(update with 224 inference)

上述示例运行在 reComputer J4012/reComputer Industrial J4012 上,使用了 YOLOv8s-cls 模型,该模型以 224x224 的输入尺寸进行训练,并使用了 TensorRT FP16 精度。此外,请确保在使用 TensorRT 导出的模型时,在推理命令中传递参数 imgsz=224,因为推理引擎默认接受 640 的图像尺寸。
YOLOv8 提供了 5 个用于图像分割的预训练 PyTorch 模型权重,这些模型在 COCO 数据集上以 640x640 的输入图像尺寸进行训练。您可以在下方找到它们:
模型 | 尺寸 (像素) | mAPbox 50-95 | mAPmask 50-95 | 速度 CPU ONNX (毫秒) | 速度 A100 TensorRT (毫秒) | 参数 (百万) | FLOPs (十亿) |
---|---|---|---|---|---|---|---|
YOLOv8n-seg | 640 | 36.7 | 30.5 | 96.1 | 1.21 | 3.4 | 12.6 |
YOLOv8s-seg | 640 | 44.6 | 36.8 | 155.7 | 1.47 | 11.8 | 42.6 |
YOLOv8m-seg | 640 | 49.9 | 40.8 | 317.0 | 2.18 | 27.3 | 110.2 |
YOLOv8l-seg | 640 | 52.3 | 42.6 | 572.4 | 2.79 | 46.0 | 220.5 |
YOLOv8x-seg | 640 | 53.4 | 43.4 | 712.1 | 4.02 | 71.8 | 344.1 |
参考文档: https://docs.ultralytics.com/tasks/segment
您可以选择所需的模型,并执行以下命令对图像进行推理:
yolo segment predict model=yolov8n-seg.pt source='https://ultralytics.com/images/bus.jpg' show=True
在上述命令中,您可以将模型更改为 yolov8s-seg.pt、yolov8m-seg.pt、yolov8l-seg.pt 或 yolov8x-seg.pt,它将自动下载相应的预训练模型。
您还可以连接摄像头并执行以下命令:
yolo segment predict model=yolov8n-seg.pt source='0' show=True
如果在执行上述命令时遇到任何错误,请尝试在命令末尾添加 "device=0"。

上述运行环境为 reComputer J4012/ reComputer Industrial J4012,使用 YOLOv8s-seg 模型,输入尺寸为 640x640,并采用 TensorRT FP16 精度。
YOLOv8 提供了 6 个用于姿态估计的预训练 PyTorch 模型权重,这些模型在 COCO 关键点数据集上以 640x640 的输入图像尺寸进行训练。您可以在下方找到它们:
模型 | 尺寸 (像素) | mAPpose 50-95 | mAPpose 50 | 速度 CPU ONNX (毫秒) | 速度 A100 TensorRT (毫秒) | 参数 (百万) | FLOPs (十亿) |
---|---|---|---|---|---|---|---|
YOLOv8n-pose | 640 | 50.4 | 80.1 | 131.8 | 1.18 | 3.3 | 9.2 |
YOLOv8s-pose | 640 | 60.0 | 86.2 | 233.2 | 1.42 | 11.6 | 30.2 |
YOLOv8m-pose | 640 | 65.0 | 88.8 | 456.3 | 2.00 | 26.4 | 81.0 |
YOLOv8l-pose | 640 | 67.6 | 90.0 | 784.5 | 2.59 | 44.4 | 168.6 |
YOLOv8x-pose | 640 | 69.2 | 90.2 | 1607.1 | 3.73 | 69.4 | 263.2 |
YOLOv8x-pose-p6 | 1280 | 71.6 | 91.2 | 4088.7 | 10.04 | 99.1 | 1066.4 |
参考文档: https://docs.ultralytics.com/tasks/pose
您可以选择所需的模型,并执行以下命令对图像进行推理:
yolo pose predict model=yolov8n-pose.pt source='https://ultralytics.com/images/bus.jpg'
在上述命令中,您可以将模型更改为 yolov8s-pose.pt、yolov8m-pose.pt、yolov8l-pose.pt、yolov8x-pose.pt 或 yolov8x-pose-p6,它将自动下载相应的预训练模型。
您还可以连接摄像头并执行以下命令:
yolo pose predict model=yolov8n-pose.pt source='0'
如果在执行上述命令时遇到任何错误,请尝试在命令末尾添加 "device=0"。

对象跟踪是一项任务,涉及识别视频流中对象的位置和类别,然后为该检测分配一个唯一的 ID。
基本上,对象跟踪的输出与对象检测相同,只是增加了一个对象 ID。
参考文档: https://docs.ultralytics.com/modes/track
您可以根据对象检测/图像分割选择所需的模型,并执行以下命令对视频进行推理:
yolo track model=yolov8n.pt source="https://youtu.be/Zgi9g1ksQHc"
在这里,您可以将 model
更改为 yolov8n.pt、yolov8s.pt、yolov8m.pt、yolov8l.pt、yolov8x.pt、yolov8n-seg.pt、yolov8s-seg.pt、yolov8m-seg.pt、yolov8l-seg.pt、yolov8x-seg.pt,它将下载相应的预训练模型。
您还可以连接一个网络摄像头并执行以下命令:
yolo track model=yolov8n.pt source="0"
如果在执行上述命令时遇到任何错误,请尝试在命令末尾添加 "device=0"。


使用 TensorRT 提高推理速度
如前所述,如果您希望在运行 YOLOv8 模型的 Jetson 上提高推理速度,首先需要将原始 PyTorch 模型转换为 TensorRT 模型。
按照以下步骤将 YOLOv8 PyTorch 模型转换为 TensorRT 模型。
这适用于我们之前提到的所有四种计算机视觉任务。
- 步骤 1. 通过指定模型路径执行导出命令
yolo export model=<path_to_pt_file> format=engine device=0
例如:
yolo export model=yolov8n.pt format=engine device=0
如果遇到关于 cmake 的错误,可以忽略它。请耐心等待,直到 TensorRT 导出完成。这可能需要几分钟。
在创建 TensorRT 模型文件 (.engine) 后,您将看到如下输出:

- 步骤 2. 如果您想传递其他参数,可以参考下表:
键 | 值 | 描述 |
---|---|---|
imgsz | 640 | 图像大小,标量或 (h, w) 列表,例如 (640, 480) |
half | False | FP16 量化 |
dynamic | False | 动态轴 |
simplify | False | 简化模型 |
workspace | 4 | 工作区大小 (GB) |
例如,如果您想将 PyTorch 模型转换为 FP16 量化的 TensorRT 模型,请执行以下命令:
yolo export model=yolov8n.pt format=engine half=True device=0
一旦模型成功导出,您可以直接将此模型替换到 yolo 的 predict 命令中的 model= 参数,用于运行检测、分类、分割、姿态估计的所有四种任务。
例如,对于对象检测:
yolo detect predict model=yolov8n.engine source='0' show=True
使用您自己的 AI 模型
数据收集与标注
如果您有一个特定的 AI 应用,并希望使用适合该应用的自定义 AI 模型,您可以收集自己的数据集,对其进行标注,然后使用 YOLOv8 进行训练。
如果您不想自己收集数据,也可以选择现成的公共数据集。您可以下载许多公开可用的数据集,例如 COCO 数据集、Pascal VOC 数据集 等。Roboflow Universe 是一个推荐的平台,它提供了广泛的数据集,并且拥有 90,000+ 数据集和 66+ 百万张图像,可用于构建计算机视觉模型。此外,您还可以在 Google 上搜索开源数据集,并从中选择适合的数据集。
如果您有自己的数据集并希望对图像进行标注,我们推荐您使用 Roboflow 提供的标注工具。请参考 Wiki 的这一部分 了解更多信息。您还可以参考 Roboflow 的 这篇指南 了解标注的详细步骤。
模型训练
这里我们提供了三种训练模型的方法:
-
第一种方法是使用 Ultralytics HUB。您可以轻松将 Roboflow 集成到 Ultralytics HUB 中,这样您的所有 Roboflow 项目都可以直接用于训练。Ultralytics HUB 提供了一个 Google Colab 笔记本,方便您快速开始训练过程,并实时查看训练进度。
-
第二种方法是使用我们创建的 Google Colab 工作区,以简化训练过程。在这里,我们使用 Roboflow API 从 Roboflow 项目中下载数据集。
-
第三种方法是使用本地 PC 进行训练。在这种情况下,您需要确保拥有足够强大的 GPU,并且需要手动下载数据集。
- Ultralytics HUB + Roboflow + Google Colab
- Roboflow + Google Colab
- Roboflow + Local PC
在这里,我们使用 Ultralytics HUB 加载 Roboflow 项目,然后在 Google Colab 上进行训练。
-
步骤 1. 访问 此链接 并注册一个 Ultralytics 账户。
-
步骤 2. 使用新创建的账户登录后,您将看到以下仪表板:

-
步骤 3. 访问 此链接 并注册一个 Roboflow 账户。
-
步骤 4. 使用新创建的账户登录后,您将看到以下仪表板:

-
步骤 5. 创建一个新的工作区,并按照我们准备的 Wiki 指南 在工作区下创建一个新项目。您还可以参考 此处 了解更多来自 Roboflow 官方文档的信息。
-
步骤 6. 当您的工作区中有几个项目后,它将如下所示:

- 步骤 7. 转到 Settings 并点击 Roboflow API。

- 步骤 8. 点击 复制 按钮以复制 Private API Key。

- 步骤 9. 返回 Ultralytics HUB 仪表板,点击 Integrations,将之前复制的 API Key 粘贴到空白栏中,然后点击 Add。

- 步骤 10. 如果您看到列出了您的工作区名称,则表示集成成功。

- 步骤 11. 导航到 Datasets,您将在这里看到所有的 Roboflow 项目。

- 步骤 12. 点击一个项目以查看更多关于数据集的信息。在这里,我选择了一个可以检测健康和受损苹果的数据集。

- 步骤 13. 点击 Train Model。

- 步骤 14. 选择 Architecture,设置一个 Model name(可选),然后点击 Continue。这里我们选择 YOLOv8s 作为模型架构。

- 步骤 15. 在 Advanced options 下,根据您的偏好配置设置,复制 Colab 代码(稍后将粘贴到 Colab 工作区中),然后点击 Open Google Colab。

- 步骤 16. 如果您尚未登录,请登录您的 Google 账户。

- 步骤 17 导航到
Runtime > Change runtime type

- 步骤 18 在 Hardware accelerator 下选择 GPU,在 GPU type 中选择最高可用选项,然后点击 Save

- 步骤 19 点击 Connect

- 步骤 20 点击 RAM, Disk 按钮以检查硬件资源使用情况

- 步骤 21 点击 Play 按钮运行第一个代码单元格

- 步骤 22 将我们之前从 Ultralytics HUB 复制的代码单元粘贴到 Start 部分下并运行它以开始训练

- 步骤 23 现在如果返回到 Ultralytics HUB,你会看到消息 Connected。点击 Done

- 步骤 24 在模型使用 Google Colab 进行训练时,你将实时看到 Box Loss, Class Loss 和 Object Loss

- 步骤 25 训练完成后,你将在 Google Colab 上看到以下输出

- 步骤 26 现在返回到 Ultralytics HUB,进入 Preview 标签页并上传测试图像以检查训练模型的表现

- 步骤 27 最后进入 Deploy 标签页并下载训练好的模型,选择你喜欢的格式以便使用 YOLOv8 进行推理。这里我们选择了 PyTorch。

现在你可以使用这个下载的模型完成我们之前在本 Wiki 中解释的任务。你只需要将模型文件替换为你的模型即可。
例如:
yolo detect predict model=<your_model.pt> source='0' show=True
这里我们使用 Google Colaboratory 环境在云端进行训练。此外,我们在 Colab 中使用 Roboflow API 轻松下载数据集。
- 步骤 1. 点击 这里 打开一个已经准备好的 Google Colab 工作空间,并按照工作空间中提到的步骤操作

训练完成后,你将看到如下输出:

- 步骤 2. 在 Files 标签页下,导航到
runs/train/exp/weights
,你会看到一个名为 best.pt 的文件。这是训练生成的模型。下载此文件并复制到你的 Jetson 设备,因为这是我们稍后将在 Jetson 设备上进行推理时使用的模型。

现在你可以使用这个下载的模型完成我们之前在本 Wiki 中解释的任务。你只需要将模型文件替换为你的模型即可。
例如:
yolo detect predict model=<your_model.pt> source='0' show=True
这里你可以使用安装了 Linux 操作系统的 PC 进行训练。本 Wiki 中我们使用的是 Ubuntu 20.04 PC。
- 步骤 1. 如果系统中没有安装 pip,请安装 pip
sudo apt install python3-pip -y
- 步骤 2. 安装 Ultralytics 及其依赖项
pip install ultralytics
- 步骤 3. 在 Roboflow 中,进入你的项目,导航到 Versions,选择 Export Dataset,将 Format 设置为 YOLOv8,选择 download zip to computer 并点击 Continue

-
步骤 4. 解压下载的 zip 文件
-
步骤 5. 执行以下命令开始训练。这里需要将 path_to_yaml 替换为解压后的 zip 文件中的 .yaml 文件路径
yolo train data=<path_to_yaml> model=yolov8s.pt epochs=100 imgsz=640 batch=-1
这里图像大小设置为 640x640。我们使用 batch-size 为 -1,因为这将自动确定最佳批量大小。你也可以根据自己的需求更改 epoch。这里你可以将预训练模型更改为任何检测、分割、分类或姿态模型。
训练完成后,你将看到如下输出:

- 步骤 6. 在 runs/detect/train/weights 文件夹下,你会看到一个名为 best.pt 的文件。这是训练生成的模型文件。下载该文件并复制到你的 Jetson 设备,因为我们稍后将在 Jetson 设备上使用该模型进行推理。

现在你可以使用这个下载的模型来完成我们之前在本 Wiki 中解释过的任务。你只需要将模型文件替换为你的模型即可。
例如:
yolo detect predict model=<your_model.pt> source='0' show=True
性能基准测试
准备工作
我们对 YOLOv8 支持的所有计算机视觉任务进行了性能基准测试,这些任务运行在由 NVIDIA Jetson Orin NX 16GB 模块驱动的 reComputer J4012/reComputer Industrial J4012 上。
在样本目录中包含一个名为 trtexec 的命令行包装工具。trtexec 是一个无需开发自己的应用程序即可使用 TensorRT 的工具。trtexec 工具有三个主要用途:
- 在随机或用户提供的输入数据上对网络进行基准测试。
- 从模型生成序列化引擎。
- 从构建器生成序列化的时间缓存。
在这里,我们可以使用 trtexec 工具快速对模型进行不同参数的基准测试。但首先,你需要一个 ONNX 模型,我们可以通过使用 ultralytics yolov8 生成这个 ONNX 模型。
- 步骤 1. 使用以下命令生成 ONNX:
yolo mode=export model=yolov8s.pt format=onnx
- 步骤 2. 使用 trtexec 生成引擎文件,命令如下:
cd /usr/src/tensorrt/bin
./trtexec --onnx=<path_to_onnx_file> --saveEngine=<path_to_save_engine_file>
例如:
./trtexec --onnx=/home/nvidia/yolov8s.onnx --saveEngine=/home/nvidia/yolov8s.engine
这将输出性能结果以及生成的 .engine 文件。默认情况下,它会将 ONNX 转换为 FP32 精度的 TensorRT 优化文件,你可以看到如下输出:

如果你需要 FP16 精度(性能优于 FP32),可以执行以下命令:
./trtexec --onnx=/home/nvidia/yolov8s.onnx --fp16 --saveEngine=/home/nvidia/yolov8s.engine
如果你需要 INT8 精度(性能优于 FP16),可以执行以下命令:
./trtexec --onnx=/home/nvidia/yolov8s.onnx --int8 --saveEngine=/home/nvidia/yolov8s.engine
结果
以下是我们在 reComputer J4012/reComputer Industrial J4012 上运行的所有四个计算机视觉任务的结果总结。

额外演示:使用 YOLOv8 的运动检测器和计数器
我们使用 YOLOv8-Pose 模型构建了一个用于运动检测和计数的姿态估计演示应用程序。你可以在 这里 查看该项目,了解更多关于此演示的信息,并在你的 Jetson 设备上进行部署!

手动在 NVIDIA Jetson 上设置 YOLOv8
如果之前提到的一键脚本出现错误,可以按照以下步骤逐步为 Jetson 设备准备 YOLOv8。
安装 Ultralytics 包
- 步骤 1. 访问 Jetson 设备的终端,安装 pip 并升级
sudo apt update
sudo apt install -y python3-pip -y
pip3 install --upgrade pip
- 步骤 2. 安装 Ultralytics 包
pip3 install ultralytics
- 步骤 3. 升级 numpy 到最新版本
pip3 install numpy -U
- 步骤 4. 重启设备
sudo reboot
卸载 Torch 和 Torchvision
上述 Ultralytics 的安装会自动安装 Torch 和 Torchvision。然而,通过 pip 安装的这两个包与基于 ARM aarch64 架构 的 Jetson 平台不兼容。因此,我们需要手动安装预构建的 PyTorch pip 包,并从源码编译/安装 Torchvision。
pip3 uninstall torch torchvision
安装 PyTorch 和 Torchvision
访问 此页面 获取所有 PyTorch 和 Torchvision 的链接。
以下是 JetPack 5.0 及以上版本支持的一些版本。
PyTorch v2.0.0
支持 JetPack 5.1 (L4T R35.2.1) / JetPack 5.1.1 (L4T R35.3.1),Python 3.8
文件名: torch-2.0.0+nv23.05-cp38-cp38-linux_aarch64.whl
下载链接: https://nvidia.box.com/shared/static/i8pukc49h3lhak4kkn67tg9j4goqm0m7.whl
PyTorch v1.13.0
支持 JetPack 5.0 (L4T R34.1) / JetPack 5.0.2 (L4T R35.1) / JetPack 5.1 (L4T R35.2.1) / JetPack 5.1.1 (L4T R35.3.1),Python 3.8
文件名: torch-1.13.0a0+d0d6b1f2.nv22.10-cp38-cp38-linux_aarch64.whl
下载链接: https://developer.download.nvidia.com/compute/redist/jp/v502/pytorch/torch-1.13.0a0+d0d6b1f2.nv22.10-cp38-cp38-linux_aarch64.whl
- 步骤 1. 根据 JetPack 版本安装对应的 torch,格式如下:
wget <URL> -O <file_name>
pip3 install <file_name>
例如,这里我们运行的是 JP5.1.1,因此选择 PyTorch v2.0.0
sudo apt-get install -y libopenblas-base libopenmpi-dev
wget https://nvidia.box.com/shared/static/i8pukc49h3lhak4kkn67tg9j4goqm0m7.whl -O torch-2.0.0+nv23.05-cp38-cp38-linux_aarch64.whl
pip3 install torch-2.0.0+nv23.05-cp38-cp38-linux_aarch64.whl
- 步骤 2. 根据已安装的 PyTorch 版本安装对应的 torchvision。例如,我们选择了 PyTorch v2.0.0,因此需要选择 Torchvision v0.15.2
sudo apt install -y libjpeg-dev zlib1g-dev
git clone https://github.com/pytorch/vision torchvision
cd torchvision
git checkout v0.15.2
python3 setup.py install --user
以下是根据 PyTorch 版本需要安装的对应 torchvision 版本列表:
- PyTorch v2.0.0 - torchvision v0.15
- PyTorch v1.13.0 - torchvision v0.14
如果需要更详细的列表,请查看 此链接。
安装 ONNX 并降级 Numpy
如果需要将 PyTorch 模型转换为 TensorRT,则需要执行以下操作:
- 步骤 1. 安装 ONNX(这是一个必要的依赖项)
pip3 install onnx
- 步骤 2. 降级 Numpy 到较低版本以修复错误
pip3 install numpy==1.20.3
资源
技术支持与产品讨论
感谢您选择我们的产品!我们致力于为您提供多种支持,确保您在使用我们的产品时拥有尽可能顺畅的体验。我们提供多种沟通渠道,以满足不同的偏好和需求。