Skip to main content

reComputer Super vs Classic 边缘推理中的下一代 AI 性能

介绍

reComputer Super 系列为 reComputer Classic 提供了强大的性能提升,在 AI 性能方面提供了高达 1.7 倍的提升,达到 157 TOPS。本文档比较了 reComputer Super 和 reComputer Classic 在 AI 文本生成和 AI 视频处理方面的性能差异。使用 NVIDIA Jetson Orin NX 16GB 模块作为测试平台,清楚地展示了 reComputer Super 相比 reComputer Classic 提供了卓越的性能。

AI 文本生成

在本节中,我们使用 Ollama 加载 deepseek-r1:7b 模型,并比较该模型在不同设备上的推理速度。很明显,reComputer Super 在推理速度和 GPU 频率方面相比 reComputer Classic 有所提升。

info

部署此模型的主要步骤是:

步骤 1. 安装 jetson-containers。

步骤 2. 进入 Docker 容器运行 Ollama 服务。

步骤 3. 从 Ollama 拉取 deepseek-r1:7b 模型。

为了便于演示,我们在终端中输入"tell me a story.",让 DeepSeek 为我们生成一个短故事。由于模型生成结果的随机性,我们获得的结果通常不会相同。我们可以根据模型生成 token 的速度来衡量设备推理的性能。(如视频中所示,使用 eval rate 指标)

note

如果您也想在您的 Jetson 设备上部署 Ollama,请参考此教程了解如何在 Nvidia Jetson 上快速部署。

AI 视频处理

在本节中,我们在两台设备上部署了目标检测模型 YOLOv11,并比较了它们在处理视频输入时的性能差异。结果表明,reComputer Super 每秒能够处理的图像数量大约是 reComputer Classic 的 2.37 倍。

info

参考此仓库可以像我们一样在您的设备上部署 YOLOv11。 部署此模型的主要步骤如下:

步骤 1. 克隆此 GitHub 仓库

步骤 2.ultralytics 下载预训练权重文件 yolo11n.pt。

步骤 3. 按照此仓库编译模型并运行推理。

步骤 4. 我们参考此仓库中的 yolo11_det_trt.py 脚本来运行推理。

note

终端中显示的平均 FPS 反映了模型的纯推理速度,直接表明了设备计算能力的差异,因此 reComputer Super 显示出明显更高的 FPS。然而,显示窗口左上角显示的实时 FPS 代表整个处理管道的帧率,包括图像捕获、预处理、推理、后处理和显示。此 FPS 受多种因素影响,如相机帧率、显示刷新率和程序帧率限制,导致两台设备显示的 FPS 相似,掩盖了推理性能的差异。因此,应该基于终端输出的平均推理 FPS 来评估设备性能,而不是仅仅依赖实时显示的 FPS。

参考资料

技术支持与产品讨论

感谢您选择我们的产品!我们在这里为您提供不同的支持,以确保您使用我们产品的体验尽可能顺畅。我们提供多种沟通渠道,以满足不同的偏好和需求。

Loading Comments...