Skip to main content

从数据集到 XIAO ESP32S3 的模型部署

note

本文档由 AI 翻译。如您发现内容有误或有改进建议,欢迎通过页面下方的评论区,或在以下 Issue 页面中告诉我们:https://github.com/Seeed-Studio/wiki-documents/issues

欢迎来到这篇全面的教程,我们将一起踏上从数据集到在 XIAO ESP32S3 上部署一个完全可用模型的旅程。在本指南中,我们将从使用 Roboflow 的直观工具标注数据集开始,逐步进入在 Google Colab 协作环境中进行模型训练。

接下来,我们将通过 SenseCraft Model Assistant 部署训练好的模型,这一过程将弥合训练与实际应用之间的差距。在本教程结束时,您不仅会在 XIAO ESP32S3 上运行一个自定义模型,还将掌握解读和利用模型预测结果的知识。

从数据集到模型部署,我们将经历以下主要步骤:

  1. 标注数据集 —— 本章节重点介绍如何获取可用于训练模型的数据集。主要有两种方式:第一种是使用 Roboflow 社区提供的标注数据集;另一种是使用您自己场景的图片作为数据集,但需要手动进行标注。

  2. 训练数据集并导出模型 —— 本章节重点介绍如何基于第一步获得的数据集,在 Google Colab 平台上训练并获得可部署到 XIAO ESP32S3 的模型。

  3. 通过 SenseCraft Model Assistant 上传模型 —— 本章节描述如何使用导出的模型文件,通过 SenseCraft Model Assistant 将模型上传到 XIAO ESP32S3。

  4. 模型的常用协议与应用 —— 最后,我们将介绍 SenseCraft AI 的统一数据通信格式,以便您充分利用设备和模型的潜力,制作适合您场景的应用。

让我们开始这段激动人心的旅程,将您的数据变为现实。

所需材料

在开始之前,您可能需要准备以下设备。

Seeed Studio XIAO ESP32S3Seeed Studio XIAO ESP32S3 Sense

XIAO ESP32S3 和 Sense 版本均可用于本教程内容,但由于标准版本的产品无法使用摄像头扩展板,我们建议您使用 Sense 版本。

标注数据集

在本章节内容中,我们允许用户自由选择已有的数据集。这包括社区提供的数据集或您自己拍摄的场景照片。本教程将介绍两种主要场景:第一种是使用 Roboflow 社区提供的现成标注数据集;另一种是使用您拍摄的高分辨率图像并对数据集进行标注。请根据您的需求阅读以下不同的教程。

第一步:创建一个免费的 Roboflow 账户

Roboflow 提供了标注、训练和部署计算机视觉解决方案所需的一切。要开始,请创建一个 免费的 Roboflow 账户

在查看并接受服务条款后,您将被要求在两种计划之间进行选择:公共计划和入门计划。

接下来,您将被要求邀请协作者加入您的工作区。这些协作者可以帮助您标注图像或管理工作区中的视觉项目。一旦您邀请了协作者(如果需要),您就可以创建一个项目。

选择如何获取您的数据集

从 Roboflow 中选择一个适合直接使用的合适数据集,涉及确定最符合您项目需求的数据集,包括数据集的大小、质量、相关性和许可等方面。

第二步:探索 Roboflow Universe

Roboflow Universe 是一个您可以找到各种数据集的平台。访问 Roboflow Universe 网站并探索可用的数据集。

Roboflow 提供了筛选器和搜索功能,帮助您查找数据集。您可以根据领域、类别数量、标注类型等筛选数据集。利用这些筛选器可以缩小符合您标准的数据集范围。

步骤 3. 评估单个数据集

一旦您有了一个候选列表,请逐个评估每个数据集。需要注意以下几点:

标注质量:检查标注是否准确且一致。

数据集大小:确保数据集足够大以便您的模型有效学习,但又不会过大而难以处理。

类别平衡:理想情况下,每个类别的样本数量应该是平衡的。

许可证:检查数据集的许可证以确保您可以按照预期使用它。

文档:查看数据集附带的任何文档或元数据,以更好地了解其内容以及已应用的任何预处理步骤。

tip

您可以通过 Roboflow Health Check 了解模型的状态。

步骤 4. 下载样本

如果您找到了符合要求的数据集,您可以选择下载并使用它。Roboflow 通常允许您下载数据集的样本。测试样本以查看它是否与您的工作流程良好集成,以及是否适合您的模型。

继续后续步骤时,我们建议您以以下格式导出数据集。

您将获得此模型的 Raw URL,请妥善保存,我们将在稍后的模型训练步骤中使用该链接。

caution

如果您是第一次使用 Roboflow,并且对数据集的选择完全没有判断,那么使用数据集训练模型进行初步测试以查看性能可能是必不可少的。这可以帮助您评估数据集是否符合您的要求。

如果数据集满足您的要求并在初步测试中表现良好,那么它可能适合您的项目。否则,您可能需要继续搜索或考虑通过添加更多图像来扩展数据集。

导出训练数据集模型

第 1 步:访问 Colab Notebook

您可以在 SenseCraft Model Assistant's Wiki 上找到不同种类的 Google Colab 模型代码文件。如果您不确定应该选择哪个代码,可以根据模型的类别(目标检测或图像分类)选择任意一个。

如果您尚未登录 Google 账号,请登录以访问 Google Colab 的完整功能。

点击“Connect”以为您的 Colab 会话分配资源。

第 2 步:添加您的 Roboflow 数据集

在正式逐步运行代码块之前,我们需要修改代码内容,以便代码可以使用我们准备的数据集。我们需要提供一个 URL,将数据集直接下载到 Colab 文件系统中。

请在代码中找到 Download the dataset 部分。您将看到以下示例程序。

%mkdir -p Gesture_Detection_Swift-YOLO_192/dataset 
!wget -c https://universe.roboflow.com/ds/xaMM3ZTeWy?key=5bznPZyI0t -O Gesture_Detection_Swift-YOLO_192/dataset.zip
!unzip -q Gesture_Detection_Swift-YOLO_192/dataset.zip -d Gesture_Detection_Swift-YOLO_192/dataset

这段代码用于在 Google Colab 环境中创建一个目录,从 Roboflow 下载数据集,并将其解压到新创建的目录中。以下是每行代码的详细说明:

  1. %mkdir -p Gesture_Detection_Swift-YOLO_192/dataset

    • 这一行代码创建一个名为 Gesture_Detection_Swift-YOLO_192 的新目录,并在其中创建一个子目录 dataset-p 标志确保如果目录已存在不会返回错误,同时会创建任何必要的父目录。
  2. !wget -c https://universe.roboflow.com/ds/xaMM3ZTeWy?key=5bznPZyI0t -O Gesture_Detection_Swift-YOLO_192/dataset.zip

    • 这一行代码使用 wget(一个命令行工具)从提供的 Roboflow URL 下载数据集。-c 标志允许在下载中断时继续下载。-O 标志指定下载文件的输出位置和文件名,在此例中为 Gesture_Detection_Swift-YOLO_192/dataset.zip
  3. !unzip -q Gesture_Detection_Swift-YOLO_192/dataset.zip -d Gesture_Detection_Swift-YOLO_192/dataset

    • 这一行代码使用 unzip 命令将 dataset.zip 文件的内容解压到之前创建的 dataset 目录中。-q 标志以静默模式运行 unzip 命令,抑制大多数输出消息。

要自定义此代码以使用您自己的 Roboflow 模型链接:

  1. Gesture_Detection_Swift-YOLO_192 替换为您希望存储数据集的目录名称。

  2. 将 Roboflow 数据集 URL(https://universe.roboflow.com/ds/xaMM3ZTeWy?key=5bznPZyI0t)替换为您的导出数据集链接(这是我们在 标注数据集最后一步 中获取的原始 URL)。确保在需要访问权限时包含 key 参数。

  3. 如果需要,调整 wget 命令中的输出文件名(-O your_directory/your_filename.zip)。

  4. 确保 unzip 命令中的输出目录与您创建的目录匹配,并且文件名与您在 wget 命令中设置的文件名一致。

caution

如果您更改了文件夹目录名称 Gesture_Detection_Swift-YOLO_192,请注意需要对代码中之前使用过的其他目录名称进行相应修改,否则可能会发生错误!

第三步:调整模型参数

下一步是调整模型的输入参数。请跳转到“使用 SSCMA 训练模型”部分,您将看到以下代码片段。

!sscma.train configs/swift_yolo/swift_yolo_tiny_1xb16_300e_coco.py \
--cfg-options \
work_dir=Gesture_Detection_Swift-YOLO_192 \
num_classes=3 \
epochs=10 \
height=192 \
width=192 \
data_root=Gesture_Detection_Swift-YOLO_192/dataset/ \
load_from=Gesture_Detection_Swift-YOLO_192/pretrain.pth

此命令用于启动机器学习模型的训练过程,具体来说是使用 SSCMA(Seeed Studio SenseCraft Model Assistant)框架训练 YOLO(You Only Look Once)模型。命令包含多个选项,用于配置训练过程。以下是每部分的功能说明:

  • !sscma.train 是在 SSCMA 框架中启动训练的命令。

  • configs/swift_yolo/swift_yolo_tiny_1xb16_300e_coco.py 指定训练的配置文件,其中包括模型架构、训练计划、数据增强策略等设置。

  • --cfg-options 允许您通过命令行提供的选项覆盖 .py 文件中指定的默认配置。

  • work_dir=Gesture_Detection_Swift-YOLO_192 设置训练输出(如日志和保存的模型检查点)存储的目录。

  • num_classes=3 指定模型应训练识别的类别数量。类别数量取决于您的标签数量,例如剪刀、石头、布应该是三个标签。

  • epochs=10 设置运行的训练周期(epochs)数量。推荐值在 50 到 100 之间。

  • height=192width=192 设置模型期望的输入图像的高度和宽度。

caution

我们不建议您在 Colab 代码中更改图像大小,因为此值是我们验证过的更适合数据集大小、准确性和推理速度的组合。如果您使用的不是此大小的数据集,并且可能希望更改图像大小以确保准确性,请不要超过 240x240。

  • data_root=Gesture_Detection_Swift-YOLO_192/dataset/ 定义训练数据所在目录的路径。

  • load_from=Gesture_Detection_Swift-YOLO_192/pretrain.pth 提供预训练模型检查点文件的路径,用于从中恢复训练或作为迁移学习的起点。

要为自己的训练自定义此命令,您可以:

  1. configs/swift_yolo/swift_yolo_tiny_1xb16_300e_coco.py 替换为您自己的配置文件路径(如果您有自定义配置文件)。

  2. 更改 work_dir 为您希望保存训练输出的目录。

  3. 更新 num_classes 以匹配您自己的数据集中的类别数量。类别数量取决于您的标签数量,例如剪刀、石头、布应该是三个标签。

  4. 调整 epochs 为您模型的所需训练周期数量。推荐值在 50 到 100 之间。

  5. 设置 heightwidth 以匹配您模型的输入图像尺寸。

  6. 更改 data_root 指向您的数据集根目录。

  7. 如果您有不同的预训练模型文件,请相应更新 load_from 路径。

第四步:运行 Google Colab 代码

运行代码块的方法是点击代码块左上角的播放按钮。

代码块将在您点击按钮后执行,如果一切顺利,您将看到代码块执行完成的标志——一个勾号符号会出现在代码块的左侧。如图所示,这是第一个代码块执行完成后的效果。

如果您遇到了与上图中相同的错误信息,请检查您是否使用了 T4 GPU,请不要使用 CPU 来运行此项目。

然后,重新执行代码块。对于第一个代码块,如果一切顺利,您将看到如下所示的结果。

接下来,依次执行从 Download the pretrain model weights fileExport the model 的所有代码块。并确保每个代码块都没有错误。

note

代码中出现的警告可以忽略。

第五步:评估模型

当您进入 Evaluate the model 部分时,您可以选择执行 Evaluate the TFLite INT8 model 代码块。

tip

评估 TFLite INT8 模型包括将量化后的模型预测结果与单独的测试数据集进行比较,以测量其准确性和性能指标,评估量化对模型精度的影响,并分析其推理速度和资源使用情况,以确保其满足边缘设备的部署约束。

以下是我执行此代码块后结果中的有效部分:

 Average Precision  (AP) @[ IoU=0.50:0.95 | area=   all | maxDets=100 ] = 0.450
Average Precision (AP) @[ IoU=0.50 | area= all | maxDets=100 ] = 0.929
Average Precision (AP) @[ IoU=0.75 | area= all | maxDets=100 ] = 0.361
Average Precision (AP) @[ IoU=0.50:0.95 | area= small | maxDets=100 ] = -1.000
Average Precision (AP) @[ IoU=0.50:0.95 | area=medium | maxDets=100 ] = 0.474
Average Precision (AP) @[ IoU=0.50:0.95 | area= large | maxDets=100 ] = 0.456
Average Recall (AR) @[ IoU=0.50:0.95 | area= all | maxDets= 1 ] = 0.515
Average Recall (AR) @[ IoU=0.50:0.95 | area= all | maxDets= 10 ] = 0.529
Average Recall (AR) @[ IoU=0.50:0.95 | area= all | maxDets=100 ] = 0.529
Average Recall (AR) @[ IoU=0.50:0.95 | area= small | maxDets=100 ] = -1.000
Average Recall (AR) @[ IoU=0.50:0.95 | area=medium | maxDets=100 ] = 0.536
Average Recall (AR) @[ IoU=0.50:0.95 | area= large | maxDets=100 ] = 0.537
03/19 01:38:43 - mmengine - INFO - bbox_mAP_copypaste: 0.450 0.929 0.361 -1.000 0.474 0.456
{'coco/bbox_mAP': 0.45, 'coco/bbox_mAP_50': 0.929, 'coco/bbox_mAP_75': 0.361, 'coco/bbox_mAP_s': -1.0, 'coco/bbox_mAP_m': 0.474, 'coco/bbox_mAP_l': 0.456}
FPS: 128.350449 fram/s

评估结果包括一系列的平均精度(AP)和平均召回率(AR)指标,这些指标是根据不同的交并比(IoU)阈值和目标大小计算的,通常用于评估目标检测模型的性能。

  1. AP@[IoU=0.50:0.95 | area=all | maxDets=100] = 0.450

    • 此分数是模型在 IoU 阈值从 0.50 到 0.95(以 0.05 为增量)范围内的平均精度。0.450 的 AP 表明模型在此范围内具有中等准确性。这是 COCO 数据集中常用的关键指标。
  2. AP@[IoU=0.50 | area=all | maxDets=100] = 0.929

    • 在 IoU 阈值为 0.50 时,模型的平均精度达到 0.929,表明在较宽松的匹配标准下,模型能够非常准确地检测目标。
  3. AP@[IoU=0.75 | area=all | maxDets=100] = 0.361

    • 在更严格的 IoU 阈值 0.75 下,模型的平均精度下降到 0.361,表明在更严格的匹配标准下性能有所下降。
  4. AP@[IoU=0.50:0.95 | area=small/medium/large | maxDets=100]

    • 对于不同大小的目标,AP 分数有所不同。然而,小目标的 AP 为 -1.000,这可能表明缺乏小目标的评估数据或模型在检测小目标时性能较差。中型和大型目标的 AP 分数分别为 0.474 和 0.456,表明模型在检测中型和大型目标时表现相对较好。
  5. AR@[IoU=0.50:0.95 | area=all | maxDets=1/10/100]

    • 对于不同 maxDets 值的平均召回率相对一致,范围在 0.515 到 0.529 之间,表明模型能够可靠地检索大多数真实正例。
  6. FPS: 128.350449 fram/s

    • 模型在推理时每秒处理约 128.35 帧,表明其具有实时或接近实时应用的潜力。

总体而言,模型在 IoU 为 0.50 时表现出色,在 IoU 为 0.75 时表现中等。它在中型和大型目标检测上表现较好,但在小型目标检测上可能存在问题。此外,模型推理速度较快,适合需要快速处理的场景。如果应用中对检测小目标有较高要求,可能需要进一步优化模型或收集更多小目标数据以提高性能。

第六步:下载导出的模型文件

在完成 Export the model 部分后,您将获得多种格式的模型文件,这些文件默认存储在 ModelAssistant 文件夹中。在本教程中,存储目录为 Gesture_Detection_Swift_YOLO_192

tip

有时 Google Colab 不会自动刷新文件夹的内容。在这种情况下,您可能需要通过点击左上角的刷新图标来刷新文件目录。

在上述目录中,.tflite 模型文件可用于 XIAO ESP32S3 和 Grove Vision AI V2。对于 XIAO ESP32S3 Sense,请务必选择使用 xxx_int8.tflite 格式的模型文件。XIAO ESP32S3 Sense 无法使用其他格式。

找到模型文件后,请尽快将它们下载到本地计算机,因为如果您长时间处于空闲状态,Google Colab 可能会清空您的存储目录!

通过以上步骤,我们已经成功导出了可以支持 XIAO ESP32S3 的模型文件,接下来我们将部署模型到设备上。

通过 SenseCraft Model Assistant 上传模型

第7步:上传自定义模型到 XIAO ESP32S3

接下来,我们进入 Model Assistant 页面。


请在选择 XIAO ESP32S3 后连接设备,然后在页面底部选择 Upload Custom AI Model

接下来,您需要准备模型名称、模型文件和标签。在这里我想强调标签 ID 的确定方式。

如果您直接下载了 Roboflow 的数据集

如果您直接下载了 Roboflow 的数据集,那么您可以在 Health Check 页面查看不同类别及其顺序。只需按照这里输入的顺序安装即可。

tip

您不需要填写 ID:Object 中的数字,只需直接填写类别名称,图片中类别前的数字和冒号会自动添加。

如果您使用的是自定义数据集

如果您使用的是自定义数据集,那么您可以在 Health Check 页面查看不同类别及其顺序。只需按照这里输入的顺序安装即可。

tip

您不需要填写 ID:Object 中的数字,只需直接填写类别名称,图片中类别前的数字和冒号会自动添加。

然后点击右下角的 Send Model。这可能需要大约3到5分钟。如果一切顺利,您可以在上方的 Model Name 和 Preview 窗口中看到您的模型结果。

到这里为止,恭喜您,您已经成功训练并部署了自己的模型。

模型的常见协议和应用

在上传自定义模型的过程中,除了可以可视化上传的模型文件外,还需要将设备的固件传输到设备。在设备的固件中,有一套既定的通信协议,规定了模型结果输出的格式,以及用户可以对模型进行的操作。

由于篇幅问题,我们不会在此 Wiki 中详细展开这些协议的具体内容,我们将在 Github 的文档中详细说明这一部分。如果您对更深入的开发感兴趣,请访问以下链接。


故障排除

1. 如果按照步骤操作后,模型结果不尽如人意怎么办?

如果您的模型识别准确率不理想,可以通过以下方面进行诊断和改进:

  1. 数据质量和数量

    • 问题:数据集可能过小或缺乏多样性,或者标注存在不准确。
    • 解决方案:增加训练数据的数量和多样性,并进行数据清理以纠正标注错误。
  2. 训练过程

    • 问题:训练时间可能不足,或者学习率设置不当,导致模型无法有效学习。
    • 解决方案:增加训练轮数,调整学习率和其他超参数,并实施早停以避免过拟合。
  3. 类别不平衡

    • 问题:某些类别样本数量显著多于其他类别,导致模型偏向多数类别。
    • 解决方案:使用类别权重、对少数类别进行过采样或对多数类别进行欠采样以平衡数据。

通过深入分析并实施针对性的改进,您可以逐步提高模型的准确性。请记住,在每次修改后使用验证集测试模型性能,以确保改进的有效性。

2. 为什么在按照 Wiki 中的步骤操作后,我在 SenseCraft 部署中看到 Invoke failed 消息?

如果您遇到 Invoke failed 错误,这意味着您训练的模型不符合设备的使用要求。请关注以下几个方面:

  1. 请检查您是否修改了 Colab 的图像尺寸。默认的压缩尺寸是 192x192,Grove Vision AI V2 要求图像尺寸压缩为正方形,请不要使用非正方形尺寸进行压缩。同时也不要使用过大的尺寸(建议不超过 240x240)。

技术支持与产品讨论

感谢您选择我们的产品!我们致力于为您提供多种支持,以确保您在使用我们的产品时拥有顺畅的体验。我们提供了多种沟通渠道,以满足不同的偏好和需求。

Loading Comments...