使用 Edge Impulse 进行一站式模型训练
本文档由 AI 翻译。如您发现内容有误或有改进建议,欢迎通过页面下方的评论区,或在以下 Issue 页面中告诉我们:https://github.com/Seeed-Studio/wiki-documents/issues
概述
在本篇 Wiki 中,我们将教您如何使用 Edge Impulse 为您的特定应用训练自己的 AI 模型,然后轻松将其部署到 SenseCAP A1101 - LoRaWAN Vision AI Sensor 上。让我们开始吧!
什么是 Edge Impulse? Edge Impulse 是一个面向企业团队的边缘 AI 平台,用于在任何边缘设备上构建优化模型。通过先进的 AI 传感器功能,快速实现价值交付并推动产品创新。
硬件准备
Seeed SenseCAP A1101 - LoRaWAN Vision AI Sensor 是一款专为开发者设计的图像识别 AI 传感器。SenseCAP A1101 - LoRaWAN Vision AI Sensor 结合了 TinyML AI 技术和 LoRaWAN 长距离传输,提供了一种低功耗、高性能的 AI 设备解决方案,可用于室内和室外环境。
该传感器采用 Himax 的高性能、低功耗 AI 视觉解决方案,支持 Google TensorFlow Lite 框架和多个 TinyML AI 平台。
它完全支持 Edge Impulse,这意味着您可以直接从工作室采集摄像头的原始数据、构建模型并将训练好的机器学习模型部署到模块,无需任何编程。SenseCAP - Vision AI 模块可直接从 Seeed Studio Bazaar 购买。
- SenseCAP A1101 - LoRaWAN Vision AI Sensor
- USB Type-C 数据线
- 带有互联网连接的 Windows/ Linux/ Mac 设备

软件准备
要在 Edge Impulse 中设置 A1101,您需要安装以下软件:
- Edge Impulse CLI。
- 在 Linux 上:
- GNU Screen:例如通过
sudo apt install screen
安装。
- GNU Screen:例如通过
- 下载最新的 Bouffalo Lab Dev Cube。
安装 Edge Impulse CLI 时遇到问题? 请参阅 安装和故障排除指南。
连接到 Edge Impulse
安装完所有软件后,现在可以将 A1101 连接到 Edge Impulse。
如果您是在 2023 年 3 月 30 日之后购买的设备,则无需更新 EI 固件,请直接跳到 STEP3 设置密钥。请注意,更新 EI 固件会覆盖默认模型。
步骤 1. 更新 BL702 芯片固件
BL702 是 USB-UART 芯片,用于实现 PC 与 Himax 芯片之间的通信。您需要更新此固件以使 Edge Impulse 固件正常工作。
从 这里 获取最新的引导加载程序固件:tinyuf2-sensecap_vision_ai_xxx.bin。
使用 USB Type-C 数据线将 A1101 连接到 PC,同时按住 A1101 上的 Boot 按钮。


- 打开之前安装的 Bouffalo Lab Dev Cube 软件,选择 BL702/704/706,然后点击 Finish。

- 转到 MCU 标签。在 Image file 下,点击 Browse 并选择您刚刚下载的固件。

- 点击 Refresh,选择与连接的 A1101 相关的 Port,将 Chip Erase 设置为 True,点击 Open UART,然后点击 Create & Download 并等待过程完成。

如果一切顺利,您将看到输出为 All Success。

如果闪存过程中出现错误,请尝试多次点击 Create & Download,直到看到 All Success 消息。
步骤 2. 更新 Edge Impulse 固件
A1101 尚未预装正确的 Edge Impulse 固件。要更新固件:
下载最新的 Edge Impulse 固件 并解压以获取 firmware.uf2 文件。
再次使用 USB Type-C 数据线将 A1101 连接到 PC,并双击 A1101 上的 Boot 按钮以进入 mass storage mode。
此时,您将在文件资源管理器中看到一个新的存储驱动器,显示为 SENSECAP。将 firmware.uf2 文件拖放到 SENSECAP 驱动器中。

复制完成后,SENSECAP 驱动器将消失。这是检查复制是否成功的方法。
步骤 3. 设置密钥
在命令提示符或终端中运行以下命令:
edge-impulse-daemon
这将启动一个向导,要求您登录并选择一个 Edge Impulse 项目。如果您想切换项目,请使用 --clean
参数运行该命令。
或者,最新版本的 Google Chrome 和 Microsoft Edge 可以直接从您的 A1101 收集数据,而无需使用 Edge Impulse CLI。有关更多信息,请参阅这篇博客文章。
第 4 步:验证设备是否已连接
就是这样!您的设备现在已连接到 Edge Impulse。要验证这一点,请访问您的 Edge Impulse 项目,然后点击 Devices。设备将显示在这里。

从 A1101 - Vision AI 收集数据
一切设置完成后,您现在可以通过以下教程构建并运行您的第一个机器学习模型:
可以直接从 Studio 捕获来自板载摄像头的帧:

最后,一旦模型训练完成,可以轻松部署到 A1101 – Vision AI 模块上开始推理!

将模型部署到 A1101 - Vision AI
在构建机器学习模型并从 Edge Impulse Studio 下载 Edge Impulse 固件后,通过以下步骤将模型 uf2 文件部署到 SenseCAP - Vision AI 模块:更新 Edge Impulse 固件部分的步骤 1 和步骤 2。
将 firmware.uf2 文件从 EDGE IMPULSE 拖放到 SENSECAP 驱动器。
当您在本地界面上运行以下命令时:
edge-impulse-daemon --debug
它会要求您点击一个 URL,然后您将在设备上看到摄像头的实时预览。

在 SenseCap Mate 上配置您的模型
- 下载 SenseCAP Mate
- 打开 SenseCAP Mate 并登录

- 在 Config 屏幕下,选择 Vision AI Sensor

长按 SenseCap A1101 上的配置按钮 3 秒钟以进入蓝牙配对模式
点击 Setup,它将开始扫描附近的 SenseCAP A1101 设备。进入 Settings 并确保选择了 Object Detection 和 User Defined 1。如果没有,请选择它并点击 Send。
进入 General 并点击 Detect
点击这里 打开摄像头流的预览窗口

- 点击 Connect 按钮。然后您将在浏览器上看到一个弹出窗口。选择 SenseCAP Vision AI - Paired 并点击 Connect

- 使用预览窗口查看实时推理结果!

例如,如上图所示,猫被检测到并用边界框标记出来。在这里,“0”对应于同一类别的每次检测。如果您有多个类别,它们将被命名为 0、1、2、3、4 等。此外,每个检测到的目标(如上图中的苹果,置信度为 0.72)的置信分数也会显示出来!
技术支持与产品讨论
感谢您选择我们的产品!我们致力于为您提供多种支持,确保您使用我们的产品时能够尽可能顺畅。我们提供了多种沟通渠道,以满足不同的偏好和需求。