Skip to main content

Edgeimpulse

Edge Impulse

Edge Impulse 是领先的边缘设备机器学习开发平台,免费提供给开发者,并被全球企业信赖。

  • 使用 Edge Impulse,软件开发人员、工程师和领域专家可以利用机器学习在边缘设备上解决实际问题,无需博士学位或高级嵌入式工程技能。从入门到生产环境中的 MLOps,Edge Impulse 提供了从 MCU 到 CPU 的广泛硬件上的最大效率和速度。

使用 Edge Impulse,我们可以:

  • 直接从设备收集数据集
  • 从其他来源(如 .zip 文件、通过 API 或其他第三方云上传)收集数据集
  • 创建测试和训练数据,并将它们分类到不同的标签中
  • 训练我们的模型
  • 选择合适的机器学习算法 - Edge Impulse 根据我们的数据集推荐机器学习算法
  • 将模型部署到我们的硬件上
  • 与版本控制的 TinyML 项目协作
  • 还有更多功能,帮助您构建 TinyML 应用程序。

快速上手体验

在详细学习 Edge Impulse 的完整过程之前,我们提供了完整的预生成 Arduino 库,您可以直接通过 Arduino 程序从草图上传并查看 XIAO ESP32S3 Sense 的结果。

在 Arduino 上设置 XIAO ESP32S3 Sense

在使用 Edge Impulse 库之前,我们需要在 Arduino IDE 上设置 XIAO ESP32S3,请按照 此处的指南 进行操作。

// setup 函数在按下复位或给板子供电时运行一次
void setup() {
// 初始化数字引脚 LED_BUILTIN 为输出模式
pinMode(LED_BUILTIN, OUTPUT);
}

// loop 函数会一直重复运行
void loop() {
digitalWrite(LED_BUILTIN, HIGH); // 点亮 LED(HIGH 为电压水平)
delay(1000); // 等待一秒
digitalWrite(LED_BUILTIN, LOW); // 熄灭 LED(LOW 为电压水平)
delay(1000); // 等待一秒
}

确保在上传之前选择正确的板子和端口。

待办事项

  • 在 Arduino IDE 上安装 XIAO ESP32S3 板
  • 编译并上传 Blink 示例到 XIAO ESP32S3

可用的 Edge Impulse 库

我们还在并行推进制作一些已验证和编辑过的 Edge Impulse 导出 Arduino 库,这些库可以直接与 XIAO ESP32S3 Sense 配合使用。使用这些库时,我们可以在程序中拥有更多的控制权并做出决策。

如何使用 Edge Impulse Arduino 库

它就像一个通用的 Arduino 库,我们需要先将其安装到 Arduino IDE 中,然后使用示例代码运行演示。

语音关键字识别(是与否)Arduino 库

演示

它是如何工作的!

步骤 1. 下载 KWS 演示库

下载 语音关键字识别(是与否)Arduino 库 库(.Zip 文件)。

步骤 2. 将 ZIP 库添加到 Arduino IDE

由于您已下载了 ZIP 库,打开 Arduino IDE,点击 草图 > 包含库 > 添加 .ZIP 库

选择您刚刚下载的 ZIP 文件,如果库安装正确,您将看到通知窗口显示 "Library added to your libraries",这意味着库已成功安装。

步骤 3. 运行推理草图

/* Edge Impulse Arduino 示例
* Copyright (c) 2022 EdgeImpulse Inc.
*
* 兹授予任何获得本软件及相关文档文件("软件")副本的人,免费使用、复制、修改、合并、发布、分发、再许可和/或销售本软件的副本,并允许被授权人按照以下条件使用本软件:
*
* 上述版权声明和本许可声明应包括在软件的所有副本或重要部分中。
*
* 本软件按 "原样" 提供,不附任何形式的明示或暗示的担保,包括但不限于对适销性、特定用途的适用性和不侵权的担保。在任何情况下,作者或版权持有人不对因使用本软件或其他相关行为引起的任何索赔、损害或其他责任负责,无论是在合同诉讼、侵权行为或其他方面。
*
* 本代码由 Marcelo Rovai 修改以在 XIAO ESP32S3 上运行
* 29May23
* 修改者:Salman Faris
* 14Aug23
*/

// 如果您的目标设备内存有限,移除此宏可以节省 10K RAM
#define EIDSP_QUANTIZE_FILTERBANK 0

/*
** 注意:如果遇到 TFLite 堆栈分配问题。
**
** 这可能是由于动态内存碎片化。
** 尝试在 boards.local.txt 中定义 "-DEI_CLASSIFIER_ALLOCATION_STATIC"(如果文件不存在,请创建)
** 并将该文件复制到
** `<ARDUINO_CORE_INSTALL_PATH>/arduino/hardware/<mbed_core>/<core_version>/`。
**
** 请参见
** (https://support.arduino.cc/hc/en-us/articles/360012076960-Where-are-the-installed-cores-located-)
** 查找 Arduino 安装核心的位置。
**
** 如果问题仍然存在,说明该模型和应用程序所需的内存不足。
*/

/* 包含头文件 ---------------------------------------------------------------- */
#include <XIAO_esp32S3_YesNo_inferencing.h>

#include <I2S.h>
#define SAMPLE_RATE 16000U
#define SAMPLE_BITS 16

/** 音频缓冲区、指针和选择器 */
typedef struct {
int16_t *buffer;
uint8_t buf_ready;
uint32_t buf_count;
uint32_t n_samples;
} inference_t;

static inference_t inference;
static const uint32_t sample_buffer_size = 2048;
static signed short sampleBuffer[sample_buffer_size];
static bool debug_nn = false; // 设置为 true 可查看例如从原始信号生成的特征
static bool record_status = true;

/**
* @brief Arduino setup 函数
*/
void setup() {
// 在此处放置您的设置代码,仅运行一次:
Serial.begin(115200);

pinMode(LED_BUILTIN, OUTPUT);
// 注释掉以下一行以取消等待 USB 连接(原生 USB 需要)
while (!Serial)
;
Serial.println("Edge Impulse 推理演示");

I2S.setAllPins(-1, 42, 41, -1, -1);
if (!I2S.begin(PDM_MONO_MODE, SAMPLE_RATE, SAMPLE_BITS)) {
Serial.println("初始化 I2S 失败!");
while (1)
;
}

// 推理设置概述(来自 model_metadata.h)
ei_printf("推理设置:\n");
ei_printf("\t间隔:");
ei_printf_float((float)EI_CLASSIFIER_INTERVAL_MS);
ei_printf(" 毫秒。\n");
ei_printf("\t帧大小:%d\n", EI_CLASSIFIER_DSP_INPUT_FRAME_SIZE);
ei_printf("\t样本长度:%d 毫秒。\n", EI_CLASSIFIER_RAW_SAMPLE_COUNT / 16);
ei_printf("\t类别数量:%d\n", sizeof(ei_classifier_inferencing_categories) / sizeof(ei_classifier_inferencing_categories[0]));

ei_printf("\n2秒后开始连续推理...\n");
ei_sleep(2000);

if (microphone_inference_start(EI_CLASSIFIER_RAW_SAMPLE_COUNT) == false) {
ei_printf("错误:无法分配音频缓冲区(大小 %d),这可能是由于模型的窗口长度问题\r\n", EI_CLASSIFIER_RAW_SAMPLE_COUNT);
return;
}

ei_printf("录音中...\n");
}


/**
* @brief Arduino 主函数。运行推理循环。
*/
void loop() {
bool m = microphone_inference_record();
if (!m) {
ei_printf("错误:录音失败...\n");
return;
}

signal_t signal;
signal.total_length = EI_CLASSIFIER_RAW_SAMPLE_COUNT;
signal.get_data = &microphone_audio_signal_get_data;
ei_impulse_result_t result = { 0 };

EI_IMPULSE_ERROR r = run_classifier(&signal, &result, debug_nn);
if (r != EI_IMPULSE_OK) {
ei_printf("错误:运行分类器失败 (%d)\n", r);
return;
}

int pred_index = 0; // 初始化 pred_index
float pred_value = 0; // 初始化 pred_value

// 打印预测结果
ei_printf("预测结果 ");
ei_printf("(DSP: %d 毫秒, 分类: %d 毫秒, 异常: %d 毫秒)",
result.timing.dsp, result.timing.classification, result.timing.anomaly);
ei_printf(": \n");
for (size_t ix = 0; ix < EI_CLASSIFIER_LABEL_COUNT; ix++) {
ei_printf(" %s: ", result.classification[ix].label);
ei_printf_float(result.classification[ix].value);
ei_printf("\n");

if (result.classification[ix].value > pred_value) {
pred_index = ix;
pred_value = result.classification[ix].value;
}
}

// 显示推理结果
if ((pred_index == 0 && (pred_value > 0.8))) {
digitalWrite(LED_BUILTIN, HIGH); // 打开 LED
} else if ((pred_index == 2) && (pred_value > 0.8)) {
digitalWrite(LED_BUILTIN, LOW); // 关闭 LED
} else {
// 无操作
}

#if EI_CLASSIFIER_HAS_ANOMALY == 1
ei_printf(" 异常得分: ");
ei_printf_float(result.anomaly);
ei_printf("\n");
#endif
}

static void audio_inference_callback(uint32_t n_bytes) {
for (int i = 0; i < n_bytes >> 1; i++) {
inference.buffer[inference.buf_count++] = sampleBuffer[i];

if (inference.buf_count >= inference.n_samples) {
inference.buf_count = 0;
inference.buf_ready = 1;
}
}
}

static void capture_samples(void *arg) {

const int32_t i2s_bytes_to_read = (uint32_t)arg;
size_t bytes_read = i2s_bytes_to_read;

while (record_status) {

/* 从 i2s 一次性读取数据 */
esp_i2s::i2s_read(esp_i2s::I2S_NUM_0, (void *)sampleBuffer, i2s_bytes_to_read, &bytes_read, 100);

if (bytes_read <= 0) {
ei_printf("I2S 读取错误:%d", bytes_read);
} else {
if (bytes_read < i2s_bytes_to_read) {
ei_printf("I2S 读取部分数据");
}

// 缩放数据(否则声音太小)
for (int x = 0; x < i2s_bytes_to_read / 2; x++) {
sampleBuffer[x] = (int16_t)(sampleBuffer[x]) * 8;
}

if (record_status) {
audio_inference_callback(i2s_bytes_to_read);
} else {
break;
}
}
}
vTaskDelete(NULL);
}

/**
* @brief 初始化推理结构并设置/启动 PDM
*
* @param[in] n_samples 样本数量
*
* @return { 返回值描述 }
*/
static bool microphone_inference_start(uint32_t n_samples) {
inference.buffer = (int16_t *)malloc(n_samples * sizeof(int16_t));

if (inference.buffer == NULL) {
return false;
}

inference.buf_count = 0;
inference.n_samples = n_samples;
inference.buf_ready = 0;

// if (i2s_init(EI_CLASSIFIER_FREQUENCY)) {
// ei_printf("启动 I2S 失败!");
// }

ei_sleep(100);

record_status = true;

xTaskCreate(capture_samples, "CaptureSamples", 1024 * 32, (void *)sample_buffer_size, 10, NULL);

return true;
}


/**
* @brief 等待新数据
*
* @return 完成时返回 True
*/
static bool microphone_inference_record(void) {
bool ret = true;

while (inference.buf_ready == 0) {
delay(10);
}

inference.buf_ready = 0;
return ret;
}

/**
* 获取原始音频信号数据
*/
static int microphone_audio_signal_get_data(size_t offset, size_t length, float *out_ptr) {
numpy::int16_to_float(&inference.buffer[offset], out_ptr, length);

return 0;
}

/**
* @brief 停止 PDM 并释放缓冲区
*/
static void microphone_inference_end(void) {
free(sampleBuffer);
ei_free(inference.buffer);
}


#if !defined(EI_CLASSIFIER_SENSOR) || EI_CLASSIFIER_SENSOR != EI_CLASSIFIER_SENSOR_MICROPHONE
#error "当前传感器不适用于此模型。"
#endif

复制上述代码或从 这里 下载代码并将其上传到 XIAO。


// 打印预测结果
ei_printf("预测结果 ");
ei_printf("(DSP: %d 毫秒, 分类: %d 毫秒, 异常: %d 毫秒)",
result.timing.dsp, result.timing.classification, result.timing.anomaly);
ei_printf(": \n");
for (size_t ix = 0; ix < EI_CLASSIFIER_LABEL_COUNT; ix++) {
ei_printf(" %s: ", result.classification[ix].label);
ei_printf_float(result.classification[ix].value);
ei_printf("\n");

if (result.classification[ix].value > pred_value) {
pred_index = ix;
pred_value = result.classification[ix].value;
}
}

// 显示推理结果
if ((pred_index == 0 && (pred_value > 0.8))) {
digitalWrite(LED_BUILTIN, HIGH); // 打开 LED
} else if ((pred_index == 2) && (pred_value > 0.8)) {
digitalWrite(LED_BUILTIN, LOW); // 关闭 LED
} else {
// 无操作
}

在上述代码中,我们可以看到在何处做出了决定来 打开关闭 LED。我们也可以在此处添加其他逻辑,使得 KWS 能够控制我们的项目。


水果识别(苹果、香蕉、葡萄)Arduino 库

第 1 步:下载水果识别库

下载 水果识别(苹果、香蕉、葡萄)Arduino 库 作为 .Zip 文件。

第 2 步:将 ZIP 库添加到 Arduino IDE。

下载了 ZIP 库后,打开 Arduino IDE,点击 草图 > 包含库 > 添加 .ZIP 库

选择你刚刚下载的 ZIP 文件,如果库安装正确,你会在提示窗口看到“库已成功添加到你的库”信息。

第 3 步:运行示例代码

你可以在 文件 -> 示例 -> xiao-esp323-fruits-classify_inferencing -> XIAO-ESP32S3-Sense 中找到示例代码。

尝试演示。

这里 打开数据集样本页面,查看水果图像,然后将 XIAO ESP32S3 摄像头对准水果图像,查看屏幕上的结果。

待办事项

  • 在 Arduino 上安装 XIAO ESPS3
  • 编译并上传
  • 安装 KWS Arduino 库并运行示例
  • 安装图像识别库并运行示例

资源

Loading Comments...