Saltar al contenido principal

Descripción general de SenseCraft AI

SenseCraft AI es una plataforma todo en uno diseñada para capacitar a desarrolladores y creadores en la construcción y el despliegue de proyectos de IA con facilidad. El sitio web ofrece una amplia gama de herramientas y funciones para optimizar el proceso de desarrollo de IA, haciéndolo accesible a usuarios con distintos niveles de experiencia. En este wiki, exploraremos las secciones principales del sitio web de SenseCraft AI, proporcionando una descripción general de sus características y funcionalidades clave.

Inicio

La página de inicio de SenseCraft AI sirve como el centro principal, proporcionando a los usuarios una visión general de las funcionalidades principales de la plataforma. La barra de navegación en la parte superior de la página incluye cinco secciones principales: Home, Pretrained Models, Training, Vision Workspace y About SenseCraft AI.

El enfoque principal de la página de inicio es la sección Start your journey: Deploy a pretrained Model, que guía a los usuarios a través de un proceso paso a paso para desplegar un modelo preentrenado utilizando hardware de Seeed Studio. El proceso se divide en tres pasos principales:

  1. Seleccionar un modelo preentrenado del repositorio de modelos.
  2. Desplegar y previsualizar los resultados del modelo en tiempo real utilizando la función "Deploy and Preview Vision".
  3. Aplicar el modelo al hardware de Seeed Studio conectado y ver la salida del sensor.

Esta función es especialmente útil para los usuarios que desean experimentar rápidamente con modelos de IA sin tener que pasar por todo el proceso de entrenamiento por sí mismos.

Más abajo en la página, los usuarios encontrarán una introducción a la función "Training Models". Esta sección clasifica el contenido relacionado con el entrenamiento de modelos, lo que facilita que los usuarios encuentren la información que necesitan para entrenar sus propios modelos de IA utilizando los recursos de la plataforma.

Por último, la página de inicio muestra la función "Sharing Vision AI Models", que fomenta la colaboración y el intercambio de conocimientos entre la comunidad de SenseCraft AI. Esta función permite a los usuarios compartir sus modelos entrenados con otros, promoviendo un sentido de comunidad y permitiendo que los usuarios construyan sobre el trabajo de los demás.

Cuenta de usuario

SenseCraft AI es una plataforma abierta que permite a los usuarios navegar por todos los modelos de IA públicos y las páginas de Inicio sin iniciar sesión. Solo necesitas registrarte e iniciar sesión cuando necesites desplegar un modelo o compartir tu propio modelo.

SenseCraft AI y SenseCraft Data Platform (plataforma original SenseCAP Cloud) son ambos servicios de software proporcionados por Seeed Studio para los usuarios; los usuarios solo necesitan registrarse para obtener una cuenta en cualquiera de las plataformas y luego pueden usar la misma cuenta para iniciar sesión en ambas plataformas.

Registrarse

  1. Introduce tu nombre y un correo electrónico válido, y luego haz clic en get capcha
  1. Obtén el código de verificación de tu correo electrónico e introdúcelo en la página de registro
nota

el código de verificación es válido durante 10 minutos, completa el registro dentro de los 10 minutos

  1. Introduce tu contraseña y otra información de usuario para completar tu registro.

Iniciar sesión

Inicia sesión con la cuenta de correo electrónico con la que te registraste

Olvidar la contraseña

Si olvidas la contraseña de tu cuenta, introduce tu cuenta válida y obtén el código de verificación para establecer una nueva contraseña.

El período de validez del código de verificación es de 10 minutos, completa el restablecimiento dentro de los 10 minutos.

Cambiar la contraseña

  1. Visita la página de cuenta de usuario y haz clic en el botón "Change your password".

  2. Introduce la contraseña antigua y la nueva contraseña para cambiar la contraseña.

Modelos preentrenados

La sección de Modelos preentrenados del sitio web de SenseCraft AI es un repositorio completo de modelos de IA a los que los usuarios pueden acceder y desplegar fácilmente en sus dispositivos. El repositorio de modelos actualmente alberga una impresionante colección de más de 400 modelos, y se siguen añadiendo más de forma continua.

Categorías de modelos

Para ayudar a los usuarios a encontrar el modelo más adecuado para sus necesidades, el lado izquierdo de la página muestra una lista categorizada de modelos. Los usuarios pueden filtrar los modelos en función de varios criterios, tales como:

  • Dispositivos compatibles: Los usuarios pueden seleccionar modelos que sean compatibles con el hardware específico que están utilizando, garantizando una integración fluida y un rendimiento óptimo.

  • Tarea: Los modelos se clasifican según las tareas que están diseñados para realizar, como Detección, Clasificación o Segmentación. Esto permite a los usuarios identificar rápidamente los modelos que se alinean con los requisitos de su proyecto.

  • Publicador: Los usuarios también pueden filtrar los modelos en función del publicador, lo que facilita encontrar modelos de fuentes de confianza o de desarrolladores específicos.

Detalles del modelo

El área central de la página de Modelos preentrenados muestra información esencial sobre cada modelo, incluido su nombre, una breve descripción y una representación visual. Esta vista rápida ayuda a los usuarios a hacerse una idea de lo que ofrece cada modelo y de cómo podría encajar en sus proyectos.

Para acceder a información más detallada sobre un modelo específico, los usuarios solo tienen que hacer clic en la tarjeta del modelo. Esto los llevará a una página dedicada a ese modelo, donde podrán encontrar descripciones detalladas, métricas de rendimiento e instrucciones paso a paso sobre cómo instalar y usar el modelo en sus dispositivos.

Mis propios modelos

Además de los modelos de IA públicos disponibles en el repositorio, SenseCraft AI también proporciona un espacio personalizado para los usuarios que han entrenado o subido sus propios modelos. Al iniciar sesión en su cuenta de SenseCraft AI, los usuarios pueden acceder a la sección "My Own Models", donde pueden encontrar y gestionar sus modelos privados.

Los modelos en la sección "My Own Models" son completamente privados y solo pueden ser accedidos por el usuario que los creó. Sin embargo, los usuarios tienen la opción de hacer públicos sus modelos, permitiendo que otros miembros de la comunidad de SenseCraft AI se beneficien de su trabajo. Esta función promueve la colaboración y el intercambio de conocimientos entre los usuarios, fomentando una comunidad vibrante y solidaria de entusiastas de la IA.

Entrenamiento

La sección de Entrenamiento del sitio web de SenseCraft AI está diseñada para ayudar a los usuarios a crear modelos personalizados adaptados a sus casos de uso específicos. Actualmente, la página de Entrenamiento ofrece dos tipos de entrenamiento: Clasificación y Detección de objetos.

Clasificación

El entrenamiento de Clasificación se basa en TensorFlow y es completamente web, eliminando cualquier limitación del sistema operativo. Esta función permite a los usuarios entrenar modelos utilizando imágenes capturadas desde la cámara de su ordenador local o desde productos de Seeed Studio. Para entrenar un modelo, los usuarios solo necesitan recopilar 40-50 imágenes por clase, sin necesidad de etiquetado manual. El proceso de entrenamiento es rápido y tarda solo unos minutos en generar un modelo. Además, la interfaz web proporciona funcionalidad de vista previa en tiempo real, lo que permite a los usuarios ver al instante los resultados de su modelo entrenado.

Detección de objetos

El entrenamiento de Detección de objetos se basa en el modelo YOLO-World y se divide en dos subsecciones: Quick Training y Image Collection Training.

  • Quick Training: Esta opción permite a los usuarios generar un modelo de reconocimiento de una sola clase simplemente introduciendo el nombre del objeto. Tal como se explica en el sitio web, "Based on YOLO - World object detection model, you can quickly generate a single-class recognition model by inputting text."

La opción Quick Training dentro del entrenamiento de Detección de objetos está impulsada por el modelo de detección de objetos YOLO-World, que es un sistema de detección de objetos en tiempo real de última generación. Cuando un usuario introduce el nombre de un objeto, el sistema aprovecha el conocimiento preentrenado del modelo YOLO-World para generar un modelo de reconocimiento de una sola clase específicamente adaptado para detectar ese objeto.

La familia de modelos YOLO (You Only Look Once) es conocida por su velocidad y precisión en tareas de detección de objetos. Divide la imagen de entrada en una cuadrícula y predice cuadros delimitadores y probabilidades de clase para cada celda de la cuadrícula. El modelo YOLO-World, en particular, ha sido entrenado con un vasto conjunto de datos que cubre una amplia gama de objetos, lo que le permite generalizar bien a diversas tareas de detección.

Al basarse en el modelo YOLO-World, la opción de Entrenamiento Rápido hereda sus sólidas capacidades de extracción de características y localización de objetos. El modelo preentrenado sirve como una base sólida, lo que permite a los usuarios generar rápidamente un modelo de reconocimiento de una sola clase sin necesidad de grandes cantidades de datos de entrenamiento ni de recursos computacionales.

Sin embargo, es importante reconocer que la opción de Entrenamiento Rápido puede tener limitaciones en términos de adaptabilidad y precisión. Como el modelo generado se basa en el conocimiento preexistente del modelo YOLO-World, es posible que no siempre capture las características únicas o variaciones del objeto especificado por el usuario. Esto puede conducir a una menor precisión o a detecciones erróneas en ciertos escenarios.

  • Entrenamiento con Colección de Imágenes: Esta opción requiere que los usuarios introduzcan el nombre del objeto y suban imágenes relevantes. El sitio web describe esta función de la siguiente manera: "Based on YOLO - World object detection model, you can customize the training for text and image, which can improve the detection accuracy of the generated model."

La opción de Entrenamiento con Colección de Imágenes en SenseCraft AI permite a los usuarios entrenar un modelo de detección de objetos personalizado utilizando su propio conjunto de datos, sin necesidad de anotación manual de imágenes. Esta función se basa en el modelo de detección de objetos YOLO-World y utiliza un enfoque de entrenamiento especializado que elimina el requisito de etiquetado de cajas delimitadoras o segmentación de objetos.

El principio clave detrás de esta opción de entrenamiento es el concepto de aprendizaje débilmente supervisado. En el aprendizaje débilmente supervisado, el modelo aprende a detectar objetos utilizando únicamente etiquetas a nivel de imagen, sin necesidad de una localización precisa de los objetos ni de anotaciones de cajas delimitadoras. El modelo YOLO-World, que sirve como base para el Entrenamiento con Colección de Imágenes, ha sido diseñado para aprovechar este enfoque de manera eficaz.

Durante el proceso de entrenamiento, los usuarios proporcionan un conjunto de imágenes junto con los nombres de los objetos correspondientes que desean detectar. El modelo entonces aprende a asociar los patrones visuales y las características presentes en las imágenes con los nombres de objetos proporcionados. Al exponer el modelo a una amplia variedad de imágenes que contienen los objetos de interés, este aprende a generalizar y detectar dichos objetos en imágenes nuevas y no vistas.

La arquitectura y la metodología de entrenamiento del modelo YOLO-World le permiten descubrir y localizar automáticamente objetos dentro de las imágenes, sin necesidad de anotaciones explícitas de cajas delimitadoras. Esto se logra mediante una combinación de redes neuronales convolucionales (CNN) y funciones de pérdida especializadas que guían al modelo a centrarse en las regiones más informativas de las imágenes.

Al eliminar la necesidad de anotación manual de imágenes, la opción de Entrenamiento con Colección de Imágenes reduce significativamente el esfuerzo y el tiempo necesarios para crear un modelo de detección de objetos personalizado. Los usuarios simplemente pueden recopilar un conjunto de datos de imágenes que contengan los objetos que desean detectar, proporcionar los nombres de los objetos y dejar que el modelo aprenda a reconocer esos objetos automáticamente.

Sin embargo, es importante tener en cuenta que la calidad y la diversidad del conjunto de datos siguen desempeñando un papel crucial en el rendimiento del modelo resultante. La capacidad del modelo para generalizar y detectar objetos con precisión depende de la variedad y representatividad de las imágenes de entrenamiento. Los usuarios deben esforzarse por recopilar un conjunto de datos que cubra diferentes apariencias del objeto, poses, fondos y condiciones de iluminación para garantizar un rendimiento sólido.

Al proporcionar estas dos opciones de entrenamiento, SenseCraft AI permite a los usuarios crear modelos de detección de objetos personalizados que están optimizados para sus necesidades específicas. La opción de Entrenamiento Rápido es ideal para usuarios que necesitan un modelo de reconocimiento sencillo de una sola clase y desean generarlo rápidamente. Por otro lado, la opción de Entrenamiento con Colección de Imágenes es adecuada para usuarios que requieren un modelo más preciso y personalizado, ya que les permite proporcionar sus propios datos de entrenamiento en forma de nombres de objetos e imágenes.

Publicación de modelos

SenseCraft AI es una plataforma que admite la cocreación de contenido para desarrolladores y modeladores. ¡Comparte tus resultados con la comunidad global de desarrolladores! Mientras tanto, a través de nuestra plataforma abierta de IA, tendrás la oportunidad de combinar tus modelos de IA con necesidades de comercialización, proporcionando soluciones valiosas para empresas y usuarios de diferentes industrias. ¡Esperamos tu participación y contribución para lograr conjuntamente la innovación y la aplicación de la tecnología de IA en el ámbito comercial!

  1. Para añadir un modelo necesitas completar la siguiente información:
  • Nombre del modelo
  • Extracto del modelo: una descripción sencilla del modelo
  • Introducción del modelo: descripción detallada del modelo
  • Preparación para el despliegue del modelo: requisitos previos para el despliegue del modelo, no obligatorio
  • Dispositivo compatible: elige en qué dispositivo se desplegará el modelo; actualmente la plataforma admite dispositivos Jetson, XIAO ESP32-S3, etc.
  • Imagen de ejemplo de inferencia del modelo: sube una imagen de los resultados de inferencia del modelo
  1. Haz clic en Siguiente cuando la información esté completa.
  1. Introduce la siguiente información sobre los parámetros del modelo.
  2. Publicar el modelo en la biblioteca pública de modelos de IA está marcado de forma predeterminada; el modelo será visible para todos después de guardarlo. Si se desmarca, el modelo será visible solo para ti después de guardarlo.
Contenido
Formato del modelo1 El formato correcto para el modelo
2 Opciones:ONNX, Tensor RT, Pytorch
3 La plataforma admitirá más formatos de modelo
Tarea1 El tipo de tarea del modelo
2 Opciones:Detection,Classification,Segment,Pose
Framework de IA1 El framework de IA del modelo
2 Opciones:YOLOV5,YOLOV8,FOMO,ModileNetV2,PFLD
3 La plataforma admitirá más frameworks de IA
Clases1 Clases o etiquetas con las que el modelo categoriza para una tarea o problema específico
2 Asegúrate de que el id de clase y el nombre de clase coincidan correctamente.
Archivo del modeloSube un archivo de modelo en el formato de tu elección.
Precisión del modelo1 Precisión del modelo
2 Opciones:Int8,Float16,Float32
nota

Para garantizar el desarrollo saludable de nuestra plataforma, revisaremos los modelos y el contenido publicados por los usuarios. Si se encuentra algún contenido ilegal, no conforme o infractor, no se permitirá su publicación y podrá ser eliminado en consecuencia. ¡Gracias por tu comprensión y apoyo para mantener un entorno de plataforma saludable!

Gestión de modelos de IA personalizados

Los usuarios tienen todos los permisos para operar sus propios modelos.

Publicar modelo: Publica un modelo privado que estará disponible para todos los usuarios.

Privatizar modelo: Privatiza un modelo público; el modelo solo será visible para ti.

Eliminar modelo: Elimina un modelo privado; no se permite eliminar modelos públicos.

Editar modelo: Permite modificar toda la información del modelo.

Espacio de trabajo de Visión

La sección Espacio de trabajo de Visión de SenseCraft AI está dedicada a las operaciones específicas del dispositivo y al despliegue de modelos entrenados. Proporciona una interfaz fluida para que los usuarios integren sus modelos personalizados con varios dispositivos de hardware y previsualicen los resultados en tiempo real. Actualmente, los dispositivos compatibles incluyen Grove Vision AI V2, XIAO ESP32S3 Sense, NVIDIA Jetson y reCamera.

Despliegue y vista previa del modelo

Una vez que un usuario ha subido correctamente un modelo entrenado, puede navegar a la página específica del dispositivo dentro del Espacio de trabajo de Visión. En la sección "Process", los usuarios pueden observar la transmisión de detección en tiempo real desde el dispositivo conectado, lo que les permite previsualizar el rendimiento del modelo en acción.

Esta función de vista previa en tiempo real es especialmente valiosa, ya que permite a los usuarios evaluar la precisión y eficacia del modelo para detectar objetos dentro del flujo de vídeo del dispositivo. Los usuarios pueden inspeccionar visualmente las cajas delimitadoras, las etiquetas y las puntuaciones de confianza generadas por el modelo, lo que proporciona una retroalimentación inmediata sobre su rendimiento.

Ajuste fino del modelo

Además de la vista previa en tiempo real, el Espacio de trabajo de Visión también ofrece la capacidad de ajustar finamente el parámetro de umbral de confianza del modelo. Esta función permite a los usuarios ajustar la sensibilidad del modelo a la detección de objetos, lo que les permite encontrar un equilibrio entre precisión y exhaustividad.

Al manipular el umbral de confianza, los usuarios pueden controlar el comportamiento del modelo en términos de detección de objetos. Un umbral de confianza más alto hará que el modelo sea más selectivo, detectando solo objetos con un alto grado de certeza. Por el contrario, un umbral de confianza más bajo hará que el modelo sea más sensible, detectando objetos incluso con puntuaciones de confianza más bajas.

Esta capacidad de ajuste fino permite a los usuarios adaptar el modelo a sus requisitos específicos, optimizando su rendimiento en función de las características de su aplicación y del entorno en el que opera el dispositivo.

Salida y desarrollo de aplicaciones

Vision Workspace va más allá del despliegue y la vista previa de modelos al proporcionar a los usuarios las herramientas para crear rápidamente prototipos y desarrollar aplicaciones utilizando los modelos entrenados. La sección "Output" ofrece una variedad de opciones para que los usuarios interactúen con los resultados del modelo e integren dichos resultados en las aplicaciones que deseen.

Tomando como ejemplo el XIAO ESP32S3 Sense, Vision Workspace es compatible con varios protocolos e interfaces de comunicación, como MQTT, GPIO y puerto serie. Estas opciones permiten a los usuarios transmitir sin problemas la salida del modelo a otros sistemas, activar acciones basadas en la detección de objetos o realizar un procesamiento adicional sobre los resultados detectados.

Al ofrecer estas opciones de salida, SenseCraft AI simplifica el proceso de integración de los modelos entrenados en aplicaciones prácticas. Los usuarios pueden experimentar rápidamente con diferentes métodos de comunicación y desarrollar prototipos que aprovechen las capacidades de detección de objetos de sus modelos.

Por ejemplo, un usuario podría utilizar la salida MQTT para enviar datos de detección de objetos en tiempo real a un servidor remoto con fines de supervisión o análisis. Alternativamente, podría usar la salida GPIO para activar acciones físicas, como encender una luz o activar una alarma en función de la presencia de objetos específicos.

La salida por puerto serie proporciona una forma sencilla de establecer comunicación entre el dispositivo y otros sistemas, lo que permite a los usuarios transmitir los resultados del modelo para su posterior procesamiento o visualización.

Soporte técnico y debate sobre productos

Gracias por elegir nuestros productos. Estamos aquí para ofrecerte diferentes tipos de soporte y garantizar que tu experiencia con nuestros productos sea lo más fluida posible. Ofrecemos varios canales de comunicación para adaptarnos a distintas preferencias y necesidades.

Loading Comments...