RAG local basado en Jetson con LlamaIndex
Introducción
Hoy en día, cada vez más personas están comenzando a usar modelos de lenguaje grandes para resolver problemas cotidianos. Sin embargo, los modelos de lenguaje grandes pueden exhibir alucinaciones y proporcionar a los usuarios información incorrecta al responder ciertas preguntas. No obstante, la tecnología RAG puede reducir la ocurrencia de alucinaciones proporcionando datos relevantes a los modelos de lenguaje grandes. Por lo tanto, usar la tecnología RAG para reducir la generación de alucinaciones en modelos de lenguaje grandes se ha convertido en una tendencia.
Y aquí te presentamos RAG basado en Jetson, que utiliza LlamaIndex como el marco RAG, ChromaDB como la base de datos vectorial, y el modelo cuantizado Llama2-7b LLM MLC como el modelo de preguntas y respuestas. Con este proyecto RAG local, puede proteger la privacidad de tus datos y proporcionarte una experiencia de comunicación de baja latencia.
Componentes de hardware
reComputer (basado en Jetson con RAM >= 16GB) |
---|
![]() |
Preparar el entorno de ejecución
Paso 1: Instalar MLC Jetson Container
# Install jetson-container and its requirements
git clone --depth=1 https://github.com/dusty-nv/jetson-containers
cd jetson-containers
pip install -r requirements.txt
Paso 2: Instalar proyecto
# Install RAG project
cd data
git clone https://github.com/Seeed-Projects/RAG_based_on_Jetson.git
Paso 3: Instalar modelo Llama2-7b cuantizado por MLC LLM
# Install LLM model
sudo apt-get install git-lfs
cd RAG_based_on_Jetson
git clone https://huggingface.co/JiahaoLi/llama2-7b-MLC-q4f16-jetson-containers
Paso 4: Ejecutar el docker e instalar requisitos
cd ../../
./run.sh $(./autotag mlc)
# Here you will enter the Docker, and the commands below will run inside the Docker
cd data/RAG_based_on_Jetson/
pip install -r requirements.txt
pip install chromadb==0.3.29
Después de ejecutar pip install chromadb==0.3.29
obtendrás la interfaz como se muestra a continuación.
Está bien ignorar el error.
Vamos a ejecutarlo
# Run in the docker
python3 RAG.py
Perspectiva del Proyecto
En este proyecto, los documentos TXT y PDF fueron analizados como bases de datos vectoriales, y se utilizó la tecnología RAG para reducir las alucinaciones del modelo sobre problemas específicos. En el futuro, utilizaremos modelos multimodales para soportar la recuperación de imágenes y videos.