基于 Jetson 和 LlamaIndex 的本地 RAG
note
本文档由 AI 翻译。如您发现内容有误或有改进建议,欢迎通过页面下方的评论区,或在以下 Issue 页面中告诉我们:https://github.com/Seeed-Studio/wiki-documents/issues
简介
如今,越来越多的人开始使用大型语言模型来解决日常问题。然而,大型语言模型在回答某些问题时可能会出现幻觉,并向用户提供错误的信息。然而,RAG 技术可以通过向大型语言模型提供相关数据来减少幻觉的发生。因此,使用 RAG 技术来减少大型语言模型生成幻觉已经成为一种趋势。
在这里,我们向您介绍 基于 Jetson 的 RAG,它使用 LlamaIndex 作为 RAG 框架,ChromaDB 作为向量数据库,以及量化的 Llama2-7b 模型 LLM MLC 作为问答模型。通过这个本地 RAG 项目,它可以保护您的数据隐私,并为您提供低延迟的通信体验。
硬件组件
reComputer(基于 Jetson,RAM >= 16GB) |
---|
![]() |
准备运行环境
第一步:安装 MLC Jetson 容器
# 安装 jetson-container 及其依赖项
git clone --depth=1 https://github.com/dusty-nv/jetson-containers
cd jetson-containers
pip install -r requirements.txt
第二步:安装项目
# 安装 RAG 项目
cd data
git clone https://github.com/Seeed-Projects/RAG_based_on_Jetson.git
第三步:安装由 MLC LLM 量化的 Llama2-7b 模型
# 安装 LLM 模型
sudo apt-get install git-lfs
cd RAG_based_on_Jetson
git clone https://huggingface.co/JiahaoLi/llama2-7b-MLC-q4f16-jetson-containers
第四步:运行 Docker 并安装依赖项
cd ../../
./run.sh $(./autotag mlc)
# 此时您将进入 Docker,以下命令将在 Docker 内运行
cd data/RAG_based_on_Jetson/
pip install -r requirements.txt
pip install chromadb==0.3.29
运行 pip install chromadb==0.3.29
后,您将看到如下界面。
note
可以忽略错误提示。
运行项目
# 在 Docker 中运行
python3 RAG.py
项目展望
在本项目中,TXT 和 PDF 文档被解析为向量数据库,并使用 RAG 技术减少模型对特定问题的幻觉。在未来,我们将使用多模态模型来支持图像和视频的检索。