在 Raspberry Pi AI Box 上部署 DeepSeek
note
本文档由 AI 翻译。如您发现内容有误或有改进建议,欢迎通过页面下方的评论区,或在以下 Issue 页面中告诉我们:https://github.com/Seeed-Studio/wiki-documents/issues
简介
本文档解释了如何使用 Ollama 部署框架在 Raspberry Pi AI Box 上部署 DeepSeek 模型。Ollama 简化了在 Raspberry Pi 等紧凑型硬件上安装和运行 AI 模型的过程,处理依赖管理和系统配置。在本指南中,您将找到清晰的分步说明,包括如何设置环境、安装必要的软件以及启动 DeepSeek 模型。本资源面向希望在低功耗设备上利用 AI 能力的开发者和 AI 爱好者。
准备硬件
reComputer AI R2130 |
---|
![]() |
准备软件
更新系统:
sudo date -s "$(wget -qSO- --max-redirect=0 google.com 2>&1 | grep Date: | cut -d' ' -f5-8)Z"
sudo apt update
sudo apt full-upgrade
安装 Ollama
打开一个终端(使用 Ctrl+Alt+T
),并输入以下命令来安装 Ollama:
curl -fsSL https://ollama.com/install.sh | sh
安装并运行 DeepSeek 模型
然后输入以下命令来安装并运行 DeepSeek 7b 模型:
ollama run deepseek-r1
结果
在本次演示中,我使用了 DeepSeek 1.5b 模型。您可以根据需求和硬件的容量选择使用哪个模型。
技术支持与产品讨论
感谢您选择我们的产品!我们为您提供多种支持渠道,以确保您使用我们的产品时体验顺畅。我们提供多种沟通方式,以满足不同的偏好和需求。