在树莓派AI盒子上部署DeepSeek
介绍
本wiki解释了如何使用Ollama部署框架在树莓派AI盒子上部署DeepSeek模型。Ollama简化了在树莓派等紧凑硬件上安装和运行AI模型的过程,处理依赖管理和系统配置。在本指南中,您将找到关于设置环境、安装必要软件和启动DeepSeek模型的清晰分步说明。本资源面向希望在低功耗设备上利用AI能力的开发者和AI爱好者。
准备硬件
reComputer AI R2130 |
---|
![]() |
准备软件
更新系统:
sudo date -s "$(wget -qSO- --max-redirect=0 google.com 2>&1 | grep Date: | cut -d' ' -f5-8)Z"
sudo apt update
sudo apt full-upgrade
安装Ollama
使用Ctrl+Alt+T
打开一个终端,输入如下命令安装ollama:
curl -fsSL https://ollama.com/install.sh | sh
安装并运行deepseek模型
然后输入如下命令安装并运行deepseek 7b模型:
ollama run deepseek-r1
结果
在这个演示中,我使用了DeepSeek 1.5b模型。您可以根据需求和硬件容量选择使用哪个模型。
技术支持与产品讨论
感谢您选择我们的产品!我们在这里为您提供不同的支持,以确保您使用我们产品的体验尽可能顺畅。我们提供多种沟通渠道,以满足不同的偏好和需求。