在群晖(Synology)NAS 上通过 Docker 环境部署 DeepSeek 蒸馏版(Distilled versions),是构建私有、低功耗“全家桶 AI”的最优路径。针对群晖硬件性能(多为 x86 架构 CPU,无独立显卡),部署核心在于利用 Ollama 作为后端引擎,并配合 Open WebUI 提供全家使用的前端界面。
一、 硬件选型与低功耗策略
群晖 NAS 的 CPU 推理能力有限,必须选择合适的蒸馏版模型以平衡响应速度与能耗。
| 模型版本 | 显存/内存要求 | 适用硬件 | 建议用途 |
|---|---|---|---|
| DeepSeek-R1-1.5B | ≥ 4GB | J4125 / N5105 等入门机型 | 简单对话、文本总结 |
| DeepSeek-R1-7B/8B | ≥ 8GB - 16GB | DS1621+ / DS1821+ (AMD V1500B) | 通用逻辑推演、日常助理 |
| DeepSeek-R1-14B | ≥ 16GB | 顶配 x86 型号(内存需手动扩容) | 复杂任务处理 |
注意: 建议将 NAS 内存升级至 16GB 或以上,以确保推理时系统不因内存溢出(OOM)而死机。
二、 部署步骤:使用 Container Manager (Docker)
群晖 DSM 7.2 及以上版本的 Container Manager 支持 Docker Compose 项目,方便一次性部署后端与前端。
1. 建立存储路径
在 File Station 中,于 docker 共享文件夹下创建以下子文件夹:
-
/docker/ollama:用于持久化存储模型数据。 -
/docker/open-webui:用于存储用户配置与对话记录。
2. 创建 Docker Compose 项目
打开 Container Manager → 项目 (Project) → 新增,选择存放路径,并将以下 YAML 脚本粘贴至“源码”区域:
YAML
version: '3.8'
services:
ollama:
image: ollama/ollama:latest
container_name: ollama
restart: always
volumes:
- /volume1/docker/ollama:/root/.ollama # 替换为实际路径
ports:
- "11434:11434"
open-webui:
image: ghcr.io/open-webui/open-webui:main
container_name: open-webui
restart: always
ports:
- "3000:8080"
environment:
- OLLAMA_BASE_URL=http://ollama:11434
depends_on:
- ollama
3. 下载蒸馏版模型
项目运行后,需手动通过命令行进入容器下载模型:
-
打开群晖的 终端机/SSH。
-
执行以下命令下载 7B 蒸馏版(推荐):
Bash
docker exec -it ollama ollama run deepseek-r1:7b(若硬件更弱,请将
7b改为1.5b)
三、 打造“全家桶 AI”体验
-
访问界面: 在浏览器输入
http://NAS_IP:3000即可访问 Open WebUI。首位注册用户将自动成为管理员。 -
多用户支持: 管理员可为家人创建独立账号。Open WebUI 支持对话历史云同步,每个人的记录相互独立。
-
低功耗优化:
-
量化模型: Ollama 默认运行 4-bit 量化版,能显著降低 CPU 占用。
-
自动休眠: 当无人发起对话时,Ollama 会自动从内存中卸载模型,恢复 NAS 的待机低功耗状态。
-
-
外网访问: 通过群晖的 控制面板 → 反向代理 (Reverse Proxy),将
https://ai.yourname.synology.me指向本地端口3000,实现全家随时随地调用私有 AI。
四、 性能调优建议
-
SSD 加速: 将 Docker 共享文件夹放在 SSD 存储空间上,可显著提升模型加载速度。
-
环境变量: 若推理速度过慢,可在 Ollama 容器中添加环境变量
OLLAMA_NUM_PARALLEL=1,限制并行请求以保障单条输出的流畅度。