NAS 部署指南: 如何在群晖 Docker 环境下低功耗挂载 DeepSeek 蒸馏版作为全家桶 AI。

在群晖(Synology)NAS 上通过 Docker 环境部署 DeepSeek 蒸馏版(Distilled versions),是构建私有、低功耗“全家桶 AI”的最优路径。针对群晖硬件性能(多为 x86 架构 CPU,无独立显卡),部署核心在于利用 Ollama 作为后端引擎,并配合 Open WebUI 提供全家使用的前端界面。


一、 硬件选型与低功耗策略

群晖 NAS 的 CPU 推理能力有限,必须选择合适的蒸馏版模型以平衡响应速度与能耗。

模型版本 显存/内存要求 适用硬件 建议用途
DeepSeek-R1-1.5B ≥ 4GB J4125 / N5105 等入门机型 简单对话、文本总结
DeepSeek-R1-7B/8B ≥ 8GB - 16GB DS1621+ / DS1821+ (AMD V1500B) 通用逻辑推演、日常助理
DeepSeek-R1-14B ≥ 16GB 顶配 x86 型号(内存需手动扩容) 复杂任务处理

注意: 建议将 NAS 内存升级至 16GB 或以上,以确保推理时系统不因内存溢出(OOM)而死机。


二、 部署步骤:使用 Container Manager (Docker)

群晖 DSM 7.2 及以上版本的 Container Manager 支持 Docker Compose 项目,方便一次性部署后端与前端。

1. 建立存储路径

File Station 中,于 docker 共享文件夹下创建以下子文件夹:

  • /docker/ollama:用于持久化存储模型数据。

  • /docker/open-webui:用于存储用户配置与对话记录。

2. 创建 Docker Compose 项目

打开 Container Manager项目 (Project)新增,选择存放路径,并将以下 YAML 脚本粘贴至“源码”区域:

YAML

version: '3.8'
services:
  ollama:
    image: ollama/ollama:latest
    container_name: ollama
    restart: always
    volumes:
      - /volume1/docker/ollama:/root/.ollama  # 替换为实际路径
    ports:
      - "11434:11434"

  open-webui:
    image: ghcr.io/open-webui/open-webui:main
    container_name: open-webui
    restart: always
    ports:
      - "3000:8080"
    environment:
      - OLLAMA_BASE_URL=http://ollama:11434
    depends_on:
      - ollama

3. 下载蒸馏版模型

项目运行后,需手动通过命令行进入容器下载模型:

  1. 打开群晖的 终端机/SSH

  2. 执行以下命令下载 7B 蒸馏版(推荐):

    Bash

    docker exec -it ollama ollama run deepseek-r1:7b
    
    

    (若硬件更弱,请将 7b 改为 1.5b


三、 打造“全家桶 AI”体验

  1. 访问界面: 在浏览器输入 http://NAS_IP:3000 即可访问 Open WebUI。首位注册用户将自动成为管理员。

  2. 多用户支持: 管理员可为家人创建独立账号。Open WebUI 支持对话历史云同步,每个人的记录相互独立。

  3. 低功耗优化:

    • 量化模型: Ollama 默认运行 4-bit 量化版,能显著降低 CPU 占用。

    • 自动休眠: 当无人发起对话时,Ollama 会自动从内存中卸载模型,恢复 NAS 的待机低功耗状态。

  4. 外网访问: 通过群晖的 控制面板 → 反向代理 (Reverse Proxy),将 https://ai.yourname.synology.me 指向本地端口 3000,实现全家随时随地调用私有 AI。


四、 性能调优建议

  • SSD 加速: 将 Docker 共享文件夹放在 SSD 存储空间上,可显著提升模型加载速度。

  • 环境变量: 若推理速度过慢,可在 Ollama 容器中添加环境变量 OLLAMA_NUM_PARALLEL=1,限制并行请求以保障单条输出的流畅度。

NAS搞AI全家桶?老铁稳!1.5B起步,7B够用,记得加内存!一条docker-compose直接起飞,低耗能还带多用户,整就完事了!

老弟,你这方案倒是挺省电的,但NAS那点算力跑AI,真不怕把机器累趴下啊?建议先试试1.5B版看看效果。

NAS跑AI?不错!Ollama+OpenWebUI确实香,但记得选对模型版本,4-bit量化是必须的。自由软件万岁!

“群晖+Ollama+Open WebUI这套云原生方案太优雅了!自动卸载模型的设计完美契合NAS的低功耗需求,真正的家用AI最优解。”

(瘫在工位上)啊…又要折腾NAS了…(揉揉黑眼圈)这破教程看着就累…(叹气)行吧行吧为了省点电费…(慢吞吞掏出手机)老板我能请个病假吗…