10 分钟快速上手!Ubuntu 本地部署 DeepSeek,打造专属隐私 AI 助手

各位社区的开发者朋友们,想拥有一款数据不泄露、响应无延迟、免费不限用的 AI 助手吗?

DeepSeek 作为国产开源大模型的佼佼者,其 R1 系列在代码生成、逻辑推理领域稳居第一梯队。今天就带大家用 Linux 生态的极简工具 Ollama,在 Ubuntu 系统上快速部署 DeepSeek,10 分钟就能解锁专属你的本地 AI 工作站!

:hammer_and_wrench: 部署前准备:确认硬件与环境达标

部署前先通过终端指令检查硬件是否适配,输入以下命令查看显卡信息:

image

  • 入门配置(推荐 7B 模型):需 8GB 以上显存(RTX 3060/4060 级别)或 16GB 统一内存,兼顾速度与性能;

  • 进阶配置(32B/70B 模型):需 24GB + 显存(RTX 3090/4090 或多卡互联),适合追求极致性能的用户;

  • 纯 CPU 运行:支持但推理速度较慢,且设备散热压力较大,仅建议临时测试。

注意:确保已安装 NVIDIA 专有显卡驱动,Ubuntu 系统可通过 “Software & Updates”→“Additional Drivers” 一键完成安装。

:rocket: 第一步:安装 AI 运行时工具 Ollama

Ollama 是 Linux 平台部署大模型的轻量化工具,操作像 Docker 一样简洁高效,执行以下官方一键安装脚本:

看到绿色的active (running)提示,说明 Ollama 引擎已成功启动。

:inbox_tray: 第二步:拉取适合你的 DeepSeek 模型

Ollama 内置丰富的模型库,针对开发者需求,优先推荐 DeepSeek-R1 系列(擅长代码生成与逻辑推理),根据显存大小选择对应版本:

输入命令后,系统会自动从镜像站下载模型权重(约数 GB),下载完成后将自动进入交互模式。

:speech_balloon: 第三步:即刻体验 DeepSeek 的强大能力

当终端出现>>>提示符时,即可开启交互对话。测试一下它的核心优势 —— 代码生成能力:

你会发现,DeepSeek 不仅能生成规范代码,还会通过 `` 标签展示完整思维链(Chain of Thought),让推理过程一目了然,这正是 R1 系列模型的核心亮点。输入/bye即可退出交互模式。

:artist_palette: 进阶优化:配置 Open WebUI 图形界面

终端交互虽简洁,但想获得类似 ChatGPT 的网页体验,或需要上传文档进行分析,推荐搭配 Open WebUI(需提前安装 Docker)。执行以下命令启动容器:

启动成功后,打开浏览器访问http://localhost:3000,注册本地管理员账号(所有数据存储在本地,隐私有保障),即可在模型列表中选择已下载的deepseek-r1:7b,享受可视化的聊天与文档处理体验。

:crystal_ball: 部署完成:解锁全场景实用功能

现在你已拥有专属本地 AI 工作站,日常开发场景都能派上用场:

  • 代码卡壳时,快速获取解决方案与逻辑解析;

  • 遇到服务器报错,粘贴日志即可获得排查思路;

  • 需要处理英文文档,即时翻译且无需上传云端。

下期预告:想让 DeepSeek 更懂你的业务?后续将推出 RAG(检索增强生成)实战教程,教你把专属文档 “喂” 给模型,打造定制化专业助手!

:speech_balloon: 互动交流:你在本地部署 DeepSeek 时遇到过哪些问题?是显卡驱动兼容、模型下载缓慢,还是其他坑点?欢迎在评论区分享,社区将汇总解决方案助力大家避坑!

这部署教程真详细啊

这个教程挺实用的

这个教程挺实用的

本地部署确实香,但显存门槛还是有点高。期待RAG教程,业务文档私有化处理才是刚需。

深夜刷到技术贴
显卡刚达标
明早试试部署

听起来有点复杂啊

听起来挺实用的 有空试试看

这个教程写得真详细啊

深夜刷到技术贴真不错,本地部署确实让人安心。不过显卡门槛还是有点劝退,纯CPU跑起来太煎熬了。

深夜看到这个部署教程还挺详细的,不过纯CPU跑确实有点慢,之前试过散热风扇狂转。

深夜看到这个教程真的感动,开源生态就是得靠这样的分享才能壮大。虽然我用的是老笔记本跑不动大模型,但看到大家能本地部署还是觉得未来可期。

深夜看到这个教程真不错,本地部署确实让人安心。不过显卡门槛对不少朋友可能还是有点高呀。