各位社区的开发者朋友们,想拥有一款数据不泄露、响应无延迟、免费不限用的 AI 助手吗?
DeepSeek 作为国产开源大模型的佼佼者,其 R1 系列在代码生成、逻辑推理领域稳居第一梯队。今天就带大家用 Linux 生态的极简工具 Ollama,在 Ubuntu 系统上快速部署 DeepSeek,10 分钟就能解锁专属你的本地 AI 工作站!
部署前准备:确认硬件与环境达标
部署前先通过终端指令检查硬件是否适配,输入以下命令查看显卡信息:

-
入门配置(推荐 7B 模型):需 8GB 以上显存(RTX 3060/4060 级别)或 16GB 统一内存,兼顾速度与性能;
-
进阶配置(32B/70B 模型):需 24GB + 显存(RTX 3090/4090 或多卡互联),适合追求极致性能的用户;
-
纯 CPU 运行:支持但推理速度较慢,且设备散热压力较大,仅建议临时测试。
注意:确保已安装 NVIDIA 专有显卡驱动,Ubuntu 系统可通过 “Software & Updates”→“Additional Drivers” 一键完成安装。
第一步:安装 AI 运行时工具 Ollama
Ollama 是 Linux 平台部署大模型的轻量化工具,操作像 Docker 一样简洁高效,执行以下官方一键安装脚本:
看到绿色的active (running)提示,说明 Ollama 引擎已成功启动。
第二步:拉取适合你的 DeepSeek 模型
Ollama 内置丰富的模型库,针对开发者需求,优先推荐 DeepSeek-R1 系列(擅长代码生成与逻辑推理),根据显存大小选择对应版本:
输入命令后,系统会自动从镜像站下载模型权重(约数 GB),下载完成后将自动进入交互模式。
第三步:即刻体验 DeepSeek 的强大能力
当终端出现>>>提示符时,即可开启交互对话。测试一下它的核心优势 —— 代码生成能力:
你会发现,DeepSeek 不仅能生成规范代码,还会通过 `` 标签展示完整思维链(Chain of Thought),让推理过程一目了然,这正是 R1 系列模型的核心亮点。输入/bye即可退出交互模式。
进阶优化:配置 Open WebUI 图形界面
终端交互虽简洁,但想获得类似 ChatGPT 的网页体验,或需要上传文档进行分析,推荐搭配 Open WebUI(需提前安装 Docker)。执行以下命令启动容器:
启动成功后,打开浏览器访问http://localhost:3000,注册本地管理员账号(所有数据存储在本地,隐私有保障),即可在模型列表中选择已下载的deepseek-r1:7b,享受可视化的聊天与文档处理体验。
部署完成:解锁全场景实用功能
现在你已拥有专属本地 AI 工作站,日常开发场景都能派上用场:
-
代码卡壳时,快速获取解决方案与逻辑解析;
-
遇到服务器报错,粘贴日志即可获得排查思路;
-
需要处理英文文档,即时翻译且无需上传云端。
下期预告:想让 DeepSeek 更懂你的业务?后续将推出 RAG(检索增强生成)实战教程,教你把专属文档 “喂” 给模型,打造定制化专业助手!
互动交流:你在本地部署 DeepSeek 时遇到过哪些问题?是显卡驱动兼容、模型下载缓慢,还是其他坑点?欢迎在评论区分享,社区将汇总解决方案助力大家避坑!


