DeepSeek-R1 一周年:算法库惊现“MODEL1”,R2 要来了?

2025年1月20日,DeepSeek-R1 正式发布一周年。这款模型首次让国产大模型站上全球舞台中央,彻底点燃开源AI时代。
就在周年纪念日深夜,开发者社区突然沸腾:DeepSeek 的 FlashMLA 核心算法库更新,代码中多次出现神秘的 “MODEL1” 引用。

DeepSeek-R1 已满一岁,但期待已久的 R2 仍未现身。这个“MODEL1”极有可能就是 R2 的代号!

FlashMLA 是 DeepSeek 为 Hopper 架构(如 H800)优化的 Multi-head Latent Attention(MLA)解码内核,曾为 V3 和 V3.2-Exp 提供核心支持。代码中约 28 处提及“MODEL1”,并伴随 KV 缓存优化与 576B 步幅稀疏 FP8 解码支持。这被视为新模型即将发布的强烈信号——时机恰好卡在 R1 一周年。

R1 如何重塑开源AI?

Hugging Face 在周年之际发文指出,DeepSeek-R1 真正改变了开源生态,它降低了三重关键壁垒:

  1. 技术壁垒:公开推理路径与后训练方法,让高级推理能力从封闭 API 变为可下载、可蒸馏、可微调的工程资产。许多团队无需从零训练即可获得强大推理能力。

  1. 采用壁垒:MIT 许可证让使用、修改、再分发变得极简。企业直接将 R1 投入生产,蒸馏与领域适应成为常规操作。
  2. 心理壁垒:从“我们能做到吗?”转向“我们如何做得更好?”,彻底激活全球社区,尤其是中国AI生态的自信。

R1 曾以开源推理模型身份匹敌 OpenAI o1,登顶 App Store,彻底改变行业格局。

R1 的核心突破:让模型真正“思考”

R1 的起点,是一个简单却深刻的问题:大模型真的在思考吗?

它不追求更快回答,而是故意“慢下来”,让推理链条显式展开。

关键创新包括:

  • 推理优先训练:引入细粒度信号,聚焦高密度推理数据(数学、逻辑、可验证复杂任务)。
  • 过程重于答案:在数学、代码、复杂推理上实现跨尺度跃迁。
  • 内化推理能力:不再复读模板,而是形成稳定内部状态转移结构。

一年后,R1 改变了什么?

  • 对齐从价值对齐扩展到认知过程对齐。
  • 开源模型从追随者变为范式定义者。
  • 人类与模型从“提问-回答”变为真正协作。

未来:R1 的路还未走完

尽管推理能力仍有上限,长链思考仍代价高昂,但方向已明确。

DeepSeek-R1 的故事仍在继续,这一周年,仅是序章。

而今夜 FlashMLA 中的“MODEL1”,或许就是下一章的开端。

R2 终于要来了吗

感觉这次更新有点东西啊