昨天(2026年1月20日),全球最大AI开源社区Hugging Face发布了中国开源系列首篇重磅博客:《One Year Since the “DeepSeek Moment”》(“DeepSeek时刻”一周年)。
如果说2023年是“ChatGPT时刻”,那么在Hugging Face眼中,2025年无疑属于中国开源AI的“DeepSeek时刻”。
这篇报告不仅复盘了过去一年中国AI的狂飙突进,更用数据揭示了一个振奋事实:全球开源AI的攻守之势,已悄然易位。
01 为什么是“DeepSeek时刻”?
一年前的2025年1月,杭州公司DeepSeek发布R1模型,在Hugging Face看来,这不仅是新模型问世,更是分水岭。
R1首次让中国开源模型杀入全球主流排行榜,并迅速霸榜:成为Hugging Face历史上获赞最多的模型,终结了美国开发者独霸的时代。
随后一年,R1成为全球“度量衡”——任何新模型都要与之比较。它从追随者变身为标杆。
报告精辟指出:“R1给了中国AI最宝贵的东西:时间。”
此前,企业常在开源/闭源间摇摆,受算力瓶颈困扰。R1证明:在有限算力下,路线正确+迭代迅猛,中国仍能弯道超车。
Hugging Face总结R1扫清三大障碍:
- 技术门槛:公开推理路径,让“推理”成通用工程模块。
- 应用门槛:MIT协议直接商用,从卷跑分转向卷落地。
- 心理门槛(最关键):打破中国开发者的“心魔”,从“能不能做”转向“怎么做得更好”。
正如中国人所说:破山中贼易,破心中贼难。这种自信回归,才是“DeepSeek时刻”的灵魂。
02 被“倒逼”出来的黄金时代
R1点燃导火索,2025年中国AI界迎来“有机生态爆发”。
报告不止赞DeepSeek,还点名百度、腾讯、字节、阿里等大厂:百度模型仓库从0飙至100+,阿里/字节发布量翻8-9倍。
Kimi K2被誉为“另一个DeepSeek时刻”。
更强劲的是落地:过去一年新模型中,中国模型总下载量超任何国家(包括美国)。
智谱GLM、阿里Qwen已构建完整工程系统,每周Hugging Face热门/下载榜,中国模型成常客。
报告妙评:“中国玩家的协同,不是签协议,而是靠‘制约’。”
在相同算力/合规/成本压力下,大家“被迫”走高效工程化道路。这种高强度竞争,卷出生命力极强的生态,开始反超美国。我们不只发模型,更在定义标准。
03 全球反转:西方开始“找替补”
最魔幻的部分,是全球反应。
昔日我们追随西方,如今角色互换,连巨头坐不住。
上周,微软发布《2025全球AI普及报告》,称DeepSeek崛起为2025年“最意想不到的发展”。
数据惊人:在非洲,DeepSeek使用率是其他地区2-4倍;中国份额89%,白俄罗斯56%,古巴49%。因免费开源,无订阅费/信用卡壁垒,打破硅谷“付费墙”。
微软承认:AI普及不止看模型强弱,更看谁用得起。这种“农村包围城市”让西方开发者破防。
如今,许多美国初创默认用中国模型基座,甚至“套壳”反转:美国Cogito v2.1实为DeepSeek-V3微调;项目ATOM动机竟是“DeepSeek太强,我们必须追”。
昔日台词,如今轮到他们。
04 暴风雨前:DeepSeek的“疯狂一月”
DeepSeek没躺平,一周年之际一系列动作,预示更大爆发。
-
清理技术债:R1论文从22页暴增至86页,补全所有细节——行业信号:翻篇,准备更牛东西。 他们把过去这一年里所有的训练细节、失败尝试、甚至那些不为人知的“坑”,全部毫无保留地补全了。这在行业里通常只有一个解释:这一页翻篇了,我们要去搞更牛的东西了。
-
架构大换血:密集发布mHC、Engram论文,重写模型记忆/思考方式,未来模型或更小更快更聪明, 特别是 Engram,它想让模型拥有“即时查阅记忆”的能力。这意味着,未来的模型可能更小、更快,但更聪明。
-
神秘代码:GitHub更新现“MODEL1”代号,疑似V4线索。
“DeepSeek的沉默,通常预示更大爆发。”2026春节,或又不平静。
写在最后
Hugging Face预测,2026年中国公司在架构/硬件上将继续通过开源施加影响。
从R1惊雷,到百模大战开源,再到官方以“DeepSeek Moment”记录历史——这是技术+开源精神的东方胜利。
我们已从跟随者,坐上牌桌主位。
2026,好戏刚开始。






