2026 年 2 月 13 日,蚂蚁集团重磅发布全球首个基于混合线性架构的万亿参数思考模型Ring-2.5-1T,一举打破长文本推理效率与深度思考的双重瓶颈。作为蚂蚁 2025 年 10 月发布的 Ring-1T 模型的升级版本,Ring-2.5-1T 在生成效率、推理深度、长时程任务执行三大核心维度实现跨越式提升,不仅在国际数学奥林匹克竞赛(IMO 2025)、中国数学奥林匹克(CMO 2025)自测中斩获双金牌,更在长文本生成、智能体任务执行等场景达成开源模型领先水平,目前已完成 Claude Code、OpenClaw 等主流智能体框架的适配。
此次蚂蚁将 Ring-2.5-1T 的模型权重与推理代码全面开源至 Hugging Face、ModelScope 等平台,官方 Chat 体验页与 API 服务也将在近期上线,为智能体开发、长时程推理等场景提供了高性能的开源底座。
多项开源 SOTA 在手,数学推理达奥赛金牌水准
为验证 Ring-2.5-1T 的综合能力,蚂蚁研究团队选取了 DeepSeek-V3.2-Thinking、Kimi-K2.5-Thinking 等主流开源思考模型,以及 GPT-5.2-Thinking、Claude-Opus-4.5-Extended-Thinking 等闭源顶级模型作为对照,在数学推理、编程开发、智能体任务等多类权威基准测试中展开全面比拼。
测试结果显示,Ring-2.5-1T 在 IMOAnswerBench、AIME 26、HMMT 25 等高难度数学推理基准,LiveCodeBench 代码生成基准,以及 ARC-AGI-V2 逻辑推理基准中均拿下开源模型最优成绩;在深度思考(Heavy Thinking)模式下,该模型更是在数学竞赛、代码生成等场景实现对所有对比模型的超越,展现出极强的复杂问题求解能力。
其中最亮眼的成绩当属奥赛自测表现:在满分 42 分的 IMO 2025 中,Ring-2.5-1T 斩获 35 分,达到金牌水平;在满分 126 分的 CMO 2025 中,该模型取得 105 分,不仅远超 78 分的金牌分数线,更突破了 87 分的国家队集训队选拔线。相较于上代模型 Ring-1T,Ring-2.5-1T 的推理逻辑更严谨、高级数学证明技术应用更熟练、答案表述也更完整,深度思考能力实现质的提升。
在智能体核心任务测试中,Ring-2.5-1T 同样表现出色,在强调跨应用工具协作、复杂任务执行的 Gaia2-search 基准中拿下开源 SOTA,在规划生成、多步工具调用等环节展现出高效率与高准确性,为其适配各类智能体框架奠定了坚实基础。
三大维度全面升级,无缝适配主流智能体框架
相较于上代模型 Ring-1T,Ring-2.5-1T 的核心升级集中在生成效率、推理深度、长时程任务执行三大维度,每一项升级都精准直击大模型在长文本、复杂任务场景中的痛点,同时也让其能快速对接智能体开发的实际需求。
-
生成效率翻倍:采用高比例线性注意力机制,将 32K 以上长文本生成场景中的访存规模降低至前代的 1/10,生成吞吐量提升 3 倍以上,大幅降低了长时程推理的算力成本与响应延迟;
-
推理深度突破:在 RLVR(基于可验证奖励的强化学习)基础上创新引入密集奖励机制,为模型的推理过程提供更精细化的严格性反馈,让模型能更严谨地完成复杂数学证明、逻辑推导等任务,最终实现奥赛金牌水准;
-
长时程能力强化:通过大规模完全异步智能体 RL 训练,显著增强模型解决复杂任务的自主执行能力,使其能快速适配 Claude Code 智能体编程框架、OpenClaw 个人 AI 助理,完美支持多步规划、工具调用等智能体核心功能。
混合线性注意力架构加持,破解长序列推理效率难题
Ring-2.5-1T 的性能突破,核心源于底层架构的创新 —— 该模型基于蚂蚁全新的Ling 2.5 架构打造,在 Ling 2.0 的基础上引入独创的混合线性注意力架构,通过对注意力机制的深度优化,实现了长文本推理效率与表达能力的双重提升。
蚂蚁研究团队通过增量训练,将 Ling 2.0 架构中的 GQA(分组查询注意力)升级为MLA(多头线性注意力)+Lightning Linear 1:7 的混合结构:将部分 GQA 层转换为 Lightning Linear 注意力,大幅提升长时程推理场景的吞吐量;将剩余 GQA 层近似转换为 MLA,进一步压缩 KV 缓存,同时针对 QK Norm(查询 - 核归一化)、Partial RoPE(部分旋转位置编码)等特征进行针对性改进,让架构的表达能力更强劲。
架构升级的同时,Ring-2.5-1T 的激活参数规模也从 Ring-1T 的 51B 提升至 63B,在混合线性注意力架构的支撑下,推理效率较 Ling 2.0 仍实现大幅提升。对比仅配备 32B 激活参数的 Kimi K2 架构,在 1T 总参数量下,Ling 2.5 架构在长序列推理任务中的解码吞吐量优势显著,且生成长度越长,效率优势越明显,在 8 块 H20-3e、H200 GPU 等不同硬件环境下均保持稳定的领先表现。
此外,Ling 2.5 架构还支持 1M tokens 的超长上下文长度,适配 Next-Token Prediction、Multi-Token Prediction 等多种训练目标,为长文档处理、跨文件代码理解、复杂任务规划等场景提供了充足的技术支撑。
突破长文本瓶颈,为大模型落地提供全新技术路径
随着 AI 大模型的应用场景从简单的短对话交互,向长文档处理、跨文件代码开发、智能体复杂任务规划等方向快速扩展,传统大模型架构在超长文本、多模态内容、复杂业务流程中普遍面临算力成本高、响应延迟大、部署难度高等问题,成为大模型规模化落地的重要阻碍。
蚂蚁 Ring-2.5-1T 通过混合线性注意力架构的底层创新,在万亿参数规模下实现了长文本生成效率、深度思考能力、长时程任务执行能力的三重提升,不仅为智能体开发提供了高性能的开源模型底座,更为行业破解长文本推理瓶颈提供了一条兼顾性能、成本与扩展性的技术路径。
从此次 Ring-2.5-1T 的开源与升级可以看出,大模型的竞争正从单纯的参数比拼转向架构创新与场景适配的综合较量,而底层架构的优化,也将成为大模型从实验室走向实际产业应用的关键抓手。


