具身智能奇点降临!极佳视界 GigaBrain-0.5M登顶世界第一,超越 π0.6 实现零失误进化!

2026 年具身智能领域迎来里程碑式突破!极佳视界发布新一代 VLA(视觉 - 语言 - 动作)具身大模型 GigaBrain-0.5M*,以世界模型驱动决策的创新范式,不仅在 RoboChallenge 等国际赛事中超越 π*0.6 等主流方案拿下世界第一,更在叠衣、冲咖啡、折纸盒等真实场景中实现接近 100% 的任务成功率,较传统基线方法成功率提升近 30%,标志着具身智能正式迈入 “自我进化” 的新阶段。

世界第一实至名归:从赛事领跑 to 真实场景零失误

继前代模型 GigaBrain-0.1 以 68.34 分斩获 RoboChallenge 全球冠军后,GigaBrain-0.5M * 实现性能跨越式升级,在更严苛的测试中持续领跑。该模型采用世界模型条件驱动架构,将未来状态预测与价值评估作为决策输入,大幅提升长时程任务的鲁棒性,彻底解决了传统具身模型 “易出错、难稳定” 的痛点。

在真实场景实测中,GigaBrain-0.5M * 展现出惊人的可靠性:

  • 家庭场景:衣物折叠任务零失误,可精准应对不同材质、尺寸的衣物,完成平整叠放;

  • 服务场景:咖啡制备全流程自动化,从研磨咖啡豆到精准冲煮,全程稳定复现专业水准;

  • 工业场景:折纸盒任务高效精准,适配不同规格纸盒的折叠与封装需求,成功率接近 100%。

与 AWR、RECAP 等主流模仿学习与强化学习方法对比,GigaBrain-0.5M * 在相同任务设定下表现碾压,尤其在多阶段操作、精细感知、持续决策等复杂场景中,优势更为显著,成为首个在真实环境中实现 “持续稳定零失误” 的具身大模型。

核心创新:世界模型 + 人在回路,构建自我进化闭环

GigaBrain-0.5M * 的突破,源于极佳视界提出的世界模型原生强化学习范式,通过四阶段闭环训练流程,让模型实现 “行动 — 反思 — 进化” 的自主迭代:

  1. 世界模型预训练:基于大规模机器人操作数据,训练模型精准预测未来状态与对应价值,为决策提供 “认知先验”;

  2. 策略网络微调:以世界模型的预测结果为条件,优化策略网络,确保动作决策的合理性与前瞻性;

  3. 人在回路数据采集:将优化后的策略部署至真实物理环境,通过人工干预筛选、校正模型推演轨迹,采集高质量有效数据;

  4. 持续联合优化:利用筛选后的轨迹数据,同步升级世界模型与决策策略,形成循环进化机制。

这种创新范式让模型摆脱了对海量真实标注数据的依赖,同时通过人在回路机制,确保进化方向与实际应用需求对齐,实现 “越用越聪明、越用越可靠” 的持续优化效果。

价值预测革命:比 VLM 方案更快更准,贴合物理进程

GigaBrain-0.5M的世界模型不仅能预测未来状态,更能提供高效精准的价值评估,其性能全面超越 π0.6 提出的 VLM(视觉语言模型)价值预测方案:

  • 效率更高:推理时间仅 0.25 秒,较 VLM 方案的 0.32 秒提速 21.9%;

  • 精度更优:MAE(平均绝对误差)低至 0.0621,MSE(均方误差)0.0099,均低于 VLM 方案,价值评估更精准;

  • 鲁棒性更强:通过单步降噪机制与时序上下文支撑,价值预测与任务物理进程高度对齐。

以叠衣服任务为例,模型的价值曲线会随任务进展动态调整:初期调整衣物姿态时波动,稳定叠放阶段稳步上升,遭遇干扰时骤降,干扰移除后快速恢复,完美匹配真实操作逻辑,为决策提供可靠依据。

数据基石:超万小时训练数据,六成由世界模型合成

强大的性能背后,是海量且高质量的训练数据支撑。GigaBrain-0.5M * 的基座模型 GigaBrain-0.5,基于总计 10931 小时的多样化机器人操作数据完成预训练,数据构成兼具广度与深度:

  • 合成数据占比 61%(6653 小时):由自研具身世界模型 GigaWorld 生成,覆盖纹理迁移、视角变换、人手到机械臂映射等场景,突破真实数据采集的长尾瓶颈;

  • 真实数据占比 39%(4278 小时):来自 Franka、UR5e、ARX5 等多款机器人的真实操作采集,确保策略在物理世界的可执行性。

这种 “合成数据 + 真实数据” 的混合训练模式,既拓展了模型的任务覆盖范围,又增强了分布外场景的适应性,为具身智能走向开放世界奠定了坚实基础。

生态布局:三位一体闭环,推动物理 AGI 爆发

极佳视界作为国内首家布局世界模型的科技公司,围绕 “基模 — 本体 — 场景” 三位一体构建闭环生态:

  • 基模层:以世界模型平台 GigaWorld、通用具身大脑 GigaBrain 为核心,提供技术底座;

  • 本体层:通过原生本体 Maker,打造适配不同场景的机器人硬件;

  • 场景层:覆盖工业、商业、家庭等多元场景,提供软硬一体的具身智能解决方案。

公司核心团队汇聚了清华、北大、CMU 等顶尖院校研究人员,以及微软、百度等企业高管,兼具顶尖研究能力与大规模产业落地经验。其目标是实现数据、训练、测试全链路效率 10-100 倍提升,推动通用具身智能机器人、通用自动驾驶等物理 AGI 大规模爆发。

从赛事夺冠到真实场景零失误,GigaBrain-0.5M * 的发布不仅刷新了具身智能的技术天花板,更让通用机器人走进千家万户的愿景更近一步。随着自我进化机制的持续迭代,具身智能有望在更多复杂场景中实现突破,成为改变千行百业的核心生产力。

叠衣服都能这么稳了呀

技术确实越来越实用了

看这个数据提升确实厉害呀
不过真实场景里零失误真的不容易
等哪天能实际体验一下就好了

总算看到能稳定叠衣服的机器人了,我家乱糟糟的衣柜有救了。

这机器人叠衣服比我厉害多了

这个技术突破确实厉害

感觉以后机器人真能帮上大忙了