具身智能新突破!GigaBrain-0.5M 迭代升级,打造世界模型原生新范式!

继旗下具身基础模型 GigaBrain-0.1 在 RoboChallenge 赛事中拿下全球第一的佳绩后,极佳视界再度推出性能进阶的 GigaBrain-0.5M * 模型,重磅打造出具身世界模型的新一代原生范式。这款依托世界模型实现自我进化的 VLA 大模型,在家庭叠衣、咖啡冲煮、工业折纸盒等真实机器人实操任务中,实现了数小时零失误的持续稳定运转,为具身智能的落地应用再添新动能。

在 RoboChallenge 的榜单中,GigaBrain-0.1 以 68.34 的分数、51.67% 的 SR 值稳居榜首,远超 Spirit-v1.5、pi0.5 等一众模型,充分展现了极佳视界在具身智能模型研发上的硬实力。

表格

排名 模型 / 开发者 分数 SR 值
1 GigaBrain-0.1/Lyf 68.34 51.67%
2 Spirit-v1.5/Spirit AI 67.19 51.00%
3 pi0.5/rc_baseline 61.84 42.67%
4 wall-oss-v0.1/Pushi … 55.30 35.33%
5 pi0/rc_baseline 46.41 28.33%
6 pi05_generalist/wyf 31.27 17.67%
7 RDT-1B/zsz 28.84 15.00%
8 cogact/hsk 21.83 11.67%

核心架构:世界模型驱动 + 人在回路机制

GigaBrain-0.5M * 是基于世界模型条件驱动打造的 VLA 大模型,将世界模型对未来状态与价值的预测结果作为条件输入,大幅提升了模型在长时程任务中的鲁棒性,解决了复杂场景下机器人决策的稳定性难题。

在此基础上,该模型创新融入人在回路持续学习机制,通过人工筛选和校正模型的推演轨迹开展迭代训练,结合真实环境的交互反馈不断优化决策策略,最终形成「行动 — 反思 — 进化」的闭环式持续学习体系,实现模型的自主迭代升级。

创新训练范式:四阶段闭环打造高效学习体系

为实现模型的高性能表现,极佳视界为 GigaBrain-0.5M * 打造了基于世界模型的强化学习训练范式,设计出迭代式四阶段闭环训练流程,让模型的学习和进化更具系统性:

  1. 世界模型预训练:基于大规模机器人操作数据完成训练,实现对未来状态及对应价值的精准预测,为后续决策打下基础;

  2. 条件化策略网络微调:以世界模型输出的未来状态预测与价值评估为依据,对策略网络进行微调,精准指引机器人的动作决策;

  3. 人在环数据采集:将条件化策略部署至真实物理环境,依托人在环干预机制,采集模型自主推演的轨迹数据;

  4. 联合优化持续训练:利用筛选后的有效轨迹数据集,联合优化世界模型与决策策略,实现模型的持续学习与自主进化。

核心性能亮点:多维度突破,适配复杂真实场景

长时程任务零失误,成功率大幅领先

在与 AWR、RECAP 等主流模仿学习和强化学习基线方法的对比中,GigaBrain-0.5M展现出显著优势。相较于 π0.6 提出的 RECAP 基线,该模型在相同任务设定下的任务成功率提升近 30%。

尤其在折纸盒、咖啡制备、衣物折叠等包含多阶段操作、精细感知与持续决策的高难度长时程任务中,GigaBrain-0.5M * 实现了接近 100% 的任务成功率,还能稳定复现成功执行轨迹,策略鲁棒性表现卓越。

价值预测高效精准,贴合任务物理进程

基于世界模型的价值预测方案,在执行效率和预测精度上均优于 π*0.6 提出的 VLM 方案。这一优势源于对未来状态的显式建模和世界模型单步降噪机制,为价值函数提供了关键的时序上下文支撑,让价值估计输出更高效、精准、稳定。

以叠衣任务为例,任务初期机械臂调整衣物姿态时,预测价值合理波动;衣物摆正进入叠放阶段后,价值曲线稳步上升;遇干扰物时价值骤降,干扰移除后则快速恢复增长,价值演化与任务物理进程高度契合,体现了世界模型赋予的「认知先验」能力。

不同价值预测方法性能对比数据也印证了这一优势,WM-based(state+value)方案在 MAE、MSE、RMSE 等误差指标上表现更优,Kendall 相关系数也更高,仅推理时间略高于 WM-based(value only)方案。

表格

模型 推理时间(s) MAE↓ MSE↓ RMSE↓ Kendall↑
VLM-based 0.32 0.0683 0.0106 0.1029 0.7972
WM-based (value only) 0.11 0.0838 0.0236 0.1433 0.7288
WM-based (state+value) 0.25 0.0621 0.0099 0.0989 0.8018

海量多元训练数据,夯实泛化能力基础

GigaBrain-0.5M * 的基座模型 GigaBrain-0.5,基于总计 10931 小时的多样化机器人操作数据完成预训练,数据来源兼顾合成与真实,实现了广度与实用性的双重保障:

  • 60.85%(6653 小时)由自研具身世界模型 GigaWorld 高保真合成,覆盖纹理迁移、视角变换、人手到机械臂映射等丰富场景;

  • 39.15%(4278 小时)源自真实机器人采集,包含 Franka、UR5e、ARX5 等多款机器人的自采集数据,确保策略在物理世界的可执行性。

海量且多元的训练数据,不仅拓展了模型的任务覆盖广度,还增强了策略鲁棒性和泛化能力;而 GigaWorld 生成的合成数据,有效突破了真实数据采集的长尾瓶颈,通过生成新纹理、新物体位姿、新观测视角的样本,提升了模型在分布外场景的适应性,为具身智能走向开放世界筑牢数据基石。

研发团队与企业布局:顶尖阵容加持,打造具身智能闭环生态

极佳视界是国内首家布局世界模型的科技企业,聚焦具身智能和通用机器人领域,围绕「基模 - 本体 - 场景」三位一体的核心思路,为工业、商业、家庭等场景提供软硬一体的具身智能机器人解决方案,推动通用机器人走进千行百业。

公司核心团队汇聚了全球顶尖力量,成员均来自清华、北大、中科院、中科大、WashU、CMU 等知名院校,以及微软、三星、地平线、百度、博世等头部企业,在物理 AI 领域兼具领先的研究能力和大规模产业落地经验。

目前,极佳视界已构建起以世界模型平台 GigaWorld、通用具身大脑 GigaBrain、原生本体 Maker 为核心的闭环生态,致力于实现数据、训练、测试全链路效率 10-100 倍以上的提升,推动通用具身智能机器人、通用自动驾驶等物理 AGI 的大规模落地。

这个模型在家务和工业场景表现挺稳的

新版本迭代挺快嘛

这数据看着挺厉害

这机器人叠衣服还挺麻利

这机器人还挺能干的嘛

机器人越来越厉害了呀

这个成绩确实挺厉害的

感觉这技术进展真快啊

这个模型在真实任务里表现确实不错