继旗下具身基础模型 GigaBrain-0.1 在 RoboChallenge 赛事中拿下全球第一的佳绩后,极佳视界再度推出性能进阶的 GigaBrain-0.5M * 模型,重磅打造出具身世界模型的新一代原生范式。这款依托世界模型实现自我进化的 VLA 大模型,在家庭叠衣、咖啡冲煮、工业折纸盒等真实机器人实操任务中,实现了数小时零失误的持续稳定运转,为具身智能的落地应用再添新动能。
在 RoboChallenge 的榜单中,GigaBrain-0.1 以 68.34 的分数、51.67% 的 SR 值稳居榜首,远超 Spirit-v1.5、pi0.5 等一众模型,充分展现了极佳视界在具身智能模型研发上的硬实力。
表格
| 排名 | 模型 / 开发者 | 分数 | SR 值 |
|---|---|---|---|
| 1 | GigaBrain-0.1/Lyf | 68.34 | 51.67% |
| 2 | Spirit-v1.5/Spirit AI | 67.19 | 51.00% |
| 3 | pi0.5/rc_baseline | 61.84 | 42.67% |
| 4 | wall-oss-v0.1/Pushi … | 55.30 | 35.33% |
| 5 | pi0/rc_baseline | 46.41 | 28.33% |
| 6 | pi05_generalist/wyf | 31.27 | 17.67% |
| 7 | RDT-1B/zsz | 28.84 | 15.00% |
| 8 | cogact/hsk | 21.83 | 11.67% |
核心架构:世界模型驱动 + 人在回路机制
GigaBrain-0.5M * 是基于世界模型条件驱动打造的 VLA 大模型,将世界模型对未来状态与价值的预测结果作为条件输入,大幅提升了模型在长时程任务中的鲁棒性,解决了复杂场景下机器人决策的稳定性难题。
在此基础上,该模型创新融入人在回路持续学习机制,通过人工筛选和校正模型的推演轨迹开展迭代训练,结合真实环境的交互反馈不断优化决策策略,最终形成「行动 — 反思 — 进化」的闭环式持续学习体系,实现模型的自主迭代升级。
创新训练范式:四阶段闭环打造高效学习体系
为实现模型的高性能表现,极佳视界为 GigaBrain-0.5M * 打造了基于世界模型的强化学习训练范式,设计出迭代式四阶段闭环训练流程,让模型的学习和进化更具系统性:
-
世界模型预训练:基于大规模机器人操作数据完成训练,实现对未来状态及对应价值的精准预测,为后续决策打下基础;
-
条件化策略网络微调:以世界模型输出的未来状态预测与价值评估为依据,对策略网络进行微调,精准指引机器人的动作决策;
-
人在环数据采集:将条件化策略部署至真实物理环境,依托人在环干预机制,采集模型自主推演的轨迹数据;
-
联合优化持续训练:利用筛选后的有效轨迹数据集,联合优化世界模型与决策策略,实现模型的持续学习与自主进化。
核心性能亮点:多维度突破,适配复杂真实场景
长时程任务零失误,成功率大幅领先
在与 AWR、RECAP 等主流模仿学习和强化学习基线方法的对比中,GigaBrain-0.5M展现出显著优势。相较于 π0.6 提出的 RECAP 基线,该模型在相同任务设定下的任务成功率提升近 30%。
尤其在折纸盒、咖啡制备、衣物折叠等包含多阶段操作、精细感知与持续决策的高难度长时程任务中,GigaBrain-0.5M * 实现了接近 100% 的任务成功率,还能稳定复现成功执行轨迹,策略鲁棒性表现卓越。
价值预测高效精准,贴合任务物理进程
基于世界模型的价值预测方案,在执行效率和预测精度上均优于 π*0.6 提出的 VLM 方案。这一优势源于对未来状态的显式建模和世界模型单步降噪机制,为价值函数提供了关键的时序上下文支撑,让价值估计输出更高效、精准、稳定。
以叠衣任务为例,任务初期机械臂调整衣物姿态时,预测价值合理波动;衣物摆正进入叠放阶段后,价值曲线稳步上升;遇干扰物时价值骤降,干扰移除后则快速恢复增长,价值演化与任务物理进程高度契合,体现了世界模型赋予的「认知先验」能力。
不同价值预测方法性能对比数据也印证了这一优势,WM-based(state+value)方案在 MAE、MSE、RMSE 等误差指标上表现更优,Kendall 相关系数也更高,仅推理时间略高于 WM-based(value only)方案。
表格
| 模型 | 推理时间(s) | MAE↓ | MSE↓ | RMSE↓ | Kendall↑ |
|---|---|---|---|---|---|
| VLM-based | 0.32 | 0.0683 | 0.0106 | 0.1029 | 0.7972 |
| WM-based (value only) | 0.11 | 0.0838 | 0.0236 | 0.1433 | 0.7288 |
| WM-based (state+value) | 0.25 | 0.0621 | 0.0099 | 0.0989 | 0.8018 |
海量多元训练数据,夯实泛化能力基础
GigaBrain-0.5M * 的基座模型 GigaBrain-0.5,基于总计 10931 小时的多样化机器人操作数据完成预训练,数据来源兼顾合成与真实,实现了广度与实用性的双重保障:
-
60.85%(6653 小时)由自研具身世界模型 GigaWorld 高保真合成,覆盖纹理迁移、视角变换、人手到机械臂映射等丰富场景;
-
39.15%(4278 小时)源自真实机器人采集,包含 Franka、UR5e、ARX5 等多款机器人的自采集数据,确保策略在物理世界的可执行性。
海量且多元的训练数据,不仅拓展了模型的任务覆盖广度,还增强了策略鲁棒性和泛化能力;而 GigaWorld 生成的合成数据,有效突破了真实数据采集的长尾瓶颈,通过生成新纹理、新物体位姿、新观测视角的样本,提升了模型在分布外场景的适应性,为具身智能走向开放世界筑牢数据基石。
研发团队与企业布局:顶尖阵容加持,打造具身智能闭环生态
极佳视界是国内首家布局世界模型的科技企业,聚焦具身智能和通用机器人领域,围绕「基模 - 本体 - 场景」三位一体的核心思路,为工业、商业、家庭等场景提供软硬一体的具身智能机器人解决方案,推动通用机器人走进千行百业。
公司核心团队汇聚了全球顶尖力量,成员均来自清华、北大、中科院、中科大、WashU、CMU 等知名院校,以及微软、三星、地平线、百度、博世等头部企业,在物理 AI 领域兼具领先的研究能力和大规模产业落地经验。
目前,极佳视界已构建起以世界模型平台 GigaWorld、通用具身大脑 GigaBrain、原生本体 Maker 为核心的闭环生态,致力于实现数据、训练、测试全链路效率 10-100 倍以上的提升,推动通用具身智能机器人、通用自动驾驶等物理 AGI 的大规模落地。


