统一VLA范式!港科大开源StarVLA乐高式架构,复现成本大幅降低

浏览20次 点赞0次 收藏0次

【导读】当前具身智能的VLA(Vision-Language-Action)赛道正陷入典型的「碎片化」泥潭:不同团队采用异构的动作解码范式、强耦合的数据管线、互不兼容的评测协议,导致方法难以横向对比,复现成本极高。开源项目 StarVLA 没有选择堆砌算力或盲目刷榜,而是从系统抽象层面直击痛点,提出了一套Backbone-Action Head的「乐高式」统一架构。

尽管VLA模型已成为具身通用智能的主流范式,但学术研究正面临三重「巴别塔」困境:

  1. 架构割裂自回归离散Token化、并行连续回归、流匹配去噪、双系统推理……不同动作解码范式采用完全不同的代码实现与接口假设。

  2. 管线强耦合现有开源框架多为「单方法定制」,数据预处理、训练循环、评测协议深度绑定,导致模块无法跨项目复用。

  3. 评测标准不一各论文仅在disjoint的基准子集上报告结果,且预处理与推理协议不透明,公平对比几乎不可能。

这种碎片化严重拖慢了具身基础模型的迭代节奏。

香港科技大学开源了一个新项目StarVLA,核心洞察在于:VLM-based与World-Model-based并非根本对立的范式,而是同一策略框架下不同辅助学习信号(L_aux)的变体。

基于此,团队构建了一个高度模块化、接口统一的开源底座,让研究者能像搭乐高一样自由组合主干网络与动作头,在完全受控的条件下验证单一设计变量的影响。


开源地址https://github.com/starVLA/starVLA

项目主页https://starvla.github.io

论文链接https://arxiv.org/abs/2604.05014


架构解码

Policy-Centric的「乐高」抽象


StarVLA 在系统层引入了统一的策略中心公式,将多模态观测、语言指令与未来动作块映射到同一计算图中:

其中为多模态历史观测,ℓ为语言指令,为预测的动作块,为可选的辅助输出(如未来视觉帧、空间推理文本等)。训练目标被统一分解为:


  • Direct VLA:,纯动作监督。

  • VLM-based VLA:引入语言对齐辅助目标(如子任务规划、空间 grounding)。

  • WM-based VLA:引入未来观测预测作为辅助目标或隐式先验。

在这一抽象下,StarVLA实现了双向模块化(Bidirectional Modularity)


  • 可插拔Backbone支持Qwen3-VL、InternVL等指令微调 VLM,以及Cosmos-Predict2等世界模型,只需轻量适配层即可接入统一表示契约。

  • 可插拔Action Head内置 4 种代表性动作解码器,共享同一forward()predict_action()接口:

    • StarVLA-FAST:自回归离散 Token 生成

    • StarVLA-OFT:轻量 MLP 并行连续回归

    • StarVLA-π:层间 Cross-DiT 流匹配去噪

    • StarVLA-GR00T:System 2(慢推理)+ System 1(快动作)双系统架构

所有变体共享同一数据接口、训练循环与评测管线,仅需替换Backbone或Action Head即可完成范式切换。这彻底消除了跨方法对比时的「隐性变量干扰」。

训练范式

从单基准微调走向多模态协同


StarVLA 将训练策略抽象为与架构解耦的可复用配置,支持三大核心范式:

1. 行为克隆监督微调(SFT)

提供完整的分布式训练脚本(Accelerate + DeepSpeed ZeRO-2),支持全参数微调与子模块冻结。优化器采用多参数组独立学习率、bfloat16 混合精度与余弦衰减调度,确保异构组件训练稳定。

2. 多目标协同训练(Co-Training)


纯动作微调极易导致 VLM 主干「灾难性遗忘」。

StarVLA 内置双数据流协同机制:交替执行 VLA 动作前向与 VLM 语言建模前向,通过trainer.loss_scale.vlm动态平衡动作学习与多模态表征保留。实验表明,协同训练可显著提升空间grounding能力,并在WidowX与Google Robot 上带来4%~10%的成功率增益。

3. 跨形态混合训练(Cross-Embodiment)

通过LeRobotMixtureDataLoader,用户可在YAML中声明任意机器人数据集组合与采样权重,框架自动处理动作空间对齐与形态标签追踪。这一设计让「跨形态预训练」从定制脚本变为标准化配置。

评测与部署

Server-Client架构打通Sim2Real

为避免benchmark依赖污染模型环境,StarVLA采用轻量级WebSocket Server-Client评测抽象

  • 模型侧仅暴露predict_action()接口,加载 checkpoint 后启动策略服务。

  • 评测侧(如 LIBERO、SimplerEnv、RoboTwin 2.0 官方环境)通过独立 Client 封装观测字典,以 msgpack 通信,返回归一化动作。

  • 真实机器人部署无需修改任何代码:只需将机器人控制器替换为 Client,提供相同格式的相机观测与指令,即可无缝迁移至物理世界。

目前已集成7大主流基准(含LIBERO、SimplerEnv、RoboTwin 2.0、RoboCasa-GR1、BEHAVIOR-1K、CALVIN等),并附带完整的benchmark-specific adapter 实现动作反归一化、Chunk拆分、Delta/Absolute转换等后处理逻辑。

性能与效率

极简配置下的强泛化证明

StarVLA 刻意避免复杂的数据工程与在线优化(如 DAgger),仅用公开 VL 预训练权重在基准官方演示集上微调,即可达到极具竞争力的性能:



更关键的是,Backbone替换几乎不损性能:将Qwen3-VL-4B换为Cosmos-Predict2-2B,LIBERO平均分仍稳定在95.2%以上,验证了架构的泛化鲁棒性。


在跨基准Generalist设置中,单模型联合训练LIBERO + SimplerEnv + RoboTwin 2.0 + RoboCasa-GR1,RoboCasa平均成功率从Specialist最优的48.8%提升至57.3%,证明了统一管线下All-in-One训练的可行性。


计算效率方面8×A100单节点测试显示,Per-GPU Batch Size=8时GPU利用率达92%,样本吞吐量56.6 samples/s;扩展至256 GPU多节点时,通信开销仅在8→32 GPU阶段产生一次跃升(0.735s→0.899s/step),随后稳定在~0.93s,并行效率维持在79%~80%,为大规模分布式训练提供明确的Scaling Guide。

总结与展望

StarVLA的价值在于为具身智能社区提供了一套可复现、可对比、可组合的基础设施标准。它用工程化的克制(统一 I/O 契约、声明式 YAML 配置、Server-Client 解耦)与理论上的洞察(L = L_action + L_aux的策略统一视角),终结了 VLA 研究的「巴别塔」时代。

对于研究者,它是验证新动作头/新主干的即插即用沙盒;对于工程师,它是从仿真到实机零代码修改的部署底座;对于社区,它是降低复现门槛、推动标准化评测的公共品。

参考资料:

https://arxiv.org/abs/2604.05014

声明:本文转载自新智元,转载目的在于传递更多信息,并不代表本社区赞同其观点和对其真实性负责,本文只提供参考并不构成任何建议,若有版权等问题,点击这里。本站拥有对此声明的最终解释权。如涉及作品内容、版权和其它问题,请联系我们删除,我方收到通知后第一时间删除内容。

点赞(0) 收藏(0)
0条评论
珍惜第一个评论,它能得到比较好的回应。
评论
游客
游客
登录后再评论
  • 鸟过留鸣,人过留评。
  • 和谐社区,和谐点评。