银河通用发布全球首个产品级端到端具身 FSD 大模型,联合宇树机器狗完成长程验证
6 月 1 日消息,银河通用发布全球首个产品级端到端具身 FSD 大模型 ——TrackVLA,一款具备纯视觉环境感知、语言指令驱动、可自主推理、具备零样本(Zero-Shot)泛化能力的具身大模型。
据了解,TrackVLA 是银河通用推出的产品级导航大模型,纯视觉环境感知、自然语言指令驱动、端到端输出语言和机器人动作,是一个由仿真合成动作数据训练的“视觉-语言-动作”(Vision-Language-Action, VLA)大模型。它让机器人拥有“听 → 看 → 懂 → 走”的闭环运动能力:一双眼睛看世界、一个智能“大脑”做推理,无需提前建图、不依赖遥操控制,真正实现语言驱动、泛化感知、自主推理、智能交互与运动。
TrackVLA 八大核心能力:
1. 听得懂你说话,还能换人跟
你只需说一句:“跟着妈妈”,它就能立即识别“妈妈”对应的目标位置。如果改口说“换成跟孩子”,它也能瞬间切换对象,并通过语音回复确认。甚至,Ta 还能跟踪你的宠物。这背后,是模型具备的自然语言理解与目标识别能力的协同工作。
2. 不怕人多也不跟错人
在人流密集的购物中心中,面对复杂的场景、多变的环境中多个相似穿着的人,它能准确识别原始目标并长时自主跟随。通过空间理解和视觉记忆机制,避免“认错人”。
3. 丢了目标能找回来
如果目标走出视野,它不会原地“发呆”,而是通过实时的空间智能和大模型推理能力根据目标运动轨迹“分析出”目标的大致位置,并规划轨迹重新找回目标。
4. 从没见过的地方也能走
TrackVLA 不依赖建图,靠纯视觉输入理解环境。可在不依赖额外采集训练数据的情况下,直接部署在陌生商场、电梯、游乐区等环境,实现长时稳定自主跟随。
5. 灵活避障,适应复杂场景
在儿童游乐区、狭窄通道等复杂场景中,它能实时识别障碍物(包括儿童、玩具、地面水渍等),分析可通行区域,并可正确认知自身本体能力,自主推理出自身构型支持的合理路线。
6. 环境光线变化?不怕
从室外阳光到室内昏暗、从电梯镜面反射到超市货架夹缝,TrackVLA 展现出极强鲁棒性,无需专门调参或切换模式。
7. 远程可视守护,一目了然
通过 App,你可以实时看到机器人眼中的第一视角,掌握家人动态。系统还能主动提醒风险行为(如小朋友奔跑、老人跌倒),提供“移动守护”。
8. 技能涌现!
TrackVLA 不仅能稳定跟随人类,还可以泛化至任意移动目标。比如视频最后展示了让机器狗跟随一只路上偶遇的动物狗狗,其目标形态、运动方式、遮挡情况都非常不确定。TrackVLA 也表现了同样稳定的跟随能力,而这一能力是训练时从而教过的!
目前,该模型已搭载于宇树机器狗化身“二宝保镖”实现儿童看护,在未训练过的真实场景中完成了严格的长程验证。目前 TrackVLA 已在未训练过的真实场景中完成了严格的长程验证:实现在超市中穿梭于人流和货架之间,准确跟随母子;根据语音指令切换目标,并在儿童玩耍时发出提醒;可正确认知自身本体能力,利用大模型自主推理分析;从电梯进入陌生商场,完成连续跟随任务;在人群密集的服装店中稳定识别并避让他人干扰……
声明:本文转载自IT 之家,转载目的在于传递更多信息,并不代表本社区赞同其观点和对其真实性负责,本文只提供参考并不构成任何建议,若有版权等问题,点击这里。

游客
- 鸟过留鸣,人过留评。
- 和谐社区,和谐点评。