Copyright © 2022-2025 aizws.net · 网站版本: v1.2.6·内部版本: v1.24.4·
页面加载耗时 0.00 毫秒·物理内存 79.6MB ·虚拟内存 1305.1MB
欢迎来到 AI 中文社区(简称 AI 中文社),这里是学习交流 AI 人工智能技术的中文社区。 为了更好的体验,本站推荐使用 Chrome 浏览器。
6 月 24 日消息,谷歌 DeepMind 今日发布博客文章,宣布推出一种全新的 Gemini Robotics On-Device 本地化机器人 AI 模型。
该模型基于视觉-语言-动作(VLA)架构,无需云端支持即可实现实体机器人控制。核心特性包括:
技术能力:
独立运行于机器人设备,支持低延迟响应(注:适用于网络不稳定场景,如医疗环境)
完成高精度操作任务(如打开包袋拉链、叠衣服、系鞋带)
双机械臂设计,适配 ALOHA、Franka FR3 及 Apollo 人形机器人
开发适配:
提供 Gemini Robotics SDK 工具包
开发者通过 50-100 次任务演示即可定制新功能
支持 MuJoCo 物理模拟器测试
安全保障:
通过 Live API 实施语义安全检测
底层安全控制器管理动作力度与速度
开放语义安全基准测试框架
项目负责人 Carolina Parada 表示:“该系统借鉴 Gemini 多模态世界理解能力,如同 Gemini 生成文本 / 代码 / 图像那样生成机器人动作”。
谷歌表示,该模型现在只面向可信测试计划开发者开放,基于 Gemini 2.0 架构开发(落后于 Gemini 2.5 最新版本)。
参考资料:
声明:本文转载自IT 之家,转载目的在于传递更多信息,并不代表本社区赞同其观点和对其真实性负责,本文只提供参考并不构成任何建议,若有版权等问题,点击这里。