凤凰网科技讯 12月17日,让人形机器人能够像人一样完成装箱、搬运、推车等移动操作任务,一直是人们对具身智能的期待。近日,来自香港大学、智元AGIBOT、复旦大学和上海创智学院的联合研究团队提出了WholeBodyVLA,一种面向真实世界的人形机器人全身 Vision–Language–Action框架。该工作基于智元灵犀X2研究发布,将VLA扩展至双足人形机器人的全身控制,验证了其在全身loco-manipulation任务中的可行性。

与原地操作相比,loco-manipulation的难点不在于单一技能,而在于行走与操作必须在同一任务中长期、稳定地协同发生。
据介绍,WholeBodyVLA通过从人类第一视角视频中学习移动与操作的潜在动作表示,以降低对昂贵机器人遥操作数据的依赖。同时,研究团队设计了一种面向移动操作的强化学习控制器,通过简化控制目标来提升运动执行的稳定性。
实验验证显示,该框架使机器人能在不同起始位置走向目标并完成操作,并对场景和物体表现出一部分泛化能力,在干扰地形上也能保持基本的移动方向与平衡。研究团队表示,该工作为将视觉-语言-动作(VLA)范式扩展至双足人形机器人全身控制提供了可行路径。



本文转自:凤凰网科技
原文地址: https://tech.ifeng.com/c/8p9wPGsjkfY

小同爱分享1 天前
别随便嫌一个女生幼稚,她要是不喜欢你,比你妈都成熟。 - 小同爱分享
小同爱分享3 天前
俄罗斯方块告诉我们,合群就会消失,不合群就会失败。 - 小同爱分享