布朗大学AI模型MotionGlot:用文本指令控制机器人动作

1次阅读
没有评论

共计 846 个字符,预计需要花费 3 分钟才能阅读完成。

布朗大学的研究团队近日取得突破性进展,成功开发出一款名为 MotionGlot 的人工智能模型。这项创新技术能够通过简单的文本指令,为各种机器人和动画角色生成相应的动作,为人机交互领域带来新的可能性。

该研究由布朗大学计算机科学博士生 Sudarshan Harithas 领导,其导师 Srinath Sridhar 教授共同参与。Harithas 解释道:’ 我们将动作视为另一种语言。就像我们可以将英语翻译成中文一样,我们现在可以将基于语言的指令翻译成跨多种形态的相应动作。’

 布朗大学 AI 模型 MotionGlot:用文本指令控制机器人动作

MotionGlot 的核心创新在于其强大的动作 ’ 翻译 ’ 能力。无论是人形机器人还是四足机器人,该模型都能准确生成相应的动作表示。例如,当用户输入 ’ 向前走几步然后右转 ’ 的指令时,模型能够为不同类型的机器人生成匹配的动作。

研究人员采用了类似于大型语言模型的 ’ 下一个标记预测 ’ 方法。他们将动作的组成部分(如行走过程中腿的离散位置)分解为标记,并通过预测下一个标记来生成流畅的动作。这种方法成功解决了不同身体类型动作差异的挑战,能够将 ’ 行走 ’ 等基本动作从一种形态准确翻译到另一种形态。

为了训练模型,研究团队使用了两个关键数据集:QUAD-LOCO 包含四足机器人的动作数据,QUES-CAP 则包含真实人类动作的详细说明。通过这些数据,模型不仅能够生成特定指令对应的动作(如 ’ 机器人向后走,左转然后向前走 ’),还能响应更抽象的提示(如 ’ 机器人快乐地行走 ’),甚至可以用动作回答问题。

Sridhar 教授指出:’ 这些模型在大量数据训练下表现最佳。如果我们能收集大规模数据,模型可以很容易地扩展。’ 研究团队计划公开 MotionGlot 的模型和源代码,以促进该技术在人类与机器人协作、游戏、虚拟现实、数字动画等领域的应用。

这项由美国海军研究办公室(ONR)资助的研究(资助号为 N00014-22-1-259)将在 2025 年国际机器人与自动化会议上展示。MotionGlot 的开发标志着人机交互领域的重要进步,为未来机器人和动画角色的控制开辟了新的可能性。

正文完
 0
admin-gah
版权声明:本文于2025-05-09转载自Mirage News,共计846字。
转载提示:此文章非本站原创文章,若需转载请联系原作者获得转载授权。
评论(没有评论)
验证码