把RLHF带给VLA模型!通过偏好对齐来优化机器人策略,代码已开源

DDD
发布: 2024-12-31 21:15:13
原创
892人浏览过

GRAPE:通过偏好对齐提升机器人策略泛化能力

aixiv专栏持续报道全球顶尖ai研究成果。本文介绍一篇来自北卡罗来纳大学教堂山分校、华盛顿大学及芝加哥大学的研究,该研究提出了一种名为grape的新算法,显著提升了视觉-语言-动作(vla)模型的泛化能力。

GRAPE算法框架图

论文第一作者为北卡罗来纳大学教堂山分校的张子健,指导老师为助理教授Huaxiu Yao。共同第一作者为华盛顿大学的Kaiyuan Zheng。其他作者来自北卡教堂山、华盛顿大学和芝加哥大学。

论文信息:

研究挑战与GRAPE的解决方案

现有的VLA模型在机器人任务中的泛化能力有限,主要原因在于它们依赖于成功的执行轨迹进行行为克隆,难以应对新任务和环境变化。 GRAPE算法通过偏好对齐来解决这个问题,其核心思想是将VLA模型与预设目标对齐,从而提升其泛化能力。

GRAPE算法框架图

GRAPE具有三大优势:

  1. 轨迹级强化学习对齐: GRAPE在轨迹层面使用强化学习目标对VLA模型进行优化,使其能够全局地进行决策,而非简单的行为模仿。
  2. 隐式奖励建模: GRAPE能够隐式地对成功和失败尝试进行奖励建模,从而增强其对多样化任务目标的适应能力。
  3. 可扩展的偏好合成: GRAPE采用可扩展的算法合成偏好,能够将VLA模型与任意目标(如效率、安全性、任务完成度)对齐。

算法核心模块

GRAPE由三个核心模块构成:

  1. 轨迹级偏好优化 (Trajectory-wise Preference Optimization, TPO): 通过改进的DPO损失函数(TPO_Loss),根据优劣轨迹样本进行训练,实现轨迹级别的偏好对齐。

    TPO-Loss 公式

  2. 定制化偏好合成 (Customized Preference Synthesis): 针对复杂任务缺乏明确奖励模型的问题,GRAPE通过大型视觉-语言模型分解任务阶段,并自动引导偏好建模过程,实现对不同目标的定制化对齐。

  3. 迭代式在线对齐 (Iterative Online Alignment): 通过迭代的在线样本采集、偏好排序和轨迹级偏好优化,逐步提升VLA策略的泛化能力和目标对齐程度。

实验结果与结论

GRAPE在真实机器人和仿真环境下均进行了测试,结果表明其在各种分布外泛化任务(包括视觉、物体、动作、语义和空间位置变化)上显著优于现有最先进的OpenVLA-SFT模型。 此外,GRAPE还能有效地将机器人策略与安全性、效率等目标对齐,例如降低碰撞率或缩短执行时间。

真机与仿真实验结果

安全目标对齐示例

GRAPE为提升VLA模型的泛化能力提供了一种有效的方法,其即插即用的特性使其在各种机器人任务中具有广泛的应用前景。

以上就是把RLHF带给VLA模型!通过偏好对齐来优化机器人策略,代码已开源的详细内容,更多请关注php中文网其它相关文章!

最佳 Windows 性能的顶级免费优化软件
最佳 Windows 性能的顶级免费优化软件

每个人都需要一台速度更快、更稳定的 PC。随着时间的推移,垃圾文件、旧注册表数据和不必要的后台进程会占用资源并降低性能。幸运的是,许多工具可以让 Windows 保持平稳运行。

下载
相关标签:
来源:php中文网
本文内容由网友自发贡献,版权归原作者所有,本站不承担相应法律责任。如您发现有涉嫌抄袭侵权的内容,请联系admin@php.cn
最新问题
开源免费商场系统广告
热门教程
更多>
最新下载
更多>
网站特效
网站源码
网站素材
前端模板
关于我们 免责申明 意见反馈 讲师合作 广告合作 最新更新
php中文网:公益在线php培训,帮助PHP学习者快速成长!
关注服务号 技术交流群
PHP中文网订阅号
每天精选资源文章推送
PHP中文网APP
随时随地碎片化学习
PHP中文网抖音号
发现有趣的

Copyright 2014-2025 https://www.php.cn/ All Rights Reserved | php.cn | 湘ICP备2023035733号