UniAct— 清华、商汤、北大、上海AI Lab共同推出的具身基础模型框架

DDD
发布: 2025-03-21 13:20:05
原创
849人浏览过

uniact:一种新型具身基础模型框架

UniAct 是一种创新的具身基础模型框架,旨在解决机器人行为的异构性问题。它通过学习通用行为,提取不同机器人共享的原子行为特征,从而克服由物理形态和控制接口差异造成的行为不一致性。UniAct 的架构主要由通用行为提取器、通用行为空间和异构解码器三部分构成。通用行为提取器基于视觉语言模型,通过观察和任务目标来提取通用行为;通用行为空间采用向量量化码本的形式,每个向量代表一种原子行为;异构解码器则负责将通用行为转化为特定机器人的控制信号。

UniAct— 清华、商汤、北大、上海AI Lab共同推出的具身基础模型框架

核心功能:

  • 通用动作编码: UniAct 将不同机器人的原子行为(例如“移动到目标位置”或“避开障碍物”)转化为通用的向量化码本,每个代码代表一种可跨平台共享的通用技能。
  • 轻量高效: UniAct-0.5B 模型仅需 0.5 亿参数,其真实和模拟环境下的任务表现已超越参数规模达 14 亿的 OpenVLA 模型。
  • 快速适应性: UniAct 仅需 50 条专用示教数据即可在新环境中微调,并能快速适应新的机器人和控制接口。只需添加轻量级解码器,即可轻松扩展到新的机器人平台。
  • 跨领域数据利用: UniAct 通过通用行为空间,更有效地利用跨领域数据进行训练,从而在不同机器人和环境中实现更强大的泛化能力。
  • 行为一致性: 在不同的部署场景和机器人类型上,相同的通用动作能展现出一致的行为模式,为具身智能体的控制提供了更便捷的方式。用户只需从码本中选择相应的通用动作,即可指挥不同类型的机器人完成任务。

技术原理详解:

  • 通用动作空间: UniAct 利用向量量化构建了一个离散的通用动作空间,该空间是一个向量化码本,每个向量嵌入代表一种通用的原子行为。这些原子行为是不同机器人在不同环境下共享的基本行为模式。
  • 通用动作提取器: 基于视觉语言模型 (VLM),UniAct 的通用动作提取器能够识别和提取通用动作。它根据观察结果和任务目标,输出选择通用动作的概率。
  • 异构解码器: UniAct 使用异构解码器将通用动作转换为特定机器人的可执行命令。这些解码器针对不同的机器人平台进行设计,能根据机器人的具体特征将通用动作转换为具体的控制信号。
  • 轻量化架构与高效训练: UniAct 采用轻量化模型架构,即使参数较少也能保持优异的性能。它通过行为克隆损失进行训练,并根据动作标签的性质选择合适的损失函数。

项目信息:

应用场景:

UniAct 的应用前景广泛,包括自动驾驶、医疗机器人、工业自动化和智能家居等领域。其通用性使其能够高效地控制各种类型的机器人,并适应不同的环境和任务需求。

以上就是UniAct— 清华、商汤、北大、上海AI Lab共同推出的具身基础模型框架的详细内容,更多请关注php中文网其它相关文章!

豆包AI编程
豆包AI编程

智能代码生成与优化,高效提升开发速度与质量!

下载
相关标签:
来源:php中文网
本文内容由网友自发贡献,版权归原作者所有,本站不承担相应法律责任。如您发现有涉嫌抄袭侵权的内容,请联系admin@php.cn
最新问题
开源免费商场系统广告
热门教程
更多>
最新下载
更多>
网站特效
网站源码
网站素材
前端模板
关于我们 免责申明 意见反馈 讲师合作 广告合作 最新更新
php中文网:公益在线php培训,帮助PHP学习者快速成长!
关注服务号 技术交流群
PHP中文网订阅号
每天精选资源文章推送
PHP中文网APP
随时随地碎片化学习
PHP中文网抖音号
发现有趣的

Copyright 2014-2025 https://www.php.cn/ All Rights Reserved | php.cn | 湘ICP备2023035733号