智元具身研究中心正式发布一体化大小脑系统:geniereasoner。该系统致力于解决在同一模型框架内同步实现高层语义推理与底层精细动作控制的关键挑战,并同步开源了首个面向机器人视角的具身大脑评测基准——eriq。该基准支持对推理能力进行解耦式、可量化的全面评估。
据官方介绍,GenieReasoner的设计初衷是建立一套Action as Language的统一表达范式,并且在赋予动作序列大模型级的语义泛化能力的同时,突破离散化表征在执行精度上的物理瓶颈。
智元具身研究中心指出,当前主流VLA模型在复杂真实场景中性能不稳定,其根本原因在于过度依赖“视觉-动作”之间的浅层统计关联,而缺乏深层次的具身推理(Embodied Reasoning)能力。然而,增强推理能力与保障动作执行精度之间常呈现此消彼长的关系:传统“离散VLM主干 + 连续动作头”的两段式架构,因目标函数存在数学本质冲突,易引发梯度干扰,迫使模型在“逻辑泛化”与“执行精度”之间做出妥协。为此,GenieReasoner从两个核心方向重构VLA范式:一方面通过统一离散表征消除梯度冲突,另一方面借助生成式解码技术突破动作重建的精度上限。

GenieReasoner架构亮点:
- 动作即语言:GenieReasoner彻底摒弃“模块拼接”思路,将连续物理轨迹编码为高度紧凑的“离散动作词表”。在模型内部表征中,执行一次抓取操作与预测下一个文本Token具有完全一致的语义权重与建模地位。
- 共享梯度空间:通过将通用视觉问答(VQA)、具身推理任务与动作序列预测统一投射至同一离散语义空间并开展联合训练,模型得以在单一梯度更新路径下同步优化认知理解与运动控制能力。

ERIQ基准涵盖6000+高质量样本,题型包括单选题与是非题,所有样本均经人工逐条审核校验。数据覆盖家居、工业、商超等100余种真实部署场景。其四大核心能力维度为:
- 空间感知与定位(如理解“左侧第二个”、“红色物体”等空间与属性描述)
- 任务规划与监测(对多步骤长程任务进行逻辑拆解与过程跟踪)
- 错误识别与恢复(主动察觉执行偏差,如“手滑”“未夹稳”,并触发重试机制)
- 人机协作(准确捕捉人类非显式意图提示,如手势、视线、模糊指令)
进一步地,这四大能力被细分为15个可独立评测的子能力或能力组合,例如:
- Success Detection:聚焦“任务完成性判断”,综合考察模型在“任务规划+事件时序建模”方面的表现;
- Task Grounding:聚焦“任务相关目标定位”,评估模型在“多模态感知+任务分解+场景上下文理解”三者协同上的能力;
- Mistake Classification:聚焦“错误类型判别”,检验模型对“因果逻辑推演+异常模式识别”的掌握程度;
- Human Intent Understanding:聚焦“用户意图解析”,衡量模型在“交互历史学习+任务目标映射”层面的理解深度。
全部原始数据均采集自真机在真实物理环境中的运行记录,覆盖超100类任务场景,其中家居类占35%,餐厅类占20%,商超类占20%,工业场景占15%,办公场景占10%。在输入模态设计上,ERIQ强调对多模态理解与跨步推理能力的立体评估:约53%样本为静态单帧图像,用于检验基础视觉感知;约27%为时序图像序列,用以测试动态变化建模能力;其余部分由多帧图像与自然语言指令交错构成,重点评估模型在复杂交互场景下的多跳推理能力。
在原来的自助建站系统的平台下构造了一个产品品种齐全的发布、交易大平台. 只要是建站客户,就可以自动发布建站客户的产品到商城里,真正做到信息资源整合,从而极大地发挥整合带来的优势,本商城系统推出丰富多彩的小栏目,里面也含括了很多个性化的设计理念,具体操作请见(申请建站用户后直接进入)

后续实验表明:在不同预训练策略对比下,ERIQ得分更高的具身视觉语言模型(VLM),在VLA任务的实际执行测试中展现出更优的指令遵循能力。这一结果有力佐证了“具身VLM越强(脑子越聪明),VLA系统越可靠(手越精准)”的核心假设。
智元方面表示,GenieReasoner的推出,标志着其具身研究中心在推动“大脑(高阶认知)”与“小脑(低阶控制)”协同演化的道路上迈出关键一步。实验证实,在统一离散空间中开展联合训练,不仅显著提升了模型的泛化能力与指令响应质量,更重要的是,它验证了一种天然适配Scaling Law扩展规律的具身智能架构。
但当前方案在动作绝对精度控制、以及超长程任务执行稳定性方面,仍存在明显提升空间。尽管扩大训练数据多样性(Diversity)可带来性能的显著跃升,但在实际工程路径中,“如何在海量数据规模化扩展过程中,持续保障数据的高质量与低噪声水平”,仍是整个行业亟待攻克的核心难题。
“下一阶段,智元具身研究中心将持续围绕‘逻辑深度’与‘执行精度’双主线推进研发,加速构建具身大小脑、世界模型(World Model)与真实环境强化学习(Real-world RL)之间的闭环协同体系。依托真机在物理世界中的持续交互、反馈与数据反哺,最终打造具备常识级推理能力与极限操作能力的通用具身智能基座。”
更多详情请参阅官方公告。
源码地址:点击下载









