Spirit-v1.5 是什么
spirit-v1.5 是由千寻智能研发的具身智能底层大模型。该模型采用开放、灵活的数据采集策略,突破传统“高精度标注+严格筛选”数据范式,允许在真实物理环境中以弱监督方式收集多源异构动作序列,使模型在预训练阶段即可学习到更广泛的动作组合、环境交互模式与长时序行为逻辑,从而显著提升其跨场景迁移能力与实际部署鲁棒性。在 robochallenge 真机基准测试中,spirit-v1.5 实现多项指标领先,刷新当前开源具身智能模型性能纪录,不仅确立了新的技术标杆,也为行业提供了可复现、可扩展的开源参考实现。
☞☞☞AI 智能聊天, 问答助手, AI 智能搜索, 免费无限量使用 DeepSeek R1 模型☜☜☜

Spirit-v1.5 的核心能力
- 多任务泛化执行:支持涵盖生活场景的多样化操作任务,包括但不限于插花造型、水果分类入篮、牙刷杯悬挂、胶带精准粘贴、地面垃圾清扫等。
- 强场景适应性:依托海量非结构化训练数据,模型可在未经显式训练的新环境、新物体配置下快速理解任务意图并生成合理动作策略。
- 复杂环境鲁棒运行:面对部分遮挡、动态光照干扰、多物体堆叠及双臂协同控制等现实挑战,仍保持稳定任务完成率。
- 跨平台硬件兼容:原生支持主流机器人本体,涵盖单臂系统(如 Franka Emika Panda、UR5e)与双臂平台(如 ALOHA),具备良好的软硬解耦设计。
- 低资源快速适配:针对下游新任务,仅需少量演示样本与短周期微调,即可达成高性能表现,大幅降低部署门槛与训练开销。
Spirit-v1.5 的技术架构
- 开放式数据构建机制:放弃对“理想化轨迹”的依赖,转而采用任务导向、人类自然行为驱动的数据采集流程。操作员围绕目标自由发挥,所获数据天然蕴含丰富原子动作、异常处理行为与真实时空关联性。
- 通用策略预训练 + 任务轻量化微调:预训练阶段聚焦于建模跨任务共性行为表征;微调阶段则通过少量示例引导模型聚焦特定语义约束与执行边界,兼顾泛化性与专精性。
- Vision-Language-Action(VLA)统一建模框架:深度融合视觉感知、语言理解与动作生成三大模块,实现从自然语言指令输入、环境状态解析到端到端动作输出的闭环推理。
- 混合学习范式融合:结合强化学习优化长期任务成功率,辅以掩码重建、时序对比、动作一致性等自监督预训练目标,增强模型对环境扰动与传感器噪声的容忍能力。
Spirit-v1.5 的官方资源入口
- 项目主页:https://www.php.cn/link/85690ad1281685df422c14bf19bab45a
- GitHub 开源仓库:https://www.php.cn/link/acb4d7e0ad916ab7baa0f27ecdee38ca
- HuggingFace 模型中心:https://www.php.cn/link/14895e9c83053104a635a8be68fd0b8c
Spirit-v1.5 的典型应用方向
- 智慧家庭服务:胜任桌面清洁、物品归位、简易烹饪辅助等高频居家任务,切实提升日常起居智能化水平与用户生活质量。
- 智能制造升级:适用于产线装配、工件质检、仓储分拣等工业环节,助力企业降本增效,推动柔性制造落地。
- 智慧医疗支持:在康复动作引导、药品器械配送、手术器械递送等场景中提供稳定可靠的辅助能力,减轻医护负担。
- 人工智能教育与科研:作为开放、可调试的具身智能实验平台,广泛应用于高校教学、算法验证与前沿课题探索。
- 智能零售运营:支撑货架整理、顾客导引、库存盘点等门店作业,优化人机协作流程,提升服务响应速度与客户满意度。
- 智慧农业实践:面向果蔬采摘、盆栽养护、田间巡检等农业细分任务,拓展机器人在非结构化户外环境中的实用边界。










