2026年国际消费类电子产品展览会(ces)近日在拉斯维加斯盛大开幕。作为全球消费电子产业的风向标,ces正加速从传统硬件展示平台,转型为具身智能核心技术验证与产业化落地的关键枢纽。展会期间,戴盟机器人正式推出全新力/触觉反馈遥操作数据采集系统——dm-exton2,直面“高质量物理世界训练数据匮乏”这一制约智能体进化的关键瓶颈,为机器人迈向通用性与自主性提供坚实底层支撑。
遥操作数据采集系统是打通人类经验与机器智能的核心纽带,它通过远程操控同步捕获操作者在真实交互中产生的动作轨迹、力控响应与触觉感知等多维信息,从而构建高保真、可泛化的“机器人学习范本”。当前AI技术突飞猛进,但机器人演进的瓶颈已不再局限于算力或算法层面,而在于物理世界交互数据的极度稀缺——互联网虽蕴藏海量图文语音资源,却难以覆盖真实操作中不可或缺的“力感”“压感”与“质地反馈”。因此,机器人通往通用智能的路径,正由“读万卷书”深度转向“行万里路”,而融合力觉与触觉反馈的遥操作数据采集,正是将人类手眼协调、力控直觉转化为机器可理解、可迁移、可复用“物理认知”的核心通道。

本次发布的DM-EXton2系统,在继承前代产品低延迟、高精度及跨平台兼容等优势基础上,全面升级整机结构设计与人机交互体验,显著提升操作员佩戴舒适度与长时间作业下的操控流畅性,进一步降低专业遥操作的学习与使用门槛。

尤为值得关注的是,DM-EXton2在末端执行器适配维度实现突破性拓展:采用免工具卡扣式快换结构,仅需数秒即可完成手柄模式与手套模式的自由切换,无缝兼容主流人形机器人所搭载的各类夹爪、灵巧手等异构末端装置,真正实现“一套系统、多种形态、全域适配”,大幅压缩任务切换周期与部署成本。

本代产品的核心突破,在于首次实现全链路力/触觉双向反馈闭环。系统可将机器人末端与环境接触时产生的压力、剪切力、振动等物理信号实时还原并传递至操作者手部,使其在执行易碎物品抓取、精密器件插拔、柔性材料包覆等高敏感度任务时,精准感知力度边界,显著提升操作成功率与数据采集质量。即使在视觉受限场景(如遮挡、弱光或盲区操作)下,操作者亦能依赖力反馈对物体刚度、接触状态及形变趋势作出快速判断,从而完成更稳定、更鲁棒的抓放动作。
此外,戴盟机器人还在CES现场集中展示了多款基于视触融合感知技术的硬件终端。展台持续吸引来自全球各地的机器人本体厂商、学术机构代表、行业媒体及投资机构驻足体验,试用区人流不断,观众围绕系统兼容性、数据标注流程、跨场景泛化能力及典型行业应用案例,与戴盟技术团队展开深入探讨。
该战略的顺利落地,源于戴盟机器人深厚的技术积淀与顶尖人才梯队。公司源自香港科技大学,由该校机器人研究院创始院长、国际知名机器人专家王煜教授联合段江哗博士共同创立。核心团队汇聚全球顶尖高校科研力量,在多模态感知、灵巧操作建模与具身智能系统集成等领域拥有系列原创成果,并具备从实验室原型到全球规模化量产的完整工程转化能力,曾主导多个年营收达数十亿元级的智能硬件项目落地。
戴盟机器人相关负责人指出,公司锚定“构建具身智能时代灵巧操作基础设施”的长期使命,以“3D”战略为纲——即Device(多模态视触觉感知设备)、Data(高保真物理交互数据集)、Deployment(面向真实场景的轻量化部署方案),打造“感知—决策—执行”全栈闭环;并通过DaaS(Data-as-a-Service)服务模式与VTLA(Vision-Tactile-Language-Action)统一表征模型,驱动灵巧技能的高效生成与规模化交付,最终赋予机器人真正可迁移、可泛化、可信赖的物理世界操作能力。











