华中科技大学、北京邮电大学等多所高校的研究团队最近合作推出了Perception-R1(PR1)多模态大语言模型,这一模型在COCO2017验证集上首次突破了30AP,成为首个在纯多模态开源LLM中超越YOLOv3和Faster-RCNN等传统视觉模型的表现。
Perception-R1专注于当前主流的纯视觉任务(如计数、通用目标检测)和视觉语言任务(如grounding、OCR),通过研究基于规则的强化学习(rule-based RL)来提升模型的感知能力。目前,该项目的论文和代码已完全开源,研究团队希望为社区提供一个强有力的基准,以支持后续相关研究。
随着OpenAI o3等模型的出现,人工智能竞赛已进入以"视觉推理"为代表的新阶段。从GPT-4V到o3,短短两年时间内,AI视觉理解能力取得了显著进步。然而,现有的多模态大语言模型(MLLM)如GPT-4o、Google的Gemini以及开源的Qwen-VL和LLaVA,虽然在一般视觉问答方面表现出色,但在需要精确物体定位、准确计数多个物体、复杂布局中文本识别或执行复杂视觉推理的任务上仍存在明显不足。
Perception-R1并非从头构建新模型,而是一个后训练框架,旨在通过基于规则的强化学习显著增强现有多模态模型(如Qwen2-VLInstruct-2B)的视觉感知能力。该框架使用Group Relative Policy Optimization(GRPO)技术来优化模型的"感知策略",包括从图像中提取视觉细节、执行逻辑操作以及生成正确格式的输出。
在实验评测中,Perception-R1在多项视觉任务上取得了突破性表现。在视觉定位(RefCOCO/+/g)、OCR(PageOCR)、视觉计数(Pixmo-Count)以及目标检测(COCO2017)等任务上,该模型均显著超越了原始的Qwen2-VL-2B-Instruct基线,甚至在某些任务上接近专门设计的"专家"模型性能。特别是在COCO2017目标检测任务上,Perception-R1达到了30.3的AP值,成为首个突破30AP的纯多模态开源LLM。
研究团队还进行了全面的消融实验,探究了奖励匹配、思考过程显式化以及监督微调与强化学习的优劣等因素对模型性能的影响。实验结果表明,Perception-R1具有良好的可扩展性,为后续大规模应用提供了实验验证。
Perception-R1的成功表明,当强化学习被精心适配到视觉任务的独特特性时,可以成为提升大模型视觉感知能力的有效工具。该研究挑战了视觉任务必须依赖语言推理的假设,强调了任务复杂性对强化学习效果的重要性,为构建下一代智能感知AI系统奠定了关键基础。
以上就是华科北邮联合推出PR1:强化学习助力多模态LLM视觉感知超越YOLOv3的详细内容,更多请关注php中文网其它相关文章!
每个人都需要一台速度更快、更稳定的 PC。随着时间的推移,垃圾文件、旧注册表数据和不必要的后台进程会占用资源并降低性能。幸运的是,许多工具可以让 Windows 保持平稳运行。
Copyright 2014-2025 https://www.php.cn/ All Rights Reserved | php.cn | 湘ICP备2023035733号