多家研究机构最新发布的 babyvision 视觉推理基准测试结果表明,当前性能最强的多模态大模型,在视觉推理能力上依然远未达到人类儿童的认知水平。
即便是表现最优的 Gemini 3 Pro Preview,其综合得分仅勉强超过3岁儿童,与6岁儿童相比仍有约20%的明显差距,距离成年人高达94.1%的准确率更是存在巨大鸿沟。

该研究由 UniPat AI、xbench、阿里巴巴、月之暗面、阶跃星辰等多家前沿团队联合开展。数据显示,Gemini 3 Pro Preview 以49.7%的得分位居闭源模型榜首;紧随其后的是 GPT‑5.2(34.4%)与豆包 Seed‑1.8(30.2%)。
其余模型得分普遍偏低:Qwen3‑VL‑Plus 为19.2%,Grok‑4 为16.2%,Claude 4.5 Opus 仅为14.2%。在开源阵营中,Qwen3VL‑235B‑Thinking 以22.2%的成绩暂列第一,但仍未具备与主流闭源模型抗衡的实力。
立即进入“豆包AI人工智官网入口”;
立即学习“豆包AI人工智能在线问答入口”;
研究指出,当前主流多模态大模型普遍依赖“视觉转语言”的推理范式——即先将图像编码为文本式表征,再交由语言模型完成后续逻辑推演。
这种架构在应对细粒度几何判断、空间方位关系建模、路径连续性追踪等高度依赖非语言感知能力的任务时,存在本质性局限,致使模型在「找不同」「连线匹配」「空间构型想象」「视觉规律归纳」等典型任务中频繁失效。
BabyVision 基准将视觉推理能力划分为四大核心维度:细粒度辨别、视觉追踪、空间感知与视觉模式识别。结果显示,所有参测模型在这四个方向均暴露出系统性短板。
例如,Gemini 3 Pro Preview 在拼图配对、轨迹连线及三维结构反推任务中多次给出错误响应;Qwen3‑VL‑Plus 同样未能通过视觉规律归纳类题目的检验。
研究团队进一步提炼出模型视觉推理所面临的四类根本性挑战:
- 非言语性微细节信息难以保真,导致模型无法识别图像间细微差异;
- 流形一致性缺失,使其在复杂动态路径中难以维持稳定追踪;
- 空间想象能力薄弱,无法从二维输入可靠构建一致的三维心理表征;
- 视觉模式抽象与归纳能力不足,难以从有限示例中提炼可泛化的结构规则。
为突破现有“语言中心化”视觉推理范式的瓶颈,研究提出了两条可行的技术演进路径:基于可验证奖励信号的强化学习(RLVR)与基于生成模型的原生视觉推理。
实验表明,Qwen3‑VL‑8B‑Thinking 经 RLVR 微调后,整体准确率提升约4.8个百分点;而在 BabyVision‑Gen 的生成式推理子集测试中,NanoBanana‑Pro 以18.3%的准确率领先于 GPT‑Image‑1.5 与 Qwen‑Image‑Edit。
研究认为,未来多模态智能的发展重心,正加速从“语言驱动型理解”转向“视觉原生型推理”。诸如 Bagel 这样的统一架构,以及具备显式物理建模能力的新一代生成模型(如 Sora 2、Veo 3),已在实践中展现出在视觉空间中执行显式推理的潜力——包括绘制中间演化步骤、标注关键语义区域、生成符合物理约束的运动轨迹等。
研究团队强调,生成过程本身,或将成为一种更高阶、更本质的推理表达形式。
论文全文:https://www.php.cn/link/498bf3790c922596b795a8dfa3255b56










