人类轻而易举就能识别的文字,ai模型却集体“失明”。来自a*star、新加坡国立大学(nus)、南洋理工大学(ntu)、清华大学、南开大学等机构的联合研究团队揭示了一个令人震惊的现象:无论是openai的gpt-5、gpt-4o,谷歌的gemini系列,anthropic的claude,还是国内的通义千问(qwen)、llava等顶尖视觉语言模型,在面对某些“看得见但读不懂”的文字时,几乎全部表现糟糕,彻底“翻车”。
这项研究由VYU团队主导,设计了两个巧妙实验。
第一个实验选取100个常见四字成语,将每个汉字进行横切、竖切或斜切,随后打乱碎片并重新拼接。尽管这些文字在视觉上被严重破坏,人类仍能轻松还原其含义。然而,几乎所有测试中的AI模型都未能正确识别,错误率极高。
第二个实验聚焦英文,挑选100个八字母单词,将其前半部分用红色显示,后半部分用绿色显示,并将两者叠加成一张图像。由于人眼对红绿通道具有高度分辨能力,大脑可自动分离颜色信息并整合出完整词义——这对人类而言几乎毫无难度。但AI模型却频频出错,即便是最新发布的Gemini 2.5 Pro、Kimi 2(Switch to 1.5 for visual understanding)、Qwen3-Max-Preview等强大模型,也无法稳定输出正确结果。
☞☞☞AI 智能聊天, 问答助手, AI 智能搜索, 免费无限量使用 DeepSeek R1 模型☜☜☜

VYU团队深入分析指出,问题根源在于AI缺乏真正的“理解”机制。当前大模型依赖的是大规模数据中的模式匹配,而非对文字结构的认知。人类之所以能轻松解读变形或重叠的文字,是因为我们具备关于文字构成的先验知识:汉字由偏旁部首组合而成,英文单词按字母序列排列。这种结构性认知使我们能在信息残缺或干扰下依然准确解码。
而AI模型则不同,它们将文字视为整体图像块来处理,缺少符号分割与语义重组的能力。一旦文字形态发生非标准变化,哪怕只是轻微扰动,模型就会陷入混乱,无法提取有效语义。
这一发现具有深远意义,直指AI落地应用中的核心瓶颈。
在教育场景中,学生手写笔记可能存在涂改、连笔或不规范书写,若AI无法准确识别,则智能批改、个性化辅导等功能将大打折扣;在无障碍技术中,视障辅助系统若不能稳健解析复杂排版或模糊文本,用户体验将受限;在古籍数字化和科研档案整理中,面对褪色、破损或重叠书写的原始资料,AI可能远不如人工高效可靠。
更值得警惕的是安全风险:攻击者可能利用这一“视觉盲区”,通过构造AI无法识别但人类可读的隐蔽文本,绕过内容审核、恶意信息检测等AI驱动的安全防线。
VYU团队呼吁,要让AI获得类似人类的阅读韧性,必须重新审视现有视觉语言模型(VLMs)的设计范式。未来方向可能包括:引入更具结构感知能力的训练数据、构建强调字符分割与组合的先验知识模块,或是探索全新的多模态融合架构。
更重要的是,这项研究再次提醒我们:人类的阅读绝非简单的“看图识字”,而是一个融合视觉感知、语言结构、上下文推理乃至常识判断的复杂认知过程。我们在阅读时,大脑会调动多种神经通路协同工作,实现快速解码与深层理解。
相比之下,当前AI还停留在表层模式识别阶段,距离真正的“理解”仍有本质差距。
这也意味着,在通往通用人工智能的道路上,我们仍需持续突破基础理论与模型架构的局限。不能止步于性能提升的表面成果,而应深入探究认知机理,推动AI向更具鲁棒性、解释性和类人智能的方向演进。
论文链接:https://www.php.cn/link/2e93fad1e91614dbea27879646a09bd6
以上就是人类轻松看懂,顶级AI却集体翻车!文字测试暴露AI致命弱点的详细内容,更多请关注php中文网其它相关文章!
每个人都需要一台速度更快、更稳定的 PC。随着时间的推移,垃圾文件、旧注册表数据和不必要的后台进程会占用资源并降低性能。幸运的是,许多工具可以让 Windows 保持平稳运行。
Copyright 2014-2025 https://www.php.cn/ All Rights Reserved | php.cn | 湘ICP备2023035733号