redis 之父 antirez 最新博客文章:《reflections on ai at the end of 2025》,分享了他对人工智能发展的深度观察与反思。

从“无意义复读机”到真实认知能力的跃迁: 长期以来,尽管大量实证结果和理论分析持续涌现,部分 AI 研究者仍坚持将大语言模型(LLM)贬称为“随机鹦鹉”——即仅依赖统计规律运作的黑箱系统,其核心缺陷被概括为两点:1. 无法形成对输入提示(Prompt)语义的内在表征;2. 对自身生成内容缺乏任何形式的意义建模。而到了 2025 年底,这种观点已在主流技术圈基本销声匿迹。
思维链(CoT)的真实作用机制: 如今,思维链已成为提升 LLM 推理质量的关键技术路径。但 CoT 的底层原理究竟是什么?为何它能显著增强模型表现?我的理解是:1. 它本质上是在模型隐空间中进行启发式搜索——当相关概念、上下文线索及任务结构被有效注入上下文窗口后,模型得以在更富信息量的表征区域内采样输出;2. 其有效性还高度依赖于强化学习(RL)的协同优化——模型逐步习得如何通过逐 Token 构造的方式,动态调整内部状态,以导向一个高价值的结果。
扩展性瓶颈的突破: “模型性能受限于当前可用训练 Token 总量”的传统认知已被打破,关键驱动力正是具备可验证奖励信号的强化学习框架。虽然我们尚未迎来类似 AlphaGo “第 37 手”那样的颠覆性时刻,但这是否真的遥不可及?至少在某些明确目标导向的任务中(如程序性能调优),只要存在清晰、可计算的反馈回路,模型完全可能在极长时间尺度上持续精进。我确信,面向 LLM 的强化学习演进,将成为下一阶段 AI 发展的核心引擎。
开发者生态的悄然重塑: 程序员群体对 AI 编程辅助工具的排斥心理已大幅减弱。即便 LLM 仍会出错,但其生成高质量代码与精准提示的能力,已达到足以说服多数持怀疑态度者的临界点——如今,投入产出比(ROI)对更广泛的工程师而言已具备实际吸引力。当前编程实践大致分化为两类范式:一类将 LLM 当作“协作者”使用(例如,我本人日常交互全部基于 Gemini 和 Claude 的网页界面);另一类则致力于构建以 LLM 为核心的自主编程智能体(Agents)。
架构演进与 AGI 路径之争: 少数顶尖 AI 科学家坚信,Transformer 架构的辉煌并非终点,未来或将出现更优替代方案——他们正带领团队探索新型神经网络结构,包括融合显式符号推理能力或内嵌世界模型的新一代模型。但我个人倾向认为:LLM 本质是一种在离散逻辑推理空间上训练而成的可微分计算机器;即便没有革命性的新范式诞生,仅靠现有路线的持续深化,也完全有可能通向通用人工智能(AGI)。更重要的是,AGI 很可能由多种差异巨大的技术路径各自独立达成。
关于 CoT 的一种误导性叙事: 有观点声称,思维链从根本上重构了 LLM 的运行逻辑,并以此为由辩解:“我们此前低估了 LLM,是因为当时还没出现 CoT;现在它变了,所以我们的判断也该更新。” 这种说法并不诚实。模型架构未变,训练目标仍是预测下一个 Token,而 CoT 本身,也不过是由一连串 Token 按顺序拼接而成的产物。
ARC 基准测试的意义反转: 曾被视为 LLM “能力禁区”的 ARC 测试(抽象推理挑战),如今正经历角色转变。针对特定子任务微调的小型模型,在 ARC-AGI-1 上已展现出稳健表现;而配备海量 CoT 示例的超大规模 LLM,则在更具挑战性的 ARC-AGI-2 上交出了远超预期的成绩——要知道,这曾被许多专家断言为 Transformer 架构“天然不可解”的问题。某种程度上,ARC 已悄然从“证伪 LLM”的试金石,转变为“验证 LLM 潜力”的标尺。
最严峻的终极命题: 在接下来的二十年里,人工智能领域所面对的根本性挑战,是如何确保这项技术的发展不会导致人类文明的终结。
来源:https://www.php.cn/link/4ae0933519473723df3bebc3d2527aa9
源码地址:点击下载
以上就是Redis 之父 2025 年对人工智能的思考的详细内容,更多请关注php中文网其它相关文章!
每个人都需要一台速度更快、更稳定的 PC。随着时间的推移,垃圾文件、旧注册表数据和不必要的后台进程会占用资源并降低性能。幸运的是,许多工具可以让 Windows 保持平稳运行。
Copyright 2014-2025 https://www.php.cn/ All Rights Reserved | php.cn | 湘ICP备2023035733号