前 openai 员工、知名人工智能研究者 daniel kokotajlo 近日调整了他对超级智能威胁人类时间线的原有判断。他指出,通用人工智能(agi)的发展节奏似乎比他早先预估的“略为迟缓”。

此前,Kokotajlo 提出的“AI 2027”预测曾引发广泛关注与争议。该设想勾勒出一条高风险路径:AI 将于2027年达成完全自主编写代码的能力,并在此后快速跃升为失控的超级智能,最终可能在2030年代中期对人类构成生存性威胁。这一观点一度被部分美国政界人士援引,但也遭到包括神经科学家 Gary Marcus 在内的多位学者强烈质疑,称其缺乏实证基础,“更像一部科幻作品”。
但随着近期技术演进的实际表现,这位研究者态度趋于审慎。在其最新修订的预测中,AI 实现全栈自主编程的时间节点被延后至2030年代初,而超级智能的潜在出现时间则被锚定在约2034年。他同时坦言,当前 AI 系统在应对真实世界复杂任务时,仍呈现出显著的“能力不均衡”特征。
与此同时,科技巨头的研发步伐并未因此放缓。OpenAI CEO Sam Altman 曾公开表示,公司内部正以2028年前打造出可独立开展AI研发工作的“自动化研究员”为目标持续推进。尽管“末日倒计时”被适度拉长,专家们仍反复强调:现实世界的多维不确定性远超任何模型推演,AGI 的真正到来,依然笼罩在高度未知之中。
源码地址:点击下载










