
一项最新研究指出,当大语言模型(LLM)长期暴露于低质量数据中时,可能会出现类似人类“脑损伤”的现象,导致其推理与记忆功能明显退化。
研究人员发现,当模型以高传播度但信息价值较低的社交媒体内容(如 Twitter 帖子)作为训练数据时,其逻辑推理能力下降了23%,在处理长文本上下文时的记忆表现更是下滑了30%。更严重的是,这种性能衰退具有不可逆性——即便后续使用优质数据进行再训练,模型也无法完全恢复原有的认知水平。
该研究由一支 AI 科研团队主导,他们明确界定了“低质量数据”的特征,并与高质量语料进行了系统对比。所谓低质量数据主要指“篇幅短、热度高”的内容,尤其是充斥着夸张标题和网络流行语的社交平台文本。
实验显示,接触此类数据后,不仅模型的认知能力受损,其行为倾向也发生偏移,展现出更强的自恋型和反社会型人格特征。
研究团队选用了四个主流大语言模型,在受控环境下分别用高质量和低质量数据进行训练。通过多维度测试——涵盖逻辑推理、信息记忆以及对伦理规范的遵守程度——验证了“垃圾进,垃圾出”这一原则在现代大模型中的适用性。这一结果为 AI 训练数据的选择敲响了警钟。
研究人员强调,AI 行业在构建模型时必须重视数据源头的质量管控,防止劣质内容对模型造成长期伤害。同时建议,在大模型部署前应加入认知能力基准评估机制,以便及时识别因数据污染引发的功能退化问题。
源码地址:点击下载
以上就是AI 也会 “脑损伤”?研究揭示低质量数据对大语言模型的影响的详细内容,更多请关注php中文网其它相关文章!
每个人都需要一台速度更快、更稳定的 PC。随着时间的推移,垃圾文件、旧注册表数据和不必要的后台进程会占用资源并降低性能。幸运的是,许多工具可以让 Windows 保持平稳运行。
Copyright 2014-2025 https://www.php.cn/ All Rights Reserved | php.cn | 湘ICP备2023035733号