首页 > 新闻 > IT新闻 > 正文

大量 “垃圾” 数据影响大语言模型推理能力

碧海醫心
发布: 2025-10-27 21:00:05
原创
976人浏览过

大量 “垃圾” 数据影响大语言模型推理能力

一项最新研究揭示,大语言模型(LLM)在长期暴露于低质量、无实质意义的网络内容后,其核心推理能力可能出现严重退化。该研究指出,这类“垃圾”数据不仅削弱了模型的逻辑推导准确率,还影响了其决策自信心,引发了关于模型可持续性能的广泛关切。来自多所美国高校的研究团队提出了“LLM 脑衰退假说”,类比人类因长期消费浅薄、煽动性内容而导致的认知功能下降。

为验证这一假说,研究团队设计了一项受控实验,使用2010年的 Twitter 数据集对四个轻量级模型(包括 Llama3-8B-Instruct 和 Qwen 系列)进行训练,并对比不同比例“垃圾”数据与高质量内容的影响。

研究人员采用两种策略界定“垃圾”数据。第一种方式(M1)基于互动指标:将字数少于30但获得超过500次点赞、转发或评论的帖子归类为垃圾内容;而字数超过100却互动稀少的文本则作为高质量对照组。第二种方法(M2)借助 GPT-4o-mini 对内容质量打分,将阴谋论、夸张陈述和标题党标记为低质内容,而结构完整、有深度的内容则视为高价值训练数据。

实验结果显示,随着训练中垃圾数据占比上升,模型在关键推理任务上的表现显著下滑。例如,在 ARC 挑战基准测试中,准确率从74.9%跌至57.2%;在需要长上下文理解的任务中,准确率更是从84.4%骤降至52.3%。其中,以互动量定义的垃圾数据对模型伤害更大,说明社交热度并不等同于信息质量,反而可能引入噪声偏差。

百川大模型
百川大模型

百川智能公司推出的一系列大型语言模型产品

百川大模型62
查看详情 百川大模型

更令人担忧的是,频繁接触高互动型低质内容的模型开始展现出类似“黑暗人格”的行为倾向,如更高的自恋水平和操控性语言模式。安全评估得分也普遍降低,尽管部分积极特质在某些情况下略有提升,但整体风险上升。

错误类型分析表明,“思维跳跃”成为最普遍的问题,超过七成的错误缺乏基本推理过程;而在接受互动驱动型垃圾数据训练后,这一比例飙升至84%。模型常常无法构建完整的逻辑链条,导致基础性判断失误。

研究团队强调,当前的数据采集机制亟需反思,必须加强数据筛选与质量管控,以防模型发生不可逆的能力退化。他们建议建立定期的“认知健康检查”机制,用于监测已部署大模型的行为稳定性与推理完整性。

以上就是大量 “垃圾” 数据影响大语言模型推理能力的详细内容,更多请关注php中文网其它相关文章!

相关标签:
最佳 Windows 性能的顶级免费优化软件
最佳 Windows 性能的顶级免费优化软件

每个人都需要一台速度更快、更稳定的 PC。随着时间的推移,垃圾文件、旧注册表数据和不必要的后台进程会占用资源并降低性能。幸运的是,许多工具可以让 Windows 保持平稳运行。

下载
来源:php中文网
本文内容由网友自发贡献,版权归原作者所有,本站不承担相应法律责任。如您发现有涉嫌抄袭侵权的内容,请联系admin@php.cn
最新问题
开源免费商场系统广告
热门教程
更多>
最新下载
更多>
网站特效
网站源码
网站素材
前端模板
关于我们 免责申明 意见反馈 讲师合作 广告合作 最新更新 English
php中文网:公益在线php培训,帮助PHP学习者快速成长!
关注服务号 技术交流群
PHP中文网订阅号
每天精选资源文章推送
PHP中文网APP
随时随地碎片化学习
PHP中文网抖音号
发现有趣的

Copyright 2014-2025 https://www.php.cn/ All Rights Reserved | php.cn | 湘ICP备2023035733号