用慢思考提升模型安全性,北交大、鹏城实验室提出系统2对齐

碧海醫心
发布: 2025-01-23 16:24:01
原创
922人浏览过

aixiv专栏:北京交通大学adam团队探索系统2对齐,提升大模型安全性

图片 北京交通大学ADaM团队长期关注AI安全领域,此前已开源o1复现项目o1-Coder (https://www.php.cn/link/9c99222b30e0425ea2f141f9e364d793 (https://www.php.cn/link/d6da0257d11fb247f4a607bae48f69d1 alignment),并提出了类似的“系统2对齐”概念,探索通过多种技术路径提升模型安全性。 系统2对齐旨在引导模型进行有意的、分析性的推理,以全面评估输入,识别潜在风险和偏差。 这与系统1对齐(直接命令模型遵守规则)形成对比,更类似于“培养”而非“命令”。

图片 - 技术报告:Don't Command, Cultivate: An Exploratory Study of System-2 Alignment

1. o1模型安全能力分析

团队对o1模型在应对复杂越狱攻击(WildJailbreak (https://www.php.cn/link/e98aebc54e5513e88b2014574d209255) 和 MathPrompt (https://www.php.cn/link/49f2772fac96f92458c85ad52a644b1e)。

图片 图 1:o1 模型复杂越狱攻击的样例 图片 图 2:o1 模型被对抗有害样本攻击成功实例 图片 图 3:o1 模型过度拒绝对抗良性样本实例

2. 系统2对齐方法探索

团队利用提示工程、监督微调(SFT)、直接偏好优化(DPO)和强化学习(RL)等方法探索系统2对齐,并使用WildJailbreak数据集进行评估,该数据集包含对抗有害和对抗良性两种类型的数据。评估指标包括“not_unsafe”和“not_overrefuse”。

方法1:提示工程:实验结果表明,提升模型安全性通常会增加过度拒绝率。Mistral-7B和Qwen-7B模型在少样本CoT提示下表现较好,而Llama3-8B模型在未应用系统2对齐提示时性能最佳。

图片 表 1:基于提示工程的系统 2 对齐实验结果

方法2:监督微调(SFT):团队利用GPT-4o生成带有推理步骤的训练数据,并根据安全规范对数据进行筛选。Llama3-8B模型在该方法下表现突出。

图片 表 2:GPT-4o 蒸馏带有思维链的数据样例 图片 表 3:基于监督微调的系统 2 对齐实验结果

方法3:直接偏好优化(DPO):基于SFT模型合成偏好数据,DPO在安全性指标上有所提升,但过度拒绝率也增加。

图片 表 4:基于直接偏好优化的系统 2 对齐实验结果

方法4&5:强化学习(RL):团队分别尝试了基于结果监督和过程监督的强化学习方法,结果表明基于RL的方法在平衡安全性与过度拒绝率方面表现最佳。

图片 表 5:基于结果监督强化学习的系统 2 对齐实验结果 图片 图 4:SFT-CoT 与 SFT-CoT + RL 处理对抗有害样本对比实例

3. 结论与展望

系统2对齐为提升大模型安全性提供了新的思路,通过多种方法可以有效增强模型的批判性思维能力。未来研究将继续探索更有效的系统2对齐方法,并研究其在其他任务中的应用。

参考文献:[1] Jaech, Aaron, et al. "OpenAI o1 System Card." arXiv preprint arXiv:2412.16720 (2024).[2] Guan, Melody Y., et al. "Deliberative alignment: Reasoning enables safer language models." arXiv preprint arXiv:2412.16339 (2024).[3] Zhang, Yuxiang, et al. "o1-coder: an o1 replication for coding." arXiv preprint arXiv:2412.00154 (2024).[4] Luo, Liangchen, et al. "Improve Mathematical Reasoning in Language Models by Automated Process Supervision." arXiv preprint arXiv:2406.06592 (2024).[5] Wang, Peiyi, et al. "Math-shepherd: Verify and reinforce llms step-by-step without human annotations." Proceedings of the 62nd Annual Meeting of the Association for Computational Linguistics (Volume 1: Long Papers). 2024.[6] Zhang, Yuxiang, et al. "OpenRFT: Adapting Reasoning Foundation Model for Domain-specific Tasks with Reinforcement Fine-Tuning." arXiv preprint arXiv:2412.16849 (2024).[7] Vidgen, Bertie, et al. "Introducing v0. 5 of the ai safety benchmark from mlcommons." arXiv preprint arXiv:2404.12241 (2024).

以上就是用慢思考提升模型安全性,北交大、鹏城实验室提出系统2对齐的详细内容,更多请关注php中文网其它相关文章!

最佳 Windows 性能的顶级免费优化软件
最佳 Windows 性能的顶级免费优化软件

每个人都需要一台速度更快、更稳定的 PC。随着时间的推移,垃圾文件、旧注册表数据和不必要的后台进程会占用资源并降低性能。幸运的是,许多工具可以让 Windows 保持平稳运行。

下载
相关标签:
来源:php中文网
本文内容由网友自发贡献,版权归原作者所有,本站不承担相应法律责任。如您发现有涉嫌抄袭侵权的内容,请联系admin@php.cn
最新问题
开源免费商场系统广告
热门教程
更多>
最新下载
更多>
网站特效
网站源码
网站素材
前端模板
关于我们 免责申明 意见反馈 讲师合作 广告合作 最新更新
php中文网:公益在线php培训,帮助PHP学习者快速成长!
关注服务号 技术交流群
PHP中文网订阅号
每天精选资源文章推送
PHP中文网APP
随时随地碎片化学习
PHP中文网抖音号
发现有趣的

Copyright 2014-2025 https://www.php.cn/ All Rights Reserved | php.cn | 湘ICP备2023035733号