deepseek v3/r1风靡全网,其底层模型方案和api服务已广泛应用,但价格战和免费竞争也日益激烈。
如何充分利用现有资源,结合专业领域数据进行模型后训练(post-training),以低成本打造高质量的私有模型,从而提升业务竞争力和价值?
拥有近4万GitHub Star的Colossal-AI,现已推出开源大模型后训练工具箱,其核心功能包括:
开源地址:https://www.php.cn/link/b9531e7d2a8f38fe8dcc73f58cae9530
低成本微调DeepSeek V3/R1 671B参数量模型
DeepSeek V3/R1拥有高达6710亿参数,如何低成本地进行微调?只需几个步骤即可完成:
数据集准备
该工具箱使用JSONL格式的数据集,例如:https://www.php.cn/link/b9531e7d2a8f38fe8dcc73f58cae9530/blob/main/applications/ColossalChat/examples/training_scripts/lora_sft_data.jsonl。每行数据为一个对话列表,格式兼容HuggingFace聊天模板,并支持自定义系统提示。
模型权重准备
为获得最佳微调效果,建议使用BF16格式的权重。如已下载FP8权重,可使用DeepSeek官方脚本进行转换:
使用方法
准备好数据集和模型权重后,使用Colossal-AI提供的一键启动脚本:https://www.php.cn/link/b9531e7d2a8f38fe8dcc73f58cae9530/blob/main/applications/ColossalChat/examples/training_scripts/lora_finetune.py
该脚本与常用的SFT脚本类似,并完全兼容HuggingFace PEFT。启动命令示例:
<code class="bash">colossalai run --hostfile path-to-host-file --nprocpernode 8 lorafinetune.py --pretrained path-to-DeepSeek-R1-bf16 --dataset path-to-dataset.jsonl --plugin moe --lr 2e-5 --maxlength 256 -g --ep 8 --pp 3 --batchsize 24 --lorarank 8 --loraalpha 16 --numepochs 2 --warmupsteps 8 --tensorboarddir logs --save_dir DeepSeek-R1-bf16-lora</code>
更多参数信息,请运行 python lora_finetune.py --help 查看。训练过程中的学习率、损失函数和梯度范数等信息将通过TensorBoard记录。
LoRA优化硬件资源
通过LoRA等优化技术,该脚本将SFT DeepSeek V3/R1 671B的最低硬件需求降低了近10倍,可在32个Ascend 910B NPU 64GB(ep=8, pp=4)或24个H100/H800 GPU(ep=8, pp=3)上运行。启用CPU offload(--zero_cpu_offload)可进一步降低硬件需求,但会影响训练速度。
下图展示了SFT DeepSeek V3/R1 671B模型的损失函数下降曲线:
☞☞☞AI 智能聊天, 问答助手, AI 智能搜索, 免费无限量使用 DeepSeek R1 模型☜☜☜

资源充足的团队可将并行度扩展至数百甚至数千卡,快速完成全参数微调或加速训练。
强化学习微调蒸馏版DeepSeek
Colossal-AI团队验证并实现了DeepSeek论文中的GRPO算法和可验证奖励机制,并使用Qwen2.5-3B-Base模型进行了实验。奖励函数设计如下:
Colossal-AI提供了用于验证GRPO的对话模板和设置(https://www.php.cn/link/b9531e7d2a8f38fe8dcc73f58cae9530/blob/main/applications/ColossalChat/conversation_template/Qwen_Qwen2.5-3B.json),一键启动脚本:https://www.php.cn/link/b9531e7d2a8f38fe8dcc73f58cae9530/blob/main/applications/ColossalChat/examples/training_scripts/train_grpo.sh
下图显示了3B参数量模型在训练过程中平均奖励和回复长度的增长情况:

下图展示了模型在训练过程中自我纠正的示例:

Colossal-AI:高效的后训练工具箱
Colossal-AI致力于成为开发者易于使用的后训练工具,帮助用户基于开源模型,低成本快速构建私有模型。
开源地址:https://www.php.cn/link/b9531e7d2a8f38fe8dcc73f58cae9530
以上就是DeepSeek V3+R1满血微调工具上线!一键启动,硬件要求降10倍的详细内容,更多请关注php中文网其它相关文章!
Copyright 2014-2025 https://www.php.cn/ All Rights Reserved | php.cn | 湘ICP备2023035733号