0

0

解决 QLoRA 训练中大批量尺寸导致训练时间过长的问题

霞舞

霞舞

发布时间:2025-10-06 14:20:02

|

1024人浏览过

|

来源于php中文网

原创

解决 qlora 训练中大批量尺寸导致训练时间过长的问题

在使用 QLoRA (Quantization-aware Low-Rank Adaptation) 技术微调大型语言模型时,可能会遇到一些意想不到的问题。其中一个常见问题是,当增加 per_device_train_batch_size 时,训练时间会不成比例地增加,即使 GPU 内存可以容纳更大的批量尺寸。 本文将深入探讨这个问题,并提供可能的解决方案。

如摘要所述,问题通常在于训练步数 (max_steps) 和 epoch 之间的关系。 让我们更详细地了解这一点。

理解 max_steps 和 Epoch

在训练机器学习模型时,max_steps 和 epoch 是两个重要的参数,它们决定了训练过程的持续时间。

  • Epoch: 一个 epoch 表示模型训练数据集的完整一次迭代。 例如,如果你的训练数据集包含 1000 个样本,并且你设置 num_epochs=2,那么模型将遍历整个数据集两次。

  • max_steps: max_steps 定义了训练过程中的最大更新步数。 这是一种更精细的控制训练过程的方式,尤其是在你希望限制训练时间或在特定步数后停止训练的情况下。

在 transformers 库中,如果你同时指定了 num_epochs 和 max_steps,那么 max_steps 将覆盖 num_epochs。 如果仅指定 num_epochs,则训练将持续到所有 epoch 完成。

问题分析

当增加 per_device_train_batch_size 时,每个 epoch 的迭代次数会减少。 这是因为模型在每个步骤中处理更多的数据。 如果 max_steps 的值保持不变,那么实际上训练的 epoch 数会减少,导致模型训练不足。

例如,假设你的训练数据集包含 10000 个样本,并且你设置了 max_steps=1000。

  • 如果 per_device_train_batch_size=1,那么每个 epoch 将包含 10000 步,因此训练将持续 0.1 个 epoch (1000 / 10000)。
  • 如果 per_device_train_batch_size=100,那么每个 epoch 将包含 100 步,因此训练将持续 10 个 epoch (1000 / 100)。

在这种情况下,当 per_device_train_batch_size 从 1 增加到 100 时,训练的 epoch 数从 0.1 增加到 10。 这意味着模型实际上训练了更多次,从而导致训练时间显着增加。

Copysmith
Copysmith

Copysmith是一款面向企业的 AI 内容创建解决方案

下载

解决方案

要解决这个问题,你需要确保 max_steps 的值与预期的训练 epoch 数相匹配。

  1. 确定目标 Epoch 数: 首先,确定你希望模型训练多少个 epoch。 这取决于你的数据集大小、模型复杂性和训练目标。

  2. 计算所需的 max_steps: 使用以下公式计算所需的 max_steps 值:

    max_steps = (num_samples / per_device_train_batch_size) * num_epochs

    其中:

    • num_samples 是训练数据集中的样本数量。
    • per_device_train_batch_size 是每个设备的训练批量大小。
    • num_epochs 是你希望模型训练的 epoch 数。
  3. 更新 TrainingArguments: 在你的 TrainingArguments 中,将 max_steps 设置为计算出的值。

    training_args = TrainingArguments(
        output_dir=config['output_dir'],
        per_device_train_batch_size=config['per_device_train_batch_size'],
        gradient_accumulation_steps=config['gradient_accumulation_steps'],
        learning_rate=float(config['learning_rate']),
        max_steps=calculated_max_steps, # 使用计算出的 max_steps
        optim="paged_adamw_8bit",
        fp16=True,
        load_best_model_at_end = True,
        save_strategy="epoch",  # Save at the end of each epoch
        evaluation_strategy="epoch",
        save_total_limit=1  # Keep only the last 2 checkpoints
    )

示例代码

假设你的训练数据集包含 10000 个样本,你希望模型训练 3 个 epoch,并且你使用 per_device_train_batch_size=128。 那么,你需要将 max_steps 设置为:

num_samples = 10000
per_device_train_batch_size = 128
num_epochs = 3

calculated_max_steps = (num_samples / per_device_train_batch_size) * num_epochs
print(f"Calculated max_steps: {calculated_max_steps}") # 输出: Calculated max_steps: 234.375

# 由于 max_steps 必须是整数,通常向上取整
calculated_max_steps = int(calculated_max_steps + 0.5) # 四舍五入
print(f"Rounded max_steps: {calculated_max_steps}") # 输出: Rounded max_steps: 234

training_args = TrainingArguments(
    output_dir=config['output_dir'],
    per_device_train_batch_size=config['per_device_train_batch_size'],
    gradient_accumulation_steps=config['gradient_accumulation_steps'],
    learning_rate=float(config['learning_rate']),
    max_steps=calculated_max_steps,
    optim="paged_adamw_8bit",
    fp16=True,
    load_best_model_at_end = True,
    save_strategy="epoch",  # Save at the end of each epoch
    evaluation_strategy="epoch",
    save_total_limit=1  # Keep only the last 2 checkpoints
)

注意事项

  • 确保 max_steps 是一个整数。 如果计算出的 max_steps 不是整数,请将其四舍五入到最接近的整数。
  • 监控训练过程,并根据需要调整 max_steps 的值。
  • 考虑使用验证集来评估模型的性能,并防止过度拟合。

总结

当使用 QLoRA 对大型语言模型进行微调时,max_steps 的设置至关重要。 通过确保 max_steps 的值与预期的训练 epoch 数相匹配,你可以避免训练时间过长的问题,并确保模型得到充分的训练。 通过本文提供的分析和解决方案,你可以更好地理解和解决在使用 QLoRA 时遇到的训练时间问题。 记住,细致地调整训练参数是获得最佳模型性能的关键。

相关专题

更多
excel制作动态图表教程
excel制作动态图表教程

本专题整合了excel制作动态图表相关教程,阅读专题下面的文章了解更多详细教程。

20

2025.12.29

freeok看剧入口合集
freeok看剧入口合集

本专题整合了freeok看剧入口网址,阅读下面的文章了解更多网址。

65

2025.12.29

俄罗斯搜索引擎Yandex最新官方入口网址
俄罗斯搜索引擎Yandex最新官方入口网址

Yandex官方入口网址是https://yandex.com;用户可通过网页端直连或移动端浏览器直接访问,无需登录即可使用搜索、图片、新闻、地图等全部基础功能,并支持多语种检索与静态资源精准筛选。本专题为大家提供相关的文章、下载、课程内容,供大家免费下载体验。

197

2025.12.29

python中def的用法大全
python中def的用法大全

def关键字用于在Python中定义函数。其基本语法包括函数名、参数列表、文档字符串和返回值。使用def可以定义无参数、单参数、多参数、默认参数和可变参数的函数。本专题为大家提供相关的文章、下载、课程内容,供大家免费下载体验。

16

2025.12.29

python改成中文版教程大全
python改成中文版教程大全

Python界面可通过以下方法改为中文版:修改系统语言环境:更改系统语言为“中文(简体)”。使用 IDE 修改:在 PyCharm 等 IDE 中更改语言设置为“中文”。使用 IDLE 修改:在 IDLE 中修改语言为“Chinese”。本专题为大家提供相关的文章、下载、课程内容,供大家免费下载体验。

16

2025.12.29

C++的Top K问题怎么解决
C++的Top K问题怎么解决

TopK问题可通过优先队列、partial_sort和nth_element解决:优先队列维护大小为K的堆,适合流式数据;partial_sort对前K个元素排序,适用于需有序结果且K较小的场景;nth_element基于快速选择,平均时间复杂度O(n),效率最高但不保证前K内部有序。本专题为大家提供相关的文章、下载、课程内容,供大家免费下载体验。

12

2025.12.29

php8.4实现接口限流的教程
php8.4实现接口限流的教程

PHP8.4本身不内置限流功能,需借助Redis(令牌桶)或Swoole(漏桶)实现;文件锁因I/O瓶颈、无跨机共享、秒级精度等缺陷不适用高并发场景。本专题为大家提供相关的文章、下载、课程内容,供大家免费下载体验。

134

2025.12.29

抖音网页版入口在哪(最新版)
抖音网页版入口在哪(最新版)

抖音网页版可通过官网https://www.douyin.com进入,打开浏览器输入网址后,可选择扫码或账号登录,登录后同步移动端数据,未登录仅可浏览部分推荐内容。本专题为大家提供相关的文章、下载、课程内容,供大家免费下载体验。

63

2025.12.29

快手直播回放在哪看教程
快手直播回放在哪看教程

快手直播回放需主播开启功能才可观看,主要通过三种路径查看:一是从“我”主页进入“关注”标签再进主播主页的“直播”分类;二是通过“历史记录”中的“直播”标签页找回;三是进入“个人信息查阅与下载”里的“直播回放”选项。本专题为大家提供相关的文章、下载、课程内容,供大家免费下载体验。

18

2025.12.29

热门下载

更多
网站特效
/
网站源码
/
网站素材
/
前端模板

精品课程

更多
相关推荐
/
热门推荐
/
最新课程
10分钟--Midjourney创作自己的漫画
10分钟--Midjourney创作自己的漫画

共1课时 | 0.1万人学习

Midjourney 关键词系列整合
Midjourney 关键词系列整合

共13课时 | 0.9万人学习

AI绘画教程
AI绘画教程

共2课时 | 0.2万人学习

关于我们 免责申明 举报中心 意见反馈 讲师合作 广告合作 最新更新
php中文网:公益在线php培训,帮助PHP学习者快速成长!
关注服务号 技术交流群
PHP中文网订阅号
每天精选资源文章推送

Copyright 2014-2025 https://www.php.cn/ All Rights Reserved | php.cn | 湘ICP备2023035733号