需按五步完成LoRA训练:一、准备20–50张高质量图像并统一缩放;二、用DeepBooru自动打标后人工清洗无关标签;三、在kohya_ss中配置基础模型、路径及关键参数(如Network Dim、Learning Rate);四、可用赛博丹炉一键训练;五、严格规范数据命名与目录结构。
☞☞☞AI 智能聊天, 问答助手, AI 智能搜索, 免费无限量使用 DeepSeek R1 模型☜☜☜

如果您已安装 Stable Diffusion WebUI 并希望训练专属 LoRA 模型,但尚未配置训练环境或不确定如何组织数据与参数,则可能是由于训练流程未完整执行或关键组件缺失。以下是解决此问题的步骤:
本文运行环境:RTX 4090,Windows 11
训练集质量直接决定 LoRA 输出效果,低质图像会导致过拟合、泛化差或特征丢失。需确保图像主体清晰、角度多样、背景简洁,并统一为 64 的整数倍分辨率。
1、收集 20–50 张目标主题图像,例如人物需包含正脸、侧脸、半身、全身、不同表情及光照条件;若为物品或风格类,须覆盖典型形态与上下文变体。
2、使用 birme.net 批量裁切工具 将所有图像统一缩放至 512×512 或 768×768,避免拉伸变形,保存为 PNG 或 JPG 格式。
3、手动剔除模糊、遮挡严重、重复构图或含无关干扰物的图片,保留主体占比 ≥70% 的样本。
标签是模型理解图像语义的关键输入,未经清洗的自动标签易引入通用属性(如“1girl”“black_hair”),削弱 LoRA 对特有特征的学习能力。
1、在 WebUI 中打开 “Train” → “Image Preprocessing” 页面,指定训练图像文件夹路径,勾选 “DeepBooru” 启用自动打标。
2、点击 “Preprocess” 开始生成 .txt 标签文件,每张图对应一个同名文本,内容为逗号分隔的关键词。
3、逐个检查 .txt 文件,删除所有与训练目标无关的通用标签,例如人物类需移除 “solo”“1girl”“brown_eyes”,仅保留如 “flower_crown”“twin_braids”“spring_outfit” 等差异化特征词。
kohya_ss 是当前最主流的 LoRA 训练框架,其 GUI 提供可视化参数调节,可大幅降低命令行门槛。正确设置学习率、批次大小与网络维度是避免训练崩溃或无效收敛的核心。
1、启动 kohya_ss GUI 后,在 “Source Model” 栏选择与训练主题匹配的基础大模型(如写实人物用 majicMIX realistic_v5,二次元用 anything-v4.5)。
2、在 “Folders” 栏填写:训练图像路径、输出模型路径、预处理器输出路径(即上一步生成的带 .txt 的文件夹)。
3、进入 “Parameters” 栏,设置关键参数: • Network Dim:设为 128(具象类)或 64(风格/概念类); • Learning Rate:设为 1e-4(初始值),训练中可视 loss 曲线微调; • Max Train Epochs:设为 10–20(具象类)或 30–50(风格类); • Batch Size per Device:根据显存设定,RTX 4090 可设为 4(512×512)或 2(768×768)。
赛博丹炉整合了图形化界面与一键式预设,适合不熟悉参数逻辑的新手,内置抠图填白、WD1.4 自动 TAG、分层训练等增强功能,可跳过手动配置环节。
1、解压下载包后运行 cybertronfurnace1.4\cfurnace_ui\Cybertron Furnace.exe,首次启动将自动下载依赖组件。
2、在首页点击 “人物” 预设(适用于角色类 LoRA),导入已处理好的图像文件夹与基础模型路径。
3、在 “上传素材” 页面启用 “抠图填白” 模式,并将 TAG 可信度阈值设为 0.35,点击“开始训练”即可启动。
LoRA 训练脚本依赖严格的数据目录结构和文件命名规则,错误命名将导致图像与标签无法配对,引发空 loss 或训练中断。
1、将全部图像与对应 .txt 文件置于同一文件夹,确保文件名完全一致(如 001.png 与 001.txt)。
2、若需控制单图训练频次,可在文件名前添加数字前缀,格式为 [次数]_[原名],例如 10_cxk_01.png 表示该图参与训练 10 次。
3、确认训练文件夹内无子文件夹、无隐藏文件、无中文路径,所有路径均使用英文或下划线命名。
以上就是怎么训练自己的LoRA Stable Diffusion LoRA模型训练方法的详细内容,更多请关注php中文网其它相关文章!
每个人都需要一台速度更快、更稳定的 PC。随着时间的推移,垃圾文件、旧注册表数据和不必要的后台进程会占用资源并降低性能。幸运的是,许多工具可以让 Windows 保持平稳运行。
Copyright 2014-2025 https://www.php.cn/ All Rights Reserved | php.cn | 湘ICP备2023035733号