前言

LoRA (Low-rank adaptation)是用来微调大型模型的技术,其生成的模型训练时间短,文件更小。 DreamBooth内含LoRA,可作为 SD WebUI的扩充功能安装。 本机训练还可以用 LoRA_Easy_Training_Scripts,支持Linux和Windows系统。

一、训练环境设置

“LoRA Easy Training Scripts"这个Python程序Linux和Windows都可以用,下面以Ubuntu为例。

1、安装 Anaconda

创建虚拟环境

conda create --name loratraining python=3.10.6
conda activate loratraining

2、拷贝保存库

git clone <https://github.com/derrian-distro/LoRA_Easy_Training_Scripts.git>
cd LoRA_Easy_Training_Scripts
git submodule init
git submodule update
cd sd_scripts
pip install torch torchvision --extra-index-url <https://download.pytorch.org/whl/cu116>
pip install --upgrade -r requirements.txt
pip install -U xformers

3、设置加速选项

accelerate config
#依序回答:
#- This machine
#- No distributed training
#- NO
#- NO
#- NO
#- all
#- fp16

4、训练数据目录

LoRA的训练数据目录结构不太一样,需创建目录结构如下。已经上好提示词的训练数据要放在img_dir下面,将目录名称取名为数字_概念,目录名称前面加上数字代表要重复的步数。

Untitled

5、添加trainingconfig.json

添加训练设置档trainingconfig.json

vim trainingconfig.json

6、输入json

填入以下内容(双斜线的注解记得删除) LoRA的总训练步数计算公式为: 训练图片数量 × 重复次数 ÷ train_batch_size × epoch