LoRA (Low-rank adaptation)是用来微调大型模型的技术,其生成的模型训练时间短,文件更小。 DreamBooth内含LoRA,可作为 SD WebUI的扩充功能安装。 本机训练还可以用 LoRA_Easy_Training_Scripts,支持Linux和Windows系统。
“LoRA Easy Training Scripts"这个Python程序Linux和Windows都可以用,下面以Ubuntu为例。
创建虚拟环境
conda create --name loratraining python=3.10.6
conda activate loratraining
git clone <https://github.com/derrian-distro/LoRA_Easy_Training_Scripts.git>
cd LoRA_Easy_Training_Scripts
git submodule init
git submodule update
cd sd_scripts
pip install torch torchvision --extra-index-url <https://download.pytorch.org/whl/cu116>
pip install --upgrade -r requirements.txt
pip install -U xformers
accelerate config
#依序回答:
#- This machine
#- No distributed training
#- NO
#- NO
#- NO
#- all
#- fp16
LoRA的训练数据目录结构不太一样,需创建目录结构如下。已经上好提示词的训练数据要放在img_dir
下面,将目录名称取名为数字_概念
,目录名称前面加上数字代表要重复的步数。
trainingconfig.json
添加训练设置档trainingconfig.json
vim trainingconfig.json
填入以下内容(双斜线的注解记得删除) LoRA的总训练步数计算公式为: 训练图片数量 × 重复次数 ÷ train_batch_size × epoch