第三篇关于Lora模型的炼制参数
第三篇 Lora炼制
一.说明
本文以朱尼酱赛博丹炉为例,文章只做参考帮助大家更快上手,以及理解含义。
二.概念解析以及推荐设置
1.素材准备
先带大家理解一些拟合问题造成因素:
欠拟合:复杂度过低;特征量过少;
过拟合:样本数量少;选样方法错误;样本标签错误;噪音干扰过大;参数太多;模型复杂度过高,表现为泛化能力下降。
所以推荐图片选择数量上多优于少;清晰度要高,表现为细节清晰;选择图片人物或画风要准确,表现为训练某一个人物特征时勿选择其他人物,图片宽高为64倍数。

2.模型选择
训练Lora时,选择画风相近的大模型效果会更接近素材图片。

3.触发词
触发词需要写一个目前不存在的单词否则会影响训练结果。

4.步数设置
Repeat(学习步数):每张图片一轮学习多少次。
Epoch(循环步数):所有图片学习完后进入第二轮循环,这个数值表示进行多少轮循环。

5.效率设置
Batch size(并行数量):可理解为数值越高训练速度越快,指在训练神经网络时,每个训练迭代中用于更新模型参数的样本数量。(数字越大需要更大的学习步数或循环步数或学习率,视拟合情况增加或减少,没有固定数值。
Optimizer(优化器):这里推荐AdamW, AdamW8bit, Lion。其中AdamW8bit表示使用8-bit的AdamW优化器,显存小可用这个;Lion和AdamW对比,Lion具有内存占用低、运行速度快的特点,但小batch size下(小于64)Lion效果不如AdamW。(其他优化器可自行研究)
Save everyN epochs(每N轮保存一个模型):搭配Epoch使用;不建议开太大,一次训练10个模型已经够多了,比如epoch10这个填1,epoch20这个填2。
lr Scheduler(调度器):cosine是以余弦函数的方式进行周期性变换;cosine_with_restarts是基于cosine函数的硬重启动态学习率调整方法,推荐使用cosine_with_restarts。

6.质量设置
Learning rate(学习率):用于控制模型在每次参数更新时的步长大小。学习率决定了模型在梯度方向上更新参数的幅度。
Unet Ir(图片特征学习率):学习图片特征,与Learning rate基本保持一致。
Text Lr(文本相关的学习率):用于提示词敏感度,一般设置为Unet Ir的1/2到1/10。
Network Dim(网络维度):学习图片的精细度根据情况而定,
建议:二次元32-64或更高,真人64到128或更高,画风128或更高。
Network Alpha(网络Alpha):没有固定说法一般比Network Dim低。