欢迎光临散文网 会员登陆 & 注册

第三篇关于Lora模型的炼制参数

2023-07-09 18:47 作者:京城啤套人  | 我要投稿

第三篇 Lora炼制

一.说明

    本文以朱尼酱赛博丹炉为例,文章只做参考帮助大家更快上手,以及理解含义。

二.概念解析以及推荐设置

  1.素材准备

     先带大家理解一些拟合问题造成因素:

    欠拟合:复杂度过低;特征量过少;

    过拟合:样本数量少;选样方法错误;样本标签错误;噪音干扰过大;参数太多;模型复杂度过高,表现为泛化能力下降。

    所以推荐图片选择数量上多优于少;清晰度要高,表现为细节清晰;选择图片人物或画风要准确,表现为训练某一个人物特征时勿选择其他人物,图片宽高为64倍数。

2.模型选择

    训练Lora时,选择画风相近的大模型效果会更接近素材图片。

3.触发词

    触发词需要写一个目前不存在的单词否则会影响训练结果。

4.步数设置

    Repeat(学习步数):每张图片一轮学习多少次。

    Epoch(循环步数):所有图片学习完后进入第二轮循环,这个数值表示进行多少轮循环。

5.效率设置

    Batch size(并行数量):可理解为数值越高训练速度越快,指在训练神经网络时,每个训练迭代中用于更新模型参数的样本数量。(数字越大需要更大的学习步数或循环步数或学习率,视拟合情况增加或减少,没有固定数值。

    Optimizer(优化器):这里推荐AdamW, AdamW8bit, Lion。其中AdamW8bit表示使用8-bit的AdamW优化器,显存小可用这个;Lion和AdamW对比,Lion具有内存占用低、运行速度快的特点,但小batch size下(小于64)Lion效果不如AdamW。(其他优化器可自行研究)

    Save everyN epochs(每N轮保存一个模型):搭配Epoch使用;不建议开太大,一次训练10个模型已经够多了,比如epoch10这个填1,epoch20这个填2。

    lr Scheduler(调度器):cosine是以余弦函数的方式进行周期性变换;cosine_with_restarts是基于cosine函数的硬重启动态学习率调整方法,推荐使用cosine_with_restarts。

6.质量设置

    Learning rate(学习率):用于控制模型在每次参数更新时的步长大小。学习率决定了模型在梯度方向上更新参数的幅度。

    Unet Ir(图片特征学习率):学习图片特征,与Learning rate基本保持一致。

    Text Lr(文本相关的学习率):用于提示词敏感度,一般设置为Unet Ir的1/2到1/10。

    Network Dim(网络维度):学习图片的精细度根据情况而定,

        建议:二次元32-64或更高,真人64到128或更高,画风128或更高。

    Network Alpha(网络Alpha):没有固定说法一般比Network Dim低。

第三篇关于Lora模型的炼制参数的评论 (共 条)

分享到微博请遵守国家法律