欢迎光临散文网 会员登陆 & 注册

AI绘画 使用LoRA微调Stable Diffusion到底有多少种方法?

2023-03-29 09:24 作者:独立研究员-星空  | 我要投稿
  1. LoRA作者的github仓库:http://github.com/cloneofsimo/lora


这里写到一共有三种方法,

  1. DreamBooth 我们最常用的, 需要显存少,效果好

    注意: 不使用Prior Loss 被称为

    Fine-tuning (native training), including U-Net and Text Encoder

    这个和大模型使用LoRA微调不一样的

  2. Textual Inversion 知道,似乎没人用

  3.  Pivotal Turning 很少人知道,而且很少人用,LoRA作者说其效果最好,但需要12G以上显存

第三种方法LoRA作者说其效果最好,但需要12G以上显存。

我们使用的kohya-ss的LoRA训练脚本至今也没第三种实现,可能是因为显存要的比较多吧。


再来看Diffusers库:

使用LoRA微调大模型,这里和上面Fine-tuning (native training) 是不一样的

 

使用DreamBooth LoRA微调:


AI绘画 使用LoRA微调Stable Diffusion到底有多少种方法?的评论 (共 条)

分享到微博请遵守国家法律