欢迎光临散文网 会员登陆 & 注册

lora记录,参考使用

2023-06-14 18:12 作者:2G网络冲浪者  | 我要投稿

转载自:活埋红猪

说两句对真人照片lora训练集预处理经验。
1.可以有多个角度的样本,但各个角度的样本数最好差不多(正脸可以多些),以保证不同角度的在训练中的权重。
2.样本数量并不需要太多,一般来说 ,真人有20张左右就非常富裕了,实际上当单独的照片足够清晰的时候,一到两张照片就能够提供绰绰有余的特征细节。
3.不需要多少的tag,因为lora模型本身就已经是最重要的特征描述了,建议tag删光,就留1girl就足够了,加太多的tag会导致在出图时让底包模型里的其他tag污染lora里的特征,这也是很多人训练出模型不像的最重要原因。另外在训练时我发现,似乎再再添加一个姓名tag,能够提高出图的稳定性(但这很可能是错觉,不过添加并没有坏处)。
4.如果找到的照片中有很多样本都具备一些共有特征,比如戴眼镜,戴项链,戴耳环,侧脸等,还是建议打上对应的tag,这样在出图的时候,能够减少对面部特征的影响。如果不打,很可能会导致每张图都有一样的特征(比如都戴耳环)。
5.样本集的选择上,如果是要提取面部的话,以证件照的景别为主,建议添加几张半身照,在出图时可以添加profile shoot类似的负面tag来避免出图都是证件照。
暂时就这么多,另外用真人训练的法律风险就不需要我来多说了。大家炼丹出图还是讲究个自己开心,别搞出什么搂子把整个小圈子给扬了,那就不好了。

补充一点,如果你最后出图是有一个偏爱的固定底包模型的话,比如大家最爱的chillout,训练模型也最好用一样的底包。如果底包的风格或者训练集差距过大会影响模型的泛化能力。如果没有这个要求,那就用秋叶大大里面的默认final prune这种万能底包就好了。

底模是stable diffusion的基础模型,对应的是civitai这类网站上的checkpoint类。lora是根据少量训练集训练出的小型风格模型,需要结合底模使用。具体使用方法,还是参照原up的一系列视频,说的很清楚的。

按说参数不需要调整,一般来说出图效果不好,大多还是训练集选择的问题。训练集的一致性是挺重要的。选择的图片的角度,光照,等如果出现差异会对出图有影响。因为SD完全可以在只提取面部结构的情况下,在图片生成端增加表情与光照的设定。所以建议训练集以平光、轻微表情或无表情为主。
个人建议,不一定先要炼目标对象,找一个画质较好的随便什么的视频截图生成训练集,比如明星采访视频就能够保证一致的妆造和光照条件,先找找感觉

不用,删不删tag还是取决于你的训练图怎么选的。动漫角色肯定不可能都是大头照,而且面部特征区别其实没那么大的,正常打tag就可以。

转载:邻家咪啪

补充一下群里大佬分享的经验:

1、假设脚本里训练分辨率设置为512,512
2、那么横屏素材分辨率设置为640*384,竖屏素材设置为384*640,正方形素材设置为512*512
3、这样训练素材不用裁切画面就可以丢给lora训练
至少我用kohya的图形gui这样炼丹出来效果是没问题的



本地训练:

配置好后,训练 512 x 512, 【WinError 1455】 页面文件太小,但实际只吃了6G显存,还有1G多没用。

2023-01-23 22:5839回复

秋葉aaaki:这是虚拟内存太小

2023-01-23 23:194回复

Risa回复 @秋葉aaaki : 确实是这个问题,其实一开始出问题的时候,我还去查了一下虚拟内存是不是关了,但系统盘是有的。目测这脚本是需要包所在的盘有虚拟内存,我去单独给所在盘符开了一下,就可以正常运行了。

2023-01-23 23:298回复

由崎黑板回复 @秋葉aaaki : 我在所在盘符设置了16G的虚拟内存,依然1455

2023-01-26 10:064回复

西行寺夜见回复 @由崎黑板 : 16g够干啥的,先设个60g再看看,不够就120g







lora记录,参考使用的评论 (共 条)

分享到微博请遵守国家法律