ai动画测试心得
参考视频【ai动画测试(加入扩散控制网络(ControlNet))】 https://www.bilibili.com/video/BV1c24y1n7k9/?share_source=copy_web&vd_source=cab9ec733a28acda64856a059591e236
本视频采用stable-diffusion-webui图生图批量处理
大概流程:
原生素材采用mikumikudance(mmd)生成
原生素材视频设置:1000*1000 分辨率 帧数:24帧 使用固定镜头
mmd导出素材视频后使用Pr进行序列帧处理
处理后的序列帧图片使用stable-diffusion-webui测试图片稳定性(我的方法:从第一张序列帧图片开始测试,每隔18张序列图片测试一次,总测试5次)
具体测试/批量处理参数:
我使用的Stable Diffusion 模型(ckpt):AbyssOrangeMix2_nsfw
正面tag:best quality, masterpiece,best quality,official art,extremely detailed CG unity 8k wallpaper, 1girl, long hair, pink hair, beautiful detailed eyes, purple eyes,elysia \(honkai impact\),
负面tag:lowres, bad anatomy, bad hands, text, error, missing fingers, extra digit, fewer digits, cropped, worst quality, low quality, normal quality, jpeg artifacts, signature, watermark, username, blurry, bad feet,
采样方法(Sampler):DPM++2S a Karras
采样迭代步数(Steps):30
宽度:1000 高度:1000
提示词相关性(CFG Scale):7
重绘幅度(Denoising):0.4
随机种子(seed):11342(可随机输入)
启用扩散控制网络(ControlNet):预处理器:Canny 模型:control_Canny
权重:1 引导强度:0.8
预处理分辨率:600-1000 我的参数:718
Canny low threshold:100
Canny high threshold:200
画布宽度/高度:1024
批量处理的输入目录:你导出的序列帧图片文件夹(路径最好不要有中文)
批量处理的输出目录:新建一个文件夹(使用英文)
注意事项:在stable-diffusion-webui里的设置选项里找到扩散控制网络(ControlNet)选项,勾选(不输出探测模式图(detected maps)(如深度估算图、动作检测图等)
批量处理前请清除扩散控制网络(ControlNet)里的测试图片
请勿忘记设置模型的VAE(SD VAE)