欢迎光临散文网 会员登陆 & 注册

15分钟入门AI动画!Mov2Mov零基础教学,用Stable Diffusio

2023-07-06 01:38 作者:叶雨景彡  | 我要投稿

*觉得笔记不错的可以来个一键三连

(16分钟的视频打完发现过去两小时咯)


00:02



01:43


一、AI动画“古法”逐帧重绘

*视频、动画其实也是由一张张静止的图片连续播放而成的,每一张图片叫做视频的“一帧”



02:08





02:25


SD中的图生图可以把一张图片“重绘“成任何一种风格

AI动画本质上就是把视频每秒的20-30张画面拆开,单独重绘每一张画面,再拼回去变成一个完整的视频


03:17


二、图生图批量重绘

1.SD中图生图标签里有一个“批量处理”功能

设置好输入目录和输出目录就可以对多张图片批量进行图生图操作

*输入目录:存放将要重绘图片的文件夹路径

输出目录:存放重绘完成图片文件夹路径

还可以批量导入重绘模板和骨骼图(进阶,暂时不聊)



03:40


2.将视频变为图片

(1)如果会操作Pr等剪辑软件,可以将一个视频导出一张张的图片序列进行重绘

(2)为了照顾不会剪辑软件的同学,争取全部在Webui里完成


03:51


【IS-NET Pro】

作者:@星瞳毒唯

教程:BV1Fh411G7dw

仓库:https://github.com/ClockZinc/sd-webui-IS-NET-pro


安装完成后打开SD找到“IS-NET Pro”的标签

可以将导入的视频拆分成单帧图片



04:13


(3)插件具体功能介绍

①视频”拆散“

启用输出帧率控制:调节视频的帧率

不勾选默认帧率输出图片

查看视频帧率:右键一个视频—属性—详细信息—帧速率

帧速率25.00帧/秒:每秒播放25张图片,30帧:每秒30张图片,60帧:每秒60张图片

启用时间段裁剪:控制裁剪视频从哪开始到哪里结束,比较长的视频可以用这个来截短

图片输出地址:生成的图片存放路径



06:32


②图片“重组”

FPS:帧率

原视频帧率是多少,输出视频帧率要保持一致,不然视后期处理的视频速度对不上

图片输入地址:刚刚批处理输出的文件夹路径

视频输出地址:保存视频的文件夹路径



04:47


3.风格测试

写tag:一般精确到从头到尾都适用的外貌特征就够了,画质标准化+(内容,不变的)人物特征+背景特征

*视频转绘幅度较大,推荐加入dynamic poise提示词增强动态感,detailed face提示词可以确保在半身或全身画面下人物的脸部不至于太过模糊

设置完成后点击生成,直到有一张符合自己需要的图生图结果,然后把随机种子固定下来

打开批处理,把输入输出文件夹设置好,点击生成,批量重绘就开始了



06:52




07:18


三、Mov2Mov扩展应用(真正视频到视频的转换)

扩展插件:

【Mov2Mov】

作者:@小丁NaNd

教程:BV1Mo4y1a7DF

仓库:https://github.com/Scholar01/sd-webui-mov2mov



07:26


1.功能介绍

打开SD中的Mov2Mov标签

功能设置选项与图生图基本一致,导入图片变成了导入视频

噪声(重绘幅度)乘数 [Noise multiplier](不常用)

它被藏在设置—Stable Diffusion中,默认值为1

简单理解:输入的重绘幅度乘以这个数才会得到真实作用的最终“重绘幅度”(虽然真正的原理并不是这样)

很多AI动画创作者会设置一个很低的数值(甚至是0),以确保稳定度以及产出作品和原视频足够像,但是会消除一些AI绘制的风格化因素,容易造成画面模糊





08:15


Movie Frame:帧率,保持与原视频一致

Max Frame:用来“测试”的选项,先生成一小段视频查看效果

设置成-1时不生效,输入50,就是先画50帧

ModNet:清除背景的选项,似乎需要加载额外模型,可以维持默认不开启

2.设置完成后点击生成,生成完可以直接在页面中预览

3.如果通过Mov2Mov生成的视频

在你根目录下的outputs文件夹里,会多出两个文件夹,videos存放成品视频,images存放单帧绘制的图片

对生成的视频满意且不需要局部调整可以将images文件夹里的图片删除



09:19


4.两者对比

批处理和Mov2Mov没有太大区别

优点和缺点

*通病:都不能把音频整合进来,可以用任意一款剪辑软件把音频导入


09:44


5.注意模型和重绘幅度

模型:决定画风的最大要素,不同模型出来的效果不一样

重绘幅度:没有绝对的正确答案

追求与原视频“更像”,就设置比较低一些

想让AI自由”发挥“,保留更多模型特质,就设置高一些,但最好不要超过0.5,高了图像一般不稳定




10:29


四、LoRA应用

在批处理或者Mov2Mov中开启Additional Network

可以让特定的LoRA微调

LoRA具体作用看前面的第9课

AI动画中最常见的应用是使用一些画风LoRA让画面增强某种风格特色


11:04


水墨风格LoRA:泼墨 lnk Splash





11:25


对画面“改动”不是那么大,添加一些细节,进行润色

Detail Tweaker丰富细节

Fashion Girl“美颜”




11:38


五、ControlNet:精准控制

*在第10课有具体讲解

每种ControlNet在AI动画中都可以发挥一定的效果

1.AI动画视频内的效果控制

(1)还原人物姿势:使用Openpose,开启Face,增强对表情复现的生动程度


近身镜头会拍到手部的要开启Hand

嫌麻烦开Full,一步到位

(2)还原场景特征:开启Depth,极大程度降低发生在复杂背景里闪烁程度

(3)画面变化幅度不大,主体比较固定:

开启Canny和SoftEdge,能还原准确的主体形象

(4)如果使用的是最新1.1的ControlNet,还可以开启Lineart(线稿)的模型

提取比Canny更为精细且富有连贯的线条

在输入不同属性的信息图时,记得选择对应的预处理器,让结果变得更准确



12:47


2.没人炼LoRA

最新1.1的ControlNet推出一个新的模型Reference ONLY,作用是可以提供“参考”

把记载主体形象的图片置入到ControlNet中,开启Reference ONLY,在生成过程中都去“复现”这张图上的特征,让生成出来的每张图跟原始图足够像



加了东西要比不加的要稳定、自然得多



13:49


3.推荐

在AI动画中使用多重控制网

但up主并没有推荐在AI动画中使用太多ControlNet,因为过多的控制会丧失AI的创造力

使用多重ControlNet,会降低绘制速度



14:47


六、AI动画现存在的问题

AI动画目前还不是很成熟,有三点原因:

“错乱”:AI不能正确读取每一张图片上的内容,且无法理解一些动作表现与空间关系,在画面越来越复杂时,变得越来越严重

“闪烁”:AI在刻画前后的帧时经常存在“不一致”的现象,从人物外观特征到服饰到场景,都有可能变化,从而造成类似画面一直在闪动的效果


15:12


“速度慢”:每生成1秒25帧的视频大概要40秒左右的时间

好像速度还行?但up的显卡是4090

再进一步开启ControlNet等扩展,时间会两倍、三倍往上翻,还没算上反复调试、测试用的时间



扩展:多帧渲染

时长变为原来的3倍


那如何既轻松、又稳定地把这个动画做出来呢?

请看下集

15分钟入门AI动画!Mov2Mov零基础教学,用Stable Diffusio的评论 (共 条)

分享到微博请遵守国家法律