AI模型推荐(2)cetusMix模型测评|附链接

写在前面
这次测试的模型是cetusMix模型(以下简称cetusMix),文件名为cetusMix_cetusVersion3,这个模型在文末附上网盘链接分享。
测评将从vae,clip跳过层,采样方法等几个重要参数出发,通过控制变量法进行模型测试,测评结果仅作参考,不代表实际结果。
测试参数

在之后测试中,除测试变量外,其余变量都为默认测试参数,正面tag从测试用图中通过tag反推提取,并经过适当修改(图片中由于篇幅原因tag未显示全)。
1,vae测试

vae对于cetusmix的影响还是相当明显的,与anything立绘不同,cetusmix是一个色彩相当鲜艳的模型,不加vae带来的画面发灰在cetusmix上的表现尤为明显,而诸如klf8,autoencader之类能提升画面饱和度的vae却和cetusmix相得益彰,过饱和的缺点被cetusmix水彩式的色块涂抹掩盖了,反而更加突出了画面的张力,建议使用。


2,clip跳过层测试
又到了玄学的clip跳过层时间

这次使画面产生较大变化的clip值有点随机,例一为1,4,8,9,11,例二为,4,6,11,例三为4,9。虽然失去了一定意义上的普遍规律。不过在大致结论上不变,clip依旧与tag对着干,三个例子在clip较高时又都出现了多人的情况。
要是有大佬能在评论区科普一下clip跳过层的原理和对图像的影响就好了。
没什么好说的,放几张图片欣赏一下。



3,迭代步数测试

结论不变,7步出图。但是相比与anything立绘,可以看到的是cetusmix的画面结构从7步出图的时候就不会有大的变动了,剩下的都是细节的优化,而anything立绘仍然会有较大变动,直到20步时才渐渐稳定,这里放上例二7步,20步,100步时的图片,可以自己寻找一下差别。



4,采样方法测试

结论不变,依旧是分a系,sde系,啥都没有以及两个特殊的(具体可以去看我上期专栏)。这里着重说一下Eular a。
Eular a在这次测试中展现出了一个神奇的特质:它直接改变了模型的画风。


除Eular a外,其他所有的采样方法都如上图后者DPM adaptive一样,是一种厚重的,油画式的画风,而Eular a则是一种清淡的,水彩式的画风。由于测试时用的是后者,所以大部分测试用例都是油画式的,但Eular a的水彩式画风同样是我认为这个模型不可或缺的一个特点。
5,提示词相关性测试

上次测试anything立绘时,相关度设为1时会出一种奇特的画风,现在想来倒与cutesmix有几分相似,而这次cetusmix相关度拉高了后,出的图又向anything立绘靠拢了,双向奔赴了属于是。
相关度1时的出图比不写tag时的出图还要古神(这个道理告诉我们,宁可不写tag也不要把相关度拉低)。

相关度3—10时正常出图。

相关度10之后,虽然没有anything立绘过曝的这么明显,但明显已经失去了cetusmix自己的画风特色,转而向anything立绘靠拢了,可见这俩关系定不一般。

相关性25以后,约等于anything立绘的相关性15吧,也有过曝现象出现了,以及一些噪点。

6,尺寸测试

cetusmix不但继承了anything立绘的缺点,在长宽比过大时生成图像不行,在小尺寸时生成图像也不尽如人意。
这是anything立绘的256*640

这是相同尺寸的cetusmix……(前方高能)

建议使用cetusmix至少用512*512以上的尺寸,以免对心脏造成不可逆转的损害。
7,tag数量测试

tag测试上,cutesmix展现出的规律和anything立绘不能说一模一样吧,至少也可以说是完全相同。同样是从第四个例子起产生了根本性的画面变化,原因未知。另外,tag框右上角的数字似乎既不是tag数,也不是字母数,看来对于tag要单独出一期测试。


8,模型对比测试

这个更没话讲了,萝卜青菜,各有所爱。





9,重绘幅度测试

这次把例二的仅质量tag换成了无tag,最后直接不成人形了,建议用cutesmix时起码加上质量tag。另外不同于anything立绘的包罗万象,cutesmix在重绘与自己画风不一致的图片时,中间过程还是蛮抽象的。
10,模型图例









后话
cutesmix是一个相当优秀的模型,它有着油画的质感,使用Eular a时还具有水彩的特性,出图质量相当高,且不吃tag,即使是小白也能生成出好看的图,没有特别明显的缺点,出尺寸小图时质量不佳(一般也不会生成这种尺寸的图),另外就是对tag敏感不高,有些tag似乎死活画不出来,如果画面细节过于密集,cutesmix也会使画面看起来十分杂乱。
测试表,测试图包,以及一些不能说的链接:
链接:https://pan.baidu.com/s/1KxVBsDzAzxlQlPQWfX1ObQ?pwd=8ggo
提取码:8ggo
模型链接:
链接:https://pan.baidu.com/s/1vPF2JhXDKEk_LS_FRNqkIA?pwd=bgon
提取码:bgon
如果有想测试的模型可以提供模型私聊哦(不测试真人模型哦)
up微社恐所以不怎么回私信和评论
下一期模型预告:orientalpunkmix(不知道啥时候会写出来,有可能咕咕咕)
Q&A(第二期)
Q:为什么tag里有风笛,画出来的都不像风笛?
A:主要还是看模型训练的图库里想画的人物多不多,比如甘雨,即使只写一个ganyu词条,也能准确画出甘雨,因为训练库中甘雨的图片多;而像风笛这种冷门角色,即使写了风笛,再加上一系列人物tag,也无法画出准确的风笛。
Q:那我要怎样画出风笛等其他角色呢
A:加lora,之后有时间可能会出Lora测试推荐的专栏
Q:为啥图包质量这么低?
A:图包包括测试图包(测试表里的图,文件名为:模型名+测试),测试废料图包(因为一些原因未能进入测试表的图,文件名为:测试),不能说的图包(文件名为:nsfw测试),这三个图包均为测试中生成,没有经过筛选,仅供学习使用,如果只是想要优秀的图包请自己跑或去p站
A(plus):这次我又新增了一个图包文件夹(和一个放大2倍的图包文件夹,更清晰,但细节比如眼睛处不大行,实际观感不如未放大的,这个模型不适合直接用放大算法,建议高清重绘),里面是经过筛选过的,起码人体结构稍微合理一点的图,避免又有人吐槽正在兴头上时被下面这样的图活生生吓掉san的



有空出一期AI掉san图大赏好了。
Q:图片尺寸为什么这么小/参数为什么这么低?
A:显卡带不动/(ㄒoㄒ)/~~
实际上出一张768*1024不带高清修复的图,迭代步数选50,大概就需要5分钟一张,这种情况下,一小时就只能出10来张图,一天可能就只能完成一个项目的测试。
最近正在研究云端部署,看看能不能提高效率和质量什么的。
觉得有帮到你的话请给up点个赞吧!!你的支持是up持续更新的动力!!
上一期链接:
