Stable Diffusion上手感想
最近除了在调教ChatGPT之外,还忙里抽闲装了个AUTOMATIC1111的stable-diffusion-webui,结果两个ai工具都再也离不开了。Just can't live without.
GPT是因为日常工作以写作类为主,业余时间也还在维护多个博客,确实是刚性离不开。
SD则是太好玩了,找模型装插件,各种挑参数、反复优化最终效果——有当年玩CS/L4D、我的世界、上古卷轴5、骑马与砍杀等等Mod游戏的感觉了。
reddit/4chan就像是贴吧/论坛,而civitai/huggingface/github就是fpsbanana/moddb/nexusmods,我觉得这种比喻十分完美恰当。如果让任何一个当年的mod玩家或现在的创意工坊重度用户来玩SD的话,一定会有如鱼得水的同感。
除了作为mod玩家的先天优势之外,我恰好也很喜欢用yandere/konachan/danbooru这些搜图站。尽管我没有那些老绅士们用得那么多,我只是偶尔找些壁纸或创作素材,但常年累月下来这套tag体系用得也是十分娴熟的。没曾想这又成为了上手SD的另一大先天优势。
总之,如果你喜欢折腾游戏mod、用英文扫图站以及开源软件生态的话,那么我非常推荐玩SD。
除了玩,SD和GPT一样也是极其重要的生产力。我自己曾经用sai学习过数码/板绘,还全职做过设计师,Adobe全家桶就像身体的一部分。但现在早已不是利益相关了,我只想说,画画时我做得最多的就是撤销重试和用图层做差分对比;出设计图时我几乎永远都会一次出好几版、把可能更好的结果尽量都实现出来,哪怕需求方根本不打算挑选。而AI可以让我从最机械枯燥的部分中解放,留出更多经历在构思和创意上,我真希望早几年就能用上SD。

今天看到@发了一组えなこ出的 《化物语》cosplay写真,是我最喜欢的猫班长。还原度还是挺高的,唯独除了……评论区的大家都是懂行的。


于是我打开Photoshop非常粗躁的Ctrl+T warp拉了一下大小,再导入Stable Diffusion的img2img inpaint把被史诗级削弱的部分又强化了回来。


自己觉得效果还不错,值得一晚上的摸索。放在以往,如果单纯用ps做到类似效果的话要花很大功夫重画和修补。
公开一下调教参数,校服鸭子坐:
猫猫:
当然具体操作的时候是要分好几次一点点试到上面这个结果的,一下子肯定出不来。
等有机会打算试试用Controlnet换姿势修手指的,这次大家的需求比较集中统一。