自己折腾ai 绘画stable diffusion中出现的一些问题
从https://github.com/AUTOMATIC1111/stable-diffusion-webui
下载压缩包或者git安装也可以
打开webui-user.bat
这里会进行一些自动安装
如果正常那应该能直接引用然后使用了。
显然啊?不太可能或许是每个人电脑体制不一样(滑稽
总是会出现一些不明所以的问题,虽然但是我还是建议别折腾直接使用别人的整合包更快
我为什么没有用?但凡你折腾了一个星期配置你就不会去体验网盘下载50多g或者30多g的速度
下载出现问题直接用steam++可以直接解决下载问题,但是我觉得吧能出现下载问题大概率是运气原因
下载好了很快啊马上使用
很好,全英文看不懂怎么办?
搜索汉化插件
装上去打开127.0.0.1/7860
啪的一下网站复制的提示词生成了一个我需要比恶魔波冈更难以形容的词汇
(当然有一种可能是这个时候报错你可以去stable-diffusion-webui/webui-user.bat编辑里面有个COMMANDLINE_ARGS=这里输入--precision full --no-half-vae --no-half 意思为不使用半精度,出现问题大多是你显卡不支持半精度,如果有半精度对训练模型来说事半功倍,然后重新启动)
但是网站搜索模型就出现了问题了找不到模型,自带的模型又不满意怎么办这边引用这位大佬的汇总:https://www.tjsky.net/tutorial/583
有模型了可以正常使用了但是有些模型的有yaml怎么用呢?
有些没有是正常的
用的训练工具不同
把yaml文件粘贴在stable-diffusion-webui/models/Stable-diffusion
对了记得把.yaml前面的改为模型名字,比如wd.x.x.safetensors,把和模块在一起的yaml重命名成wd.x.x.yaml,记得分清楚有没有fp32或者fp16别下错了
如果操作一切顺利那么已经可以正常使用了
启动过程中创造了个虚拟环境venv在sd(下面用sd暂表达stable-diffusion)中,大量程序在其中运行,以及调用实体机文件
建议没什么事情别去动
如果是n卡就去升级cuda

cuda下载网站:https://developer.nvidia.com/cuda-downloads
然后安装cudnn
安装cudnn要登录,这里有可能出现登录问题,解决方法:手机开热点然后进去电脑连接手机可以解决
完成后进入命令行cd到venv/Scritp/
输入activati.bat运行进入虚拟环境然后升级torch
打开浏览器搜索pytorch.org
根据cuda版本选择,我选择的是最新版

然后回到刚才命令行页面输入:pip uninstall torch torchvision torchaudio
这里要卸载才能安装,吐了
然后输入网页下面的右侧pip开头的命令行Run this Command:
很好现在你的sd已经优化的出图速度很快了
你还可以尝试在set COMMANDLINE_ARGS=--opt-sub-quad-attention --sub-quad-q-chunk-size 512 --sub-quad-kv-chunk-size 512 --sub-quad-chunk-threshold 80
这个--opt-sub-quad-attention说是对内存的高效利用就是不清楚会不会是牺牲速度的
还可以添加这个--use-cpu inteerrogate,gfpgan,bsrgan,esrgan,scunet,codeformer,让cpu负责这些模块暂时不清楚会造成啥后果,但是应该算优化吧
这样出多张图会更快我现在不知道这是什么原因
如果你一下子调用2000x2000一定会爆显存哈哈哈我8g生成一个512x512的差不多就用了4000vram,如果用的二次元调用的还少一些如果用的模型又大或者是真人使用可能还高1000-2000
当然你可以找找现在有一些700x700的模型还有2000x2000的模型我暂时没用过
如果想在局域网使用还可以添加--listen --share
在设置查看wifi或者宽带下的ip4地址加端口比如192.168.x.x:7860就可以在同一网络下手机使用
你还可以在config.json找到键sd_model_checkpoint把值改成你要使用的模型名字
这个网站:https://openi.pcl.ac.cn/snow-/stable-diffusion-webui/wiki/Command-Line-Arguments-and-Settings
是个webui-user.bat执行额外命令的选项一些命令