Stable-Diffusion-WebUI 搭建使用教程

Stable-Diffusion-WebUI 是一个基于 Gradio 库的 Stable Diffusion 的浏览器界面,可以方便地配置和生成 AI 绘画作品。下面是一个简单的搭建教程,帮助你开始使用 Stable-Diffusion-WebUI。
安装 Python 和 Git
首先,你需要在你的电脑上安装 Python 3.x 和 Git。你可以从官方网站下载 Python 安装包,并根据安装向导进行安装。Git 通常可以通过命令行或官方网站进行安装。
克隆 Stable-Diffusion-WebUI 代码库
使用 Git 命令克隆 Stable-Diffusion-WebUI 的代码库到你的本地机器。打开终端或命令提示符,进入你想要存放代码的目录,并执行以下命令:
bashCopy code
git clone https://github.com/AUTOMATIC1111/stable-diffusion-webui.git
这将会将代码库克隆到当前目录中的一个名为 stable-diffusion-webui
的文件夹中。
准备模型文件
将你想要使用的模型文件放置在项目根目录下的 models/Stable-diffusion
文件夹中。你可以从 Stable-Diffusion 的官方网站或其他来源获取模型文件。
安装依赖库
进入 stable-diffusion-webui
文件夹,打开终端或命令提示符,执行以下命令来安装所需的 Python 依赖库:
Copy code
pip install -r requirements.txt
这将会安装项目所需的所有依赖库。
启动 Stable-Diffusion-WebUI
在终端或命令提示符中,进入 stable-diffusion-webui
文件夹,并执行以下命令来启动 Stable-Diffusion-WebUI:
Copy code
python webui-user.py
等待一段时间后,你应该会看到一条提示信息,表明 Stable-Diffusion-WebUI 已经成功启动。默认情况下,它会在本地的 7860 端口上运行。
在浏览器中访问 Stable-Diffusion-WebUI
打开你喜欢的浏览器,并输入以下地址来访问 Stable-Diffusion-WebUI:
javascriptCopy code
http://localhost:7860
这将会打开 Stable-Diffusion-WebUI 的界面,你可以在这里进行配置和生成 AI 绘画作品。
以上就是搭建 Stable-Diffusion-WebUI 的简单教程。希望能帮助你成功启动和使用 Stable-Diffusion-WebUI。如果你遇到任何问题,可以查阅项目的文档或在相关的社区寻求帮助。祝你使用愉快!
命令行参数 解释
--share online运行,也就是public address
--listen 使服务器侦听网络连接。这将允许本地网络上的计算机访问UI。
--port 更改端口,默认为端口7860。
--xformers 使用xformers库。极大地改善了内存消耗和速度。Windows 版本安装由C43H66N12O12S2 维护的二进制文件
--force-enable-xformers 无论程序是否认为您可以运行它,都启用 xformers。不要报告你运行它的错误。
--opt-split-attention Cross attention layer optimization 优化显着减少了内存使用,几乎没有成本(一些报告改进了性能)。黑魔法。默认情况下torch.cuda,包括 NVidia 和 AMD 卡。
--disable-opt-split-attention 禁用上面的优化
--opt-split-attention-v1 使用上述优化的旧版本,它不会占用大量内存(它将使用更少的 VRAM,但会限制您可以制作的最大图片大小)。
--medvram 通过将稳定扩散模型分为三部分,使其消耗更少的VRAM,即cond(用于将文本转换为数字表示)、first_stage(用于将图片转换为潜在空间并返回)和unet(用于潜在空间的实际去噪),并使其始终只有一个在VRAM中,将其他部分发送到CPU RAM。降低性能,但只会降低一点-除非启用实时预览。
--lowvram 对上面更彻底的优化,将 unet 拆分成多个模块,VRAM 中只保留一个模块,破坏性能
*do-not-batch-cond-uncond 防止在采样过程中对正面和负面提示进行批处理,这基本上可以让您以 0.5 批量大小运行,从而节省大量内存。降低性能。不是命令行选项,而是使用–medvramor 隐式启用的优化–lowvram。
--always-batch-cond-uncond 禁用上述优化。只有与–medvram或–lowvram一起使用才有意义
--opt-channelslast 更改 torch 内存类型,以稳定扩散到最后一个通道,效果没有仔细研究。