欢迎光临散文网 会员登陆 & 注册

Stable-Diffusion-WebUI 搭建使用教程

2023-07-07 15:02 作者:阿蛋嗝  | 我要投稿


Stable-Diffusion-WebUI 是一个基于 Gradio 库的 Stable Diffusion 的浏览器界面,可以方便地配置和生成 AI 绘画作品。下面是一个简单的搭建教程,帮助你开始使用 Stable-Diffusion-WebUI。

  1. 安装 Python 和 Git

首先,你需要在你的电脑上安装 Python 3.x 和 Git。你可以从官方网站下载 Python 安装包,并根据安装向导进行安装。Git 通常可以通过命令行或官方网站进行安装。

  1. 克隆 Stable-Diffusion-WebUI 代码库

使用 Git 命令克隆 Stable-Diffusion-WebUI 的代码库到你的本地机器。打开终端或命令提示符,进入你想要存放代码的目录,并执行以下命令:

bashCopy code

git clone https://github.com/AUTOMATIC1111/stable-diffusion-webui.git

这将会将代码库克隆到当前目录中的一个名为 stable-diffusion-webui 的文件夹中。

  1. 准备模型文件

将你想要使用的模型文件放置在项目根目录下的 models/Stable-diffusion 文件夹中。你可以从 Stable-Diffusion 的官方网站或其他来源获取模型文件。

  1. 安装依赖库

进入 stable-diffusion-webui 文件夹,打开终端或命令提示符,执行以下命令来安装所需的 Python 依赖库:

Copy code

pip install -r requirements.txt

这将会安装项目所需的所有依赖库。

  1. 启动 Stable-Diffusion-WebUI

在终端或命令提示符中,进入 stable-diffusion-webui 文件夹,并执行以下命令来启动 Stable-Diffusion-WebUI:

Copy code

python webui-user.py

等待一段时间后,你应该会看到一条提示信息,表明 Stable-Diffusion-WebUI 已经成功启动。默认情况下,它会在本地的 7860 端口上运行。

  1. 在浏览器中访问 Stable-Diffusion-WebUI

打开你喜欢的浏览器,并输入以下地址来访问 Stable-Diffusion-WebUI:

javascriptCopy code

http://localhost:7860

这将会打开 Stable-Diffusion-WebUI 的界面,你可以在这里进行配置和生成 AI 绘画作品。

以上就是搭建 Stable-Diffusion-WebUI 的简单教程。希望能帮助你成功启动和使用 Stable-Diffusion-WebUI。如果你遇到任何问题,可以查阅项目的文档或在相关的社区寻求帮助。祝你使用愉快!

命令行参数 解释

--share online运行,也就是public address

--listen 使服务器侦听网络连接。这将允许本地网络上的计算机访问UI。

--port 更改端口,默认为端口7860。

--xformers 使用xformers库。极大地改善了内存消耗和速度。Windows 版本安装由C43H66N12O12S2 维护的二进制文件

--force-enable-xformers 无论程序是否认为您可以运行它,都启用 xformers。不要报告你运行它的错误。

--opt-split-attention Cross attention layer optimization 优化显着减少了内存使用,几乎没有成本(一些报告改进了性能)。黑魔法。默认情况下torch.cuda,包括 NVidia 和 AMD 卡。

--disable-opt-split-attention 禁用上面的优化

--opt-split-attention-v1 使用上述优化的旧版本,它不会占用大量内存(它将使用更少的 VRAM,但会限制您可以制作的最大图片大小)。

--medvram 通过将稳定扩散模型分为三部分,使其消耗更少的VRAM,即cond(用于将文本转换为数字表示)、first_stage(用于将图片转换为潜在空间并返回)和unet(用于潜在空间的实际去噪),并使其始终只有一个在VRAM中,将其他部分发送到CPU RAM。降低性能,但只会降低一点-除非启用实时预览。

--lowvram 对上面更彻底的优化,将 unet 拆分成多个模块,VRAM 中只保留一个模块,破坏性能

*do-not-batch-cond-uncond 防止在采样过程中对正面和负面提示进行批处理,这基本上可以让您以 0.5 批量大小运行,从而节省大量内存。降低性能。不是命令行选项,而是使用–medvramor 隐式启用的优化–lowvram。

--always-batch-cond-uncond 禁用上述优化。只有与–medvram或–lowvram一起使用才有意义

--opt-channelslast 更改 torch 内存类型,以稳定扩散到最后一个通道,效果没有仔细研究。



Stable-Diffusion-WebUI 搭建使用教程的评论 (共 条)

分享到微博请遵守国家法律