[AI对话]懒人包6.28更新(内容过长无法发动态) text-generation-webui

首先声明一点,我不是text-generation-webui的制作者,我只是懒人包制作者。
前段时间在忙期末考试,现在考完了也有很多事情要忙,因此更新频率变慢,而且我看星空大佬也已经做了一个懒人包,他的质量应该要好不少。


懒人包V1.5.0更新【6.28】:
1. 更新tgwebui版本,修复了一些bug。补上了Exllama的预编译轮子。
目前exllama的预编译轮子已经添加到requirements.txt中,也就是说,现在使用者已经不需要安装VS生成工具和Cuda还有ninja就可以直接使用Exllama加载模型了。

启动程序V1.9更新【6.28】:
1.根据现有的GPTQ加载方案,添加Exllama_HF加载方式,与ExLlama相比,ExLlama_HF的生成速度要慢一点,但是显存占用也低一点。

2.添加模型最大上下文设置选项,目前加载特定的模型,即带有“SuperHOT-8K-GPTQ ”等字样的模型,这些模型是融合了一个叫SuperHot-8K的lora,可以增强原始模型的最大上下文本长度(最大是8096tokens)。


加载这种模型,需要以Exllama或Exllama_HF加载,且需要设置--max_seq_len和--compress_pos_emb参数方能生效。

为了方便各位使用,因此设置成了一个预设,在GPTQ中启动参数中的“模型最大上下文”中设置。

左侧是max_seq_len,右侧是compress_pos_emb

似乎有人不知道下载链接?下载链接还是原来的那个↓
夸克网盘链接:
我用夸克网盘分享了「[懒人包@coyude]text-generation-webui」,点击链接即可保存。打开「夸克APP」,无需下载在线播放视频,畅享原画5倍速,支持电视投屏。
链接:https://pan.quark.cn/s/27ec3cde648a
百度网盘链接:
链接:https://pan.baidu.com/s/1AXwX7U2RAdV10H8YEitBwA?pwd=1e2r
提取码:1e2r