从零开始的ChatGLM教程(五)
写在前面
本文中所有的内容仅供参考,本人并不对任何产生的后续问题负任何责任。这次更新确实时隔有点太久了,主要是觉得闻达包也没有太多值得介绍的扩展,想看看有没有扩展功能更新。(结果好像并没有?)
特别鸣谢:闻达制作团队 https://github.com/wenda-LLM/wenda
感谢大佬们的开源精神,为社区做出的巨大贡献。本章节的内容将会基于大佬们的包进行说明。

闻达的介绍
闻达是一款支持多语言模型的LLM调用平台,闻达采用知识库+auto脚本的形式为LLM提高生成能力,充分考虑个人和中小企业的资源问题,以及国内大背景下知识安全和私密性问题,实现使小模型获得近似于大模型的生成能力。同时闻达支持模型:chatGLM-6B、chatRWKV、chatYuan、llama系列以及openaiapi和chatglm130b api,初步支持moss。闻达使用知识库扩展模型所知信息,使用auto提高模型生成质量和复杂问题解决能力。它支持chatGLM-6B、chatRWKV、llama系列流式输出和输出过程中中断。同时也能够自动保存对话历史至浏览器(多用户同时使用不会冲突,chatRWKV历史消息实现方式需使用string)进行对话历史管理(删除单条、清空)以及支持局域网、内网部署和多用户同时使用。
闻达的安装
闻达安装起来非常简单,因为开发团队配置了一键包,下载地址在原项目地址(GitHub - wenda-LLM/wenda)的说明中。安装只需要下载一键包内的压缩文件并将它们解压到一个文件夹内。然后修改其中setting.bat文件中的“set glm_path=”参数等号后的路径修改为你自己GLM模型路径即可。
闻达的使用
在修改并保存参数后,就可以双击run_GLM6B.bat文件启动模型,它会在命令提示行窗口中加载并运行,当它出现一个地址时,将该地址复制到浏览器中打开即可看到图形界面。
知识库的使用
闻达的知识库非常简单易用,只需要将相关的数据以txt文本格式存储在wenda/txt文件夹中。然后双击运行run_data_processing.bat文件,当它运行起来后就会进行数据的读取,当它显示“处理完毕”与“保存完成”的字样时,就说明处理完毕了。之后再重启GLM就可以获得挂载数据库的AI了。
至此,整个闻达平台的安装与应用就介绍完毕了。在之后的文章中,我会开始讲解 LangChain知识库与一些其他生成式AI的安装与使用教程,例如绘图的 Stable Diffusion 以及 声音合成的 VITS 与 SoVITS 等。

本文中如有错误或疏漏,欢迎私信我或在下方评论区留言,我会修正或补充

