本地部署ChatGPT 大语言模型 Alpaca LLaMA llama

大语言模型学习总结,本地部署ChatGPT
- LLaMA alpaca llama cpp alpaca-lora

链接
https://github.com/tatsu-lab/stanford_alpaca
https://github.com/tloen/alpaca-lora
https://github.com/antimatter15/alpaca.cpp
https://github.com/ggerganov/llama.cpp
https://github.com/LianjiaTech/BELLE
https://github.com/THUDM/ChatGLM-6B
- ChatGLM-6B

- 模型微调 什么是微调 为什么要微调 如何微调

https://github.com/THUDM/ChatGLM-6B/tree/main/ptuning
- 如何微调 准备数据 训练 推理

https://github.com/mymusise/ChatGLM-Tuning
- 调教ChatGLM 写文案 学英文 写代码

LLaMA 大语言模型
alpaca 数据集
alpaca-lora 高效训练方法

https://github.com/sahil280114/codealpaca
https://github.com/unit-mesh/unit-minions
写代码 codealpaca
中文大模型 ChatGLM
GLM 写代码 CodeGLM

- 模型部署 命令行 Gradio 的网页版 API

- 总结 兴趣 ChatGPT 部署 微调
