欢迎光临散文网 会员登陆 & 注册

本地部署ChatGPT 大语言模型 Alpaca LLaMA llama

2023-04-12 23:31 作者:魔石力  | 我要投稿

大语言模型学习总结,本地部署ChatGPT

  • LLaMA alpaca llama cpp alpaca-lora

链接

https://github.com/tatsu-lab/stanford_alpaca

https://github.com/tloen/alpaca-lora

https://github.com/antimatter15/alpaca.cpp

https://github.com/ggerganov/llama.cpp

https://github.com/LianjiaTech/BELLE

https://github.com/THUDM/ChatGLM-6B

  • ChatGLM-6B
  • 模型微调 什么是微调 为什么要微调 如何微调

https://github.com/THUDM/ChatGLM-6B/tree/main/ptuning

  • 如何微调 准备数据 训练 推理

https://github.com/mymusise/ChatGLM-Tuning


  • 调教ChatGLM 写文案 学英文 写代码

LLaMA 大语言模型

alpaca 数据集

alpaca-lora 高效训练方法


https://github.com/sahil280114/codealpaca

https://github.com/unit-mesh/unit-minions


写代码 codealpaca

中文大模型 ChatGLM

GLM 写代码 CodeGLM

  • 模型部署 命令行  Gradio 的网页版 API
  • 总结 兴趣 ChatGPT 部署 微调


本地部署ChatGPT 大语言模型 Alpaca LLaMA llama的评论 (共 条)

分享到微博请遵守国家法律