散文网

HuggingFace的空间

  • 主页
  • 我的文章

  • 使用 PyTorch FSDP 微调 Llama 2 70B
    2023-12-12
  • 使用 PyTorch 完全分片数据并行技术加速大模型训练
    2023-12-04
  • Google Colab 现已支持直接使用 transformers 库
    2023-12-01
  • Gradio-Lite: 完全在浏览器里运行的无服务器 Gradio
    2023-12-01
  • 深入理解 BigBird 的块稀疏注意力
    2023-11-24
  • 使用 LCM LoRA 4 步完成 SDXL 推理
    2023-11-20
  • 使用 PPO 算法进行 RLHF 的 N 步实现细节
    2023-11-16
  • 个人编程助手: 训练你自己的编码助手
    2023-11-15
  • Transformers 中原生支持的量化方案概述
    2023-11-13
  • 开源模型 Zephyr-7B 发布——跨越三大洲的合作
    2023-11-09
  • 用 bitsandbytes、4 比特量化和 QLoRA 打造亲民的 LLM
    2023-11-07
  • HF Hub 现已加入存储区域功能
    2023-11-06
  • 发布会回放|Gradio 4.0 正式发布!
    2023-11-02
  • 实战|如何低成本训练一个可以超越 70B Llama2 的模型 Zephyr-7B
    2023-10-28
  • 长程 Transformer 模型
    2023-10-27
  • 使用 DDPO 在 TRL 中微调 Stable Diffusion 模型
    2023-10-23
  • Hugging Face: 代码生成模型的预训练和微调
    2023-10-23
  • 不写代码、构建一个开源的 ChatGPT,总共需要几步?|Hugging News #1020
    2023-10-23
  • 面向生产的 LLM 优化
    2023-10-23
  • Hugging Face 分词器新增聊天模板属性
    2023-10-17
© 2006-2015 sanwen.net