欢迎光临散文网 会员登陆 & 注册

吹爆!北大博士手把手教你大模型微调技巧,大模型训练流程及原理+微调容易踩的坑全详

2023-06-12 13:35 作者:尴尬区up主  | 我要投稿

LLM/LLM在某一垂直领域的 评价指标体系

1.

finetune在训练过程中改变了模型的参数,本质修改了下游任务代码,完成了BP修改网络的参数。而LangChain+LLM并没有,因为本质是prompt的介入,不存在模型内部参数调整。

2. ①Freeze:解冻一些层来训练,其他都层都冻结。

Lora微调

  ②Lora:技术原理简单,但真有奇效,需要注意rank大小的设置,是根据业务领域来的,领域垂直性越强,就要设置的越大,比较有意思的就是数据,看起来最没技术含量的事情,大家不愿意做,但其实是最难的,数据收集存在诸多问题,数据少且封闭,缺乏标注,垂直领域往往对结果要求很高。

   另外,有一些内容(比如商品的售价)经常在变换,如何让模型快速响应这些内容,训练(微调)一次周期还挺长的,目前可以采取配知识库的方法(ChatGLM+LangChain+知识库)

注意:生成式模型的一系列审核机制,对用户的输入数据进行审核,防止输入一些有诱导性的问题,模型需要对回答输出进行审核。内容风控是上线前的重中之重。

吹爆!北大博士手把手教你大模型微调技巧,大模型训练流程及原理+微调容易踩的坑全详的评论 (共 条)

分享到微博请遵守国家法律