这几天电脑硬盘崩了,于是买了个新硬盘回来就马上用M40试了一下lora的训练,训练的性能占用比大模型来说小了一半,速度比大模型快了近两倍
训练可能需要一点调整,我这边是不开魔法,以及高级设置中,这两个不开就行了