以秋葉akkki的训练包为基准,由上到下的顺序进行逐项填写即可。
Dim越大,耗费GPU越高,最后生成的loRA模型越大,质量提升有限。
这个参数设置对应的样本量在左侧,大概演算时间在右侧。
LoCon Alpha的数值可以调节为1,防止极小收束的发生。
稳定率80%,丢包率维持在0.12左右。
泛化度良好,接受率约70%。