Parameter-Efficient Fine-Tuning without Introducing New Latency
PreviousPeftNextMake Your Pre-trained Model Reversible: From Parameter to Memory Efficient Fine-Tuning
Last updated
Last updated
论文地址:
一种PEFT的思路,整体思路分为两步:
选择进行ft的weight,方法是根据预训练的weight模长大小,选择最小的几个weight进行ft;
ft依然是利用adapter的思路:
第二步和LoRA很像,感觉复杂化了。
还可以的思路,sparse + adapter。