参数高效微调(Parameter-Efficient Fine-Tuning,简称PEFT)是一种在预训练模型上进行特定任务微调的技术。其核心目标是在保持大部分预训练模型参数不变的情况下,仅调整少量额外的可训练参数,从而减少计算资源和时间成本。
PEFT通过冻结预训练模型的大部分层,并只对最后几层或新增加的参数进行微调来实现这一目标。这种方法可以显著降低所需的计算和存储资源,同时仍能保持与全量微调相当的性能。
常见的PEFT方法包括适配器微调(Adapter Tuning)、前缀微调(Prefix Tuning)、提示微调(Prompt Tuning)和低秩适配(LoRA)等。这些方法通过引入少量的可训练参数,如嵌入层、低秩矩阵或其他形式的参数,来引导或调整预训练模型的输出,以适应新的下游任务。
例如,适配器微调通过在模型中添加两个额外的上投影和下投影矩阵来进行微调,而前缀微调则是在输入序列的开头添加一段可训练的前缀序列来指导模型理解并完成任务。这些技术不仅提高了模型的泛化能力和效率,还使得科研人员和开发者能够更高效地利用大型语言模型进行各种应用
声明:文章来源于网络,如有侵权请联系删除!