参数有效的微调

大语言模型的模型很大,除了在预训练好的模型上 Fine Tuning 模型的参数,我们还可以再简化一点:保持预训练好的模型不变,只是在模型的外层,再训练一个“适配器”,这就是所谓的“参数有效的微调”(PEFT:Parameter Efficient Fine-Tuning)。

PEFT 有很多方法,如 Prompt Tunning、Prefix Tunning、Adapters、LoRA、T-Few(IA3)。详见 Yandex PEFT PPT。

练习

课程材料

软件

论文

约翰霍普金斯推荐论文

Suggested Reading:

Additional Reading:

普林斯顿大学课程论文

Yandex PPT 提到的论文


Index Previous Next