下面是一套 第 7 课 Exit Ticket,对应 0-lecture.md 的当前内容。建议把它当成一份“把模型真正用起来”的微调观察卡,10 分钟够用。重点不是背 LoRA 缩写,而是看你有没有把 SFT、PEFT、LoRA 和任务适配串起来。

Exit Ticket(10 题,开卷)

1) 为什么预训练之后还需要微调

请用 2 句话回答:

2) instruction tuning 在补什么

请回答:

3) SFT 在微调链路里扮演什么角色

请用 2 到 3 句话回答:

4) 高质量 SFT 数据长什么样

请分别用一句短语解释:

5) PEFT 想解决什么现实问题

请回答:

6) Prompt Tuning / Prefix Tuning / LoRA 各像哪种思路

请分别用一句短语说明:

7) 为什么 LoRA 特别流行

请用 2 句话回答:

8) 微调的流水线应该怎么看

请用 2 到 3 句话回答:

9) 什么时候你会优先选 PEFT,而不是全量训练

请尽量口语化:

10) 用一句话把这课讲给同学听

请尽量自然一点: