下面是一套 第 7 课 Exit Ticket,对应 0-lecture.md 的当前内容。建议把它当成一份“把模型真正用起来”的微调观察卡,10 分钟够用。重点不是背 LoRA 缩写,而是看你有没有把 SFT、PEFT、LoRA 和任务适配串起来。
Exit Ticket(10 题,开卷)
1) 为什么预训练之后还需要微调
请用 2 句话回答:
2) instruction tuning 在补什么
请回答:
- 它想让模型学会什么
- 为什么它比“继续喂文本”更像转型
3) SFT 在微调链路里扮演什么角色
请用 2 到 3 句话回答:
- 为什么常常先做 SFT
- SFT 和后面的对齐 / 偏好优化是什么关系
4) 高质量 SFT 数据长什么样
请分别用一句短语解释:
- 好的指令数据有什么味道
- 为什么数据质量会直接影响结果
5) PEFT 想解决什么现实问题
请回答:
6) Prompt Tuning / Prefix Tuning / LoRA 各像哪种思路
请分别用一句短语说明:
- Prompt Tuning
- Prefix Tuning
- LoRA
7) 为什么 LoRA 特别流行
请用 2 句话回答:
- 它在 Transformer 里大概是怎么工作的
- 为什么它这么适合工程落地
8) 微调的流水线应该怎么看
请用 2 到 3 句话回答:
- 数据、训练、部署这三步怎么连起来
- 为什么微调不是单点技巧
9) 什么时候你会优先选 PEFT,而不是全量训练
请尽量口语化:
- 哪些场景更适合参数高效微调
- 为什么它更像现实里的默认选项
10) 用一句话把这课讲给同学听
请尽量自然一点:
- 微调到底在干什么
- 为什么它是“让模型真正可用”的那一步