下面是一套 第 3 章 Exit Ticket,对应 0-lecture.md 的当前内容。建议把它当成一张“预训练主线地图”,10 分钟够用。重点不是记一堆模型名,而是看你有没有把语言模型、prompt、scaling 和 pretraining 的关系串起来。

Exit Ticket(10 题,开卷)

1) 为什么语言模型会变成 foundation model 的入口

请用 2 句话回答:

2) n-gram、word vector、神经 LM 各自在补什么

请分别用一句短语解释:

3) 为什么 RNN / LSTM 没能成为终点

请用 2 到 3 句话回答:

4) pretraining 到底在学什么

请回答:

5) decoder-only、encoder-only、encoder-decoder 各像什么任务口味

请分别用一句短语说明:

6) scaling laws 为什么会把大家的注意力拉过去

请用 2 句话回答:

7) prompt 为什么会突然变重要

请说明:

8) In-Context Learning 真正在说什么

请用 2 到 3 句话回答:

9) 为什么这一章最后会走向微调

请回答:

10) 用一句话把这章的底色说出来

请尽量自然一点: