下面是一套 第 2 课 Exit Ticket,对应 0-lecture.md 的当前内容。建议把它当成一张“Transformer 入门导航卡”,10 分钟足够。重点不是背模块名,而是看你有没有把 attention、位置编码、mask 和 KV cache 连起来。

Exit Ticket(10 题,开卷)

1) Transformer 为什么会把旧的序列模型挤下去

请用 2 到 3 句话回答:

2) self-attention 到底在回答什么问题

请用你自己的话解释:

3) Q、K、V 三个角色各自像谁

请分别用一句短语解释:

4) 为什么现代 Transformer 还要改很多细节

请说明下面几项各自大概在补什么:

5) 为什么 Transformer 又强又贵

请分别回答:

6) pre-norm 和 post-norm 的区别,真的有那么大吗

请用 2 到 3 句话回答:

7) LayerNorm、RMSNorm、bias-free 这组搭配在忙什么

请分别用一句短语说明:

8) 位置编码为什么不能随便拍脑袋

请回答:

9) 计算复杂度和 KV cache 为什么老是绑在一起出现

请用 2 到 3 句话回答:

10) 用一句话把这课讲给同学听

请尽量自然一点: