下面是一套 Lecture 3 Exit Ticket,对应 lec3.md 的当前内容。建议把它当成一份“现代 Transformer 拆解卡片”,10 分钟足够。重点不是背每个变体名字,而是看你有没有把结构、稳定性和工程代价连起来。
Exit Ticket(10 题,开卷)
请用 2 到 3 句话回答:
- RNN / LSTM 卡住了什么
- Transformer 想用什么新思路把它绕开
2) self-attention 到底在回答什么问题
请用你自己的话解释:
- attention 的核心直觉是什么
- 为什么 self-attention 让每个 token 都能“看见”整句
3) Q、K、V 三个角色各自像谁
请分别用一句短语解释:
- Query 在干什么
- Key 在干什么
- Value 在干什么
请说明下面几项各自大概在补什么:
- pre-norm
- RoPE
- SwiGLU
- 去掉 bias
请分别回答:
6) pre-norm 和 post-norm 的区别,真的有那么大吗
请用 2 到 3 句话回答:
- pre-norm 为什么更稳
- post-norm 为什么更容易训练不稳定
7) LayerNorm、RMSNorm、bias-free 这组搭配在忙什么
请分别用一句短语说明:
- LayerNorm 在控制什么
- RMSNorm 为什么更省事
- 为什么很多现代模型把 bias 去掉
8) 位置编码为什么不能随便拍脑袋
请回答:
- 如果没有位置编码,模型会缺什么信息
- RoPE 为什么比纯绝对位置编码更适合现代 LLM
9) z-loss 和 QK norm 这类“小修小补”为什么值钱
请用 2 到 3 句话回答:
- 训练时最怕什么数值问题
- z-loss 和 QK norm 分别在稳什么
10) GQA / MQA / sparse attention / sliding window 这一串你怎么记
请用 1 到 2 句话回答:
- GQA / MQA 为什么会影响 KV cache
- sparse / sliding window attention 各自想省什么