Chronos Tiny ETTh1 微调演示包

这个目录是一套最小可运行的 fine-tune demo,目标是让同学看到:

目录结构

这套示例默认用什么

这里刻意把 prediction_length 设成 64,是为了和当前 chronos-t5-tiny 的默认 Chronos 配置保持一致。

最快跑通的方法

pip install -r requirements.txt
./0-finetune-chronos-etth.sh

运行后会生成:

这份 demo 真正在展示什么

它不是完整研究级训练流程,而是一个课堂级的最小闭环:

  1. 从 ETTh1 里切滑动窗口
  2. 用 Chronos 自带 tokenizer 把数值序列转成 token
  3. 用 T5 seq2seq 模型做 teacher-forcing 训练
  4. 保存微调后的模型
  5. 用 ChronosPipeline 对比微调前后预测

所以它最适合回答的问题是: