titans_NPC / examples /QWEN_TITANS_BABILONG_TRAINING_FLOW_CN.txt
ChipYTY's picture
Update full code snapshot (exclude data and model checkpoints)
4196369 verified
Qwen + Titans 在 BABILong(qa1/32k) 上的训练流程说明(基于 examples/train_qwen_titans_babilong.py)
================================================================================
目的
----
本脚本把 BABILong QA1 32k 数据做成“固定长度 32k”的监督样本,然后用 Titans 的 NeuralMemory 作为长期记忆,
以 chunk(流式)方式处理超长序列:每个 chunk 先读记忆并注入 memory tokens,再跑 Qwen 得到 hidden_states,
写回记忆,最后只对“答案 token”位置计算 loss,用分组学习率训练(记忆模块高 LR、Qwen 低 LR)。
1. 数据到张量(Dataset / DataLoader)
------------------------------------
入口:BABILongDataset(data_path, tokenizer, max_length=32768, answer_reserve_tokens=64, max_samples=...)
1) 读取数据
- data_path 指向 qa1/32k.json
- json.load() 读入一个 list,每条样本假设包含:
- input: 长上下文(context)
- question: 问题
- target: 答案(文本)
2) 构造 prompt + answer
- prompt 文本格式:
"{input}\n\nQuestion: {question}\nAnswer:"
- answer 文本:f" {target}"(前导空格)
3) Tokenize + 截断 + 拼接(重点:固定长度)
- prompt_ids = tokenizer(prompt, truncation=True, max_length=max_length - reserve, add_special_tokens=True)
说明:reserve=answer_reserve_tokens,强制给答案预留 token 空间,避免答案被 prompt 截断挤掉。
- answer_ids = tokenizer(answer, add_special_tokens=False),并截断到剩余空间 available。
- input_ids = concat(prompt_ids, answer_ids),再截断到 max_length。
4) labels(只监督答案 token)
- labels 初始全为 -100(忽略)
- 仅将 answer 对应区间(prompt 末尾开始)设置为真实 token id:
labels[start:end] = input_ids[start:end]
所以 loss 只来自答案 token,prompt 与 padding 都不算。
5) padding + attention_mask(固定 shape 的关键)
- 任何样本都会 pad 到 max_length(默认 32768):
- input_ids 用 pad_token_id 填充
- labels 用 -100 填充
- attention_mask:真实 token 为 1,padding 为 0
6) collate_fn
- Dataset 已保证固定长度,因此 collate_fn 只做 stack:
{k: torch.stack([...], dim=0)}
为什么必须固定长度?
- DDP/FSDP 下如果不同 rank 的序列长度不同,会导致 chunk 次数不同,
从而 collective 调用顺序不一致,最终容易出现 NCCL timeout。
2. Qwen 加载与基础设置(Transformers)
-------------------------------------
入口:main() 中 AutoTokenizer / AutoModelForCausalLM
1) tokenizer
- AutoTokenizer.from_pretrained(model_path, trust_remote_code=True)
- 若 tokenizer.pad_token 为空,则设置为 tokenizer.eos_token(便于 padding)
2) 兼容性禁用(flash-attn / torchao / torchvision)
- 脚本显式把 transformers 的可用性检测函数改成返回 False,
避免环境里“包存在但与 torch 不兼容”导致 import 崩溃。
3) qwen_model
- AutoModelForCausalLM.from_pretrained(
model_path,
torch_dtype=bf16/fp16/fp32(默认 bf16),
device_map=None(DDP/FSDP 不允许切分),
trust_remote_code=True,
attn_implementation="sdpa"(强制走 PyTorch SDPA),
low_cpu_mem_usage=True
)
- qwen_model.to(device)
- qwen_model.config.use_cache=False
- gradient_checkpointing_enable()(省显存)
备注:脚本标题写 Qwen3-4B,但流程对 Qwen3-3B 完全一致,只需替换 model_path。
3. Titans 长期记忆模块(TitansLongTermMemory)
---------------------------------------------
类:TitansLongTermMemory(hidden_size, chunk_size=64, batch_size=128, dim_head=64, heads=..., memory_depth=2)
内部组件:
1) MemoryMLP(dim=dim_head, depth=memory_depth, expansion_factor=2.0)
2) NeuralMemory(
dim=hidden_size,
chunk_size=memory_chunk_size,
batch_size=memory_batch_size,
dim_head=memory_dim_head,
heads=memory_heads,
model=MemoryMLP,
momentum=True,
qk_rmsnorm=True,
pre_rmsnorm=True,
default_step_transform_max_lr=1e-2,
init_adaptive_step_bias=-6.0,
max_grad_norm=1.0,
spectral_norm_surprises=True,
use_accelerated_scan=True
)
3) memory_query_tokens:可学习查询 token(默认 16 个)
4) memory_proj:LayerNorm + Linear + GELU + Linear(检索结果投影)
写入(write):
- self.neural_memory(hidden_states, state=state, store_mask=..., detach_mem_state=True)
- detach_mem_state=True:跨 chunk 不反传(更稳、更省显存)
- store_mask:把 padding 的位置 mask 掉,不写入记忆
读取(read):
- 不用 self.neural_memory(queries, ...) 的 forward(因为 forward 默认 store+retrieve,会把 query 写进记忆污染)
- 从 state.states[0] 取 last_update,构造 weights,调用:
self.neural_memory.retrieve_memories(queries, weights)
- 再过 memory_proj 得到 memory tokens(embedding 形态)
4. 把 Titans “加到” Qwen:包装模型 QwenTitansForBABILong
---------------------------------------------------------
类:QwenTitansForBABILong(qwen_model, config)
成员:
- self.qwen:Transformers CausalLM(Qwen)
- self.long_term_memory:TitansLongTermMemory
- self.memory_gate:Linear+Sigmoid(参数分组会包含它;当前 forward 里未显式用 gate 融合)
设备与 dtype 对齐:
- 为避免 device mismatch(尤其是多卡/切分环境),脚本会把长期记忆模块放到与 Qwen 输出所在 device 一致。
- config.memory_fp32=True 时,记忆模块用 float32 计算;Qwen 保持 bf16/fp16。
5. 32k 序列的流式前向:chunk 循环(核心)
----------------------------------------
入口:QwenTitansForBABILong.forward(input_ids, attention_mask, labels)
关键配置:
- config.max_length = 32768(数据侧固定长度)
- config.chunk_size = 4096(Qwen 前向每次只跑 4k token)
- config.num_memory_tokens = 16(每个 chunk 注入的记忆 token 数)
步骤:
1) 切 chunk
- 将 input_ids 按 chunk_size 4096 切分为多个片段 (start, end)
- 为覆盖 chunk 边界的 next-token loss,处理时会带 1 个 overlap token:
proc_start = max(0, start - 1)
chunk_ids = input_ids[:, proc_start:end]
2) 逐 chunk 执行:读记忆 → 注入 → 跑 Qwen → 写回记忆 → 算 loss
2.1 读记忆(read)
- 若 memory_state 非空:
memory_tokens = long_term_memory.read(batch_size, memory_state, num_tokens=16)
2.2 注入 memory tokens,并跑 Qwen 得 hidden_states(_process_chunk)
- token_embeds = qwen.model.embed_tokens(chunk_ids)(或 get_input_embeddings)
- 若有 memory_tokens:
a) nan_to_num + scale + clamp(避免记忆输出过大扰动导致 NaN)
- scale = config.memory_token_scale(默认 0.05)
- clip = config.memory_token_clip(默认 2.0)
b) 拼到 embedding 前面:
inputs_embeds = cat([memory_tokens, token_embeds], dim=1)
attention_mask 也在前面补 1
- 必须走 qwen.model.forward(inputs_embeds=..., attention_mask=...)
(不能直接逐层调用 decoder layer,因为 Qwen3 attention 依赖 position_embeddings(cos/sin))
- outputs.last_hidden_state 得到 hidden_states
- 去掉前缀 memory token 对应的 hidden,只保留真实 token 对应 hidden
2.3 写回记忆(write)
- 只写原始 [start, end) 对应 hidden,避免 overlap 的 token 重复写入:
start>0 时跳过 hidden_full 的第一个位置
- store_mask 同样对齐并屏蔽 padding
- memory_fp32=True 时写入前转 float32
- detach_mem_state=True:跨 chunk 不反传
2.4 计算 loss(只在答案 token,且只算必要 logits)
- shift_hidden = hidden_full[:, :-1]
- shift_labels = labels[:, 1:]
- valid = (shift_labels != -100)
- 仅对 valid 位置 flatten:
hs = shift_hidden[valid]
targets = shift_labels[valid]
- logits = qwen.lm_head(hs)(只算这部分 vocab logits,避免为整段 32k 建巨型 logits 张量)
- CrossEntropyLoss(reduction="sum") 求和,再除以有效 token 数得到 token 平均 loss
- 脚本对 hs/logits 做 nan_to_num 兜底,降低单 chunk 非有限导致整步 NaN 的风险。
输出:
- out["loss"]:答案 token 的 token 平均 loss
- 可选:teacher-forcing 的 pred_ids/target_ids(评估打印样例时使用)
6. 训练器(Trainer):优化器、混合精度、梯度累积、分布式
----------------------------------------------------------
入口:Trainer(model, train_dataloader, eval_dataloader, config, ...)
1) 参数分组学习率(关键)
- model.get_param_groups() 依据参数名分两组:
- 含 long_term_memory / memory_gate:lr = lr_memory(默认 1e-4)
- 其余(Qwen):lr = lr_pretrained(默认 5e-6)
- AdamW(param_groups)
2) Scheduler
- CosineAnnealingLR(T_max=总 optimizer step 数, eta_min=1e-7)
- total_steps = ceil((len(dataloader)*epochs) / gradient_accumulation_steps)
3) 混合精度
- 默认 bf16 autocast(torch.amp.autocast)
- 若 fp16 才启用 GradScaler;bf16 不用 scaler(通常更稳)
4) 主训练循环(train)
- 每个 micro-batch:
a) autocast 前向,loss / gradient_accumulation_steps
b) 分布式一致性检查:
- 若任意 rank loss 非有限(nan/inf),all_reduce(MIN) 后所有 rank 一起 skip
- 目的:避免 DDP/FSDP 梯度同步死锁
c) 梯度累积:
- 非同步步用 model.no_sync()(减少通信)
- 同步步:
- clip_grad_norm
- optimizer.step
- scheduler.step
- zero_grad
- global_step++
d) 按 eval_steps 触发 evaluate()
5) 评估(evaluate)
- 同样走模型 forward,但可选收集 pred_ids/target_ids
- 计算:
- answer-only loss
- token-level accuracy(答案 token)
- EM(样本级答案完全匹配,teacher-forcing decode 对比;需 tokenizer)
7. DDP / FSDP 包裹与注意点
--------------------------
1) init_distributed
- 通过 torchrun 的环境变量 RANK/WORLD_SIZE/LOCAL_RANK 初始化 NCCL
- torch.cuda.set_device(local_rank)
2) DDP
- DDP(model, device_ids=[local_rank], output_device=local_rank)
3) FSDP(可选)
- auto_wrap_policy 只 wrap Qwen3DecoderLayer(transformer 层)
- ignored_modules=[model.long_term_memory, model.memory_gate]
让 Titans 记忆模块不被分片,便于稳定训练与单独保存/加载
8. 保存与加载 checkpoint
-----------------------
训练结束会保存两类 checkpoint(覆盖写入):
1) memory-only(小文件)
- final_memory_checkpoint.pt
- 保存 long_term_memory 与 memory_gate 的参数 + global_step + config
2) full(大文件,可选,默认开启)
- final_full_checkpoint.pt
- 保存完整 model_state_dict(包含 Qwen + Titans),避免只存 memory 导致 Qwen 微调更新丢失
eval-only 模式:
- --eval_only 时优先尝试加载 full checkpoint(若包含 model_state_dict)
- 无论是否 full,都会再按“只加载记忆模块参数”的方式加载 memory_state_dict(兼容 memory-only)
- 支持 --max_eval_samples 快速只评估前 N 条验证样本
9. 一句话总结(从数据到训练)
----------------------------
JSON 样本(input/question/target)
→ 固定长度 32k 的 input_ids/attention_mask,labels 只标注答案 token
→ 32k 按 4k chunk 循环:读 Titans 记忆→注入 16 个 memory tokens→跑 Qwen 得 hidden→写回记忆(跨 chunk detach)→只在答案 token 位置算 CE loss
→ AdamW 分组学习率(记忆高 LR / Qwen 低 LR)+ bf16 autocast + 梯度累积 + DDP/FSDP
→ 最终保存 memory-only 与可选的完整权重 checkpoint。