Titans-PyTorch 代码分析报告
概述
Titans 是 Google 在 2024 年底提出的新型长期记忆机制,核心思想是将神经网络的权重作为长期记忆,通过测试时训练(Test-Time Training, TTT)来动态存储和检索信息。
核心组件分析
1. NeuralMemory (神经记忆模块)
位置: titans_pytorch/neural_memory.py
这是 Titans 的核心组件,主要特点:
1.1 记忆存储机制
- 记忆载体: 使用 MLP(或其他模型)的权重作为记忆存储
- 存储过程: 通过计算梯度来"写入"记忆
# 损失函数:|M(k) - v|² # 其中 M 是记忆网络,k 是 key,v 是 value def default_loss_fn(pred, target): return (pred - target).pow(2).mean(dim = -1)
1.2 记忆检索机制
- 将 query 输入到记忆网络,获取存储的信息
- 使用
functional_call进行前向传播
1.3 关键参数
| 参数 | 说明 | 建议值 |
|---|---|---|
chunk_size |
分块大小,控制记忆更新粒度 | 32-128 |
batch_size |
批处理大小,控制权重更新频率 | 64-256 |
momentum |
是否使用动量优化 | True |
momentum_order |
动量阶数 | 1-2 |
dim_head |
每个头的维度 | 64 |
heads |
注意力头数 | 4-8 |
2. MemoryMLP (记忆网络)
位置: titans_pytorch/memory_models.py
Titans 提供了多种记忆网络架构:
| 模型 | 描述 | 适用场景 |
|---|---|---|
MemoryMLP |
基础 MLP,来自 TTT 论文 | 通用场景 |
MemorySwiGluMLP |
SwiGLU 激活的 MLP | 更强表达能力 |
FactorizedMemoryMLP |
分解权重的 MLP | 降低参数量 |
MemoryAttention |
使用注意力的记忆 | 复杂依赖关系 |
GatedResidualMemoryMLP |
门控残差 MLP | 深层网络 |
3. MemoryAsContextTransformer (MAC Transformer)
位置: titans_pytorch/mac_transformer.py
将 NeuralMemory 集成到 Transformer 中的完整实现:
核心设计
- Segment 分段: 将长序列分成固定长度的 segment
- Longterm Memory Tokens: 在每个 segment 开头添加记忆 token
- Persistent Memory: 全局共享的持久记忆 token
- 记忆更新: 通过 NeuralMemory 动态更新记忆
将 Titans 集成到 Qwen 的三种方案
方案 1: 外部包装器(最简单)
class TitansMemoryWrapper(nn.Module):
def __init__(self, qwen_model, ...):
self.qwen = qwen_model
self.neural_memory = NeuralMemory(...)
def forward(self, input_ids, memory_state=None):
# 1. 获取 Qwen 隐藏状态
hidden = self.qwen(..., output_hidden_states=True).hidden_states[-1]
# 2. 记忆增强
retrieved, next_state = self.neural_memory(hidden, state=memory_state)
# 3. 融合输出
enhanced = hidden + gate * retrieved
return enhanced, next_state
优点: 不修改 Qwen 内部结构,易于实现 缺点: 记忆与模型的交互较浅
方案 2: 层级集成(中等复杂度)
class QwenDecoderLayerWithMemory(nn.Module):
def forward(self, hidden_states, memory_state=None):
# 标准 attention
attn_output = self.self_attn(hidden_states)
hidden_states = residual + attn_output
# Titans 记忆增强
retrieved, next_state = self.neural_memory(hidden_states, state=memory_state)
hidden_states = hidden_states + gate * retrieved
# 标准 FFN
hidden_states = self.mlp(hidden_states)
return hidden_states, next_state
优点: 记忆与模型深度集成 缺点: 需要修改模型结构
方案 3: Memory-as-Context(最接近论文)
class QwenWithMAC(nn.Module):
def __init__(self, qwen_model, ...):
self.qwen = qwen_model
self.longterm_mem = nn.Parameter(...) # 长期记忆 token
self.persist_mem = nn.Parameter(...) # 持久记忆 token
self.neural_memories = nn.ModuleDict({
'2': NeuralMemory(...),
'4': NeuralMemory(...),
'6': NeuralMemory(...),
})
优点: 最接近论文实现,效果最好 缺点: 实现复杂,需要处理位置编码
关键实现细节
1. 梯度计算
Titans 使用 torch.func.vmap 和 torch.func.grad 进行高效的批量梯度计算:
from torch.func import functional_call, vmap, grad
def forward_and_loss(params, inputs, loss_weights, target):
pred = functional_call(self.memory_model, params, inputs)
loss = (pred - target).pow(2).mean(dim=-1)
return (loss * loss_weights).sum(), loss
grad_fn = grad(forward_and_loss, has_aux=True)
self.per_sample_grad_fn = vmap(grad_fn, in_dims=(0, 0, 0, 0))
2. Associative Scan(关联扫描)
用于高效计算动量和权重衰减:
from assoc_scan import AssocScan
self.assoc_scan = AssocScan(use_accelerated=True)
# 用于计算: x[t] = α[t] * x[t-1] + (1-α[t]) * input[t]
3. 自适应学习率
每个 token 的学习率是动态学习的:
adaptive_lr = self.to_adaptive_step(seq)
adaptive_lr = adaptive_lr.sigmoid() * max_lr # 限制在 [0, max_lr]
性能优化建议
1. chunk_size 选择
- 较小的 chunk_size(如 32): 更细粒度的记忆更新,但内存占用更大
- 较大的 chunk_size(如 128): 更高效,但记忆粒度较粗
2. batch_size 选择
- 较小的 batch_size(如 64): 更频繁的权重更新,可能更好地捕捉细节
- 较大的 batch_size(如 256): 训练更稳定,但可能丢失细节
3. 使用加速扫描
NeuralMemory(..., use_accelerated_scan=True)
4. 使用 FlexAttention(PyTorch 2.0+)
MemoryAsContextTransformer(..., use_flex_attn=True)
安装和依赖
pip install titans-pytorch
# 完整依赖
pip install torch einops tensordict assoc-scan rotary-embedding-torch x-transformers hyper-connections axial-positional-embedding
参考文献
- Titans: Learning to Memorize at Test Time - Google, 2024
- Learning to (Learn at Test Time): RNNs with Expressive Hidden States - TTT Paper
- Gated Delta Networks - Momentum 机制参考
示例代码位置
详细的集成示例代码请参考:
examples/qwen_with_titans_memory.py