titans_NPC / examples /TITANS_ANALYSIS_CN.md
ChipYTY's picture
Update full code snapshot (exclude data and model checkpoints)
4196369 verified

Titans-PyTorch 代码分析报告

概述

Titans 是 Google 在 2024 年底提出的新型长期记忆机制,核心思想是将神经网络的权重作为长期记忆,通过测试时训练(Test-Time Training, TTT)来动态存储和检索信息。

核心组件分析

1. NeuralMemory (神经记忆模块)

位置: titans_pytorch/neural_memory.py

这是 Titans 的核心组件,主要特点:

1.1 记忆存储机制

  • 记忆载体: 使用 MLP(或其他模型)的权重作为记忆存储
  • 存储过程: 通过计算梯度来"写入"记忆
    # 损失函数:|M(k) - v|²
    # 其中 M 是记忆网络,k 是 key,v 是 value
    def default_loss_fn(pred, target):
        return (pred - target).pow(2).mean(dim = -1)
    

1.2 记忆检索机制

  • 将 query 输入到记忆网络,获取存储的信息
  • 使用 functional_call 进行前向传播

1.3 关键参数

参数 说明 建议值
chunk_size 分块大小,控制记忆更新粒度 32-128
batch_size 批处理大小,控制权重更新频率 64-256
momentum 是否使用动量优化 True
momentum_order 动量阶数 1-2
dim_head 每个头的维度 64
heads 注意力头数 4-8

2. MemoryMLP (记忆网络)

位置: titans_pytorch/memory_models.py

Titans 提供了多种记忆网络架构:

模型 描述 适用场景
MemoryMLP 基础 MLP,来自 TTT 论文 通用场景
MemorySwiGluMLP SwiGLU 激活的 MLP 更强表达能力
FactorizedMemoryMLP 分解权重的 MLP 降低参数量
MemoryAttention 使用注意力的记忆 复杂依赖关系
GatedResidualMemoryMLP 门控残差 MLP 深层网络

3. MemoryAsContextTransformer (MAC Transformer)

位置: titans_pytorch/mac_transformer.py

将 NeuralMemory 集成到 Transformer 中的完整实现:

核心设计

  1. Segment 分段: 将长序列分成固定长度的 segment
  2. Longterm Memory Tokens: 在每个 segment 开头添加记忆 token
  3. Persistent Memory: 全局共享的持久记忆 token
  4. 记忆更新: 通过 NeuralMemory 动态更新记忆

将 Titans 集成到 Qwen 的三种方案

方案 1: 外部包装器(最简单)

class TitansMemoryWrapper(nn.Module):
    def __init__(self, qwen_model, ...):
        self.qwen = qwen_model
        self.neural_memory = NeuralMemory(...)
        
    def forward(self, input_ids, memory_state=None):
        # 1. 获取 Qwen 隐藏状态
        hidden = self.qwen(..., output_hidden_states=True).hidden_states[-1]
        
        # 2. 记忆增强
        retrieved, next_state = self.neural_memory(hidden, state=memory_state)
        
        # 3. 融合输出
        enhanced = hidden + gate * retrieved
        return enhanced, next_state

优点: 不修改 Qwen 内部结构,易于实现 缺点: 记忆与模型的交互较浅

方案 2: 层级集成(中等复杂度)

class QwenDecoderLayerWithMemory(nn.Module):
    def forward(self, hidden_states, memory_state=None):
        # 标准 attention
        attn_output = self.self_attn(hidden_states)
        hidden_states = residual + attn_output
        
        # Titans 记忆增强
        retrieved, next_state = self.neural_memory(hidden_states, state=memory_state)
        hidden_states = hidden_states + gate * retrieved
        
        # 标准 FFN
        hidden_states = self.mlp(hidden_states)
        return hidden_states, next_state

优点: 记忆与模型深度集成 缺点: 需要修改模型结构

方案 3: Memory-as-Context(最接近论文)

class QwenWithMAC(nn.Module):
    def __init__(self, qwen_model, ...):
        self.qwen = qwen_model
        self.longterm_mem = nn.Parameter(...)  # 长期记忆 token
        self.persist_mem = nn.Parameter(...)   # 持久记忆 token
        self.neural_memories = nn.ModuleDict({
            '2': NeuralMemory(...),
            '4': NeuralMemory(...),
            '6': NeuralMemory(...),
        })

优点: 最接近论文实现,效果最好 缺点: 实现复杂,需要处理位置编码

关键实现细节

1. 梯度计算

Titans 使用 torch.func.vmaptorch.func.grad 进行高效的批量梯度计算:

from torch.func import functional_call, vmap, grad

def forward_and_loss(params, inputs, loss_weights, target):
    pred = functional_call(self.memory_model, params, inputs)
    loss = (pred - target).pow(2).mean(dim=-1)
    return (loss * loss_weights).sum(), loss

grad_fn = grad(forward_and_loss, has_aux=True)
self.per_sample_grad_fn = vmap(grad_fn, in_dims=(0, 0, 0, 0))

2. Associative Scan(关联扫描)

用于高效计算动量和权重衰减:

from assoc_scan import AssocScan

self.assoc_scan = AssocScan(use_accelerated=True)
# 用于计算: x[t] = α[t] * x[t-1] + (1-α[t]) * input[t]

3. 自适应学习率

每个 token 的学习率是动态学习的:

adaptive_lr = self.to_adaptive_step(seq)
adaptive_lr = adaptive_lr.sigmoid() * max_lr  # 限制在 [0, max_lr]

性能优化建议

1. chunk_size 选择

  • 较小的 chunk_size(如 32): 更细粒度的记忆更新,但内存占用更大
  • 较大的 chunk_size(如 128): 更高效,但记忆粒度较粗

2. batch_size 选择

  • 较小的 batch_size(如 64): 更频繁的权重更新,可能更好地捕捉细节
  • 较大的 batch_size(如 256): 训练更稳定,但可能丢失细节

3. 使用加速扫描

NeuralMemory(..., use_accelerated_scan=True)

4. 使用 FlexAttention(PyTorch 2.0+)

MemoryAsContextTransformer(..., use_flex_attn=True)

安装和依赖

pip install titans-pytorch

# 完整依赖
pip install torch einops tensordict assoc-scan rotary-embedding-torch x-transformers hyper-connections axial-positional-embedding

参考文献

  1. Titans: Learning to Memorize at Test Time - Google, 2024
  2. Learning to (Learn at Test Time): RNNs with Expressive Hidden States - TTT Paper
  3. Gated Delta Networks - Momentum 机制参考

示例代码位置

详细的集成示例代码请参考: examples/qwen_with_titans_memory.py