YAML Metadata Warning:empty or missing yaml metadata in repo card
Check out the documentation for more information.
CaiTI × Llama-3.2-3B — 终极合并 LoRA(Task1 + Task2 + Task3)
本目录为 单独保存 的部署包:在 llama-3.2-3b-finetune 中分别训练 Task1/2/3 后,用 PEFT 线性加权合并 得到的 单一 adapter(非全量合并后的独立权重文件;推理仍需加载下面的 基座模型)。
基座模型
- **
meta-llama/Llama-3.2-3B-Instruct**(需 Hugging Face 许可与 token)
本目录内容
| 文件 | 说明 |
|---|---|
adapter_config.json / adapter_model.safetensors |
合并后的 LoRA |
tokenizer*.json, special_tokens_map.json, chat_template.jinja |
与训练时一致的 tokenizer |
merge_meta.json |
合并来源路径、权重(各任务 1/3 归一化)、combination_type: linear |
推理加载示例
import torch
from transformers import AutoModelForCausalLM, AutoTokenizer
from peft import PeftModel
BASE = "meta-llama/Llama-3.2-3B-Instruct"
ADAPTER = "/path/to/caiti-llama32-3b-ultimate" # 本目录
tok_kw = {"token": "hf_..."} # 或已 huggingface-cli login
base = AutoModelForCausalLM.from_pretrained(
BASE,
torch_dtype=torch.bfloat16,
device_map="auto",
**tok_kw,
)
model = PeftModel.from_pretrained(base, ADAPTER)
tokenizer = AutoTokenizer.from_pretrained(ADAPTER, **tok_kw)
各任务的 instruction 与 prompt 格式 与训练脚本一致,见:
llama-3.2-3b-finetune/llama_finetune_caiti.py(Task1 / Task2)llama-3.2-3b-finetune/llama32_3b_finetune_task3.py(Task3)
重新生成本目录
在 llama-3.2-3b-finetune 下:
python3 merge_llama32_caiti_loras.py --out-dir output/merged_task123_linear
# 再将 output/merged_task123_linear/merged/* 与 tokenizer 等拷贝到本目录(或改脚本直接 --out-dir 指向本路径)
说明
- 这是 三个 LoRA 的近似合并,效果一般 不等于 联合训练单一 LoRA。
- 若需更新:重新训练子任务 → 重新运行
merge_llama32_caiti_loras.py→ 覆盖本目录中的 adapter 与merge_meta.json。
训练与合并工程路径:CaiTI/llama-3.2-3b-finetune/
详细文档:llama-3.2-3b-finetune/README_MULTITASK.md
Inference Providers NEW
This model isn't deployed by any Inference Provider. 🙋 Ask for provider support