YAML Metadata Warning:empty or missing yaml metadata in repo card

Check out the documentation for more information.

CaiTI × Llama-3.2-3B — 终极合并 LoRA(Task1 + Task2 + Task3)

本目录为 单独保存 的部署包:在 llama-3.2-3b-finetune 中分别训练 Task1/2/3 后,用 PEFT 线性加权合并 得到的 单一 adapter(非全量合并后的独立权重文件;推理仍需加载下面的 基座模型)。

基座模型

  • **meta-llama/Llama-3.2-3B-Instruct**(需 Hugging Face 许可与 token)

本目录内容

文件 说明
adapter_config.json / adapter_model.safetensors 合并后的 LoRA
tokenizer*.json, special_tokens_map.json, chat_template.jinja 与训练时一致的 tokenizer
merge_meta.json 合并来源路径、权重(各任务 1/3 归一化)、combination_type: linear

推理加载示例

import torch
from transformers import AutoModelForCausalLM, AutoTokenizer
from peft import PeftModel

BASE = "meta-llama/Llama-3.2-3B-Instruct"
ADAPTER = "/path/to/caiti-llama32-3b-ultimate"  # 本目录

tok_kw = {"token": "hf_..."}  # 或已 huggingface-cli login

base = AutoModelForCausalLM.from_pretrained(
    BASE,
    torch_dtype=torch.bfloat16,
    device_map="auto",
    **tok_kw,
)
model = PeftModel.from_pretrained(base, ADAPTER)
tokenizer = AutoTokenizer.from_pretrained(ADAPTER, **tok_kw)

各任务的 instruction 与 prompt 格式 与训练脚本一致,见:

  • llama-3.2-3b-finetune/llama_finetune_caiti.py(Task1 / Task2)
  • llama-3.2-3b-finetune/llama32_3b_finetune_task3.py(Task3)

重新生成本目录

llama-3.2-3b-finetune 下:

python3 merge_llama32_caiti_loras.py --out-dir output/merged_task123_linear
# 再将 output/merged_task123_linear/merged/* 与 tokenizer 等拷贝到本目录(或改脚本直接 --out-dir 指向本路径)

说明

  • 这是 三个 LoRA 的近似合并,效果一般 不等于 联合训练单一 LoRA。
  • 若需更新:重新训练子任务 → 重新运行 merge_llama32_caiti_loras.py → 覆盖本目录中的 adapter 与 merge_meta.json

训练与合并工程路径:CaiTI/llama-3.2-3b-finetune/
详细文档:llama-3.2-3b-finetune/README_MULTITASK.md

Downloads last month

-

Downloads are not tracked for this model. How to track
Inference Providers NEW
This model isn't deployed by any Inference Provider. 🙋 Ask for provider support