📊 LeyoAI Analytics Model
数据分析与洞察 AI 助手,基于 Qwen2.5-1.5B-Instruct + LoRA 微调。
📊 模型信息
| 项目 | 详情 |
|---|---|
| 基座模型 | Qwen2.5-1.5B-Instruct |
| 微调方式 | LoRA (r=16, α=32) |
| 训练数据 | 160 条数据分析问答 |
| 训练轮次 | 3 epochs |
| 最终 Loss | 0.13 |
| 可训练参数 | 4.36M (0.28%) |
🎯 功能
- 描述性统计与可视化建议
- 相关性与回归分析
- A/B 测试设计与解读
- 用户行为与留存分析
- 数据看板设计指导
💡 使用方式
from transformers import AutoTokenizer, AutoModelForCausalLM
from peft import PeftModel
base = AutoModelForCausalLM.from_pretrained("Qwen/Qwen2.5-1.5B-Instruct")
model = PeftModel.from_pretrained(base, "FFZwai/qwen2.5-1.5b-analytics")
tok = AutoTokenizer.from_pretrained("Qwen/Qwen2.5-1.5B-Instruct")
messages = [{"role": "user", "content": "如何做用户留存分析?"}]
text = tok.apply_chat_template(messages, tokenize=False, add_generation_prompt=True)
inputs = tok(text, return_tensors="pt").to(model.device)
outputs = model.generate(**inputs, max_new_tokens=512)
print(tok.decode(outputs[0], skip_special_tokens=True))
⚠️ 免责声明
本模型仅供参考,请在生产环境部署前进行充分测试验证。
- Downloads last month
- 73