📊 LeyoAI Analytics Model

数据分析与洞察 AI 助手,基于 Qwen2.5-1.5B-Instruct + LoRA 微调。

📊 模型信息

项目 详情
基座模型 Qwen2.5-1.5B-Instruct
微调方式 LoRA (r=16, α=32)
训练数据 160 条数据分析问答
训练轮次 3 epochs
最终 Loss 0.13
可训练参数 4.36M (0.28%)

🎯 功能

  • 描述性统计与可视化建议
  • 相关性与回归分析
  • A/B 测试设计与解读
  • 用户行为与留存分析
  • 数据看板设计指导

💡 使用方式

from transformers import AutoTokenizer, AutoModelForCausalLM
from peft import PeftModel

base = AutoModelForCausalLM.from_pretrained("Qwen/Qwen2.5-1.5B-Instruct")
model = PeftModel.from_pretrained(base, "FFZwai/qwen2.5-1.5b-analytics")
tok = AutoTokenizer.from_pretrained("Qwen/Qwen2.5-1.5B-Instruct")

messages = [{"role": "user", "content": "如何做用户留存分析?"}]
text = tok.apply_chat_template(messages, tokenize=False, add_generation_prompt=True)
inputs = tok(text, return_tensors="pt").to(model.device)
outputs = model.generate(**inputs, max_new_tokens=512)
print(tok.decode(outputs[0], skip_special_tokens=True))

⚠️ 免责声明

本模型仅供参考,请在生产环境部署前进行充分测试验证。

Downloads last month
73
Inference Providers NEW
This model isn't deployed by any Inference Provider. 🙋 Ask for provider support

Model tree for FFZwai/qwen2.5-1.5b-analytics

Adapter
(807)
this model

Space using FFZwai/qwen2.5-1.5b-analytics 1