🎨 AnimeMaster-0.6B

基于 Qwen3-0.6B 的动漫角色设计助手,通过知识蒸馏从 Qwen3-14B 训练而来。

模型信息

  • 基座模型: Qwen3-0.6B
  • 教师模型: Qwen3-14B
  • 参数量: 0.6B
  • 蒸馏方法: PAI-EasyDistill + LoRA
  • 训练数据: 100条动漫创作指令
  • 模型大小: 1.11GB

快速开始

使用 Transformers

```python from transformers import AutoModelForCausalLM, AutoTokenizer

model = AutoModelForCausalLM.from_pretrained("你的用户名/anime-master-0.6b") tokenizer = AutoTokenizer.from_pretrained("你的用户名/anime-master-0.6b")

prompt = "设计一个火系魔法师角色" inputs = tokenizer(prompt, return_tensors="pt") outputs = model.generate(**inputs, max_new_tokens=500) print(tokenizer.decode(outputs[0], skip_special_tokens=True)) ```

使用 OpenAI API 格式

```python from openai import OpenAI

client = OpenAI( api_key="your-token", base_url="your-deployment-url/v1" )

response = client.chat.completions.create( model="anime-master-0.6b", messages=[ {"role": "user", "content": "设计一个热血少年主角"} ] ) print(response.choices[0].message.content) ```

应用场景

  • 🎭 动漫角色设计
  • 📖 剧情创作
  • 🌍 世界观构建
  • ⚔️ 战斗场景描写

性能指标

指标 数值
推理速度 ~2秒/次
成本降低 80% (vs 14B)
质量保留 70-80%
Token准确率 67.5%

局限性

  • 输出包含 <think> 思维链标签,需要后处理
  • 最大序列长度: 1500 tokens
  • 专注于动漫领域,通用能力有限

训练详情

  • 蒸馏框架: PAI-EasyDistill
  • 训练方式: LoRA
  • 学习率: 5e-5
  • Batch size: 2
  • Epochs: 1
  • 训练时长: 26秒

示例输出

点击查看示例

输入: 设计一个火系魔法师角色

输出: ``` 姓名:炎·斯卡雷特 外貌:赤红短发,金色眼瞳,身着流动火纹法袍 性格:热情直率,勇于挑战,内心温暖 能力:

  • 烈焰冲击
  • 火墙防御
  • 凤凰重生 背景:来自火山国度的天才魔法师... ```

引用

如果使用本模型,请引用:

```bibtex @misc{anime-master-0.6b, author = {aaw2}, title = {AnimeMaster-0.6B: 动漫角色设计助手}, year = {2026}, publisher = {Hugging Face}, howpublished = {\url{https://huggingface.co/aaw2/Kisara-animemaster-v1.0-0.6b}} } ```

许可证

MIT

致谢

Downloads last month
6
Safetensors
Model size
0.6B params
Tensor type
F16
·
Inference Providers NEW
This model isn't deployed by any Inference Provider. 🙋 Ask for provider support

Model tree for aaw2/Kisara-animemaster-v1.0-0.6b

Finetuned
Qwen/Qwen3-0.6B
Finetuned
(799)
this model
Quantizations
1 model