GMagoLi commited on
Commit
695c7bf
·
verified ·
1 Parent(s): 658a9c3

Upload README.md

Browse files
Files changed (1) hide show
  1. README.md +90 -0
README.md ADDED
@@ -0,0 +1,90 @@
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
1
+ ---
2
+ license: apache-2.0
3
+ language:
4
+ - zh
5
+ - en
6
+ tags:
7
+ - pytorch
8
+ - transformers
9
+ - causal-lm
10
+ - qwen
11
+ - verl
12
+ - sft
13
+ pipeline_tag: text-generation
14
+ library_name: transformers
15
+ ---
16
+
17
+ # GMagoLi/test-upload
18
+
19
+ 这是一个基于Qwen架构的语言模型,使用VERL框架进行SFT训练。
20
+
21
+ ## 模型描述
22
+
23
+ - **模型类型**: 因果语言模型
24
+ - **架构**: Qwen-32B
25
+ - **训练框架**: VERL FSDP SFT Trainer
26
+ - **语言**: 中文、英文
27
+ - **许可证**: Apache 2.0
28
+
29
+ ## 使用方法
30
+
31
+ ```python
32
+ from transformers import AutoModelForCausalLM, AutoTokenizer
33
+ import torch
34
+
35
+ # 加载模型和tokenizer
36
+ model = AutoModelForCausalLM.from_pretrained(
37
+ "GMagoLi/test-upload",
38
+ trust_remote_code=True,
39
+ torch_dtype=torch.bfloat16,
40
+ device_map="auto"
41
+ )
42
+ tokenizer = AutoTokenizer.from_pretrained("GMagoLi/test-upload", trust_remote_code=True)
43
+
44
+ # 推理示例
45
+ prompt = "你好,请介绍一下你自己。"
46
+ inputs = tokenizer(prompt, return_tensors="pt")
47
+ outputs = model.generate(
48
+ **inputs,
49
+ max_length=512,
50
+ temperature=0.7,
51
+ do_sample=True,
52
+ pad_token_id=tokenizer.eos_token_id
53
+ )
54
+ response = tokenizer.decode(outputs[0], skip_special_tokens=True)
55
+ print(response)
56
+ ```
57
+
58
+ ## 训练信息
59
+
60
+ - **训练步数**: 2800 steps
61
+ - **批大小**: 128
62
+ - **学习率调度**: Cosine with warmup
63
+ - **混合精度**: bfloat16
64
+ - **数据集**: RepoCoder训练数据集v2.3
65
+
66
+ ## 模型性能
67
+
68
+ 该模型在代码生成和对话任务上表现出色,特别适合:
69
+ - 代码生成和补全
70
+ - 技术问答
71
+ - 多轮对话
72
+
73
+ ## 注意事项
74
+
75
+ - 模型较大(32B参数),建议使用GPU推理
76
+ - 需要足够的显存(建议24GB+)
77
+ - 支持量化推理以降低显存需求
78
+
79
+ ## 引用
80
+
81
+ 如果使用了本模型,请考虑引用:
82
+
83
+ ```bibtex
84
+ @misc{qwen-repocoder-sft,
85
+ title={Qwen RepoCoder SFT Model},
86
+ author={Your Name},
87
+ year={2025},
88
+ howpublished={\url{https://huggingface.co/GMagoLi/test-upload}}
89
+ }
90
+ ```