SykoSLM commited on
Commit
0f3e78a
·
verified ·
1 Parent(s): 963c657

Update README.md

Browse files
Files changed (1) hide show
  1. README.md +3 -3
README.md CHANGED
@@ -42,9 +42,9 @@ library_name: transformers
42
  | Vocabulary Boyutu | 50.000 |
43
  | Maksimum Bağlam | 1024 Token |
44
  | Aktivasyon Fonksiyonu | SiLU |
45
- | Eğitim Adımı | ~3.400 Step |
46
  | Yaklaşık Eğitim Örneği | ~1.000.000+ |
47
- | Yaklaşık Eğitim Token'ı | ~1.500.000.000+ |
48
  | Eğitim Donanımı | 2x NVIDIA Tesla T4 |
49
 
50
  ---
@@ -85,7 +85,7 @@ Model, sıfırdan eğitilmiş özel bir BPE tokenizer kullanmaktadır. Hugging F
85
  | Warmup Steps | 200 |
86
  | Batch Size | 8 per device x 2 GPU |
87
  | Gradient Accumulation | 8 (Efektif batch: 128) |
88
- | Max Steps | 3.400 |
89
  | Precision | FP16 |
90
  | Max Grad Norm | 1.0 |
91
  | Weight Decay | 0.05 |
 
42
  | Vocabulary Boyutu | 50.000 |
43
  | Maksimum Bağlam | 1024 Token |
44
  | Aktivasyon Fonksiyonu | SiLU |
45
+ | Eğitim Adımı | ~3.500 Step |
46
  | Yaklaşık Eğitim Örneği | ~1.000.000+ |
47
+ | Yaklaşık Eğitim Token'ı | ~1.000.000.000+ |
48
  | Eğitim Donanımı | 2x NVIDIA Tesla T4 |
49
 
50
  ---
 
85
  | Warmup Steps | 200 |
86
  | Batch Size | 8 per device x 2 GPU |
87
  | Gradient Accumulation | 8 (Efektif batch: 128) |
88
+ | Max Steps | 3.500 |
89
  | Precision | FP16 |
90
  | Max Grad Norm | 1.0 |
91
  | Weight Decay | 0.05 |