Qwen3-8B-Wikipedia-TR-CPT

Türkçe akıl yürütme ve teknik ifade kalitesini artırmak için hazırlanmış model sürümüdür.

Eğitim Kurgusu

Bu modelde Türkçe düşünme adaptasyonu amacıyla wikimedia/wikipedia verisi ana kaynak olarak kullanılmıştır. Bu modelde Türkçe düşünme adaptasyonu için Continued PreTraining (CPT) uygulanmıştır. Adaptasyon kurgusunda veri bileşiminin yaklaşık %99'u wikimedia/wikipedia tabanlıdır.

Not: Yüzde oranı, modelin tüm tarihsel ön eğitimi değil; CPT aşamasındaki adaptasyon veri karışımını ifade eder.

Veri Kaynağı

  • wikimedia/wikipedia (Türkçe içerik odaklı)

Model Amacı

  • Türkçe bağlamda daha tutarlı akıl yürütme
  • Bilgi yoğun sorularda daha düzenli açıklama
  • Türkçe teknik/analitik cevaplarda daha iyi akış

Önemli Not

  • Model, eğitim verisindeki dağılıma bağlı önyargılar taşıyabilir.
  • Kritik alanlarda (hukuk, sağlık, finans vb.) insan uzman kontrolü önerilir.

Lisans

Bu model Apache-2.0 lisansı ile sunulmuştur.

Copyright

Copyright (c) Zero9 Tech

Downloads last month
328
Safetensors
Model size
8B params
Tensor type
BF16
·
Inference Providers NEW
This model isn't deployed by any Inference Provider. 🙋 Ask for provider support

Model tree for zero9tech/Qwen3-8B-Wikipedia-TR-CPT

Quantizations
1 model

Dataset used to train zero9tech/Qwen3-8B-Wikipedia-TR-CPT