Cosmobillian/TR-Llama-8B-Cosmos-Trendyol_SLERP_v1
Bu model 2 Türkçe LLM'in SLERP yöntemiyle birleştirilmesiyle oluşturulmuştur. Herhangi bir ek eğitim yapılmamıştır — sadece ağırlık aritmetiği uygulanmıştır.
Merge Detayları
- Yöntem: SLERP
- Araç: mergekit
- Parametreler: t=0.5, dtype=bfloat16
Kaynak Modeller
| # | Model | HuggingFace Linki |
|---|---|---|
| 1 | Turkish-Llama-8b-Instruct-v0.1 | ytu-ce-cosmos/Turkish-Llama-8b-Instruct-v0.1 |
| 2 | Trendyol-LLM-8b-chat-v2.0 | Trendyol/Trendyol-LLM-8b-chat-v2.0 |
Benchmark Sonuçları
| Metrik | Değer |
|---|---|
| Türkçe Perplexity ↓ | 39.31 |
| Manuel Skor (20 soru) | 20/20 |
Kullanım
from transformers import AutoModelForCausalLM, AutoTokenizer
model = AutoModelForCausalLM.from_pretrained("Cosmobillian/TR-Llama-8B-Cosmos-Trendyol_SLERP_v1",
device_map="auto")
tokenizer = AutoTokenizer.from_pretrained("Cosmobillian/TR-Llama-8B-Cosmos-Trendyol_SLERP_v1")
inputs = tokenizer("Türkiye'nin başkenti", return_tensors="pt")
outputs = model.generate(**inputs, max_new_tokens=50)
print(tokenizer.decode(outputs[0]))
Metodoloji ve Kaynak Kod
📂 github.com/CengizhanBayram/experiment_of_merging
Merged from [ytu-ce-cosmos/Turkish-Llama-8b-Instruct-v0.1, Trendyol/Trendyol-LLM-8b-chat-v2.0] using SLERP strategy. Benchmarks and methodology: github.com/CengizhanBayram/experiment_of_merging
- Downloads last month
- 53
Inference Providers NEW
This model isn't deployed by any Inference Provider. 🙋 Ask for provider support
Model tree for Cosmobillian/TR-Llama-8B-Cosmos-Trendyol_SLERP_v1
Merge model
this model