Cosmobillian/TR-Llama-8B-Cosmos-Trendyol_SLERP_v1

Bu model 2 Türkçe LLM'in SLERP yöntemiyle birleştirilmesiyle oluşturulmuştur. Herhangi bir ek eğitim yapılmamıştır — sadece ağırlık aritmetiği uygulanmıştır.

Merge Detayları

  • Yöntem: SLERP
  • Araç: mergekit
  • Parametreler: t=0.5, dtype=bfloat16

Kaynak Modeller

# Model HuggingFace Linki
1 Turkish-Llama-8b-Instruct-v0.1 ytu-ce-cosmos/Turkish-Llama-8b-Instruct-v0.1
2 Trendyol-LLM-8b-chat-v2.0 Trendyol/Trendyol-LLM-8b-chat-v2.0

Benchmark Sonuçları

Metrik Değer
Türkçe Perplexity ↓ 39.31
Manuel Skor (20 soru) 20/20

Kullanım

from transformers import AutoModelForCausalLM, AutoTokenizer

model = AutoModelForCausalLM.from_pretrained("Cosmobillian/TR-Llama-8B-Cosmos-Trendyol_SLERP_v1",
                                              device_map="auto")
tokenizer = AutoTokenizer.from_pretrained("Cosmobillian/TR-Llama-8B-Cosmos-Trendyol_SLERP_v1")

inputs = tokenizer("Türkiye'nin başkenti", return_tensors="pt")
outputs = model.generate(**inputs, max_new_tokens=50)
print(tokenizer.decode(outputs[0]))

Metodoloji ve Kaynak Kod

📂 github.com/CengizhanBayram/experiment_of_merging


Merged from [ytu-ce-cosmos/Turkish-Llama-8b-Instruct-v0.1, Trendyol/Trendyol-LLM-8b-chat-v2.0] using SLERP strategy. Benchmarks and methodology: github.com/CengizhanBayram/experiment_of_merging

Downloads last month
53
Safetensors
Model size
8B params
Tensor type
BF16
·
Inference Providers NEW
This model isn't deployed by any Inference Provider. 🙋 Ask for provider support

Model tree for Cosmobillian/TR-Llama-8B-Cosmos-Trendyol_SLERP_v1