🧠 Learnia-Empathic-Tchat

Learnia-Empathic-Tchat

Learnia-Empathic-Tchat est un Small Language Model (SLM) de 51.6M de paramètres, affiné par SFT (Supervised Fine-Tuning) pour devenir un assistant spécialisé dans le dialogue émotionnel et relationnel. Basé sur l'architecture Learnia, ce modèle prouve qu'une petite taille peut offrir une profondeur de compréhension étonnante lorsqu'elle est couplée à un dataset ultra-spécialisé.

🌟 Points Forts

  • Ultra-Léger : 51.6M de paramètres pour une exécution fluide sur n'importe quel CPU ou GPU virtuel.
  • Spécialisation Émotionnelle : Entraîné sur 10 000 dialogues ciblant la résolution de conflits, la tristesse, la trahison et la gestion du stress relationnel.
  • Format Chat-Ready : Utilise un template de chat standard pour une intégration immédiate dans des applications de messagerie.

📊 Fiche Technique

Caractéristique Détail
Base Learnia (Foundation)
Paramètres 51.6 Millions
Méthode Fine-tuning SFT (Instruct)
Dataset 10k dialogues
Format Hugging Face Transformers

🚀 Utilisation (Inférence)

Pour discuter avec Learnia-Empathic-Tchat, tu peux utiliser le code suivant via la bibliothèque transformers :

from transformers import AutoTokenizer, AutoModelForCausalLM

# Chargement du modèle et du tokenizer
checkpoint = "Clem27-Assistants/Learnia-Empathic-Tchat"
tokenizer = AutoTokenizer.from_pretrained(checkpoint)
model = AutoModelForCausalLM.from_pretrained(checkpoint)

# Structure de la conversation
messages = [
    {"role": "user", "content": "Hello! My mother yelled at me. What should I do?"},
]

# Application du chat template
inputs = tokenizer.apply_chat_template(
    messages,
    add_generation_prompt=True,
    tokenize=True,
    return_dict=True,
    return_tensors="pt",
).to(model.device)

# Génération de la réponse
outputs = model.generate(
    **inputs,
    max_new_tokens=200, 
    do_sample=True, 
    temperature=0.7,
    eos_token_id=tokenizer.eos_token_id,
    stop_strings=["<|im_end|>"],
    tokenizer=tokenizer
)

# Décodage et post-process
decoded_output = tokenizer.decode(outputs[0][inputs["input_ids"].shape[-1]:])
clean_output = decoded_output.replace("<|im_end|>", "").strip()

print(f"Assistant: {clean_output}")

⚠️ Limitations

Étant un modèle de 51.6M de paramètres, Learnia-Empathic-Tchat est conçu pour la texture conversationnelle et l'empathie, et non pour le calcul mathématique ou la génération de code complexe. Il brille par sa capacité à maintenir un ton humain et réconfortant.

Downloads last month
131
Safetensors
Model size
51.6M params
Tensor type
F32
·
Inference Providers NEW
This model isn't deployed by any Inference Provider. 🙋 Ask for provider support

Model tree for Clem27-Assistants/Learnia-Empathic-Tchat

Finetuned
(11)
this model
Quantizations
1 model

Spaces using Clem27-Assistants/Learnia-Empathic-Tchat 3