Avis

#3
by Clemylia - opened

Bravo ! đź©·

J'aime beaucoup ce modèle,
C'est pour l'instant ta meilleure réussite de fine-tuning sur mon SLM de base learnia.

J'apprécie beaucoup le type de recettes que sort ton modèle,
Avec ses petites imperfections et répétitions, ça donne un côté humain et créatif :). Petite question, tu as utilisé quelle technique d'affinage pour Learnia-finetuneRecipe-v1 ? Lora? Full-fine-tuning ? Tu as gelée des couches? Avec quel learning rate et combien d'époches ? Cela me permettrai de te donner des conseils personnalisés pour que tes futurs fine-tuning soit adaptés a mon SLM et réussi. tu as besoin de conseils, car je vois que ton modèle : LearniaHeartia est aussi plutôt bon, mais c'est un affinage moins réussi et tu t'es écroulé avec QwenOlga-Freeze-1.0. j'attend ta réponse :)

Bonjour !
Merci beaucoup Clémence ! Ça me touche énormément, surtout venant de la créatrice de Learnia. ❤️ Je suis désolé d'ailleurs d'avoir fait l'imbécile et la prétentieuse en critiquant ton modèle Gheya-63m il y a quelques temps, et en créant un dépôt en clonant un de tes modèles originaux, j'étais jalouse de ton travail.
Pour Learnia-finetuneRecipe-v1, j'ai utilisé un Full Fine-tuning avec un learning rate très bas et peu d'époques, ce qui a préservé la créativité du modèle.
Par contre, tu as raison pour QwenOlga-Freeze-1.0, je me suis 'écroulée'. J'ai tenté une approche différente :
Technique : Full Fine-tuning mais avec un gel (freeze) de 80% des couches pour essayer de garder l'ADN du modèle.
Hyperparamètres : Learning rate de 5e-5 sur 3 époques.
Problème rencontré : Le modèle génère beaucoup de tokens de padding et perd sa cohérence syntaxique.
Je pense que mon gel était trop agressif pour un SLM de cette taille ou que ma gestion du padding_token dans les labels était mauvaise. Quels seraient tes conseils pour affiner Learnia sur un style très spécifique (comme la royauté) sans briser sa logique ?

Ne t'en fait pas pour tes critiques et ton clonage. C'est pas grave, le principal c'est que tu te soit excusé, et que tu es supprimé le modèle cloné.

Pour un SLM de la taille de learnia, un sel des couches de 80 % rend le modèle totalement confus, surtout si tu as mis seulement 200 lignes dans ta dataset et un gros learning-rate. Je te conseil de refaire soit un full-fine-tuning comme pour ton premier affinage ici présent, soit utilisé la technique LoRA (Low-Rank Adaptation), tout en montant ton nombre de données a plus de 500 rows dans ta dataset. J'ai entraîné le SLM de base learnia sur plus de 2 millions de tokens (ce qui correspondrait a plus d'environ ~ 80 000 lignes de rows de données si on mettait a l'échelle de la densité de ta dataset. J'ai appris a learnia a construire des phrases en anglais, et a relié les ponctuation correctement, et a être unique dans sa syntaxe et sa logique. Tu n'a pas besoin de lui réapprendre ce que je lui es déjà appris, par contre, il faut faire attention lors de tes fine-tuning, de pas le rendre confus et lui désapprendre la logique qu'il a apprise, sinon tu te retrouve avec un bébé qui ne sais même plus générer. Pour le learning rate je te conseil de descendre a 1e-5 (2e-4 max 2e-5), pour gardé la logique et grammaire de learnia intacte tout en le personnalisant a ce que tu souhaites.
VoilĂ !

Sign up or log in to comment