MioTTS-0.6B Bulgarian Fine-Tuned (BG/EN)

Български

Това е fine-tuned версия на Aratako/MioTTS-0.6B, адаптирана за български TTS.

Какво е модифицирано

  • Fine-tune на LLM частта за български текст → speech tokens.
  • Обучение върху български dataset (24kHz, двама говорители), с финален run върху филтриран subset.
  • Запазен е оригиналният tokenizer/архитектура (Qwen3ForCausalLM, vocab 164480).
  • Няма промени в архитектурата на модела, само в learned weights.
  • За inference е използван MioCodec pipeline (съвместим с Aratako/MioCodec-25Hz-24kHz).

Финален checkpoint

  • Избран финален checkpoint: checkpoint-2000 (Run 4).
  • Наблюдаван eval loss в края: ~5.176.

Лиценз и оригинален проект

  • Лицензът е запазен: Apache-2.0.
  • Оригинален проект: Aratako/MioTTS-0.6B.

Важно

  • Този модел е предназначен за research/engineering use.
  • Моля спазвайте местното законодателство при voice cloning.

Samples


English

This is a fine-tuned version of Aratako/MioTTS-0.6B, adapted for Bulgarian TTS.

What was modified

  • Fine-tuned the LLM component for Bulgarian text → speech-token generation.
  • Trained on a Bulgarian dataset (24kHz, two speakers), with the final run on a filtered subset.
  • Preserved original tokenizer/architecture (Qwen3ForCausalLM, vocab 164480).
  • No architectural changes; only model weights were updated.
  • Inference is used with MioCodec pipeline (compatible with Aratako/MioCodec-25Hz-24kHz).

Final checkpoint

  • Final selected checkpoint: checkpoint-2000 (Run 4).
  • Final observed eval loss: ~5.176.

License and original project reference

Notes

  • This model is intended for research/engineering usage.
  • Please follow local laws and policies for voice cloning usage.
Downloads last month
288
Safetensors
Model size
0.6B params
Tensor type
BF16
·
Inference Providers NEW
This model isn't deployed by any Inference Provider. 🙋 Ask for provider support

Model tree for beleata74/mio-tts-0.6b-bg-finetuned

Finetuned
(1)
this model
Quantizations
1 model