| --- |
| license: apache-2.0 |
| language: |
| - ru |
| - en |
| - zh |
| - pt |
| - es |
| - el |
| - ka |
| - uk |
| - ja |
| pipeline_tag: text-generation |
| library_name: transformers |
| tags: |
| - text-generation-inference |
| datasets: |
| - MultiLingual_90M.zip |
| - Yyukki90M.zxc |
| - VirttauallituAI.cpp |
| - API_LLM_AI |
| - LLMGoglaenLAI.rar |
| - MultiTrainer56-108M |
| base_model: |
| - YAPPERTAR_ai_based_on_miscrosoft_phi4 |
| text: null |
| new_version: Fantominsight/YAPPERTAR-ai-32B-1.0 |
| --- |
| ```Markdown |
| Это флагманская, быстрая, лёгкая модель |
| для генерации ткста с пятью миллиардами |
| параметров на основе модели и её архитектуры |
| семейства моделей Qwen2 от AlibabaCloud. |
| По лицензии права принадлежат Alibaba. |
| Мы команда ФантомИнсайт дообучили Qwen2-5B |
| под себя. Мы не крадём, мы честно распростроняем |
| как семейство моделей YAPPERTAR-1.0 на основе **Qwen2**. |
| Формат GGUF llama.cpp. Запускается в LMStudio, GPT4ALL, Ollama и д.р |
| с поддержкой GGUF. Требуется минимум 8-12 ГБ ОЗУ или видеопамяти. |
| ``` |