---
library_name: transformers
license: apache-2.0
license_link: https://ai.google.dev/gemma/docs/gemma_4_license
pipeline_tag: image-text-to-text
base_model: google/gemma-4-E4B-it
tags:
- NeveAI
- Neve
- EchoS
---
Neve-Echo-S-4B-GGUF
## Introdução
O **Neve Echo S** é um modelo de linguagem de última geração focado em **uso geral e raciocínio para tarefas rápidas**. Esta versão em formato GGUF foi otimizada pela NeveAI para oferecer o equilíbrio ideal entre precisão lógica e eficiência computacional.
---
## Destaques do Modelo
Este modelo foi desenvolvido para uso geral e execução de tarefas diversas, focando em:
* **Raciocínio Avançado (Thinking):** Projetado como um modelo altamente capaz de raciocínio, com suporte a modos de pensamento estruturado para tarefas complexas.
* **Uso Geral e Produtividade:** Otimizado para uma ampla variedade de tarefas como geração de texto, assistência, explicações, planejamento e automação.
* **Multimodalidade (Texto + Imagem):** Capaz de processar entradas multimodais com suporte a diferentes resoluções e proporções.
* **Tool Calling e System Prompt:** Suporte nativo a chamadas de função e ao papel `system`, permitindo maior controle e integração com ferramentas externas.
## Benchmark de Performance
O Neve Echo 4 demonstra desempenho alinhado a modelos de ponta em múltiplas categorias:
| Categoria | Benchmark | Gemma 4 31B | Gemma 4 26B A4B | Neve Echo S |
| :--- | :--- | :---: | :---: | :---: |
| **Knowledge** | MMLU Pro | 85.2% | 82.6% | **69.4%** |
| **Reasoning** | GPQA Diamond | 84.3% | 82.3% | **58.6%** |
| **Math** | AIME 2026 | 89.2% | 88.3% | **42.5%** |
| **General** | BigBench Extra Hard | 74.4% | 64.8% | **33.1%** |
---
## Detalhes da Arquitetura
- **Arquitetura:** Mixture of Experts (MoE) com atenção híbrida (local + global intercalado).
- **Parâmetros:** ~4B totais (com subset ativo por token para eficiência).
- **Janela de Contexto:** Até 256K tokens.
- **Camadas:** Arquitetura profunda com atenção global na camada final.
- **MoE:** Roteamento dinâmico de experts (subset ativo por inferência), otimizando performance e uso de memória.
## Como utilizar (GGUF)
Este modelo é compatível com `llama.cpp`, `Ollama`, `LM Studio` e outras ferramentas que suportam o formato GGUF.
Foco direcionado ao uso do modelo na plataforma autoral da organização [NeveAI](https://github.com/Etamus/NeveAI)
## Licença
Este repositório e os pesos do modelo estão licenciados sob a [Licença Apache 2.0](LICENSE).
## Contato
Se tiver qualquer dúvida, por favor, levante um issue ou entre em contato conosco em [NeveIA](https://github.com/NeveIA).