Neve-Echo-S-4B-GGUF

## Introdução

O Neve Echo S é um modelo de linguagem de última geração focado em uso geral e raciocínio para tarefas rápidas. Esta versão em formato GGUF foi otimizada pela NeveAI para oferecer o equilíbrio ideal entre precisão lógica e eficiência computacional.


Destaques do Modelo

Este modelo foi desenvolvido para uso geral e execução de tarefas diversas, focando em:

  • Raciocínio Avançado (Thinking): Projetado como um modelo altamente capaz de raciocínio, com suporte a modos de pensamento estruturado para tarefas complexas.
  • Uso Geral e Produtividade: Otimizado para uma ampla variedade de tarefas como geração de texto, assistência, explicações, planejamento e automação.
  • Multimodalidade (Texto + Imagem): Capaz de processar entradas multimodais com suporte a diferentes resoluções e proporções.
  • Tool Calling e System Prompt: Suporte nativo a chamadas de função e ao papel system, permitindo maior controle e integração com ferramentas externas.

Benchmark de Performance

O Neve Echo 4 demonstra desempenho alinhado a modelos de ponta em múltiplas categorias:

Categoria Benchmark Gemma 4 31B Gemma 4 26B A4B Neve Echo S
Knowledge MMLU Pro 85.2% 82.6% 69.4%
Reasoning GPQA Diamond 84.3% 82.3% 58.6%
Math AIME 2026 89.2% 88.3% 42.5%
General BigBench Extra Hard 74.4% 64.8% 33.1%

Detalhes da Arquitetura

  • Arquitetura: Mixture of Experts (MoE) com atenção híbrida (local + global intercalado).
  • Parâmetros: ~4B totais (com subset ativo por token para eficiência).
  • Janela de Contexto: Até 256K tokens.
  • Camadas: Arquitetura profunda com atenção global na camada final.
  • MoE: Roteamento dinâmico de experts (subset ativo por inferência), otimizando performance e uso de memória.

Como utilizar (GGUF)

Este modelo é compatível com llama.cpp, Ollama, LM Studio e outras ferramentas que suportam o formato GGUF. Foco direcionado ao uso do modelo na plataforma autoral da organização NeveAI

Licença

Este repositório e os pesos do modelo estão licenciados sob a Licença Apache 2.0.

Contato

Se tiver qualquer dúvida, por favor, levante um issue ou entre em contato conosco em NeveIA.

Downloads last month
309
GGUF
Model size
8B params
Architecture
gemma4
Hardware compatibility
Log In to add your hardware

8-bit

Inference Providers NEW
This model isn't deployed by any Inference Provider. 🙋 Ask for provider support

Model tree for NeveAI/Neve-Echo-S-4B-GGUF

Quantized
(161)
this model

Collection including NeveAI/Neve-Echo-S-4B-GGUF