O Neve Echo 4 é um modelo de linguagem de última geração focado em uso geral e tarefas variadas. Esta versão em formato GGUF foi otimizada pela NeveAI para oferecer o equilíbrio ideal entre precisão lógica e eficiência computacional.
Destaques do Modelo
Este modelo foi desenvolvido para uso geral e execução de tarefas diversas, focando em:
Raciocínio Avançado (Thinking): Projetado como um modelo altamente capaz de raciocínio, com suporte a modos de pensamento estruturado para tarefas complexas.
Uso Geral e Produtividade: Otimizado para uma ampla variedade de tarefas como geração de texto, assistência, explicações, planejamento e automação.
Multimodalidade (Texto + Imagem): Capaz de processar entradas multimodais com suporte a diferentes resoluções e proporções.
Tool Calling e System Prompt: Suporte nativo a chamadas de função e ao papel system, permitindo maior controle e integração com ferramentas externas.
Benchmark de Performance
O Neve Echo 4 demonstra desempenho alinhado a modelos de ponta em múltiplas categorias:
Categoria
Benchmark
Neve Echo 4
Gemma 4 26B A4B
Knowledge
MMLU Pro
85.2%
82.6%
Reasoning
GPQA Diamond
84.3%
82.3%
Math
AIME 2026
89.2%
88.3%
General
BigBench Extra Hard
74.4%
64.8%
Detalhes da Arquitetura
Arquitetura: Mixture of Experts (MoE) com atenção híbrida (local + global intercalado).
Parâmetros: ~26B totais (com subset ativo por token para eficiência).
Janela de Contexto: Até 256K tokens.
Camadas: Arquitetura profunda com atenção global na camada final.
MoE: Roteamento dinâmico de experts (subset ativo por inferência), otimizando performance e uso de memória.
Como utilizar (GGUF)
Este modelo é compatível com llama.cpp, Ollama, LM Studio e outras ferramentas que suportam o formato GGUF.
Foco direcionado ao uso do modelo na plataforma autoral da organização NeveAI
Licença
Este repositório e os pesos do modelo estão licenciados sob a Licença Apache 2.0.
Contato
Se tiver qualquer dúvida, por favor, levante um issue ou entre em contato conosco em NeveIA.