O Neve Sense 2 é um modelo de linguagem de última geração focado em análise e resumo para documentos complexos. Esta versão em formato GGUF foi otimizada pela NeveAI para oferecer o equilíbrio ideal entre precisão lógica e eficiência computacional.
Destaques do Modelo
Este modelo foi desenvolvido para uso geral e execução de tarefas diversas, focando em:
Raciocínio Configurável: Permite ajuste dinâmico do nível de raciocínio (baixo, médio, alto), equilibrando performance e latência conforme o uso.
Capacidades Agentic: Suporte nativo para function calling, execução de código e integração com ferramentas externas.
Fine-tuning Flexível: Totalmente adaptável para casos específicos através de fine-tuning.
Eficiência e Execução Local: Projetado para rodar em ambientes com recursos limitados, mantendo alta performance.
Benchmark de Performance
O Neve Sense 2 apresenta desempenho competitivo em tarefas de raciocínio, execução e uso de ferramentas:
Categoria
Benchmark
Neve Sense 2
GPT-OSS-120B
Reasoning
GPQA
71.5
80.0+
Math
AIME
91.7
92.0+
Agentic Tasks
SWE-bench
34.0
50.0+
Tool Use
τ²-Bench
47.7
70.0+
General
HLE
10.9
15.0+
Detalhes da Arquitetura
Arquitetura: Mixture of Experts (MoE) otimizada para eficiência.
Parâmetros:21B totais (3.6B ativos por token).
Quantização: MXFP4 nativa com upcasting para maior precisão.
Execução: Compatível com ambientes locais (~16GB VRAM).
Capacidades: Suporte a reasoning avançado, tool use e execução de tarefas complexas.
Como utilizar (GGUF)
Este modelo é compatível com llama.cpp, Ollama, LM Studio e outras ferramentas que suportam o formato GGUF.
Foco direcionado ao uso do modelo na plataforma autoral da organização NeveAI
Licença
Este repositório e os pesos do modelo estão licenciados sob a Licença Apache 2.0.
Contato
Se tiver qualquer dúvida, por favor, levante um issue ou entre em contato conosco em NeveIA.