Install from WinGet (Windows)
winget install llama.cpp
# Start a local OpenAI-compatible server with a web UI:
llama-server -hf NeveAI/Neve-Sense-2-20B-GGUF:Q4_K_XL# Run inference directly in the terminal:
llama-cli -hf NeveAI/Neve-Sense-2-20B-GGUF:Q4_K_XLUse pre-built binary
# Download pre-built binary from:
# https://github.com/ggerganov/llama.cpp/releases# Start a local OpenAI-compatible server with a web UI:
./llama-server -hf NeveAI/Neve-Sense-2-20B-GGUF:Q4_K_XL# Run inference directly in the terminal:
./llama-cli -hf NeveAI/Neve-Sense-2-20B-GGUF:Q4_K_XLBuild from source code
git clone https://github.com/ggerganov/llama.cpp.git
cd llama.cpp
cmake -B build
cmake --build build -j --target llama-server llama-cli# Start a local OpenAI-compatible server with a web UI:
./build/bin/llama-server -hf NeveAI/Neve-Sense-2-20B-GGUF:Q4_K_XL# Run inference directly in the terminal:
./build/bin/llama-cli -hf NeveAI/Neve-Sense-2-20B-GGUF:Q4_K_XLUse Docker
docker model run hf.co/NeveAI/Neve-Sense-2-20B-GGUF:Q4_K_XL
Neve-Sense-2-20B-GGUF
IntroduΓ§Γ£o
O Neve Sense 2 Γ© um modelo de linguagem de ΓΊltima geraΓ§Γ£o focado em anΓ‘lise e resumo para documentos complexos. Esta versΓ£o em formato GGUF foi otimizada pela NeveAI para oferecer o equilΓbrio ideal entre precisΓ£o lΓ³gica e eficiΓͺncia computacional.
Destaques do Modelo
Este modelo foi desenvolvido para uso geral e execuΓ§Γ£o de tarefas diversas, focando em:
- RaciocΓnio ConfigurΓ‘vel: Permite ajuste dinΓ’mico do nΓvel de raciocΓnio (baixo, mΓ©dio, alto), equilibrando performance e latΓͺncia conforme o uso.
- Capacidades Agentic: Suporte nativo para function calling, execuΓ§Γ£o de cΓ³digo e integraΓ§Γ£o com ferramentas externas.
- Fine-tuning FlexΓvel: Totalmente adaptΓ‘vel para casos especΓficos atravΓ©s de fine-tuning.
- EficiΓͺncia e ExecuΓ§Γ£o Local: Projetado para rodar em ambientes com recursos limitados, mantendo alta performance.
Benchmark de Performance
O Neve Sense 2 apresenta desempenho competitivo em tarefas de raciocΓnio, execuΓ§Γ£o e uso de ferramentas:
| Categoria | Benchmark | Neve Sense 2 | GPT-OSS-120B |
|---|---|---|---|
| Reasoning | GPQA | 71.5 | 80.0+ |
| Math | AIME | 91.7 | 92.0+ |
| Agentic Tasks | SWE-bench | 34.0 | 50.0+ |
| Tool Use | ΟΒ²-Bench | 47.7 | 70.0+ |
| General | HLE | 10.9 | 15.0+ |
Detalhes da Arquitetura
- Arquitetura: Mixture of Experts (MoE) otimizada para eficiΓͺncia.
- ParΓ’metros:
21B totais (3.6B ativos por token). - QuantizaΓ§Γ£o: MXFP4 nativa com upcasting para maior precisΓ£o.
- ExecuΓ§Γ£o: CompatΓvel com ambientes locais (~16GB VRAM).
- Capacidades: Suporte a reasoning avanΓ§ado, tool use e execuΓ§Γ£o de tarefas complexas.
Como utilizar (GGUF)
Este modelo Γ© compatΓvel com llama.cpp, Ollama, LM Studio e outras ferramentas que suportam o formato GGUF.
Foco direcionado ao uso do modelo na plataforma autoral da organizaΓ§Γ£o NeveAI
LicenΓ§a
Este repositΓ³rio e os pesos do modelo estΓ£o licenciados sob a LicenΓ§a Apache 2.0.
Contato
Se tiver qualquer dΓΊvida, por favor, levante um issue ou entre em contato conosco em NeveIA.
- Downloads last month
- 236
4-bit
Model tree for NeveAI/Neve-Sense-2-20B-GGUF
Base model
openai/gpt-oss-20b
Install from brew
# Start a local OpenAI-compatible server with a web UI: llama-server -hf NeveAI/Neve-Sense-2-20B-GGUF:Q4_K_XL# Run inference directly in the terminal: llama-cli -hf NeveAI/Neve-Sense-2-20B-GGUF:Q4_K_XL