Install from WinGet (Windows)
winget install llama.cpp
# Start a local OpenAI-compatible server with a web UI:
llama-server -hf NeveAI/Neve-Strata-4-30B-GGUF:Q4_K_XL# Run inference directly in the terminal:
llama-cli -hf NeveAI/Neve-Strata-4-30B-GGUF:Q4_K_XLUse pre-built binary
# Download pre-built binary from:
# https://github.com/ggerganov/llama.cpp/releases# Start a local OpenAI-compatible server with a web UI:
./llama-server -hf NeveAI/Neve-Strata-4-30B-GGUF:Q4_K_XL# Run inference directly in the terminal:
./llama-cli -hf NeveAI/Neve-Strata-4-30B-GGUF:Q4_K_XLBuild from source code
git clone https://github.com/ggerganov/llama.cpp.git
cd llama.cpp
cmake -B build
cmake --build build -j --target llama-server llama-cli# Start a local OpenAI-compatible server with a web UI:
./build/bin/llama-server -hf NeveAI/Neve-Strata-4-30B-GGUF:Q4_K_XL# Run inference directly in the terminal:
./build/bin/llama-cli -hf NeveAI/Neve-Strata-4-30B-GGUF:Q4_K_XLUse Docker
docker model run hf.co/NeveAI/Neve-Strata-4-30B-GGUF:Q4_K_XL
Neve-Strata-4-30B-GGUF
Introdução
O Neve Strata 4 é um modelo de linguagem de última geração focado em programação e raciocínio para códigos robustos. Esta versão em formato GGUF foi otimizada pela NeveAI para oferecer o equilíbrio ideal entre precisão lógica e eficiência computacional.
Destaques do Modelo
Este modelo foi desenvolvido para uso geral e execução de tarefas diversas, focando em:
- Raciocínio Avançado (Thinking): Forte desempenho em tarefas de lógica, matemática e tomada de decisão, mantendo consistência em cenários complexos.
- Uso Geral e Produtividade: Adaptado para aplicações amplas como assistência, geração de conteúdo, análise e automação de tarefas.
- Generalização Robusta: Equilibrado entre múltiplas áreas (knowledge, reasoning e tarefas práticas), garantindo desempenho estável em diferentes tipos de input.
- Tool Calling: Capacidade eficiente de integração com ferramentas externas e execução de fluxos automatizados.
Benchmark de Performance
O Strata 4 demonstra desempenho competitivo em benchmarks modernos de raciocínio e tarefas gerais:
| Categoria | Benchmark | Neve Strata 4 | Qwen3-30B-A3B-Thinking-2507 | GPT-OSS-20B |
|---|---|---|---|---|
| Math | AIME 25 | 91.6 | 85.0 | 91.7 |
| Reasoning | GPQA | 75.2 | 73.4 | 71.5 |
| General | LCB v6 | 64.0 | 66.0 | 61.0 |
| Reasoning | HLE | 14.4 | 9.8 | 10.9 |
| Agentic Tasks | SWE-bench Verified | 59.2 | 22.0 | 34.0 |
| Tool Use | τ²-Bench | 79.5 | 49.0 | 47.7 |
| Web/Knowledge | BrowseComp | 42.8 | 2.29 | 28.3 |
Detalhes da Arquitetura
- Arquitetura: Transformer otimizado para raciocínio e tarefas gerais.
- Parâmetros: Classe ~20B–30B (otimizado para eficiência vs desempenho).
- Janela de Contexto: Suporte a long context para tarefas extensas.
- Foco: Balanceamento entre reasoning, tool use e tarefas do mundo real.
- Inferência: Compatível com frameworks modernos como vLLM e SGLang.
Como utilizar (GGUF)
Este modelo é compatível com llama.cpp, Ollama, LM Studio e outras ferramentas que suportam o formato GGUF.
Foco direcionado ao uso do modelo na plataforma autoral da organização NeveAI
Licença
Este repositório e os pesos do modelo estão licenciados sob a Licença Apache 2.0.
Contato
Se tiver qualquer dúvida, por favor, levante um issue ou entre em contato conosco em NeveIA.
- Downloads last month
- 248
4-bit
Model tree for NeveAI/Neve-Strata-4-30B-GGUF
Base model
zai-org/GLM-4.7-Flash
Install from brew
# Start a local OpenAI-compatible server with a web UI: llama-server -hf NeveAI/Neve-Strata-4-30B-GGUF:Q4_K_XL# Run inference directly in the terminal: llama-cli -hf NeveAI/Neve-Strata-4-30B-GGUF:Q4_K_XL