---
library_name: transformers
license: apache-2.0
pipeline_tag: text-generation
base_model:
- zai-org/GLM-4.7-Flash
tags:
- NeveAI
- Neve
- Strata
---
Neve-Strata-4-30B-GGUF
## Introdução
O **Neve Strata 4** é um modelo de linguagem de última geração focado em **programação e raciocínio para códigos robustos**. Esta versão em formato GGUF foi otimizada pela NeveAI para oferecer o equilíbrio ideal entre precisão lógica e eficiência computacional.
---
## Destaques do Modelo
Este modelo foi desenvolvido para uso geral e execução de tarefas diversas, focando em:
* **Raciocínio Avançado (Thinking):** Forte desempenho em tarefas de lógica, matemática e tomada de decisão, mantendo consistência em cenários complexos.
* **Uso Geral e Produtividade:** Adaptado para aplicações amplas como assistência, geração de conteúdo, análise e automação de tarefas.
* **Generalização Robusta:** Equilibrado entre múltiplas áreas (knowledge, reasoning e tarefas práticas), garantindo desempenho estável em diferentes tipos de input.
* **Tool Calling:** Capacidade eficiente de integração com ferramentas externas e execução de fluxos automatizados.
## Benchmark de Performance
O Strata 4 demonstra desempenho competitivo em benchmarks modernos de raciocínio e tarefas gerais:
| Categoria | Benchmark | Neve Strata 4 | Qwen3-30B-A3B-Thinking-2507 | GPT-OSS-20B |
| :--- | :--- | :---: | :---: | :---: |
| **Math** | AIME 25 | **91.6** | 85.0 | 91.7 |
| **Reasoning** | GPQA | **75.2** | 73.4 | 71.5 |
| **General** | LCB v6 | 64.0 | **66.0** | 61.0 |
| **Reasoning** | HLE | **14.4** | 9.8 | 10.9 |
| **Agentic Tasks** | SWE-bench Verified | **59.2** | 22.0 | 34.0 |
| **Tool Use** | τ²-Bench | **79.5** | 49.0 | 47.7 |
| **Web/Knowledge** | BrowseComp | **42.8** | 2.29 | 28.3 |
---
## Detalhes da Arquitetura
- **Arquitetura:** Transformer otimizado para raciocínio e tarefas gerais.
- **Parâmetros:** Classe ~20B–30B (otimizado para eficiência vs desempenho).
- **Janela de Contexto:** Suporte a long context para tarefas extensas.
- **Foco:** Balanceamento entre reasoning, tool use e tarefas do mundo real.
- **Inferência:** Compatível com frameworks modernos como vLLM e SGLang.
## Como utilizar (GGUF)
Este modelo é compatível com `llama.cpp`, `Ollama`, `LM Studio` e outras ferramentas que suportam o formato GGUF.
Foco direcionado ao uso do modelo na plataforma autoral da organização [NeveAI](https://github.com/Etamus/NeveAI)
## Licença
Este repositório e os pesos do modelo estão licenciados sob a [Licença Apache 2.0](LICENSE).
## Contato
Se tiver qualquer dúvida, por favor, levante um issue ou entre em contato conosco em [NeveIA](https://github.com/NeveIA).