--- library_name: transformers license: apache-2.0 pipeline_tag: text-generation base_model: - zai-org/GLM-4.7-Flash tags: - NeveAI - Neve - Strata ---

Neve-Strata-4-30B-GGUF

NeveAI GitHub
## Introdução O **Neve Strata 4** é um modelo de linguagem de última geração focado em **programação e raciocínio para códigos robustos**. Esta versão em formato GGUF foi otimizada pela NeveAI para oferecer o equilíbrio ideal entre precisão lógica e eficiência computacional. --- ## Destaques do Modelo Este modelo foi desenvolvido para uso geral e execução de tarefas diversas, focando em: * **Raciocínio Avançado (Thinking):** Forte desempenho em tarefas de lógica, matemática e tomada de decisão, mantendo consistência em cenários complexos. * **Uso Geral e Produtividade:** Adaptado para aplicações amplas como assistência, geração de conteúdo, análise e automação de tarefas. * **Generalização Robusta:** Equilibrado entre múltiplas áreas (knowledge, reasoning e tarefas práticas), garantindo desempenho estável em diferentes tipos de input. * **Tool Calling:** Capacidade eficiente de integração com ferramentas externas e execução de fluxos automatizados. ## Benchmark de Performance O Strata 4 demonstra desempenho competitivo em benchmarks modernos de raciocínio e tarefas gerais: | Categoria | Benchmark | Neve Strata 4 | Qwen3-30B-A3B-Thinking-2507 | GPT-OSS-20B | | :--- | :--- | :---: | :---: | :---: | | **Math** | AIME 25 | **91.6** | 85.0 | 91.7 | | **Reasoning** | GPQA | **75.2** | 73.4 | 71.5 | | **General** | LCB v6 | 64.0 | **66.0** | 61.0 | | **Reasoning** | HLE | **14.4** | 9.8 | 10.9 | | **Agentic Tasks** | SWE-bench Verified | **59.2** | 22.0 | 34.0 | | **Tool Use** | τ²-Bench | **79.5** | 49.0 | 47.7 | | **Web/Knowledge** | BrowseComp | **42.8** | 2.29 | 28.3 | --- ## Detalhes da Arquitetura - **Arquitetura:** Transformer otimizado para raciocínio e tarefas gerais. - **Parâmetros:** Classe ~20B–30B (otimizado para eficiência vs desempenho). - **Janela de Contexto:** Suporte a long context para tarefas extensas. - **Foco:** Balanceamento entre reasoning, tool use e tarefas do mundo real. - **Inferência:** Compatível com frameworks modernos como vLLM e SGLang. ## Como utilizar (GGUF) Este modelo é compatível com `llama.cpp`, `Ollama`, `LM Studio` e outras ferramentas que suportam o formato GGUF. Foco direcionado ao uso do modelo na plataforma autoral da organização [NeveAI](https://github.com/Etamus/NeveAI) ## Licença Este repositório e os pesos do modelo estão licenciados sob a [Licença Apache 2.0](LICENSE). ## Contato Se tiver qualquer dúvida, por favor, levante um issue ou entre em contato conosco em [NeveIA](https://github.com/NeveIA).