File size: 3,169 Bytes
083a89e 3fc4f80 083a89e 3fc4f80 083a89e 3fc4f80 083a89e | 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 46 47 48 49 50 51 52 53 54 55 56 57 58 59 60 61 62 63 64 65 66 67 68 69 70 71 72 73 74 75 | ---
library_name: transformers
license: apache-2.0
pipeline_tag: text-generation
base_model:
- zai-org/GLM-4.7-Flash
tags:
- NeveAI
- Neve
- Strata
---
<div align="center">
<img src="https://cdn-uploads.huggingface.co/production/uploads/68a3ba234a7dfca33d72eee2/BG71IO9zlNcw4eTRYKZzO.png" width="50%">
</div>
<h1 align="center">Neve-Strata-4-30B-GGUF</h1>
<div align="center">
<a href="https://github.com/NeveIA">
<img src="https://cdn-uploads.huggingface.co/production/uploads/68a3ba234a7dfca33d72eee2/KQa7-ajynUAhTS-kxNtYT.png" width="20%" alt="NeveAI GitHub">
</a>
</div>
## Introdução
O **Neve Strata 4** é um modelo de linguagem de última geração focado em **programação e raciocínio para códigos robustos**. Esta versão em formato GGUF foi otimizada pela NeveAI para oferecer o equilíbrio ideal entre precisão lógica e eficiência computacional.
---
## Destaques do Modelo
Este modelo foi desenvolvido para uso geral e execução de tarefas diversas, focando em:
* **Raciocínio Avançado (Thinking):** Forte desempenho em tarefas de lógica, matemática e tomada de decisão, mantendo consistência em cenários complexos.
* **Uso Geral e Produtividade:** Adaptado para aplicações amplas como assistência, geração de conteúdo, análise e automação de tarefas.
* **Generalização Robusta:** Equilibrado entre múltiplas áreas (knowledge, reasoning e tarefas práticas), garantindo desempenho estável em diferentes tipos de input.
* **Tool Calling:** Capacidade eficiente de integração com ferramentas externas e execução de fluxos automatizados.
## Benchmark de Performance
O Strata 4 demonstra desempenho competitivo em benchmarks modernos de raciocínio e tarefas gerais:
| Categoria | Benchmark | Neve Strata 4 | Qwen3-30B-A3B-Thinking-2507 | GPT-OSS-20B |
| :--- | :--- | :---: | :---: | :---: |
| **Math** | AIME 25 | **91.6** | 85.0 | 91.7 |
| **Reasoning** | GPQA | **75.2** | 73.4 | 71.5 |
| **General** | LCB v6 | 64.0 | **66.0** | 61.0 |
| **Reasoning** | HLE | **14.4** | 9.8 | 10.9 |
| **Agentic Tasks** | SWE-bench Verified | **59.2** | 22.0 | 34.0 |
| **Tool Use** | τ²-Bench | **79.5** | 49.0 | 47.7 |
| **Web/Knowledge** | BrowseComp | **42.8** | 2.29 | 28.3 |
---
## Detalhes da Arquitetura
- **Arquitetura:** Transformer otimizado para raciocínio e tarefas gerais.
- **Parâmetros:** Classe ~20B–30B (otimizado para eficiência vs desempenho).
- **Janela de Contexto:** Suporte a long context para tarefas extensas.
- **Foco:** Balanceamento entre reasoning, tool use e tarefas do mundo real.
- **Inferência:** Compatível com frameworks modernos como vLLM e SGLang.
## Como utilizar (GGUF)
Este modelo é compatível com `llama.cpp`, `Ollama`, `LM Studio` e outras ferramentas que suportam o formato GGUF.
Foco direcionado ao uso do modelo na plataforma autoral da organização [NeveAI](https://github.com/Etamus/NeveAI)
## Licença
Este repositório e os pesos do modelo estão licenciados sob a [Licença Apache 2.0](LICENSE).
## Contato
Se tiver qualquer dúvida, por favor, levante um issue ou entre em contato conosco em [NeveIA](https://github.com/NeveIA). |