Update README.md
Browse files
README.md
CHANGED
|
@@ -7,8 +7,65 @@ base_model:
|
|
| 7 |
- Qwen/Qwen3.6-35B-A3B
|
| 8 |
tags:
|
| 9 |
- NeveAI
|
| 10 |
-
-
|
| 11 |
-
-
|
| 12 |
---
|
| 13 |
|
| 14 |
-
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
| 7 |
- Qwen/Qwen3.6-35B-A3B
|
| 8 |
tags:
|
| 9 |
- NeveAI
|
| 10 |
+
- Neve
|
| 11 |
+
- StrataX
|
| 12 |
---
|
| 13 |
|
| 14 |
+

|
| 15 |
+
|
| 16 |
+
<h1 align="center">Neve-Strata-X2-GGUF</h1>
|
| 17 |
+
|
| 18 |
+
<div style="display: flex; justify-content: center; gap: 5px; align-items: center; margin-bottom: 20px;">
|
| 19 |
+
<a href="https://github.com/NeveAI">
|
| 20 |
+
<img src="https://img.shields.io/badge/NeveAI-Organization-blue?style=for-the-badge&logo=github" alt="NeveAI GitHub">
|
| 21 |
+
</a>
|
| 22 |
+
</div>
|
| 23 |
+
|
| 24 |
+
## Introdução
|
| 25 |
+
|
| 26 |
+
O **Neve Strata X2** é um modelo de linguagem de última geração focado em **programação e raciocínio para arquiteturas complexas**. Esta versão em formato GGUF foi otimizada pela NeveAI para oferecer o equilíbrio ideal entre precisão lógica e eficiência computacional.
|
| 27 |
+
|
| 28 |
+
---
|
| 29 |
+
|
| 30 |
+
## Destaques do Modelo
|
| 31 |
+
|
| 32 |
+
Este modelo foi desenvolvido para desenvolvedores que exigem mais do que simples geração de código, focando em:
|
| 33 |
+
|
| 34 |
+
* **Agentic Coding:** Otimizado para agir como um agente autônomo, lidando com fluxos de trabalho de frontend e raciocínio em nível de repositório completo.
|
| 35 |
+
* **Thinking Preservation:** Implementação avançada para reter o contexto de raciocínio histórico, permitindo que a IA "lembre" da lógica estrutural em conversas longas.
|
| 36 |
+
* **Developer Role Support:** Ajustado especificamente para suporte a funções de desenvolvedor em ambientes como Codex e OpenCode.
|
| 37 |
+
* **Tool Calling:** Precisão aprimorada no parsing de objetos aninhados para chamadas de ferramentas complexas.
|
| 38 |
+
|
| 39 |
+
## Benchmark de Performance
|
| 40 |
+
|
| 41 |
+
O Neve Strata X2 demonstra resultados consistentes em benchmarks de elite para codificação e STEM:
|
| 42 |
+
|
| 43 |
+
| Categoria | Benchmark | Neve-Strata-X2 | Qwen3.5-35B | Gemma4-31B |
|
| 44 |
+
| :--- | :--- | :---: | :---: | :---: |
|
| 45 |
+
| **Coding** | SWE-bench Verified | **73.4** | 70.0 | 52.0 |
|
| 46 |
+
| **STEM** | AIME 26 | **92.7** | 91.0 | 89.2 |
|
| 47 |
+
| **Reasoning** | GPQA | **86.0** | 84.2 | 84.3 |
|
| 48 |
+
| **Knowledge** | MMLU-Redux | **93.3** | 93.3 | 93.7 |
|
| 49 |
+
|
| 50 |
+
---
|
| 51 |
+
|
| 52 |
+
## Detalhes da Arquitetura
|
| 53 |
+
|
| 54 |
+
- **Arquitetura:** Mixture of Experts (MoE) com Gated DeltaNet.
|
| 55 |
+
- **Parâmetros:** 35B totais (apenas 3B ativos por token, garantindo velocidade).
|
| 56 |
+
- **Janela de Contexto:** 262.144 tokens nativos (extensível até 1.010.000).
|
| 57 |
+
- **Camadas:** 40 camadas com Hidden Dimension de 2048.
|
| 58 |
+
- **MoE:** 256 experts (8 roteados + 1 compartilhado).
|
| 59 |
+
|
| 60 |
+
## Como utilizar (GGUF)
|
| 61 |
+
|
| 62 |
+
Este modelo é compatível com `llama.cpp`, `Ollama`, `LM Studio` e outras ferramentas que suportam o formato GGUF.
|
| 63 |
+
Foco direcionado ao uso do modelo na plataforma autoral da organização [NeveAI](https://github.com/Etamus/NeveAI)
|
| 64 |
+
|
| 65 |
+
## Licença
|
| 66 |
+
|
| 67 |
+
Este repositório e os pesos do modelo estão licenciados sob a [Licença Apache 2.0](LICENSE).
|
| 68 |
+
|
| 69 |
+
## Contato
|
| 70 |
+
|
| 71 |
+
Se tiver qualquer dúvida, por favor, levante um issue ou entre em contato conosco em [https://github.com/NeveIA](https://github.com/NeveIA).
|