Etamus commited on
Commit
9f05851
·
verified ·
1 Parent(s): 553c2a2

Update README.md

Browse files
Files changed (1) hide show
  1. README.md +60 -3
README.md CHANGED
@@ -7,8 +7,65 @@ base_model:
7
  - Qwen/Qwen3.6-35B-A3B
8
  tags:
9
  - NeveAI
10
- - NeveStrata
11
- - NeveX
12
  ---
13
 
14
- Teste
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
7
  - Qwen/Qwen3.6-35B-A3B
8
  tags:
9
  - NeveAI
10
+ - Neve
11
+ - StrataX
12
  ---
13
 
14
+ ![logo](https://cdn-uploads.huggingface.co/production/uploads/68a3ba234a7dfca33d72eee2/X8yT_bs-SBFl26VTGdoIY.png)
15
+
16
+ <h1 align="center">Neve-Strata-X2-GGUF</h1>
17
+
18
+ <div style="display: flex; justify-content: center; gap: 5px; align-items: center; margin-bottom: 20px;">
19
+ <a href="https://github.com/NeveAI">
20
+ <img src="https://img.shields.io/badge/NeveAI-Organization-blue?style=for-the-badge&logo=github" alt="NeveAI GitHub">
21
+ </a>
22
+ </div>
23
+
24
+ ## Introdução
25
+
26
+ O **Neve Strata X2** é um modelo de linguagem de última geração focado em **programação e raciocínio para arquiteturas complexas**. Esta versão em formato GGUF foi otimizada pela NeveAI para oferecer o equilíbrio ideal entre precisão lógica e eficiência computacional.
27
+
28
+ ---
29
+
30
+ ## Destaques do Modelo
31
+
32
+ Este modelo foi desenvolvido para desenvolvedores que exigem mais do que simples geração de código, focando em:
33
+
34
+ * **Agentic Coding:** Otimizado para agir como um agente autônomo, lidando com fluxos de trabalho de frontend e raciocínio em nível de repositório completo.
35
+ * **Thinking Preservation:** Implementação avançada para reter o contexto de raciocínio histórico, permitindo que a IA "lembre" da lógica estrutural em conversas longas.
36
+ * **Developer Role Support:** Ajustado especificamente para suporte a funções de desenvolvedor em ambientes como Codex e OpenCode.
37
+ * **Tool Calling:** Precisão aprimorada no parsing de objetos aninhados para chamadas de ferramentas complexas.
38
+
39
+ ## Benchmark de Performance
40
+
41
+ O Neve Strata X2 demonstra resultados consistentes em benchmarks de elite para codificação e STEM:
42
+
43
+ | Categoria | Benchmark | Neve-Strata-X2 | Qwen3.5-35B | Gemma4-31B |
44
+ | :--- | :--- | :---: | :---: | :---: |
45
+ | **Coding** | SWE-bench Verified | **73.4** | 70.0 | 52.0 |
46
+ | **STEM** | AIME 26 | **92.7** | 91.0 | 89.2 |
47
+ | **Reasoning** | GPQA | **86.0** | 84.2 | 84.3 |
48
+ | **Knowledge** | MMLU-Redux | **93.3** | 93.3 | 93.7 |
49
+
50
+ ---
51
+
52
+ ## Detalhes da Arquitetura
53
+
54
+ - **Arquitetura:** Mixture of Experts (MoE) com Gated DeltaNet.
55
+ - **Parâmetros:** 35B totais (apenas 3B ativos por token, garantindo velocidade).
56
+ - **Janela de Contexto:** 262.144 tokens nativos (extensível até 1.010.000).
57
+ - **Camadas:** 40 camadas com Hidden Dimension de 2048.
58
+ - **MoE:** 256 experts (8 roteados + 1 compartilhado).
59
+
60
+ ## Como utilizar (GGUF)
61
+
62
+ Este modelo é compatível com `llama.cpp`, `Ollama`, `LM Studio` e outras ferramentas que suportam o formato GGUF.
63
+ Foco direcionado ao uso do modelo na plataforma autoral da organização [NeveAI](https://github.com/Etamus/NeveAI)
64
+
65
+ ## Licença
66
+
67
+ Este repositório e os pesos do modelo estão licenciados sob a [Licença Apache 2.0](LICENSE).
68
+
69
+ ## Contato
70
+
71
+ Se tiver qualquer dúvida, por favor, levante um issue ou entre em contato conosco em [https://github.com/NeveIA](https://github.com/NeveIA).