Etamus's picture
Update README.md
f615093 verified
---
library_name: transformers
license: apache-2.0
license_link: https://huggingface.co/Qwen/Qwen3.6-35B-A3B/blob/main/LICENSE
pipeline_tag: text-generation
base_model:
- Qwen/Qwen3.6-35B-A3B
tags:
- NeveAI
- Neve
- StrataX
---
<div align="center">
<img src="https://cdn-uploads.huggingface.co/production/uploads/68a3ba234a7dfca33d72eee2/BG71IO9zlNcw4eTRYKZzO.png" width="50%">
</div>
<h1 align="center">Neve-Strata-X2-35B-GGUF</h1>
<div align="center">
<a href="https://github.com/NeveIA">
<img src="https://cdn-uploads.huggingface.co/production/uploads/68a3ba234a7dfca33d72eee2/KQa7-ajynUAhTS-kxNtYT.png" width="20%" alt="NeveAI GitHub">
</a>
</div>
## Introdução
O **Neve Strata X2** é um modelo de linguagem de última geração focado em **programação e raciocínio para arquiteturas complexas**. Esta versão em formato GGUF foi otimizada pela NeveAI para oferecer o equilíbrio ideal entre precisão lógica e eficiência computacional.
---
## Destaques do Modelo
Este modelo foi desenvolvido para desenvolvedores que exigem mais do que simples geração de código, focando em:
* **Agentic Coding:** Otimizado para agir como um agente autônomo, lidando com fluxos de trabalho de frontend e raciocínio em nível de repositório completo.
* **Thinking Preservation:** Implementação avançada para reter o contexto de raciocínio histórico, permitindo que a IA "lembre" da lógica estrutural em conversas longas.
* **Developer Role Support:** Ajustado especificamente para suporte a funções de desenvolvedor em ambientes como Codex e OpenCode.
* **Tool Calling:** Precisão aprimorada no parsing de objetos aninhados para chamadas de ferramentas complexas.
## Benchmark de Performance
O Neve Strata X2 demonstra resultados consistentes em benchmarks de elite para codificação e STEM:
| Categoria | Benchmark | Neve-Strata-X2 | Qwen3.5-35B | Gemma4-31B |
| :--- | :--- | :---: | :---: | :---: |
| **Coding** | SWE-bench Verified | **73.4** | 70.0 | 52.0 |
| **STEM** | AIME 26 | **92.7** | 91.0 | 89.2 |
| **Reasoning** | GPQA | **86.0** | 84.2 | 84.3 |
| **Knowledge** | MMLU-Redux | **93.3** | 93.3 | 93.7 |
---
## Detalhes da Arquitetura
- **Arquitetura:** Mixture of Experts (MoE) com Gated DeltaNet.
- **Parâmetros:** 35B totais (apenas 3B ativos por token, garantindo velocidade).
- **Janela de Contexto:** 262.144 tokens nativos (extensível até 1.010.000).
- **Camadas:** 40 camadas com Hidden Dimension de 2048.
- **MoE:** 256 experts (8 roteados + 1 compartilhado).
## Como utilizar (GGUF)
Este modelo é compatível com `llama.cpp`, `Ollama`, `LM Studio` e outras ferramentas que suportam o formato GGUF.
Foco direcionado ao uso do modelo na plataforma autoral da organização [NeveAI](https://github.com/Etamus/NeveAI)
## Licença
Este repositório e os pesos do modelo estão licenciados sob a [Licença Apache 2.0](LICENSE).
## Contato
Se tiver qualquer dúvida, por favor, levante um issue ou entre em contato conosco em [NeveIA](https://github.com/NeveIA).