--- library_name: transformers license: apache-2.0 license_link: https://huggingface.co/Qwen/Qwen3.6-35B-A3B/blob/main/LICENSE pipeline_tag: text-generation base_model: - Qwen/Qwen3.6-35B-A3B tags: - NeveAI - Neve - StrataX ---

Neve-Strata-X2-35B-GGUF

NeveAI GitHub
## Introdução O **Neve Strata X2** é um modelo de linguagem de última geração focado em **programação e raciocínio para arquiteturas complexas**. Esta versão em formato GGUF foi otimizada pela NeveAI para oferecer o equilíbrio ideal entre precisão lógica e eficiência computacional. --- ## Destaques do Modelo Este modelo foi desenvolvido para desenvolvedores que exigem mais do que simples geração de código, focando em: * **Agentic Coding:** Otimizado para agir como um agente autônomo, lidando com fluxos de trabalho de frontend e raciocínio em nível de repositório completo. * **Thinking Preservation:** Implementação avançada para reter o contexto de raciocínio histórico, permitindo que a IA "lembre" da lógica estrutural em conversas longas. * **Developer Role Support:** Ajustado especificamente para suporte a funções de desenvolvedor em ambientes como Codex e OpenCode. * **Tool Calling:** Precisão aprimorada no parsing de objetos aninhados para chamadas de ferramentas complexas. ## Benchmark de Performance O Neve Strata X2 demonstra resultados consistentes em benchmarks de elite para codificação e STEM: | Categoria | Benchmark | Neve-Strata-X2 | Qwen3.5-35B | Gemma4-31B | | :--- | :--- | :---: | :---: | :---: | | **Coding** | SWE-bench Verified | **73.4** | 70.0 | 52.0 | | **STEM** | AIME 26 | **92.7** | 91.0 | 89.2 | | **Reasoning** | GPQA | **86.0** | 84.2 | 84.3 | | **Knowledge** | MMLU-Redux | **93.3** | 93.3 | 93.7 | --- ## Detalhes da Arquitetura - **Arquitetura:** Mixture of Experts (MoE) com Gated DeltaNet. - **Parâmetros:** 35B totais (apenas 3B ativos por token, garantindo velocidade). - **Janela de Contexto:** 262.144 tokens nativos (extensível até 1.010.000). - **Camadas:** 40 camadas com Hidden Dimension de 2048. - **MoE:** 256 experts (8 roteados + 1 compartilhado). ## Como utilizar (GGUF) Este modelo é compatível com `llama.cpp`, `Ollama`, `LM Studio` e outras ferramentas que suportam o formato GGUF. Foco direcionado ao uso do modelo na plataforma autoral da organização [NeveAI](https://github.com/Etamus/NeveAI) ## Licença Este repositório e os pesos do modelo estão licenciados sob a [Licença Apache 2.0](LICENSE). ## Contato Se tiver qualquer dúvida, por favor, levante um issue ou entre em contato conosco em [NeveIA](https://github.com/NeveIA).