How to use from
SGLang
Install from pip and serve model
# Install SGLang from pip:
pip install sglang
# Start the SGLang server:
python3 -m sglang.launch_server \
    --model-path "NeveAI/Neve-Strata-X2-35B-GGUF" \
    --host 0.0.0.0 \
    --port 30000
# Call the server using curl (OpenAI-compatible API):
curl -X POST "http://localhost:30000/v1/chat/completions" \
	-H "Content-Type: application/json" \
	--data '{
		"model": "NeveAI/Neve-Strata-X2-35B-GGUF",
		"messages": [
			{
				"role": "user",
				"content": "What is the capital of France?"
			}
		]
	}'
Use Docker images
docker run --gpus all \
    --shm-size 32g \
    -p 30000:30000 \
    -v ~/.cache/huggingface:/root/.cache/huggingface \
    --env "HF_TOKEN=<secret>" \
    --ipc=host \
    lmsysorg/sglang:latest \
    python3 -m sglang.launch_server \
        --model-path "NeveAI/Neve-Strata-X2-35B-GGUF" \
        --host 0.0.0.0 \
        --port 30000
# Call the server using curl (OpenAI-compatible API):
curl -X POST "http://localhost:30000/v1/chat/completions" \
	-H "Content-Type: application/json" \
	--data '{
		"model": "NeveAI/Neve-Strata-X2-35B-GGUF",
		"messages": [
			{
				"role": "user",
				"content": "What is the capital of France?"
			}
		]
	}'
Quick Links

Neve-Strata-X2-35B-GGUF

Introdução

O Neve Strata X2 é um modelo de linguagem de última geração focado em programação e raciocínio para arquiteturas complexas. Esta versão em formato GGUF foi otimizada pela NeveAI para oferecer o equilíbrio ideal entre precisão lógica e eficiência computacional.


Destaques do Modelo

Este modelo foi desenvolvido para desenvolvedores que exigem mais do que simples geração de código, focando em:

  • Agentic Coding: Otimizado para agir como um agente autônomo, lidando com fluxos de trabalho de frontend e raciocínio em nível de repositório completo.
  • Thinking Preservation: Implementação avançada para reter o contexto de raciocínio histórico, permitindo que a IA "lembre" da lógica estrutural em conversas longas.
  • Developer Role Support: Ajustado especificamente para suporte a funções de desenvolvedor em ambientes como Codex e OpenCode.
  • Tool Calling: Precisão aprimorada no parsing de objetos aninhados para chamadas de ferramentas complexas.

Benchmark de Performance

O Neve Strata X2 demonstra resultados consistentes em benchmarks de elite para codificação e STEM:

Categoria Benchmark Neve-Strata-X2 Qwen3.5-35B Gemma4-31B
Coding SWE-bench Verified 73.4 70.0 52.0
STEM AIME 26 92.7 91.0 89.2
Reasoning GPQA 86.0 84.2 84.3
Knowledge MMLU-Redux 93.3 93.3 93.7

Detalhes da Arquitetura

  • Arquitetura: Mixture of Experts (MoE) com Gated DeltaNet.
  • Parâmetros: 35B totais (apenas 3B ativos por token, garantindo velocidade).
  • Janela de Contexto: 262.144 tokens nativos (extensível até 1.010.000).
  • Camadas: 40 camadas com Hidden Dimension de 2048.
  • MoE: 256 experts (8 roteados + 1 compartilhado).

Como utilizar (GGUF)

Este modelo é compatível com llama.cpp, Ollama, LM Studio e outras ferramentas que suportam o formato GGUF. Foco direcionado ao uso do modelo na plataforma autoral da organização NeveAI

Licença

Este repositório e os pesos do modelo estão licenciados sob a Licença Apache 2.0.

Contato

Se tiver qualquer dúvida, por favor, levante um issue ou entre em contato conosco em NeveIA.

Downloads last month
243
GGUF
Model size
35B params
Architecture
qwen35moe
Hardware compatibility
Log In to add your hardware

4-bit

Inference Providers NEW
This model isn't deployed by any Inference Provider. 🙋 Ask for provider support

Model tree for NeveAI/Neve-Strata-X2-35B-GGUF

Quantized
(317)
this model

Collection including NeveAI/Neve-Strata-X2-35B-GGUF