How to use from
Unsloth Studio
Install Unsloth Studio (macOS, Linux, WSL)
curl -fsSL https://unsloth.ai/install.sh | sh
# Run unsloth studio
unsloth studio -H 0.0.0.0 -p 8888
# Then open http://localhost:8888 in your browser
# Search for NeveAI/Neve-Strata-4-30B-GGUF to start chatting
Install Unsloth Studio (Windows)
irm https://unsloth.ai/install.ps1 | iex
# Run unsloth studio
unsloth studio -H 0.0.0.0 -p 8888
# Then open http://localhost:8888 in your browser
# Search for NeveAI/Neve-Strata-4-30B-GGUF to start chatting
Using HuggingFace Spaces for Unsloth
# No setup required
# Open https://huggingface.co/spaces/unsloth/studio in your browser
# Search for NeveAI/Neve-Strata-4-30B-GGUF to start chatting
Quick Links

Neve-Strata-4-30B-GGUF

Introdução

O Neve Strata 4 é um modelo de linguagem de última geração focado em programação e raciocínio para códigos robustos. Esta versão em formato GGUF foi otimizada pela NeveAI para oferecer o equilíbrio ideal entre precisão lógica e eficiência computacional.


Destaques do Modelo

Este modelo foi desenvolvido para uso geral e execução de tarefas diversas, focando em:

  • Raciocínio Avançado (Thinking): Forte desempenho em tarefas de lógica, matemática e tomada de decisão, mantendo consistência em cenários complexos.
  • Uso Geral e Produtividade: Adaptado para aplicações amplas como assistência, geração de conteúdo, análise e automação de tarefas.
  • Generalização Robusta: Equilibrado entre múltiplas áreas (knowledge, reasoning e tarefas práticas), garantindo desempenho estável em diferentes tipos de input.
  • Tool Calling: Capacidade eficiente de integração com ferramentas externas e execução de fluxos automatizados.

Benchmark de Performance

O Strata 4 demonstra desempenho competitivo em benchmarks modernos de raciocínio e tarefas gerais:

Categoria Benchmark Neve Strata 4 Qwen3-30B-A3B-Thinking-2507 GPT-OSS-20B
Math AIME 25 91.6 85.0 91.7
Reasoning GPQA 75.2 73.4 71.5
General LCB v6 64.0 66.0 61.0
Reasoning HLE 14.4 9.8 10.9
Agentic Tasks SWE-bench Verified 59.2 22.0 34.0
Tool Use τ²-Bench 79.5 49.0 47.7
Web/Knowledge BrowseComp 42.8 2.29 28.3

Detalhes da Arquitetura

  • Arquitetura: Transformer otimizado para raciocínio e tarefas gerais.
  • Parâmetros: Classe ~20B–30B (otimizado para eficiência vs desempenho).
  • Janela de Contexto: Suporte a long context para tarefas extensas.
  • Foco: Balanceamento entre reasoning, tool use e tarefas do mundo real.
  • Inferência: Compatível com frameworks modernos como vLLM e SGLang.

Como utilizar (GGUF)

Este modelo é compatível com llama.cpp, Ollama, LM Studio e outras ferramentas que suportam o formato GGUF. Foco direcionado ao uso do modelo na plataforma autoral da organização NeveAI

Licença

Este repositório e os pesos do modelo estão licenciados sob a Licença Apache 2.0.

Contato

Se tiver qualquer dúvida, por favor, levante um issue ou entre em contato conosco em NeveIA.

Downloads last month
248
GGUF
Model size
30B params
Architecture
deepseek2
Hardware compatibility
Log In to add your hardware

4-bit

Inference Providers NEW
This model isn't deployed by any Inference Provider. 🙋 Ask for provider support

Model tree for NeveAI/Neve-Strata-4-30B-GGUF

Quantized
(84)
this model

Collection including NeveAI/Neve-Strata-4-30B-GGUF