Neve-Echo-S-4B-GGUF / README.md
Etamus's picture
Update README.md
127685a verified
metadata
library_name: transformers
license: apache-2.0
license_link: https://ai.google.dev/gemma/docs/gemma_4_license
pipeline_tag: image-text-to-text
base_model: google/gemma-4-E4B-it
tags:
  - NeveAI
  - Neve
  - EchoS

Neve-Echo-S-4B-GGUF

## Introdução

O Neve Echo S é um modelo de linguagem de última geração focado em uso geral e raciocínio para tarefas rápidas. Esta versão em formato GGUF foi otimizada pela NeveAI para oferecer o equilíbrio ideal entre precisão lógica e eficiência computacional.


Destaques do Modelo

Este modelo foi desenvolvido para uso geral e execução de tarefas diversas, focando em:

  • Raciocínio Avançado (Thinking): Projetado como um modelo altamente capaz de raciocínio, com suporte a modos de pensamento estruturado para tarefas complexas.
  • Uso Geral e Produtividade: Otimizado para uma ampla variedade de tarefas como geração de texto, assistência, explicações, planejamento e automação.
  • Multimodalidade (Texto + Imagem): Capaz de processar entradas multimodais com suporte a diferentes resoluções e proporções.
  • Tool Calling e System Prompt: Suporte nativo a chamadas de função e ao papel system, permitindo maior controle e integração com ferramentas externas.

Benchmark de Performance

O Neve Echo 4 demonstra desempenho alinhado a modelos de ponta em múltiplas categorias:

Categoria Benchmark Gemma 4 31B Gemma 4 26B A4B Neve Echo S
Knowledge MMLU Pro 85.2% 82.6% 69.4%
Reasoning GPQA Diamond 84.3% 82.3% 58.6%
Math AIME 2026 89.2% 88.3% 42.5%
General BigBench Extra Hard 74.4% 64.8% 33.1%

Detalhes da Arquitetura

  • Arquitetura: Mixture of Experts (MoE) com atenção híbrida (local + global intercalado).
  • Parâmetros: ~4B totais (com subset ativo por token para eficiência).
  • Janela de Contexto: Até 256K tokens.
  • Camadas: Arquitetura profunda com atenção global na camada final.
  • MoE: Roteamento dinâmico de experts (subset ativo por inferência), otimizando performance e uso de memória.

Como utilizar (GGUF)

Este modelo é compatível com llama.cpp, Ollama, LM Studio e outras ferramentas que suportam o formato GGUF. Foco direcionado ao uso do modelo na plataforma autoral da organização NeveAI

Licença

Este repositório e os pesos do modelo estão licenciados sob a Licença Apache 2.0.

Contato

Se tiver qualquer dúvida, por favor, levante um issue ou entre em contato conosco em NeveIA.