Neve-Strata-4-30B-GGUF

Introdução

O Neve Strata 4 é um modelo de linguagem de última geração focado em programação e raciocínio para códigos robustos. Esta versão em formato GGUF foi otimizada pela NeveAI para oferecer o equilíbrio ideal entre precisão lógica e eficiência computacional.


Destaques do Modelo

Este modelo foi desenvolvido para uso geral e execução de tarefas diversas, focando em:

  • Raciocínio Avançado (Thinking): Forte desempenho em tarefas de lógica, matemática e tomada de decisão, mantendo consistência em cenários complexos.
  • Uso Geral e Produtividade: Adaptado para aplicações amplas como assistência, geração de conteúdo, análise e automação de tarefas.
  • Generalização Robusta: Equilibrado entre múltiplas áreas (knowledge, reasoning e tarefas práticas), garantindo desempenho estável em diferentes tipos de input.
  • Tool Calling: Capacidade eficiente de integração com ferramentas externas e execução de fluxos automatizados.

Benchmark de Performance

O Strata 4 demonstra desempenho competitivo em benchmarks modernos de raciocínio e tarefas gerais:

Categoria Benchmark Neve Strata 4 Qwen3-30B-A3B-Thinking-2507 GPT-OSS-20B
Math AIME 25 91.6 85.0 91.7
Reasoning GPQA 75.2 73.4 71.5
General LCB v6 64.0 66.0 61.0
Reasoning HLE 14.4 9.8 10.9
Agentic Tasks SWE-bench Verified 59.2 22.0 34.0
Tool Use τ²-Bench 79.5 49.0 47.7
Web/Knowledge BrowseComp 42.8 2.29 28.3

Detalhes da Arquitetura

  • Arquitetura: Transformer otimizado para raciocínio e tarefas gerais.
  • Parâmetros: Classe ~20B–30B (otimizado para eficiência vs desempenho).
  • Janela de Contexto: Suporte a long context para tarefas extensas.
  • Foco: Balanceamento entre reasoning, tool use e tarefas do mundo real.
  • Inferência: Compatível com frameworks modernos como vLLM e SGLang.

Como utilizar (GGUF)

Este modelo é compatível com llama.cpp, Ollama, LM Studio e outras ferramentas que suportam o formato GGUF. Foco direcionado ao uso do modelo na plataforma autoral da organização NeveAI

Licença

Este repositório e os pesos do modelo estão licenciados sob a Licença Apache 2.0.

Contato

Se tiver qualquer dúvida, por favor, levante um issue ou entre em contato conosco em NeveIA.

Downloads last month
213
GGUF
Model size
30B params
Architecture
deepseek2
Hardware compatibility
Log In to add your hardware

4-bit

Inference Providers NEW
This model isn't deployed by any Inference Provider. 🙋 Ask for provider support

Model tree for NeveAI/Neve-Strata-4-30B-GGUF

Quantized
(84)
this model

Collection including NeveAI/Neve-Strata-4-30B-GGUF