Neve-Sense-2-20B-GGUF

IntroduΓ§Γ£o

O Neve Sense 2 Γ© um modelo de linguagem de ΓΊltima geraΓ§Γ£o focado em anΓ‘lise e resumo para documentos complexos. Esta versΓ£o em formato GGUF foi otimizada pela NeveAI para oferecer o equilΓ­brio ideal entre precisΓ£o lΓ³gica e eficiΓͺncia computacional.


Destaques do Modelo

Este modelo foi desenvolvido para uso geral e execuΓ§Γ£o de tarefas diversas, focando em:

  • RaciocΓ­nio ConfigurΓ‘vel: Permite ajuste dinΓ’mico do nΓ­vel de raciocΓ­nio (baixo, mΓ©dio, alto), equilibrando performance e latΓͺncia conforme o uso.
  • Capacidades Agentic: Suporte nativo para function calling, execuΓ§Γ£o de cΓ³digo e integraΓ§Γ£o com ferramentas externas.
  • Fine-tuning FlexΓ­vel: Totalmente adaptΓ‘vel para casos especΓ­ficos atravΓ©s de fine-tuning.
  • EficiΓͺncia e ExecuΓ§Γ£o Local: Projetado para rodar em ambientes com recursos limitados, mantendo alta performance.

Benchmark de Performance

O Neve Sense 2 apresenta desempenho competitivo em tarefas de raciocΓ­nio, execuΓ§Γ£o e uso de ferramentas:

Categoria Benchmark Neve Sense 2 GPT-OSS-120B
Reasoning GPQA 71.5 80.0+
Math AIME 91.7 92.0+
Agentic Tasks SWE-bench 34.0 50.0+
Tool Use τ²-Bench 47.7 70.0+
General HLE 10.9 15.0+

Detalhes da Arquitetura

  • Arquitetura: Mixture of Experts (MoE) otimizada para eficiΓͺncia.
  • ParΓ’metros: 21B totais (3.6B ativos por token).
  • QuantizaΓ§Γ£o: MXFP4 nativa com upcasting para maior precisΓ£o.
  • ExecuΓ§Γ£o: CompatΓ­vel com ambientes locais (~16GB VRAM).
  • Capacidades: Suporte a reasoning avanΓ§ado, tool use e execuΓ§Γ£o de tarefas complexas.

Como utilizar (GGUF)

Este modelo Γ© compatΓ­vel com llama.cpp, Ollama, LM Studio e outras ferramentas que suportam o formato GGUF. Foco direcionado ao uso do modelo na plataforma autoral da organizaΓ§Γ£o NeveAI

LicenΓ§a

Este repositΓ³rio e os pesos do modelo estΓ£o licenciados sob a LicenΓ§a Apache 2.0.

Contato

Se tiver qualquer dΓΊvida, por favor, levante um issue ou entre em contato conosco em NeveIA.

Downloads last month
236
GGUF
Model size
21B params
Architecture
gpt-oss
Hardware compatibility
Log In to add your hardware

4-bit

Inference Providers NEW
This model isn't deployed by any Inference Provider. πŸ™‹ Ask for provider support

Model tree for NeveAI/Neve-Sense-2-20B-GGUF

Quantized
(203)
this model

Collection including NeveAI/Neve-Sense-2-20B-GGUF