How to use from the
Use from the
llama-cpp-python library
# !pip install llama-cpp-python

from llama_cpp import Llama

llm = Llama.from_pretrained(
	repo_id="NeveAI/Neve-Strata-X2-35B-GGUF",
	filename="Neve-Strata-X2-35B-IQ4_K_XL.gguf",
)
llm.create_chat_completion(
	messages = [
		{
			"role": "user",
			"content": "What is the capital of France?"
		}
	]
)

Neve-Strata-X2-35B-GGUF

Introdução

O Neve Strata X2 é um modelo de linguagem de última geração focado em programação e raciocínio para arquiteturas complexas. Esta versão em formato GGUF foi otimizada pela NeveAI para oferecer o equilíbrio ideal entre precisão lógica e eficiência computacional.


Destaques do Modelo

Este modelo foi desenvolvido para desenvolvedores que exigem mais do que simples geração de código, focando em:

  • Agentic Coding: Otimizado para agir como um agente autônomo, lidando com fluxos de trabalho de frontend e raciocínio em nível de repositório completo.
  • Thinking Preservation: Implementação avançada para reter o contexto de raciocínio histórico, permitindo que a IA "lembre" da lógica estrutural em conversas longas.
  • Developer Role Support: Ajustado especificamente para suporte a funções de desenvolvedor em ambientes como Codex e OpenCode.
  • Tool Calling: Precisão aprimorada no parsing de objetos aninhados para chamadas de ferramentas complexas.

Benchmark de Performance

O Neve Strata X2 demonstra resultados consistentes em benchmarks de elite para codificação e STEM:

Categoria Benchmark Neve-Strata-X2 Qwen3.5-35B Gemma4-31B
Coding SWE-bench Verified 73.4 70.0 52.0
STEM AIME 26 92.7 91.0 89.2
Reasoning GPQA 86.0 84.2 84.3
Knowledge MMLU-Redux 93.3 93.3 93.7

Detalhes da Arquitetura

  • Arquitetura: Mixture of Experts (MoE) com Gated DeltaNet.
  • Parâmetros: 35B totais (apenas 3B ativos por token, garantindo velocidade).
  • Janela de Contexto: 262.144 tokens nativos (extensível até 1.010.000).
  • Camadas: 40 camadas com Hidden Dimension de 2048.
  • MoE: 256 experts (8 roteados + 1 compartilhado).

Como utilizar (GGUF)

Este modelo é compatível com llama.cpp, Ollama, LM Studio e outras ferramentas que suportam o formato GGUF. Foco direcionado ao uso do modelo na plataforma autoral da organização NeveAI

Licença

Este repositório e os pesos do modelo estão licenciados sob a Licença Apache 2.0.

Contato

Se tiver qualquer dúvida, por favor, levante um issue ou entre em contato conosco em NeveIA.

Downloads last month
238
GGUF
Model size
35B params
Architecture
qwen35moe
Hardware compatibility
Log In to add your hardware

4-bit

Inference Providers NEW
This model isn't deployed by any Inference Provider. 🙋 Ask for provider support

Model tree for NeveAI/Neve-Strata-X2-35B-GGUF

Quantized
(302)
this model

Collection including NeveAI/Neve-Strata-X2-35B-GGUF