llm.create_chat_completion(
messages = [
{
"role": "user",
"content": "What is the capital of France?"
}
]
)
Neve-Strata-X2-35B-GGUF
Introdução
O Neve Strata X2 é um modelo de linguagem de última geração focado em programação e raciocínio para arquiteturas complexas. Esta versão em formato GGUF foi otimizada pela NeveAI para oferecer o equilíbrio ideal entre precisão lógica e eficiência computacional.
Destaques do Modelo
Este modelo foi desenvolvido para desenvolvedores que exigem mais do que simples geração de código, focando em:
Agentic Coding: Otimizado para agir como um agente autônomo, lidando com fluxos de trabalho de frontend e raciocínio em nível de repositório completo.
Thinking Preservation: Implementação avançada para reter o contexto de raciocínio histórico, permitindo que a IA "lembre" da lógica estrutural em conversas longas.
Developer Role Support: Ajustado especificamente para suporte a funções de desenvolvedor em ambientes como Codex e OpenCode.
Tool Calling: Precisão aprimorada no parsing de objetos aninhados para chamadas de ferramentas complexas.
Benchmark de Performance
O Neve Strata X2 demonstra resultados consistentes em benchmarks de elite para codificação e STEM:
Categoria
Benchmark
Neve-Strata-X2
Qwen3.5-35B
Gemma4-31B
Coding
SWE-bench Verified
73.4
70.0
52.0
STEM
AIME 26
92.7
91.0
89.2
Reasoning
GPQA
86.0
84.2
84.3
Knowledge
MMLU-Redux
93.3
93.3
93.7
Detalhes da Arquitetura
Arquitetura: Mixture of Experts (MoE) com Gated DeltaNet.
Parâmetros: 35B totais (apenas 3B ativos por token, garantindo velocidade).
Janela de Contexto: 262.144 tokens nativos (extensível até 1.010.000).
Camadas: 40 camadas com Hidden Dimension de 2048.
MoE: 256 experts (8 roteados + 1 compartilhado).
Como utilizar (GGUF)
Este modelo é compatível com llama.cpp, Ollama, LM Studio e outras ferramentas que suportam o formato GGUF.
Foco direcionado ao uso do modelo na plataforma autoral da organização NeveAI
Licença
Este repositório e os pesos do modelo estão licenciados sob a Licença Apache 2.0.
Contato
Se tiver qualquer dúvida, por favor, levante um issue ou entre em contato conosco em NeveIA.
# !pip install llama-cpp-python from llama_cpp import Llama llm = Llama.from_pretrained( repo_id="NeveAI/Neve-Strata-X2-35B-GGUF", filename="Neve-Strata-X2-35B-IQ4_K_XL.gguf", )