deepseek-ai-ESFT-gate-code-lite - GGUF

Versiones cuantizadas del modelo deepseek-ai-ESFT-gate-code-lite para ejecución local eficiente.

Archivos disponibles:

  • deepseek-ai-ESFT-gate-code-lite-Q4_K_M.gguf: Balance óptimo entre peso y lógica (4-bit).
  • lite-f16.gguf: Alta fidelidad (16-bit) para máxima precisión.

Nota: Estos modelos han sido procesados para su uso en hardware con recursos limitados (Linux/CPU/Mobile).

Downloads last month
54
GGUF
Model size
0 params
Architecture
deepseek2
Hardware compatibility
Log In to add your hardware

4-bit

16-bit

Inference Providers NEW
This model isn't deployed by any Inference Provider. 🙋 Ask for provider support