HuggingFaceTB-SmolLM2-1.7B-Instruct - GGUF

Versiones cuantizadas del modelo HuggingFaceTB-SmolLM2-1.7B-Instruct para ejecuci贸n local eficiente.

Archivos disponibles:

  • HuggingFaceTB-SmolLM2-1.7B-Instruct-Q4_K_M.gguf: Balance 贸ptimo entre peso y l贸gica (4-bit).
  • Instruct-f16.gguf: Alta fidelidad (16-bit) para m谩xima precisi贸n.

Nota: Estos modelos han sido procesados para su uso en hardware con recursos limitados (Linux/CPU/Mobile).

Downloads last month
29
GGUF
Model size
2B params
Architecture
llama
Hardware compatibility
Log In to add your hardware

4-bit

16-bit

Inference Providers NEW
This model isn't deployed by any Inference Provider. 馃檵 Ask for provider support