TinyLlama-TinyLlama_v1.1_math_code - GGUF

Versiones cuantizadas del modelo TinyLlama-TinyLlama_v1.1_math_code para ejecuci贸n local eficiente.

Archivos disponibles:

  • TinyLlama-TinyLlama_v1.1_math_code-Q4_K_M.gguf: Balance 贸ptimo entre peso y l贸gica (4-bit).
  • TinyLlama_v1.1_math_code-f16.gguf: Alta fidelidad (16-bit) para m谩xima precisi贸n.

Nota: Estos modelos han sido procesados para su uso en hardware con recursos limitados (Linux/CPU/Mobile).

Downloads last month
22
GGUF
Model size
1B params
Architecture
llama
Hardware compatibility
Log In to add your hardware

4-bit

16-bit

Inference Providers NEW
This model isn't deployed by any Inference Provider. 馃檵 Ask for provider support