EleutherAI-pythia-1b - GGUF

Versiones cuantizadas del modelo EleutherAI-pythia-1b para ejecuci贸n local eficiente.

Archivos disponibles:

  • EleutherAI-pythia-1b-Q4_K_M.gguf: Balance 贸ptimo entre peso y l贸gica (4-bit).
  • 1b-f16.gguf: Alta fidelidad (16-bit) para m谩xima precisi贸n.

Nota: Estos modelos han sido procesados para su uso en hardware con recursos limitados (Linux/CPU/Mobile).

Downloads last month
25
GGUF
Model size
1B params
Architecture
gptneox
Hardware compatibility
Log In to add your hardware

4-bit

16-bit

Inference Providers NEW
This model isn't deployed by any Inference Provider. 馃檵 Ask for provider support