-
-
-
-
-
-
Inference Providers
Active filters: F16
prithivMLmods/Qwen2.5-Coder-7B-Instruct-GGUF
Text Generation
• 8B • Updated
• 244
• 2
prithivMLmods/Qwen2.5-Coder-7B-GGUF
Text Generation
• 8B • Updated
• 249
• 4
prithivMLmods/Qwen2.5-Coder-3B-GGUF
Text Generation
• 3B • Updated
• 39
• 4
prithivMLmods/Qwen2.5-Coder-1.5B-GGUF
Text Generation
• 2B • Updated
• 421
• 5
prithivMLmods/Qwen2.5-Coder-1.5B-Instruct-GGUF
Text Generation
• 2B • Updated
• 114
• 3
prithivMLmods/Qwen2.5-Coder-3B-Instruct-GGUF
Text Generation
• 3B • Updated
• 146
• 5
prithivMLmods/Llama-3.2-3B-GGUF
Text Generation
• 3B • Updated
• 130
• 2
prithivMLmods/QwQ-LCoT-3B-Instruct-GGUF
Text Generation
• 3B • Updated
• 56
• 7
michelkao/Ollama-3.2-GGUF
Text Generation
• 3B • Updated
• 235
prithivMLmods/DeepSeek-R1-Llama-8B-F32-GGUF
Text Generation
• Updated
• 29
• 2
AlaminI/AMINI-ASSISTANT-GGUF-F16
8B • Updated
• 47