-
-
-
-
-
-
Inference Providers
Active filters:
2-bit
ChenMnZ/Llama-2-13b-EfficientQAT-w2g64-BitBLAS
Text Generation
•
51B
•
Updated
•
1
ChenMnZ/Llama-2-13b-EfficientQAT-w2g64-GPTQ
Text Generation
•
13B
•
Updated
•
2
ChenMnZ/Llama-2-70b-EfficientQAT-w2g128-BitBLAS
Text Generation
•
274B
•
Updated
•
2
ChenMnZ/Llama-2-70b-EfficientQAT-w2g128-GPTQ
Text Generation
•
69B
•
Updated
•
1
ChenMnZ/Llama-2-70b-EfficientQAT-w2g64-GPTQ
Text Generation
•
69B
•
Updated
•
3
ChenMnZ/Llama-2-7b-EfficientQAT-w2g128-GPTQ
Text Generation
•
7B
•
Updated
•
10
ChenMnZ/Llama-2-7b-EfficientQAT-w2g64-GPTQ
Text Generation
•
7B
•
Updated
•
1
•
1
ChenMnZ/Llama-3-70b-EfficientQAT-w2g128-GPTQ
Text Generation
•
71B
•
Updated
•
1
ChenMnZ/Llama-3-70b-EfficientQAT-w2g64-GPTQ
Text Generation
•
71B
•
Updated
•
5
ChenMnZ/Llama-3-70b-instruct-EfficientQAT-w2g128-GPTQ
Text Generation
•
71B
•
Updated
•
2
ChenMnZ/Llama-3-70b-instruct-EfficientQAT-w2g64-GPTQ
Text Generation
•
71B
•
Updated
•
3
ChenMnZ/Llama-2-7b-EfficientQAT-w2g128-BitBLAS
Text Generation
•
26B
•
Updated
•
1
ChenMnZ/Llama-2-7b-EfficientQAT-w2g64-BitBLAS
Text Generation
•
26B
•
Updated
•
1
ChenMnZ/Llama-3-70b-EfficientQAT-w2g128-BitBLAS
Text Generation
•
276B
•
Updated
•
2
ChenMnZ/Llama-3-8b-EfficientQAT-w2g128-GPTQ
Text Generation
•
8B
•
Updated
•
3
ChenMnZ/Llama-3-8b-EfficientQAT-w2g64-GPTQ
Text Generation
•
8B
•
Updated
•
1
ChenMnZ/Llama-3-8b-instruct-EfficientQAT-w2g128-GPTQ
Text Generation
•
8B
•
Updated
•
4
•
1
ChenMnZ/Llama-3-8b-instruct-EfficientQAT-w2g64-GPTQ
Text Generation
•
8B
•
Updated
•
4
ChenMnZ/Llama-3-70b-EfficientQAT-w2g64-BitBLAS
Text Generation
•
276B
•
Updated
•
1
ChenMnZ/Llama-3-70b-instruct-EfficientQAT-w2g128-BitBLAS
Text Generation
•
276B
•
Updated
•
1
ChenMnZ/Llama-3-70b-instruct-EfficientQAT-w2g64-BitBLAS
Text Generation
•
276B
•
Updated
•
2
ChenMnZ/Llama-3-8b-EfficientQAT-w2g128-BitBLAS
Text Generation
•
29B
•
Updated
•
3
ChenMnZ/Llama-3-8b-EfficientQAT-w2g64-BitBLAS
Text Generation
•
29B
•
Updated
•
2
ChenMnZ/Llama-3-8b-instruct-EfficientQAT-w2g128-BitBLAS
Text Generation
•
29B
•
Updated
•
1
ChenMnZ/Llama-3-8b-instruct-EfficientQAT-w2g64-BitBLAS
Text Generation
•
29B
•
Updated
•
3
MaziyarPanahi/SmolLM-135M-Instruct-GGUF
Text Generation
•
0.1B
•
Updated
•
290
•
2
MaziyarPanahi/SmolLM-360M-Instruct-GGUF
Text Generation
•
0.4B
•
Updated
•
68
•
1
MaziyarPanahi/SmolLM-1.7B-Instruct-GGUF
Text Generation
•
2B
•
Updated
•
80
•
4
MaziyarPanahi/Meta-Llama-3.1-8B-Instruct-GGUF
Text Generation
•
8B
•
Updated
•
122k
•
33
MaziyarPanahi/Meta-Llama-3.1-70B-Instruct-GGUF
Text Generation
•
71B
•
Updated
•
121k
•
40