Inference Providers
Active filters: minimax
ModelCloud/MiniMax-M2-GPTQMODEL-W4A16
Text Generation
• 229B • Updated • 9
• 3
mlx-community/MiniMax-M2-8bit
Text Generation
• Updated • 376
• 8
Text Generation
• 229B • Updated • 14
mlx-community/MiniMax-M2-5bit
Text Generation
• Updated • 120
• 2
inferencerlabs/MiniMax-M2-MLX-6.5bit
Text Generation
• 229B • Updated • 180
• 2
mlx-community/MiniMax-M2-mlx-8bit-gs32
Text Generation
• Updated • 74
• 2
lmstudio-community/MiniMax-M2-MLX-4bit
Text Generation
• 229B • Updated • 11.3k
lmstudio-community/MiniMax-M2-MLX-6bit
Text Generation
• 229B • Updated • 11k
lmstudio-community/MiniMax-M2-MLX-8bit
Text Generation
• 229B • Updated • 12.6k
• 1
catalystsec/MiniMax-M2-3bit-DWQ
Text Generation
• 229B • Updated • 124
• 2
Text Generation
• 229B • Updated • 2.07k
• 88
catalystsec/MiniMax-M2-4bit-DWQ
Text Generation
• 229B • Updated • 46
• 1
Text Generation
• 229B • Updated • 11
Text Generation
• 229B • Updated • 7
173B • Updated • 2.92k
• 35
mradermacher/MiniMax-M2-THRIFT-GGUF
mradermacher/MiniMax-M2-THRIFT-i1-GGUF
173B • Updated • 500
• 10
lukealonso/MiniMax-M2-NVFP4
115B • Updated • 51
• 14
cerebras/MiniMax-M2-REAP-172B-A10B
Text Generation
• 173B • Updated • 12
• 23
cerebras/MiniMax-M2-REAP-162B-A10B
Text Generation
• 162B • Updated • 52
• 79
cerebras/MiniMax-M2-REAP-139B-A10B
Text Generation
• Updated • 11
• 18
mradermacher/MiniMax-M2-REAP-162B-A10B-GGUF
Updated
mradermacher/MiniMax-M2-REAP-139B-A10B-GGUF
bartowski/VibeStudio_MiniMax-M2-THRIFT-GGUF
Text Generation
• 173B • Updated • 387
• 8
mradermacher/MiniMax-M2-REAP-162B-A10B-i1-GGUF
162B • Updated • 576
mradermacher/MiniMax-M2-REAP-139B-A10B-i1-GGUF
139B • Updated • 58
• 4
osmapi/MiniMax-M2-THRIFT-55
106B • Updated • 281
• 5
FlagRelease/MiniMax-M2-FlagOS
229B • Updated • 14
• 1
tcclaviger/Minimax-M2-Thrift-GPTQ-W4A16-AMD
Text Generation
• 24B • Updated • 15
• 1
mradermacher/MiniMax-M2-THRIFT-55-GGUF
106B • Updated • 187
• 2