Sigmoida_Qwen3_VL_Final : GGUF
Example usage:
- For text only LLMs:
./llama.cpp/llama-cli -hf mogaqu1/Sigmoida_Qwen3_VL_Final --jinja - For multimodal models:
./llama.cpp/llama-mtmd-cli -hf mogaqu1/Sigmoida_Qwen3_VL_Final --jinja
Available Model files:
qwen3-vl-8b-instruct.Q4_K_M.ggufqwen3-vl-8b-instruct.F16-mmproj.gguf
если честно - то это какая-то херь полная, она очень сильно путается, моя одна из первых дообученых нейронок, чтобы что-нибудь нормальное выдавала, нужно ставить температуру около 0.2
- Downloads last month
- 96
Hardware compatibility
Log In
to add your hardware
4-bit
Inference Providers
NEW
This model isn't deployed by any Inference Provider.
🙋
Ask for provider support