What is this?

Qwen3-Coder-FlashことQwen3-Coder-30B-A3B-InstructをGGUFフォーマットに変換したものです。

imatrix dataset

日本語能力を重視し、日本語が多量に含まれるTFMC/imatrix-dataset-for-japanese-llmデータセットを使用しました。

Chat template

<|im_start|>system
ここにSystem Promptを書きます。<|im_end|>
<|im_start|>user
ここにMessageを書きます。<|im_end|>
<|im_start|>assistant

Note

Q4_K_MおよびQ5_K_Mクオンツのみ、Q8_0クオンツを再量子化するという方法で作成しました。これは、通常通りBF16から量子化しようとすると原因不明のエラーが発生してしまうためです。

Environment

Windows版llama.cpp-b5902を使用して量子化作業を実施しました。

License

Apache 2.0

Developer

Alibaba Cloud

Downloads last month
35
GGUF
Model size
31B params
Architecture
qwen3moe
Hardware compatibility
Log In to view the estimation

4-bit

5-bit

6-bit

8-bit

16-bit

Inference Providers NEW
This model isn't deployed by any Inference Provider. 🙋 Ask for provider support