caution!

このGGUFは本来の性能を十分に発揮できていない「暫定版」です。
これは2025年初旬現在のllama.cppがCALM3モデル固有のpre-tokenization(≒前処理)をサポートしていないことに起因します。
妥協策として、pre-tokenization処理は別モデルのものを利用するように改造してありますが、この措置によってモデルの性能低下が引き起こされている可能性があります。

What is this?

CyberAgentの日英バイリンガル言語モデルcalm3-22b-chat-selfimprove-experimentalをGGUFフォーマットに変換したものです。

imatrix dataset

日本語能力を重視し、日本語が多量に含まれるTFMC/imatrix-dataset-for-japanese-llmデータセットを使用しました。

Chat template

<|im_start|>system
ここにSystem Promptを書きます。<|im_end|>
<|im_start|>user
ここにMessageを書きます。<|im_end|>
<|im_start|>assistant

Environment

Windows版llama.cpp-b4514およびpre-tokenization関連に細工を施した改造版convert-hf-to-gguf.pyを使用して量子化作業を実施しました。

License

apache-2.0

Developer

CyberAgent

Downloads last month
10
GGUF
Model size
23B params
Architecture
llama
Hardware compatibility
Log In to view the estimation

4-bit

5-bit

6-bit

16-bit

Inference Providers NEW
This model isn't deployed by any Inference Provider. 🙋 Ask for provider support