🚀 Tema_Q-X4-Thinking
🔥 モデル概要
Tema_Q-X4-Thinking(天馬求) は、Googleが開発したモデル Gemma 4 26B A4B を基盤にした、日本語、英語向けの改良版大規模言語モデル(LLM)です。 通常のGemmaモデルでは回答が難しいプロンプトに対しても、より自由で有用な応答を生成できるよう設計されています。
注:Q2_K以下は極端に推論精度が落ちると思われます。できれば、Q3_K_Mをご使用ください。
Tema_Q-X4-Thinking (Tema Q) is an improved large-scale language model (LLM) for Japanese and English based on the model Gemma 4 26B A4B developed by Google. It is designed to generate more flexible and useful responses to prompts that are difficult to answer using the standard Gemma model.
Note: It is believed that inference accuracy will drop significantly below Q2_K. If possible, please use Q3_K_M.
| 項目 | 詳細 |
|---|---|
| ベースモデル | Gemma 4 26B A4B |
| モデル名 | Tema_Q-X4-Thinking |
| 対応言語 | 日本語 (JA), 英語 (EN) |
| モデルサイズ | 26 Billion Parameters |
| ライセンス | Gemmaのライセンスに準拠 |
| 開発 | Tema_Q開発チーム |
🛡️ 責任あるAI利用と学習データの安全性
⚠️ 責任ある利用の徹底
- ユーザーの責任: モデルの利用者は、生成されたコンテンツが、適用される法律、規制、およびHugging Faceの利用規約/コンテンツポリシーに準拠することを全面的に保証する必要があります。
- 禁止事項: このモデルを、いかなる差別、ハラスメント、暴力、違法行為、および有害な目的のために利用することを固く禁じます。
- Downloads last month
- 727
Model tree for temaq-org/Tema_Q-X4-Thinking
Base model
google/gemma-4-26B-A4B-it