🚀 Tema_Q-X4-Thinking

image/jpg


🔥 モデル概要

Tema_Q-X4-Thinking(天馬求) は、Googleが開発したモデル Gemma 4 26B A4B を基盤にした、日本語、英語向けの改良版大規模言語モデル(LLM)です。 通常のGemmaモデルでは回答が難しいプロンプトに対しても、より自由で有用な応答を生成できるよう設計されています。

注:Q2_K以下は極端に推論精度が落ちると思われます。できれば、Q3_K_Mをご使用ください。

Tema_Q-X4-Thinking (Tema Q) is an improved large-scale language model (LLM) for Japanese and English based on the model Gemma 4 26B A4B developed by Google. It is designed to generate more flexible and useful responses to prompts that are difficult to answer using the standard Gemma model.

Note: It is believed that inference accuracy will drop significantly below Q2_K. If possible, please use Q3_K_M.

項目 詳細
ベースモデル Gemma 4 26B A4B
モデル名 Tema_Q-X4-Thinking
対応言語 日本語 (JA), 英語 (EN)
モデルサイズ 26 Billion Parameters
ライセンス Gemmaのライセンスに準拠
開発 Tema_Q開発チーム

🛡️ 責任あるAI利用と学習データの安全性

⚠️ 責任ある利用の徹底

  • ユーザーの責任: モデルの利用者は、生成されたコンテンツが、適用される法律、規制、およびHugging Faceの利用規約/コンテンツポリシーに準拠することを全面的に保証する必要があります。
  • 禁止事項: このモデルを、いかなる差別、ハラスメント、暴力、違法行為、および有害な目的のために利用することを固く禁じます
Downloads last month
727
Safetensors
Model size
26B params
Tensor type
BF16
·
Inference Providers NEW
This model isn't deployed by any Inference Provider. 🙋 Ask for provider support

Model tree for temaq-org/Tema_Q-X4-Thinking

Finetuned
(20)
this model