TranslateGemma 4B IT GGUF

這是由 Google TranslateGemma 4B IT 模型轉換並量化後的 GGUF 格式版本,適用於 Ollama、llama.cpp 等推理引擎。

模型資訊

  • 量化等級: Q4_K_M
  • 原始模型: google/translategemma-4b-it
  • 模型大小: 約 5B 參數
  • 轉換日期: 2026-01-16
  • 授權: Gemma License

關於 TranslateGemma

TranslateGemma 是 Google 基於 Gemma 3 系列開發的輕量級、最先進的開源翻譯模型家族。

主要特點

  • 多語言支援: 支援 55 種語言的翻譯任務
  • 多模態能力: 支援文字翻譯和圖片文字提取翻譯
  • 輕量化設計: 適合在筆記型電腦、桌上型電腦或私有雲端基礎設施上部署
  • 高效能: 在 WMT24++、WMT25 和 Vistra 等基準測試中表現優異

輸入輸出

輸入:

  • 文字字串(需翻譯的文字)
  • 圖片(標準化為 896 x 896 解析度,每張圖片編碼為 256 個 token)
  • 總輸入上下文為 2K tokens

輸出:

  • 翻譯成目標語言的文字

使用方式

使用 Ollama

# 建立 Modelfile
FROM ./translategemma-4b-it-Q4_K_M.gguf

# 執行
ollama create translategemma:4b-q4km -f Modelfile
ollama run translategemma:4b-q4km

語言代碼格式

支援兩種語言代碼格式:

  • ISO 639-1 Alpha-2 語言代碼: 例如 en, zh, ja
  • 區域化變體: 語言代碼 + 國家代碼,例如 en-US, en-GB, zh-CN, zh-TW

翻譯範例

翻譯時需指定來源語言代碼(source_lang_code)和目標語言代碼(target_lang_code)。

範例 1: 中文翻英文

source_lang_code: zh
target_lang_code: en
text: 這是一個測試句子。

範例 2: 日文翻德文(區域化)

source_lang_code: ja
target_lang_code: de-DE
text: これはテストです。

效能基準

測試集 指標 分數
WMT24++ (55 languages) MetricX ↓ 3.09
WMT24++ (55 languages) Comet ↑ 84.4
WMT25 (10 languages) MQM ↓ 5.86
Vistra (4 languages) MetricX ↓ 1.57

技術細節

訓練資料

  • SFT 階段: 43 億個 tokens
  • 強化學習階段: 1,020 萬個 tokens
  • 資料來源:
    • 由 Gemini 生成的高品質翻譯配對單語網頁文件
    • 公開可用的平行文件

硬體與軟體

  • 訓練硬體: Google TPU (TPUv4p, TPUv5p, TPUv5e)
  • 訓練框架: JAX 和 ML Pathways

限制與注意事項

主要限制

  • 訓練資料偏差: 模型可能反映訓練資料中的社會文化偏見
  • 事實準確性: 基於統計模式生成回應,可能產生不正確或過時的陳述
  • 語言細微差別: 可能難以理解諷刺、比喻等複雜語言現象
  • 常識推理: 在某些情況下可能缺乏應用常識推理的能力

預期用途

此模型專門訓練用於從文字或圖片輸入產生文字翻譯。未對其他能力做出聲明。

倫理與安全

模型經過嚴格的倫理與安全評估,包括:

  • 兒童安全評估
  • 內容安全評估(騷擾、暴力、仇恨言論等)
  • 代表性傷害評估(偏見、刻板印象等)

相較於先前的 Gemma 模型,TranslateGemma 在所有安全測試領域都有重大改進。

參考資源

引用

@article{gemmatranslate2026,
    title={{TranslateGemma Technical Report}},
    url={https://arxiv.org/pdf/2601.09012},
    publisher={Google DeepMind},
    author={{Google Translate Research Team} and
    Finkelstein, Mara and
    Caswell, Isaac and
    Domhan, Tobias and
    Peter, Jan-Thorsten and
    Juraska, Juraj and
    Riley, Parker and
    Deutsch, Daniel and
    Dilanni, Cole and
    Cherry, Colin and
    Briakou, Eleftheria and
    Nielsen, Elizabeth and
    Luo, Jiaming and
    Agrawal, Sweta and
    Xu, Wenda and
    Kats, Erin and
    Jaskiewicz, Stephane and
    Freitag, Markus and
    Vilar, David
},
    year={2026}
}

版權與授權

本 GGUF 版本遵循原始模型的 Gemma License。使用前請詳閱 Gemma 使用條款

Downloads last month
81
GGUF
Model size
4B params
Architecture
gemma3
Hardware compatibility
Log In to add your hardware

4-bit

Inference Providers NEW
This model isn't deployed by any Inference Provider. 🙋 Ask for provider support

Model tree for vjchou/translategemma-4b-it-GGUF

Quantized
(32)
this model

Paper for vjchou/translategemma-4b-it-GGUF