Moshi
Safetensors
Japanese

English License

📑 Paper  |  🤗 Model  |  🖥️ Demo

LLM-jp-Moshi-v1は,日本語におけるfull-duplex音声対話システムです.英語における7Bパラメータのfull-duplex音声対話モデル Moshi をベースとし,日本語音声対話データでの追加学習によって構築されました.

このリポジトリでは,LLM-jp-Moshi-v1モデルを紹介します.

これらのモデルは試作段階であり,その応答は不自然な場合があります.

Models

LLM-jp-Moshi-v1

リポジトリには,以下のモデルファイルが含まれています:

  • model.safetensors - LLM-jp-Moshi-v1本体の重み
  • tokenizer_spm_32k_3.model - テキストトークナイザ(rinna/japanese-gpt2-mediumの日本語SentencePieceモデル)
  • tokenizer-e351c8d8-checkpoint125.safetensors - 音声トークナイザ(kyutai/moshiko-pytorch-bf16のMimiモデル)

Interactive Demo

Kyutai公式のMoshiのPyTorch実装を用いて,LLM-jp-Moshi-v1と対話することができます.実装の詳細は,オリジナルMoshiのリポジトリ kyutai-labs/moshi を参照してください.

Installation

Python 3.10以上が必要です.

pip install moshi<=0.2.2 sphn==0.1.12

Usage

moshi.serverを実行することで,対話用のweb UIを起動できます.--hf-repoオプションでLLM-jp-Moshi-v1の 🤗HuggingFace Hubリポジトリ(llm-jp/llm-jp-moshi-v1)を指定してください.

python -m moshi.server --hf-repo llm-jp/llm-jp-moshi-v1

Tips

  • 実行には,24GB以上のVRAMを搭載したLinux GPUマシンが必要です.MacOSには対応していません.
  • モデルの発話音声がエコーすることを避けるため,対話時にはスピーカではなくイヤホン・ヘッドホンを使用してください.音声デバイスはweb UIアクセス時にブラウザ上で設定できます.

Training Details

  • 音声対話コーパス
    • J-CHAT:ポッドキャストによる対話データ(約69,000時間)
    • LLM-jp-Zoom1:Zoomによるオンライン対話データ(約1,000時間)
      • LLM-jpにて独自に収集したZoomでの雑談対話データ(近日公開予定)

Terms of Use

LLM-jp-Moshi-v1 は Apache License, Version 2.0 の下で公開されています. 本モデルは,なりすましや詐欺などの悪意ある目的での使用を意図したものではありません.また,本モデルの出力には,学習データに起因するバイアス,不正確な情報,または不適切もしくは攻撃的な内容が含まれる可能性があります. 我々はその使用によって生じるいかなる損害についても責任を負いません.

Acknowledgments

本研究では,国立研究開発法人産業技術総合研究所および株式会社AIST Solutionsが提供するAI橋渡しクラウド(ABCI)3.0を,「ABCI 3.0開発加速利用」の支援を受けて実施しました. また,ベースモデルであるMoshiおよびテクニカルペーパーを公開されたKyutai Labs,ならびにJ-CHATデータセットを公開された研究者の皆様に深く感謝の意を表します.

Citation

@inproceedings{abe2026effects,
    title={Effects of dialogue corpora properties on fine-tuning a {M}oshi-based spoken dialogue model},
    author={Abe, Yuto and Saeki, Mao and Ohashi, Atsumoto and Takamichi, Shinnosuke and Fujie, Shinya and Kobayashi, Tetsunori and Ogawa, Tetsuji and Higashinaka, Ryuichiro},
    booktitle={Proc. International Workshop on Spoken Dialogue Systems (IWSDS)},
    pages={104–108},
    year={2026},
    month={Feb}
}

@inproceedings{abe2026moshi,
    title={Moshi音声対話モデルの日本語ファインチューニングにおける対話データ特性の影響},
    author={阿部雄斗 and 佐伯真於 and 大橋厚元 and 高道慎之介 and 藤江真也 and 小林哲則 and 小川哲司 and 東中竜一郎},
    booktitle={日本音響学会研究発表会講演論文集},
    year={2026},
    month={Mar}
}
Downloads last month
411
Inference Providers NEW
This model isn't deployed by any Inference Provider. 🙋 Ask for provider support

Model tree for llm-jp/llm-jp-moshi-v1

Finetuned
(5)
this model
Finetunes
1 model

Dataset used to train llm-jp/llm-jp-moshi-v1

Papers for llm-jp/llm-jp-moshi-v1