iamtatsuki05's picture
Update README_JA.md
a9be01e verified
metadata
language:
  - ja
license: mit
library_name: sentence-transformers
pipeline_tag: sentence-similarity
tags:
  - mirei
  - modernbert
  - masked-lm
  - transformers
  - text-embedding
  - embeddings
  - feature-extraction
  - retrieval
base_model: iamtatsuki05/Sentence-ModernBERT-JP-0.5B-PT
datasets:
  - cl-nagoya/ruri-dataset-v2-pt

Sentence-ModernBERT-JP-0.5B

English / Japanese

Overview

Sentence-ModernBERT-JP-0.5B は、 iamtatsuki05/Sentence-ModernBERT-JP-0.5B-PTcl-nagoya/ruri-v3-dataset-ft で教師あり対照学習を行った 1280 次元の日本語埋め込みモデルです。

Consept

Usage

Requirements

sentence-transformers>=4.1.0
transformers>=4.51.0
accelerate>=1.6.0
sentencepiece>=0.2.0
flash-attn>=2.7.3

Sample Code

import torch
from sentence_transformers import SentenceTransformer

model_name = "iamtatsuki05/Sentence-ModernBERT-JP-0.5B"
model_kwargs = {
  "torch_dtype": torch.bfloat16,
  "attn_implementation": "flash_attention_2",
}
model = SentenceTransformer(model_name, model_kwargs=model_kwargs)

queries = ["ハチワレはどのようなキャラクターですか?"]
docs = [
    "ハチワレは、『ちいかわ』に登場する猫風のキャラクターで、明るく社交的、前向きな性格が特徴。ちいかわたちと共に日常を楽しみつつ、討伐などの冒険にも積極的に挑む存在です。",
    "うさぎは、天真爛漫でマイペースな性格が特徴のキャラクターで、突飛な行動力と鋭い直感でちいかわたちを引っ張る存在。自由気ままながらも仲間思いな一面を併せ持ちます。",
]
q_emb = model.encode(queries, normalize_embeddings=True)
d_emb = model.encode(docs, normalize_embeddings=True)
scores = model.similarity(q_emb, d_emb)
print(scores)

Model Details

  • ベースモデル: iamtatsuki05/Sentence-ModernBERT-JP-0.5B-PT
  • アーキテクチャ: ModernBERT
  • 最大シーケンス長: 8,192トークン
  • 埋め込み次元: 1280(Mean Pooling)
  • トークナイザ: SentencePiece / 語彙数 102,400
  • 位置エンコーディング: RoPE
  • 対応言語: 日本語
  • 類似度指標: cosine

Model Series

弱教師あり学習済みモデルに対して cl-nagoya/ruri-v3-dataset-ft で教師あり学習したモデル群です。

ID Architecture #Param. #Param.
w/o Emb.
JMTEB-Avg JMTEB-Retrieval JMTEB-STS JMTEB-Classification JMTEB-Reranking JMTEB-Clustering
iamtatsuki05/Sentence-ModernBERT-JP-0.5B
(this model)
ModernBERT 679M 548M 65.31 57.95 80.78 71.73 75.50 50.03
iamtatsuki05/Sentence-Llama-Bi-JP-0.5B Llama 661M 530M 61.02 51.55 78.01 68.51 71.96 48.69
iamtatsuki05/Sentence-Sarashina-Bi-0.5B Llama 661M 530M 66.84 59.00 83.50 74.35 77.36 49.40

Licence

このモデルは MIT でライセンスされています。

How to Cite

@article{MIREI
  title={同一条件下における Encoder/Decoder アーキテクチャによる文埋め込みの性能分析},
  author={岡田 龍樹 and 杉本 徹},
  journal={言語処理学会第 32 回年次大会 (NLP2026)},
  year={2026}
}