| language: ja | |
| license: mit | |
| tags: | |
| - bert | |
| - lockerai | |
| - reranking | |
| - japanese | |
| datasets: | |
| - lost-item-similarity-dataset | |
| # lockerai-reranking-bert | |
| ## モデルの説明 | |
| このモデルは検索結果の再ランキングのためのBERTモデルです。 | |
| ## モデル詳細 | |
| - ベースモデル: modernbert | |
| - 隠れ層の次元: 1024 | |
| - レイヤー数: 28 | |
| - アテンションヘッド数: 16 | |
| - 分類プーリング戦略: mean | |
| - パラメータ数: 395,833,348 | |
| ## 使用方法 | |
| ```python | |
| from transformers import AutoTokenizer, AutoModel | |
| # トークナイザーとモデルをロード | |
| tokenizer = AutoTokenizer.from_pretrained("lockerai/lockerai-reranking-bert") | |
| model = AutoModel.from_pretrained("lockerai/lockerai-reranking-bert") | |
| # 入力テキストのトークン化 | |
| inputs = tokenizer("検索クエリ", "検索結果アイテム", return_tensors="pt") | |
| # 推論 | |
| outputs = model(**inputs) | |
| ``` | |
| ## 引用 | |
| このモデルを使用する場合は、以下を引用してください: | |
| ``` | |
| @misc{lockerai_reranking_bert}, | |
| author = {lockerai}, | |
| title = {lockerai-reranking-bert}, | |
| year = {2025}, | |
| publisher = {HuggingFace}, | |
| howpublished = {\url{https://huggingface.co/lockerai/lockerai-reranking-bert}} | |
| } | |
| ``` | |