|
|
--- |
|
|
license: apache-2.0 |
|
|
language: |
|
|
- en |
|
|
pipeline_tag: fill-mask |
|
|
tags: |
|
|
- code |
|
|
--- |
|
|
# Shuu12121/CodeDiff-Owl-ModernBERT-base |
|
|
|
|
|
## モデル概要 |
|
|
|
|
|
**CodeDiff-Owl-ModernBERT-base** は、GitHub の **コード差分(diff)とコミットメッセージ** を対象にマスク化言語モデル (MLM) で学習した、**diff・コミット履歴特化の ModernBERT 系モデル** です。 |
|
|
|
|
|
* ベースモデル: `ModernBERT` |
|
|
* 事前学習タスク: マスク化言語モデル (Masked Language Modeling; MLM) |
|
|
* 入力フォーマット: |
|
|
`"[CLS]" + commit_message + "[SEP]" + diff` |
|
|
* 対象言語: |
|
|
diff 内のコードとして **Python / Java / JavaScript / Rust** を含むリポジトリ |
|
|
|
|
|
コミットメッセージと diff を同時にエンコードすることで、**「どのような変更(diff)に対して、どのような説明(コミットメッセージ)が付くか」** という対応関係を捉えることを目的としています。 |
|
|
今後、学習を継続した「完全版」を公開予定です(本モデルは 1.8 epoch 時点の途中版です)。 |
|
|
|
|
|
--- |
|
|
|
|
|
## 想定される用途 |
|
|
|
|
|
### 主なユースケース |
|
|
|
|
|
* コード変更差分に対する意味的検索 |
|
|
|
|
|
* 例: 「バグ修正」「ログ出力の追加」などの自然言語・疑似クエリと diff の類似度計算 |
|
|
* コミットメッセージと diff の表現獲得 |
|
|
|
|
|
* 例: コミットメッセージ・diff の埋め込みベクトルを用いたクラスタリングや可視化 |
|
|
* diff+コミットメッセージを入力とする下流タスクの初期化 |
|
|
|
|
|
* コミットメッセージ生成・補完 |
|
|
* コードレビューメモの生成 など |
|
|
|
|
|
### 非推奨 / 注意が必要な用途 |
|
|
|
|
|
* 汎用自然言語モデルとしての利用(一般文書に対する性能は未検証) |
|
|
* セキュリティやライセンス上の判断の自動化(著作権・ライセンス判定など) |
|
|
* 高リスク領域での自動意思決定(法的判断、安全性が重要な場面など) |
|
|
|
|
|
--- |
|
|
|
|
|
## 学習データ |
|
|
|
|
|
### データソース |
|
|
|
|
|
* GitHub 上の公開リポジトリ |
|
|
* GitHub の「言語判定」により **Python / Java / JavaScript / Rust** 含有と判断されたリポジトリを対象 |
|
|
* 各リポジトリから、コミットごとの **diff とコミットメッセージ** を収集 |
|
|
* 各リポジトリあたり最大 **1万件** のコミットを上限としてサンプリング |
|
|
* 収集した diff 全体で、おおよそ **70〜100GB 程度**(テキストベース)の規模 |
|
|
|
|
|
### 前処理・フィルタリング |
|
|
|
|
|
* diff が **32KB を超える場合は途中で打ち切り** |
|
|
|
|
|
* テキストとして読み取り可能な diff のみを利用 |
|
|
|
|
|
--- |
|
|
|
|
|
## 学習設定 |
|
|
|
|
|
* 初期化: ModernBERTアーキテクチャをもとにランダムな初期値から学習 |
|
|
* タスク: マスク化言語モデル (MLM) |
|
|
* 入力フォーマット: |
|
|
`"[CLS]" + commit_message + "[SEP]" + diff` |
|
|
※実装で特別な変更は加えていません |
|
|
* バッチサイズ: **64** |
|
|
* 学習率 (learning rate): **1e-6** |
|
|
* エポック数: **1.8 epoch**(時間制約により途中で打ち切り) |
|
|
* 学習時間: 約 **4日間** |
|
|
* その他: |
|
|
|
|
|
* モデル構造自体には特別な改変なし |
|
|
* 純粋に MLM のみで学習(コントラスト学習などは未実施) |
|
|
|
|
|
今後、同様の設定でもう少し長く学習した「完全版」を公開予定です。 |
|
|
|
|
|
--- |
|
|
|
|
|
## 入力形式と使い方 |
|
|
|
|
|
### 入力形式 |
|
|
|
|
|
* **Segment A (sentence A)**: コミットメッセージ(自然言語) |
|
|
* **Segment B (sentence B)**: 対応する diff テキスト |
|
|
|
|
|
トークナイザには、以下のように「2つの入力」として与えてください。 |
|
|
|
|
|
```python |
|
|
from transformers import AutoTokenizer, AutoModel |
|
|
|
|
|
model_name = "Shuu12121/CodeDiff-Owl-ModernBERT-base" |
|
|
tokenizer = AutoTokenizer.from_pretrained(model_name) |
|
|
model = AutoModel.from_pretrained(model_name) |
|
|
|
|
|
commit_message = "Fix bug in user login flow" |
|
|
diff_text = """ |
|
|
diff --git a/app/auth.py b/app/auth.py |
|
|
index 1234567..89abcde 100644 |
|
|
--- a/app/auth.py |
|
|
+++ b/app/auth.py |
|
|
@@ -10,7 +10,9 @@ def login(user, password): |
|
|
- if user.password == password: |
|
|
- return True |
|
|
- return False |
|
|
+ if not user: |
|
|
+ return False |
|
|
+ return user.check_password(password) |
|
|
""" |
|
|
|
|
|
inputs = tokenizer( |
|
|
commit_message, |
|
|
diff_text, |
|
|
return_tensors="pt", |
|
|
truncation=True, |
|
|
) |
|
|
|
|
|
outputs = model(**inputs) |
|
|
last_hidden_state = outputs.last_hidden_state # [batch, seq_len, hidden] |
|
|
cls_embedding = last_hidden_state[:, 0] # [CLS] トークンの埋め込み |
|
|
``` |
|
|
|
|
|
* `cls_embedding` を **コミット+diff の表現ベクトル** として検索・クラスタリング等に利用することを想定しています。 |
|
|
* diff が非常に長い場合はモデル側でトークン長に応じて自動的に切り詰められるため、必要に応じて自前で要約・抽出を行ってください。 |
|
|
|
|
|
--- |
|
|
|
|
|
## 評価 |
|
|
|
|
|
* 本モデルは現時点では **事前学習段階のスナップショット (1.8 epoch)** です。 |
|
|
* 具体的な使用用途については今後検討予定です。 |
|
|
|
|
|
--- |
|
|
|