PRT14: Portable Reward Tuning (Design A + Hydra + Batch Eval)
このディレクトリには、PRT (Portable Reward Tuning) の第14版実装が含まれています。 PRT14は、これまでの実験で確立された Design A (Trainer/Generator Separation) パターンを採用し、設定管理に Hydra を導入、さらに評価時の バッチ推論 に対応した実用的な実装セットです。
概要
PRTは、大規模な言語モデル(VL含む)の生成スタイルや特定の報酬を、小型の Reward Model (LoRA Adapter) として学習・転移させる技術です。 本実装では、以下の構成で動作します:
- 学習 (Train): ベースモデルを2つ用意し(Ref:凍結, Reward:学習)、KL制約付きの報酬最大化(実際にはCrossEntropyによる模倣学習的アプローチ)を行います。
- 推論 (Eval): 学習したReward Adapterをロードし、StepごとにRefモデルとRewardモデルのLogitsを合成して生成を行います。
アーキテクチャ
Training Phase (Design A-Train)
学習時は PRTTrainer を使用し、Reference Model の出力を基準として Reward Model を更新します。
graph LR
Input["Input Image/Text"] --> Ref["Reference Model (Frozen)"]
Input --> Rew["Reward Model (LoRA Trainable)"]
Ref -->|Logits| Loss
Rew -->|Logits| Loss
Loss["PRT Loss"] -->|Backprop| Rew
subgraph Loss Calculation
L["Logits Composition"]
L -->|"ref_logits + lambda * reward_logits"| CE["CrossEntropy w/ Labels"]
end
- Reference Model: ベースモデルそのまま (Frozen)。分布の基準となります。
- Reward Model: ベースモデル + LoRA Adapter。報酬信号(正解テキストへの誘導)を学習します。
- PRT Loss:
ref_logits + prt_lambda * reward_logitsを合成し、これをTarget Labelに近づけるように学習します。- Note:
ref_logitsは確率分布の基準なのでlog_softmaxを適用しますが、reward_logitsは「報酬値」そのものとして扱うため、log_softmaxを適用せずにそのまま加算します。
- Note:
Inference Phase (Design A-Gen)
推論時は PRTGenerator を使用し、2つのモデルを並列で回しながらLogitsを合成してトークンを選択します。
graph TD
User["User Input"] --> P[Processor]
P --> Ref["Reference Model (Base)"]
P --> Rew["Reward Model (Base + Adapter)"]
Ref -->|Logits| Mix(("Composition"))
Rew -->|Logits| Mix
Mix -->|"v = ref + lambda * rew"| Samp["Sampler / Greedy"]
Samp -->|"Next Token"| Out["Output Text"]
Out -->|Autoregressive| P
- Portable: このAdapterは、同じトークナイザ/埋め込み空間を持つ他のモデル(サイズ違いなど)にも適用できる可能性があります(実験的機能)。
ファイル構成
train_prt14.py: 学習スクリプト。Hydraで設定を読み込み、PRTTrainerでLoRAを学習します。eval_prt14.py: 評価スクリプト。PRTGeneratorを使用し、テストデータのバッチ推論を行います。configs/: Hydra設定ファイルディレクトリ。config.yaml: メイン設定ファイル。モデルID、データパス、ハイパーパラメータ等を記述します。
使用方法
1. 環境構築
# (推奨)プロジェクトルートの仮想環境を有効化
source .venv/bin/activate
# 依存関係インストール(このExample用)
pip install -r examples/prt14_qwen25vl/requirements.txt
2. データセット準備
JSONL形式のデータセットが必要です。 各行は以下のフォーマットです:
{"image": "path/to/image.jpg", "question": "Describe...", "answer": "Target answer..."}
3. 学習 (Training)
config.yaml を編集するか、コマンドライン引数で設定を上書きして実行します。
# 基本実行 (config.yamlの設定を使用)
python examples/prt14_qwen25vl/train_prt14.py
# パラメータを上書きして実行
python examples/prt14_qwen25vl/train_prt14.py \
model.model_id="Qwen/Qwen2-VL-2B-Instruct" \
data.path="data/my_dataset.jsonl" \
training.batch_size=4 \
training.prt_lambda=1.5
4. 推論・評価 (Evaluation)
学習したAdapter(output_prt14など)を指定して推論を行います。
PRT14ではDataLoaderによるバッチ処理に対応しており、大量の評価データを効率的に処理できます。
# 基本実行 (学習時のoutput_dirが自動的にadapter_pathとして使われる設定の場合)
python examples/prt14_qwen25vl/eval_prt14.py
# データセットとパラメータを指定して実行
python examples/prt14_qwen25vl/eval_prt14.py \
data.path="data/test_data.jsonl" \
training.batch_size=8 \
training.output_dir="output_prt14" \
generation.max_new_tokens=100
主なクラス
PRTTrainer (train_prt14.py)
transformers.Trainer を継承。compute_loss をオーバーライドし、Algorithm 1 に基づく PRT Loss 計算を実装しています。
PRTGenerator (eval_prt14.py)
推論専用クラス。RefモデルとRewardモデルを保持し、generate メソッド内で Step-by-Step の Logits 合成 (Algorithm 2) を行います。
EvalDataset (eval_prt14.py)
評価用データローダー。画像パスの解決と読み込み、バッチ化のための前処理を行います。
更新履歴
- PRT14: Hydra設定管理の導入、DataLoaderによるBatch Eval対応、コード構造の整理。