rosssso's picture
Upload folder using huggingface_hub
09c07bd verified

PRT14: Portable Reward Tuning (Design A + Hydra + Batch Eval)

このディレクトリには、PRT (Portable Reward Tuning) の第14版実装が含まれています。 PRT14は、これまでの実験で確立された Design A (Trainer/Generator Separation) パターンを採用し、設定管理に Hydra を導入、さらに評価時の バッチ推論 に対応した実用的な実装セットです。

概要

PRTは、大規模な言語モデル(VL含む)の生成スタイルや特定の報酬を、小型の Reward Model (LoRA Adapter) として学習・転移させる技術です。 本実装では、以下の構成で動作します:

  • 学習 (Train): ベースモデルを2つ用意し(Ref:凍結, Reward:学習)、KL制約付きの報酬最大化(実際にはCrossEntropyによる模倣学習的アプローチ)を行います。
  • 推論 (Eval): 学習したReward Adapterをロードし、StepごとにRefモデルとRewardモデルのLogitsを合成して生成を行います。

アーキテクチャ

Training Phase (Design A-Train)

学習時は PRTTrainer を使用し、Reference Model の出力を基準として Reward Model を更新します。

graph LR
    Input["Input Image/Text"] --> Ref["Reference Model (Frozen)"]
    Input --> Rew["Reward Model (LoRA Trainable)"]
    
    Ref -->|Logits| Loss
    Rew -->|Logits| Loss
    
    Loss["PRT Loss"] -->|Backprop| Rew
    
    subgraph Loss Calculation
    L["Logits Composition"]
    L -->|"ref_logits + lambda * reward_logits"| CE["CrossEntropy w/ Labels"]
    end
  • Reference Model: ベースモデルそのまま (Frozen)。分布の基準となります。
  • Reward Model: ベースモデル + LoRA Adapter。報酬信号(正解テキストへの誘導)を学習します。
  • PRT Loss: ref_logits + prt_lambda * reward_logits を合成し、これをTarget Labelに近づけるように学習します。
    • Note: ref_logits は確率分布の基準なので log_softmax を適用しますが、reward_logits は「報酬値」そのものとして扱うため、log_softmax を適用せずにそのまま加算します。

Inference Phase (Design A-Gen)

推論時は PRTGenerator を使用し、2つのモデルを並列で回しながらLogitsを合成してトークンを選択します。

graph TD
    User["User Input"] --> P[Processor]
    P --> Ref["Reference Model (Base)"]
    P --> Rew["Reward Model (Base + Adapter)"]
    
    Ref -->|Logits| Mix(("Composition"))
    Rew -->|Logits| Mix
    
    Mix -->|"v = ref + lambda * rew"| Samp["Sampler / Greedy"]
    Samp -->|"Next Token"| Out["Output Text"]
    Out -->|Autoregressive| P
  • Portable: このAdapterは、同じトークナイザ/埋め込み空間を持つ他のモデル(サイズ違いなど)にも適用できる可能性があります(実験的機能)。

ファイル構成

  • train_prt14.py: 学習スクリプト。Hydraで設定を読み込み、PRTTrainerでLoRAを学習します。
  • eval_prt14.py: 評価スクリプト。PRTGeneratorを使用し、テストデータのバッチ推論を行います。
  • configs/: Hydra設定ファイルディレクトリ。
    • config.yaml: メイン設定ファイル。モデルID、データパス、ハイパーパラメータ等を記述します。

使用方法

1. 環境構築

# (推奨)プロジェクトルートの仮想環境を有効化
source .venv/bin/activate

# 依存関係インストール(このExample用)
pip install -r examples/prt14_qwen25vl/requirements.txt

2. データセット準備

JSONL形式のデータセットが必要です。 各行は以下のフォーマットです:

{"image": "path/to/image.jpg", "question": "Describe...", "answer": "Target answer..."}

3. 学習 (Training)

config.yaml を編集するか、コマンドライン引数で設定を上書きして実行します。

# 基本実行 (config.yamlの設定を使用)
python examples/prt14_qwen25vl/train_prt14.py

# パラメータを上書きして実行
python examples/prt14_qwen25vl/train_prt14.py \
    model.model_id="Qwen/Qwen2-VL-2B-Instruct" \
    data.path="data/my_dataset.jsonl" \
    training.batch_size=4 \
    training.prt_lambda=1.5

4. 推論・評価 (Evaluation)

学習したAdapter(output_prt14など)を指定して推論を行います。 PRT14ではDataLoaderによるバッチ処理に対応しており、大量の評価データを効率的に処理できます。

# 基本実行 (学習時のoutput_dirが自動的にadapter_pathとして使われる設定の場合)
python examples/prt14_qwen25vl/eval_prt14.py

# データセットとパラメータを指定して実行
python examples/prt14_qwen25vl/eval_prt14.py \
    data.path="data/test_data.jsonl" \
    training.batch_size=8 \
    training.output_dir="output_prt14" \
    generation.max_new_tokens=100

主なクラス

PRTTrainer (train_prt14.py)

transformers.Trainer を継承。compute_loss をオーバーライドし、Algorithm 1 に基づく PRT Loss 計算を実装しています。

PRTGenerator (eval_prt14.py)

推論専用クラス。RefモデルとRewardモデルを保持し、generate メソッド内で Step-by-Step の Logits 合成 (Algorithm 2) を行います。

EvalDataset (eval_prt14.py)

評価用データローダー。画像パスの解決と読み込み、バッチ化のための前処理を行います。

更新履歴

  • PRT14: Hydra設定管理の導入、DataLoaderによるBatch Eval対応、コード構造の整理。