File size: 1,181 Bytes
1193bf2 1132cd8 1193bf2 1132cd8 1193bf2 1132cd8 1193bf2 1132cd8 1193bf2 1132cd8 1193bf2 1132cd8 1193bf2 1132cd8 1193bf2 1132cd8 1193bf2 1132cd8 1193bf2 1132cd8 1193bf2 1132cd8 |
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 |
# eyepyon/rcphi2
このモデルは、基底モデルを元にファインチューニングされました。
## モデル情報
- 基底モデル: microsoft/phi-2
- ファインチューニング手法: LoRA (Low-Rank Adaptation)
- ファインチューニング対象: Q/V/K/Oプロジェクション層
- LoRAランク: 8
- LoRA Alpha: 16
## 使用方法
```python
from transformers import AutoModelForCausalLM, AutoTokenizer
from peft import PeftModel
# ベースモデルの読み込み
base_model = AutoModelForCausalLM.from_pretrained("microsoft/phi-2")
tokenizer = AutoTokenizer.from_pretrained("microsoft/phi-2")
# LoRAアダプターの読み込み
model = PeftModel.from_pretrained(base_model, "eyepyon/rcphi2")
# 推論
input_text = "### コンテキスト:\n[コンテキスト]\n\n### 質問:\n[質問]\n\n### 回答:\n"
inputs = tokenizer(input_text, return_tensors="pt")
outputs = model.generate(**inputs, max_length=200)
print(tokenizer.decode(outputs[0], skip_special_tokens=True))
```
## トレーニング設定
- エポック数: 3
- 学習率: 2e-4
- バッチサイズ: 1 × 4 (gradient accumulation)
- 重み減衰: 0.01
- 量子化: 4ビット
|