File size: 1,181 Bytes
1193bf2
1132cd8
1193bf2
1132cd8
1193bf2
1132cd8
1193bf2
1132cd8
 
 
 
 
1193bf2
1132cd8
1193bf2
1132cd8
 
 
1193bf2
1132cd8
 
 
1193bf2
1132cd8
 
1193bf2
1132cd8
 
 
 
 
 
1193bf2
1132cd8
1193bf2
1132cd8
 
 
 
 
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
39
40
41

# eyepyon/rcphi2

このモデルは、基底モデルを元にファインチューニングされました。

## モデル情報

- 基底モデル: microsoft/phi-2
- ファインチューニング手法: LoRA (Low-Rank Adaptation)
- ファインチューニング対象: Q/V/K/Oプロジェクション層
- LoRAランク: 8
- LoRA Alpha: 16

## 使用方法

```python
from transformers import AutoModelForCausalLM, AutoTokenizer
from peft import PeftModel

# ベースモデルの読み込み
base_model = AutoModelForCausalLM.from_pretrained("microsoft/phi-2")
tokenizer = AutoTokenizer.from_pretrained("microsoft/phi-2")

# LoRAアダプターの読み込み
model = PeftModel.from_pretrained(base_model, "eyepyon/rcphi2")

# 推論
input_text = "### コンテキスト:\n[コンテキスト]\n\n### 質問:\n[質問]\n\n### 回答:\n"
inputs = tokenizer(input_text, return_tensors="pt")
outputs = model.generate(**inputs, max_length=200)
print(tokenizer.decode(outputs[0], skip_special_tokens=True))
```

## トレーニング設定

- エポック数: 3
- 学習率: 2e-4
- バッチサイズ: 1 × 4 (gradient accumulation)
- 重み減衰: 0.01
- 量子化: 4ビット