eyepyon commited on
Commit
365ea28
·
verified ·
1 Parent(s): 1c17b40

Upload README.md with huggingface_hub

Browse files
Files changed (1) hide show
  1. README.md +54 -17
README.md CHANGED
@@ -1,18 +1,28 @@
1
  ---
2
- {}
 
 
 
 
 
 
 
 
 
3
  ---
4
 
5
  # eyepyon/rcPhi4miniR-finetuned
6
 
7
- このモデルは、基底モデルにファインチューニングされました。
8
 
9
  ## モデル情報
10
 
11
- - 基底モデル: microsoft/Phi-4-mini-reasoning
12
- - ファインチューニング手法: LoRA (Low-Rank Adaptation)
13
- - ファイチューニング対象: Q/V/K/Oプロジェクション
14
- - LoRAランク: 8
15
- - LoRA Alpha: 16
 
16
 
17
  ## 使用方法
18
 
@@ -20,24 +30,51 @@
20
  from transformers import AutoModelForCausalLM, AutoTokenizer
21
  from peft import PeftModel
22
 
23
- # ベースモデル読み込み
24
- base_model = AutoModelForCausalLM.from_pretrained("microsoft/Phi-4-mini-reasoning")
 
 
 
 
 
 
25
  tokenizer = AutoTokenizer.from_pretrained("microsoft/Phi-4-mini-reasoning")
26
 
27
- # LoRAアダプターの読み込み
28
  model = PeftModel.from_pretrained(base_model, "eyepyon/rcPhi4miniR-finetuned")
29
 
30
  # 推論
31
  input_text = "### コンテキスト:\n[コンテキスト]\n\n### 質問:\n[質問]\n\n### 回答:\n"
32
  inputs = tokenizer(input_text, return_tensors="pt")
33
- outputs = model.generate(**inputs, max_length=200)
34
- print(tokenizer.decode(outputs[0], skip_special_tokens=True))
 
 
 
 
 
 
 
 
 
 
 
 
 
 
35
  ```
36
 
37
  ## トレーニング設定
38
 
39
- - エポッ: 3
40
- - 学習率: 2e-4
41
- - チサイズ: 1 × 4 (gradient accumulation)
42
- - 重み減衰: 0.01
43
- - 量子化: 4ビット
 
 
 
 
 
 
 
 
1
  ---
2
+ license: mit
3
+ base_model: microsoft/Phi-4-mini-reasoning
4
+ tags:
5
+ - fine-tuned
6
+ - phi-4
7
+ - lora
8
+ - japanese
9
+ - qa
10
+ library_name: transformers
11
+ pipeline_tag: text-generation
12
  ---
13
 
14
  # eyepyon/rcPhi4miniR-finetuned
15
 
16
+ このモデルは、`microsoft/Phi-4-mini-reasoning` ベースLoRAでファインチューニングされたモデルです
17
 
18
  ## モデル情報
19
 
20
+ - **ベースモデル**: microsoft/Phi-4-mini-reasoning
21
+ - **ファインチューニング手法**: LoRA (Low-Rank Adaptation)
22
+ - **アテンション実装**: eager (Phi-4推奨)
23
+ - **量子化**: 4ビット (QLoRA)
24
+ - **対応言語**: 日本語
25
+ - **タスク**: 質問応答
26
 
27
  ## 使用方法
28
 
 
30
  from transformers import AutoModelForCausalLM, AutoTokenizer
31
  from peft import PeftModel
32
 
33
+ # ベースモデルとトークナイザーを読み込み
34
+ base_model = AutoModelForCausalLM.from_pretrained(
35
+ "microsoft/Phi-4-mini-reasoning",
36
+ torch_dtype="auto",
37
+ device_map="auto",
38
+ attn_implementation="eager",
39
+ trust_remote_code=True
40
+ )
41
  tokenizer = AutoTokenizer.from_pretrained("microsoft/Phi-4-mini-reasoning")
42
 
43
+ # LoRAアダプターを適用
44
  model = PeftModel.from_pretrained(base_model, "eyepyon/rcPhi4miniR-finetuned")
45
 
46
  # 推論
47
  input_text = "### コンテキスト:\n[コンテキスト]\n\n### 質問:\n[質問]\n\n### 回答:\n"
48
  inputs = tokenizer(input_text, return_tensors="pt")
49
+ outputs = model.generate(**inputs, max_length=200, do_sample=True, temperature=0.7)
50
+ response = tokenizer.decode(outputs[0], skip_special_tokens=True)
51
+ print(response)
52
+ ```
53
+
54
+ ## 入力フォーマット
55
+
56
+ ```
57
+ ### コンテキスト:
58
+ [背景情報]
59
+
60
+ ### 質問:
61
+ [ユーザーの質問]
62
+
63
+ ### 回答:
64
+ [期待される回答]
65
  ```
66
 
67
  ## トレーニング設定
68
 
69
+ - **LoRAラン**: 8
70
+ - **LoRA Alpha**: 16
71
+ - **ターゲトモジュール**: qkv_proj, o_proj, gate_up_proj, down_proj
72
+ - **学習率**: 2e-4
73
+ - **バッチサイズ**: 1 × 4 (gradient accumulation)
74
+ - **エポック数**: 3
75
+
76
+ ## 注意事項
77
+
78
+ - Phi-4モデル使用のため `attn_implementation="eager"` が推奨されます
79
+ - `use_cache=False` でトレーニングされています
80
+ - グラディエントチェックポイント対応済み