YAML Metadata Warning: empty or missing yaml metadata in repo card (https://huggingface.co/docs/hub/model-cards#model-card-metadata)

eyepyon/rcphi2

このモデルは、基底モデルを元にファインチューニングされました。

モデル情報

  • 基底モデル: microsoft/phi-2
  • ファインチューニング手法: LoRA (Low-Rank Adaptation)
  • ファインチューニング対象: Q/V/K/Oプロジェクション層
  • LoRAランク: 8
  • LoRA Alpha: 16

使用方法

from transformers import AutoModelForCausalLM, AutoTokenizer
from peft import PeftModel

# ベースモデルの読み込み
base_model = AutoModelForCausalLM.from_pretrained("microsoft/phi-2")
tokenizer = AutoTokenizer.from_pretrained("microsoft/phi-2")

# LoRAアダプターの読み込み
model = PeftModel.from_pretrained(base_model, "eyepyon/rcphi2")

# 推論
input_text = "### コンテキスト:\n[コンテキスト]\n\n### 質問:\n[質問]\n\n### 回答:\n"
inputs = tokenizer(input_text, return_tensors="pt")
outputs = model.generate(**inputs, max_length=200)
print(tokenizer.decode(outputs[0], skip_special_tokens=True))

トレーニング設定

  • エポック数: 3
  • 学習率: 2e-4
  • バッチサイズ: 1 × 4 (gradient accumulation)
  • 重み減衰: 0.01
  • 量子化: 4ビット
Downloads last month

-

Downloads are not tracked for this model. How to track
Inference Providers NEW
This model isn't deployed by any Inference Provider. 🙋 Ask for provider support

Space using eyepyon/rcphi2 1