YAML Metadata Warning: empty or missing yaml metadata in repo card

Check out the documentation for more information.

qwen3-4b-sft

このリポジトリは、unsloth/Qwen3-4B-Instruct-2507 をベースモデルとし、QLoRA (4-bit, Unsloth) を用いてファインチューニングされた LoRA アダプターを提供します。

【重要】本リポジトリには LoRA アダプターの重みのみが含まれています。ベースモデルは別途ロードする必要があります。

学習の目的

このアダプターは、構造化出力(JSON / YAML / XML / TOML / CSV)の精度向上を目的としてトレーニングされています。

学習時、損失(Loss)は最終的なアシスタントの出力にのみ適用され、中間的な推論プロセス(Chain-of-Thought)はマスクされています。

学習設定

  • ベースモデル: unsloth/Qwen3-4B-Instruct-2507
  • 手法: LoRA
  • 最大シーケンス長: 512
  • エポック数: 1
  • 学習率: 1e-6
  • LoRA パラメータ: r=64, α=128

使い方

from transformers import AutoModelForCausalLM, AutoTokenizer
from peft import PeftModel
import torch

base = "unsloth/Qwen3-4B-Instruct-2507"
adapter = "tash-huggingface/qwen3_4b_sft"

tokenizer = AutoTokenizer.from_pretrained(base)
model = AutoModelForCausalLM.from_pretrained(
    base,
    torch_dtype=torch.float16,
    device_map="auto",
)
model = PeftModel.from_pretrained(model, adapter)

ソースおよびライセンス(重要)

  • 学習データ: u-10bei/structured_data_with_cot_dataset_512_v4
  • データセットライセンス: Creative Commons Attribution (CC-BY-4.0)。本データセットは、CC-BY-4.0 ライセンスの条項に基づき、使用および再配布が可能です。
  • 遵守事項: 利用者は、データセットの帰属表記(クレジット)に関する要件、およびベースモデルの元の利用規約の両方を遵守する必要があります。
Downloads last month

-

Downloads are not tracked for this model. How to track
Inference Providers NEW
This model isn't deployed by any Inference Provider. 🙋 Ask for provider support