YAML Metadata Warning: empty or missing yaml metadata in repo card
Check out the documentation for more information.
qwen3-4b-sft
このリポジトリは、unsloth/Qwen3-4B-Instruct-2507 をベースモデルとし、QLoRA (4-bit, Unsloth) を用いてファインチューニングされた LoRA アダプターを提供します。
【重要】本リポジトリには LoRA アダプターの重みのみが含まれています。ベースモデルは別途ロードする必要があります。
学習の目的
このアダプターは、構造化出力(JSON / YAML / XML / TOML / CSV)の精度向上を目的としてトレーニングされています。
学習時、損失(Loss)は最終的なアシスタントの出力にのみ適用され、中間的な推論プロセス(Chain-of-Thought)はマスクされています。
学習設定
- ベースモデル: unsloth/Qwen3-4B-Instruct-2507
- 手法: LoRA
- 最大シーケンス長: 512
- エポック数: 1
- 学習率: 1e-6
- LoRA パラメータ: r=64, α=128
使い方
from transformers import AutoModelForCausalLM, AutoTokenizer
from peft import PeftModel
import torch
base = "unsloth/Qwen3-4B-Instruct-2507"
adapter = "tash-huggingface/qwen3_4b_sft"
tokenizer = AutoTokenizer.from_pretrained(base)
model = AutoModelForCausalLM.from_pretrained(
base,
torch_dtype=torch.float16,
device_map="auto",
)
model = PeftModel.from_pretrained(model, adapter)
ソースおよびライセンス(重要)
- 学習データ: u-10bei/structured_data_with_cot_dataset_512_v4
- データセットライセンス: Creative Commons Attribution (CC-BY-4.0)。本データセットは、CC-BY-4.0 ライセンスの条項に基づき、使用および再配布が可能です。
- 遵守事項: 利用者は、データセットの帰属表記(クレジット)に関する要件、およびベースモデルの元の利用規約の両方を遵守する必要があります。
Inference Providers NEW
This model isn't deployed by any Inference Provider. 🙋 Ask for provider support