metadata
license: apache-2.0
datasets:
- aripos1/gorani_dataset
language:
- ko
- en
- ja
base_model:
- unsloth/Llama-3.2-3B-Instruct-bnb-4bit
pipeline_tag: text-generation
library_name: transformers
Gorani Model Card
์๊ฐ (Introduce)
์ด ๋ชจ๋ธ์ ๋ฒ์ญ์ ์ํ ๋ชจ๋ธ์
๋๋ค. ํ๊ตญ ๊ณ ์ ์ด์ ์ ํํ ๋ฒ์ญ์ ์์ฑํ๊ธฐ ์ํด ํ๊ตญ์ด, ์์ด, ์ผ๋ณธ์ด์ ์ธ์ด ๋ฐ์ดํฐ๋ฅผ ํผํฉํ์ฌ unsloth/Llama-3.2-3B-Instruct-bnb-4bit์ ํ์ต์์ผ ์์ฑ๋ gorani-1B ์
๋๋ค.
gorani๋ ํ์ฌ ํ๊ตญ์ด, ์์ด, ์ผ๋ณธ์ด๋ง ๋ฒ์ญ์ ์ง์ํฉ๋๋ค.
๋ชจ๋ธ ์ ๋ณด
- ๊ฐ๋ฐ์: airpos1
- ๋ชจ๋ธ ์ ํ: llama๋ฅผ ๊ธฐ๋ฐ์ผ๋ก ํ๋ 3B ๋งค๊ฐ๋ณ์ ๋ชจ๋ธ์ธ gorani-3B
- ์ง์ ์ธ์ด: ํ๊ตญ์ด, ์์ด, ์ผ๋ณธ์ด
- ๋ผ์ด์ผ์ค: llama
Training Hyperparameters
- per_device_train_batch_size: 8
- gradient_accumulation_steps: 1
- warmup_steps: 5
- learning_rate: 2e-4
- fp16:
not is_bfloat16_supported() - num_train_epochs: 3
- weight_decay: 0.01
- lr_scheduler_type: "linear"

