KLUE_BERT Classification - Fine-tuned on Korean-Petitions
KLUE-BERT ๋ชจ๋ธ(klue/bert-base)์ ํ๊ตญ ์ฒญ์๋ ๊ตญ๋ฏผ์ฒญ์ ๋ฐ์ดํฐ์
(heegyu/korean-petitions)์ผ๋ก Fine-tuningํ์ฌ ์ฒญ์ ๋ด์ฉ์ ์๋์ผ๋ก ์นดํ
๊ณ ๋ฆฌ ๋ณ๋ก ๋ถ๋ฅํฉ๋๋ค.
Model Details
Model Description
- Task: Multi-class Text Classification (17 Categories)
- Base Model: klue/bert-base
- Technique: PEFT / LoRA (Rank=32, Alpha=64)
- Language: Korean
- Description: ์ฒญ์๋ ๊ตญ๋ฏผ์ฒญ์์ ์ ๋ชฉ๊ณผ ๋ณธ๋ฌธ์ ์ ๋ ฅ๋ฐ์ ํด๋น ์ฒญ์์ด ์ด๋ ์นดํ ๊ณ ๋ฆฌ(์: ์ ์น๊ฐํ, ๋ณด๊ฑด๋ณต์ง, ์ธ๊ถ/์ฑํ๋ฑ ๋ฑ)์ ์ํ๋์ง ์์ธกํฉ๋๋ค.
Model Uses
Direct Use
ํ๊ตญ์ด ํ
์คํธ๋ก ๋ ๋ฏผ์์ด๋ ์ ์์ ํน์ ์นดํ
๊ณ ๋ฆฌ๋ก ๋ถ๋ฅํ๋ ๋ฐ ์ง์ ์ฌ์ฉํ ์ ์์ต๋๋ค. ํนํ ๊ณต๊ณต ๊ธฐ๊ด์ ๋ฏผ์ ์๋ ๋ถ๋ฅ ์์คํ
์ด์์ผ๋ก ํ์ฉํ๊ธฐ์ ์ ํฉํฉ๋๋ค:
์ ์น๊ฐํ, ์ธ๊ต/ํต์ผ/๊ตญ๋ฐฉ, ์ผ์๋ฆฌ, ๋ฏธ๋, ์ฑ์ฅ๋๋ ฅ, ๋์ฐ์ด์ด, ๋ณด๊ฑด๋ณต์ง, ๋ง์๊ณต๋์ฒด, ๊ฒฝ์ ๋ฏผ์ฃผํ, ์์ /ํ๊ฒฝ, ์ฃผ๊ฑฐ/20๋, ์ธ๊ถ/์ฑํ๋ฑ, ๋ฌธํ/์์ /์ฒด์ก/์ธ๋ก , ๋ฐ๋ ค๋๋ฌผ, ๊ตํต/๊ฑด์ถ/๊ตญํ , ํ์ , ๊ธฐํ
Downstream Use
์ ๋ถ ์ ์ฑ ์ ๋ํ ์ฌ๋ก ๋ถ์, ํน์ ์๊ธฐ๋ณ ์ฌํ์ ์ด์ ํธ๋ ๋ ํ์ ๋ฑ ๋ฐ์ดํฐ ๋ถ์ ํ๋ก์ ํธ์ ๊ธฐ์ด ๋ชจ๋ธ๋ก ํ์ฉ ๊ฐ๋ฅํฉ๋๋ค.
๐ Training Results (Full Dataset)
| Parameter | Value |
|---|---|
| GPU | NVIDIA Tesla V100 (32GB) |
| Training Duration | 03:47:33 |
| Data Size | 436,660 samples (Full) |
| Batch Size | 64 |
| Learning Rate | 3e-5 |
| Max Sequence Length | 256 |
| Epochs | 2.0 |
Final Evaluation Metrics (on Test Set)
- Accuracy: 45.05%
- Macro F1-Score: 41.89%
- Average Confidence: 39.08%
๐ Usage
from transformers import AutoModelForSequenceClassification, AutoTokenizer
import torch
model_id = "rudalson/klue-bert-classification-petitions"
tokenizer = AutoTokenizer.from_pretrained(model_id)
model = AutoModelForSequenceClassification.from_pretrained(model_id)
text = "์ฒญ์ ๋ด์ฉ ์์: ์ฐ๋ฆฌ ๋๋ค ๊ณต์์ ์์ ์ ๊ฐํํด์ฃผ์ธ์."
inputs = tokenizer(text, return_tensors="pt", truncation=True, max_length=256)
with torch.no_grad():
logits = model(**inputs).logits
predicted_class_id = logits.argmax().item()
- Downloads last month
- 53
Model tree for rudalson/klue-bert-classification-petitions
Base model
klue/bert-base