|
|
--- |
|
|
base_model: google/gemma-3-1b-it |
|
|
library_name: peft |
|
|
tags: |
|
|
- gemma |
|
|
- peft |
|
|
- lora |
|
|
- classification |
|
|
- korean |
|
|
- academic-conference |
|
|
- lightweight-model |
|
|
license: apache-2.0 |
|
|
--- |
|
|
|
|
|
# ๋
ผ๋ฌธ ์ ๋ชฉ โ ํ์ ๋ํ ๋ถ๋ฅ LLM (IITP ์ค๋ฌด ๊ธฐ๋ฐ ๊ฒฝ๋ AI) |
|
|
|
|
|
์ด ๋ชจ๋ธ์ ๋
ผ๋ฌธ ์ ๋ชฉ์ ์
๋ ฅํ๋ฉด ํด๋น ๋
ผ๋ฌธ์ด ๋ฐํ๋ ๊ฐ๋ฅ์ฑ์ด ๋์ ํ์ ๋ํ๋ฅผ ์์ธกํ๋ ํ๊ตญ์ด ๊ฒฝ๋ LLM์
๋๋ค. |
|
|
Agent AI ํ์ฉ ํ์ฐ๊ณผ ๋ง๋ฌผ๋ ค, ์ฐ๊ตฌํ์ฅ์์ ์์ฐ์ด ๊ธฐ๋ฐ์ ๋ถ๋ฅ ์
๋ฌด๋ฅผ ์๋ํํ ์ ์๋๋ก ์ค๋ฌด ๋ฐ์ดํฐ๋ฅผ ๊ธฐ๋ฐ์ผ๋ก ๊ตฌ์ถํ์์ต๋๋ค. |
|
|
|
|
|
๋ณธ ํ๋ก์ ํธ๋ ์ ๋ณดํต์ ๊ธฐํํ๊ฐ์(IITP)์ ์ ์ฑ
์ํ์๋ก์, ์ค์ ๊ธฐ๊ด์์ ์ง๋ฉดํ '๋
ผ๋ฌธ-ํ์ ๋ํ ๋ถ๋ฅ' ์
๋ฌด๋ฅผ ํจ์จํํ๋ ๋ฐ ๊ธฐ์ฌํ๊ณ ์ ๊ธฐํ๋์์ต๋๋ค. |
|
|
|
|
|
--- |
|
|
|
|
|
## ๐ง Model Details |
|
|
|
|
|
- **Base Model**: `google/gemma-3-1b-it` |
|
|
- **Fine-tuning method**: LoRA (PEFT) |
|
|
- **Language**: Korean |
|
|
- **Task**: Classification (๋
ผ๋ฌธ ์ ๋ชฉ โ ํ์ ๋ํ) |
|
|
- **Developed by**: ๋ณ์ ํ |
|
|
- **Affiliation**: ์ ๋ณดํต์ ๊ธฐํํ๊ฐ์(IITP) ์
๋ฌด ์ง์์ฉ Test ๋ชจ๋ธ |
|
|
- **Fine-tuned on**: ํ๊ตญ์ฐ๊ตฌ์ฌ๋จ ํ์ ๋ํ ๋
ผ๋ฌธ์ฌ์ฌ ๋ฐ์ดํฐ (๊ณต๊ฐ CSV ํ์ฉ) |
|
|
|
|
|
--- |
|
|
|
|
|
## ๐งพ Dataset |
|
|
|
|
|
- **์๋ณธ**: `ํ๊ตญ์ฐ๊ตฌ์ฌ๋จ_ํ์ ๋ํ๋
ผ๋ฌธ์ฌ์ฌ_20241231.csv` |
|
|
- **๊ตฌ์ฑ**: `{"text": ๋
ผ๋ฌธ ์ ๋ชฉ, "label": ํ์ ๋ํ๋ช
}` ํํ์ JSONL ๋ณํ |
|
|
- **์ํ ์**: ์ฝ 9,000๊ฑด |
|
|
- **์ ์ฒ๋ฆฌ ๋ฐฉ์**: `[INST] ๋
ผ๋ฌธ ์ ๋ชฉ: {์ ๋ชฉ} ์ด๋ค ํ์ ๋ํ๋ช
์ธ๊ฐ์? [/INST] {ํ์ ๋ํ๋ช
}` ํ์์ผ๋ก Prompt ์์ฑ |
|
|
|
|
|
--- |
|
|
|
|
|
## ๐ Model Usage |
|
|
|
|
|
```python |
|
|
from transformers import AutoTokenizer, AutoModelForCausalLM |
|
|
import torch |
|
|
|
|
|
model = AutoModelForCausalLM.from_pretrained("JeongHeum/gemma3-korean-academic-classifier") |
|
|
tokenizer = AutoTokenizer.from_pretrained("JeongHeum/gemma3-korean-academic-classifier") |
|
|
|
|
|
prompt = "[INST] ๋
ผ๋ฌธ ์ ๋ชฉ: ๋ฅ๋ฌ๋ ๊ธฐ๋ฐ ํ๊ตญ์ด ์์ฑ ์ธ์ ์์คํ
[/INST]" |
|
|
inputs = tokenizer(prompt, return_tensors="pt").to("cuda") |
|
|
outputs = model.generate(**inputs, max_new_tokens=20) |
|
|
|
|
|
print(tokenizer.decode(outputs[0], skip_special_tokens=True)) |
|
|
# ์์ ์ถ๋ ฅ: ํ๊ตญ์์ฑ์ฒ๋ฆฌํํ |
|
|
|