KoGrammar
Collection
3 items • Updated
Dataset: 국립국어원 맞춤법 교정 말뭉치
Backbone Model:
Contributors:
GitHub Repo:
전체 데이터셋 중 약 67.5%를 학습데이터로 활용하여 학습함.
SFT Distillation을 이용해 kogrammar-base 모델의 Decoder Layer를 6개에서 1개로 줄여 다시 학습시킴.
| BLEU-2 | ROUGE-2 F1 |
|---|---|
| 77.8 % | 55.0 % |
# Load model directly from transformers import AutoTokenizer, AutoModelForSeq2SeqLM tokenizer = AutoTokenizer.from_pretrained("theSOL1/kogrammar-tiny-distil") model = AutoModelForSeq2SeqLM.from_pretrained("theSOL1/kogrammar-tiny-distil")