File size: 1,062 Bytes
3f067e7 7b762c3 3f067e7 7b762c3 3f067e7 7b762c3 3f067e7 7b762c3 3f067e7 7b762c3 f24f79c 3f067e7 7b762c3 3f067e7 7b762c3 3f067e7 7b762c3 3f067e7 48dcaf5 7b762c3 3f067e7 7b762c3 3f067e7 | 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 46 47 48 49 50 51 | ---
license: cc-by-nc-nd-4.0
base_model: skt/kogpt2-base-v2
tags:
- gpt2
- lora
- korean
- chatbot
language:
- ko
---
# 모델 이름
- **모델 이름**: LoRA 한국어 챗봇
## 모델 설명
- **모델 설명**: LoRA를 활용한 한국어 챗봇 대화 형성 모델입니다.
## 모델 상세
- **베이스 모델**: skt/kogpt2-base-v2
- **파인튜닝 방법**: LoRA
- **언어**: 한국어
## LoRA 설정
- **LoRA rank**: 8
## 학습 설정
- **에폭**: 10
- **배치 크기**: 10
- **학습 속도**: 0.0002
## 학습 결과
## 사용 방법
```# 1. 토크나이저 불러오기
tokenizer_reload = AutoTokenizer.from_pretrained(model_name_upload)
# 2. 베이스 모델 불러오기
base_reload = AutoModelForCausalLM.from_pretrained("skt/kogpt2-base-v2")
# 3. 학습할 때와 똑같이 크기 조정
base_reload.resize_token_embeddings(len(tokenizer_reload))
base_reload.config.pad_token_id = tokenizer_reload.pad_token_id
# 4. LoRA 불러오기
model_reload = PeftModel.from_pretrained(base_reload, model_name_upload)
```
## 모델 정보
|