File size: 1,062 Bytes
3f067e7
7b762c3
 
 
 
 
 
 
 
 
3f067e7
7b762c3
 
3f067e7
7b762c3
 
3f067e7
7b762c3
 
 
 
3f067e7
7b762c3
f24f79c
3f067e7
7b762c3
 
 
 
3f067e7
7b762c3
3f067e7
7b762c3
3f067e7
48dcaf5
 
 
 
 
 
 
 
 
 
 
 
7b762c3
3f067e7
7b762c3
3f067e7
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
39
40
41
42
43
44
45
46
47
48
49
50
51
---
license: cc-by-nc-nd-4.0
base_model: skt/kogpt2-base-v2
tags:
- gpt2
- lora
- korean
- chatbot
language:
- ko
---
# 모델 이름
- **모델 이름**: LoRA 한국어 챗봇

## 모델 설명
- **모델 설명**: LoRA를 활용한 한국어 챗봇 대화 형성 모델입니다.

## 모델 상세
- **베이스 모델**: skt/kogpt2-base-v2
- **파인튜닝 방법**: LoRA
- **언어**: 한국어

## LoRA 설정
- **LoRA rank**: 8

## 학습 설정
- **에폭**: 10
- **배치 크기**: 10
- **학습 속도**: 0.0002

## 학습 결과

## 사용 방법

```# 1. 토크나이저 불러오기
tokenizer_reload = AutoTokenizer.from_pretrained(model_name_upload)

# 2. 베이스 모델 불러오기
base_reload = AutoModelForCausalLM.from_pretrained("skt/kogpt2-base-v2")

# 3. 학습할 때와 똑같이 크기 조정
base_reload.resize_token_embeddings(len(tokenizer_reload))
base_reload.config.pad_token_id = tokenizer_reload.pad_token_id

# 4. LoRA 불러오기
model_reload = PeftModel.from_pretrained(base_reload, model_name_upload)
```

## 모델 정보