Update README.md
Browse files
README.md
CHANGED
|
@@ -13,6 +13,12 @@ tags:
|
|
| 13 |
데이터셋의 크기가 큰 관계로 데이터셋을 랜덤하게 섞은 후 5개로 나누어 학습을 진행중입니다.<br>
|
| 14 |
한 파트의 데이터셋 학습이 완료될 때마다 업데이트 하도록 하겠습니다.
|
| 15 |
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
| 16 |
### dataset
|
| 17 |
해당 모델은 AI hub의 많은 데이터셋을 한번에 학습시킨 것이 특징입니다. <br>
|
| 18 |
ASR은 domain에 대한 의존도가 매우 큽니다. 이 때문에 하나의 데이터셋에 학습을 시키더라도 다른 데이터셋에 대해서 테스트를 진행하면 성능이 크게 떨어지게 됩니다. <br>
|
|
@@ -41,10 +47,4 @@ The following hyperparameters were used during training:
|
|
| 41 |
- eval_batch_size: 16
|
| 42 |
- gradient_accumulation_steps: 2
|
| 43 |
- warmup_ratio: 0.01,
|
| 44 |
-
- num_train_epoch: 1
|
| 45 |
-
|
| 46 |
-
### Training results
|
| 47 |
-
|
| 48 |
-
| Dataset | Training Loss | Epoch | Validation Loss | Wer |
|
| 49 |
-
|:-------------:|:-------------:|:-----:|:---------------:|:-------:|
|
| 50 |
-
| Dataset part1 | 0.1943 | 0.2 | 0.0853 | 9.48 |
|
|
|
|
| 13 |
데이터셋의 크기가 큰 관계로 데이터셋을 랜덤하게 섞은 후 5개로 나누어 학습을 진행중입니다.<br>
|
| 14 |
한 파트의 데이터셋 학습이 완료될 때마다 업데이트 하도록 하겠습니다.
|
| 15 |
|
| 16 |
+
### Training results
|
| 17 |
+
|
| 18 |
+
| Dataset | Training Loss | Epoch | Validation Loss | Wer |
|
| 19 |
+
|:-------------:|:-------------:|:-----:|:---------------:|:-------:|
|
| 20 |
+
| Dataset part1 | 0.1943 | 0.2 | 0.0853 | 9.48 |
|
| 21 |
+
|
| 22 |
### dataset
|
| 23 |
해당 모델은 AI hub의 많은 데이터셋을 한번에 학습시킨 것이 특징입니다. <br>
|
| 24 |
ASR은 domain에 대한 의존도가 매우 큽니다. 이 때문에 하나의 데이터셋에 학습을 시키더라도 다른 데이터셋에 대해서 테스트를 진행하면 성능이 크게 떨어지게 됩니다. <br>
|
|
|
|
| 47 |
- eval_batch_size: 16
|
| 48 |
- gradient_accumulation_steps: 2
|
| 49 |
- warmup_ratio: 0.01,
|
| 50 |
+
- num_train_epoch: 1
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|