Update README.md
Browse files
README.md
CHANGED
@@ -13,6 +13,12 @@ tags:
|
|
13 |
데이터셋의 크기가 큰 관계로 데이터셋을 랜덤하게 섞은 후 5개로 나누어 학습을 진행중입니다.<br>
|
14 |
한 파트의 데이터셋 학습이 완료될 때마다 업데이트 하도록 하겠습니다.
|
15 |
|
|
|
|
|
|
|
|
|
|
|
|
|
16 |
### dataset
|
17 |
해당 모델은 AI hub의 많은 데이터셋을 한번에 학습시킨 것이 특징입니다. <br>
|
18 |
ASR은 domain에 대한 의존도가 매우 큽니다. 이 때문에 하나의 데이터셋에 학습을 시키더라도 다른 데이터셋에 대해서 테스트를 진행하면 성능이 크게 떨어지게 됩니다. <br>
|
@@ -41,10 +47,4 @@ The following hyperparameters were used during training:
|
|
41 |
- eval_batch_size: 16
|
42 |
- gradient_accumulation_steps: 2
|
43 |
- warmup_ratio: 0.01,
|
44 |
-
- num_train_epoch: 1
|
45 |
-
|
46 |
-
### Training results
|
47 |
-
|
48 |
-
| Dataset | Training Loss | Epoch | Validation Loss | Wer |
|
49 |
-
|:-------------:|:-------------:|:-----:|:---------------:|:-------:|
|
50 |
-
| Dataset part1 | 0.1943 | 0.2 | 0.0853 | 9.48 |
|
|
|
13 |
데이터셋의 크기가 큰 관계로 데이터셋을 랜덤하게 섞은 후 5개로 나누어 학습을 진행중입니다.<br>
|
14 |
한 파트의 데이터셋 학습이 완료될 때마다 업데이트 하도록 하겠습니다.
|
15 |
|
16 |
+
### Training results
|
17 |
+
|
18 |
+
| Dataset | Training Loss | Epoch | Validation Loss | Wer |
|
19 |
+
|:-------------:|:-------------:|:-----:|:---------------:|:-------:|
|
20 |
+
| Dataset part1 | 0.1943 | 0.2 | 0.0853 | 9.48 |
|
21 |
+
|
22 |
### dataset
|
23 |
해당 모델은 AI hub의 많은 데이터셋을 한번에 학습시킨 것이 특징입니다. <br>
|
24 |
ASR은 domain에 대한 의존도가 매우 큽니다. 이 때문에 하나의 데이터셋에 학습을 시키더라도 다른 데이터셋에 대해서 테스트를 진행하면 성능이 크게 떨어지게 됩니다. <br>
|
|
|
47 |
- eval_batch_size: 16
|
48 |
- gradient_accumulation_steps: 2
|
49 |
- warmup_ratio: 0.01,
|
50 |
+
- num_train_epoch: 1
|
|
|
|
|
|
|
|
|
|
|
|