mms-1b-audio_books_news-aze-lr_1e3
This model is a fine-tuned version of facebook/mms-1b-all on the None dataset. It achieves the following results on the evaluation set:
- Loss: 0.1311
- Wer: 0.1677
- Cer: 0.0284
- Wer Book: 0.1760
- Cer Book: 0.0320
- Wer News: 0.1285
- Cer News: 0.0182
- Wer Cv: 0.2358
- Cer Cv: 0.0426
Model description
More information needed
Intended uses & limitations
More information needed
Training and evaluation data
More information needed
Training procedure
Training hyperparameters
The following hyperparameters were used during training:
- learning_rate: 0.001
- train_batch_size: 8
- eval_batch_size: 16
- seed: 42
- optimizer: Adam with betas=(0.9,0.999) and epsilon=1e-08
- lr_scheduler_type: linear
- lr_scheduler_warmup_steps: 500
- num_epochs: 10
- mixed_precision_training: Native AMP
Training results
| Training Loss | Epoch | Step | Validation Loss | Wer | Cer | Wer Book | Cer Book | Wer News | Cer News | Wer Cv | Cer Cv |
|---|---|---|---|---|---|---|---|---|---|---|---|
| 1.2998 | 0.25 | 554 | 0.1908 | 0.2444 | 0.0449 | 0.2476 | 0.0455 | 0.2352 | 0.0407 | 0.2576 | 0.0527 |
| 0.3167 | 0.5 | 1108 | 0.1716 | 0.2324 | 0.0405 | 0.2418 | 0.0432 | 0.2273 | 0.0358 | 0.2227 | 0.0450 |
| 0.3041 | 0.75 | 1662 | 0.1637 | 0.2316 | 0.0396 | 0.2611 | 0.0466 | 0.1976 | 0.0297 | 0.2402 | 0.0462 |
| 0.3003 | 1.0 | 2216 | 0.1683 | 0.2061 | 0.0378 | 0.2089 | 0.0401 | 0.1818 | 0.0292 | 0.2533 | 0.0515 |
| 0.2775 | 1.25 | 2770 | 0.1660 | 0.2228 | 0.0392 | 0.2360 | 0.0441 | 0.1897 | 0.0295 | 0.2664 | 0.0497 |
| 0.2802 | 1.5 | 3324 | 0.1619 | 0.2173 | 0.0386 | 0.2302 | 0.0413 | 0.1877 | 0.0308 | 0.2533 | 0.0497 |
| 0.2762 | 1.75 | 3878 | 0.1601 | 0.2109 | 0.0391 | 0.2263 | 0.0438 | 0.1818 | 0.0303 | 0.2402 | 0.0479 |
| 0.2778 | 2.0 | 4432 | 0.1567 | 0.2149 | 0.0379 | 0.2360 | 0.0446 | 0.1779 | 0.0270 | 0.2489 | 0.0473 |
| 0.2716 | 2.25 | 4986 | 0.1489 | 0.1933 | 0.0346 | 0.1934 | 0.0362 | 0.1798 | 0.0278 | 0.2227 | 0.0456 |
| 0.263 | 2.5 | 5540 | 0.1517 | 0.1957 | 0.0361 | 0.2186 | 0.0421 | 0.1640 | 0.0259 | 0.2140 | 0.0456 |
| 0.2668 | 2.75 | 6094 | 0.1520 | 0.1981 | 0.0366 | 0.2224 | 0.0432 | 0.1601 | 0.0262 | 0.2271 | 0.0450 |
| 0.264 | 3.0 | 6648 | 0.1577 | 0.2061 | 0.0365 | 0.2321 | 0.0429 | 0.1700 | 0.0251 | 0.2271 | 0.0473 |
| 0.2562 | 3.25 | 7202 | 0.1557 | 0.2061 | 0.0361 | 0.2302 | 0.0418 | 0.1640 | 0.0259 | 0.2445 | 0.0462 |
| 0.2555 | 3.5 | 7756 | 0.1525 | 0.1973 | 0.0356 | 0.2089 | 0.0401 | 0.1601 | 0.0256 | 0.2533 | 0.0473 |
| 0.2575 | 3.75 | 8310 | 0.1487 | 0.2037 | 0.0352 | 0.2147 | 0.0396 | 0.1719 | 0.0264 | 0.2489 | 0.0450 |
| 0.259 | 4.0 | 8864 | 0.1463 | 0.1909 | 0.0334 | 0.2050 | 0.0379 | 0.1601 | 0.0240 | 0.2271 | 0.0444 |
| 0.2477 | 4.25 | 9418 | 0.1474 | 0.1917 | 0.0335 | 0.2089 | 0.0390 | 0.1561 | 0.0234 | 0.2314 | 0.0438 |
| 0.2468 | 4.5 | 9972 | 0.1461 | 0.1869 | 0.0326 | 0.2031 | 0.0376 | 0.1502 | 0.0223 | 0.2314 | 0.0444 |
| 0.2499 | 4.75 | 10526 | 0.1504 | 0.1901 | 0.0340 | 0.2089 | 0.0387 | 0.1502 | 0.0234 | 0.2358 | 0.0467 |
| 0.2446 | 5.0 | 11080 | 0.1380 | 0.1845 | 0.0321 | 0.2031 | 0.0382 | 0.1443 | 0.0204 | 0.2314 | 0.0444 |
| 0.239 | 5.25 | 11634 | 0.1434 | 0.1837 | 0.0332 | 0.1973 | 0.0382 | 0.1462 | 0.0223 | 0.2358 | 0.0462 |
| 0.2394 | 5.5 | 12188 | 0.1438 | 0.1901 | 0.0330 | 0.2050 | 0.0373 | 0.1423 | 0.0212 | 0.2620 | 0.0491 |
| 0.2356 | 5.75 | 12742 | 0.1429 | 0.1909 | 0.0324 | 0.2166 | 0.0376 | 0.1403 | 0.0209 | 0.2445 | 0.0462 |
| 0.2395 | 6.0 | 13296 | 0.1414 | 0.1869 | 0.0312 | 0.2050 | 0.0365 | 0.1542 | 0.0206 | 0.2183 | 0.0426 |
| 0.2315 | 6.25 | 13850 | 0.1378 | 0.1869 | 0.0314 | 0.2012 | 0.0368 | 0.1542 | 0.0215 | 0.2271 | 0.0414 |
| 0.2254 | 6.5 | 14404 | 0.1402 | 0.1829 | 0.0320 | 0.1973 | 0.0368 | 0.1462 | 0.0206 | 0.2314 | 0.0462 |
| 0.2311 | 6.75 | 14958 | 0.1388 | 0.1829 | 0.0307 | 0.1896 | 0.0342 | 0.1502 | 0.0215 | 0.2402 | 0.0432 |
| 0.2341 | 7.0 | 15512 | 0.1362 | 0.1781 | 0.0312 | 0.1896 | 0.0356 | 0.1462 | 0.0220 | 0.2227 | 0.0414 |
| 0.2297 | 7.25 | 16066 | 0.1373 | 0.1821 | 0.0311 | 0.2031 | 0.0354 | 0.1383 | 0.0206 | 0.2314 | 0.0444 |
| 0.2201 | 7.5 | 16620 | 0.1371 | 0.1781 | 0.0299 | 0.1876 | 0.0340 | 0.1443 | 0.0198 | 0.2314 | 0.0432 |
| 0.2196 | 7.75 | 17174 | 0.1358 | 0.1821 | 0.0314 | 0.1915 | 0.0351 | 0.1482 | 0.0215 | 0.2358 | 0.0450 |
| 0.2283 | 8.0 | 17728 | 0.1343 | 0.1701 | 0.0290 | 0.1818 | 0.0323 | 0.1383 | 0.0201 | 0.2140 | 0.0414 |
| 0.22 | 8.25 | 18282 | 0.1309 | 0.1709 | 0.0288 | 0.1741 | 0.0312 | 0.1423 | 0.0201 | 0.2271 | 0.0426 |
| 0.2189 | 8.5 | 18836 | 0.1323 | 0.1773 | 0.0308 | 0.1838 | 0.0342 | 0.1462 | 0.0209 | 0.2314 | 0.0450 |
| 0.216 | 8.75 | 19390 | 0.1306 | 0.1693 | 0.0288 | 0.1838 | 0.0331 | 0.1245 | 0.0176 | 0.2358 | 0.0438 |
| 0.223 | 9.0 | 19944 | 0.1331 | 0.1669 | 0.0284 | 0.1760 | 0.0320 | 0.1304 | 0.0184 | 0.2271 | 0.0420 |
| 0.2123 | 9.25 | 20498 | 0.1324 | 0.1701 | 0.0288 | 0.1779 | 0.0317 | 0.1324 | 0.0187 | 0.2358 | 0.0444 |
| 0.2168 | 9.5 | 21052 | 0.1322 | 0.1685 | 0.0287 | 0.1741 | 0.0320 | 0.1344 | 0.0190 | 0.2314 | 0.0426 |
| 0.2159 | 9.75 | 21606 | 0.1310 | 0.1653 | 0.0281 | 0.1760 | 0.0320 | 0.1245 | 0.0176 | 0.2314 | 0.0426 |
| 0.2085 | 10.0 | 22160 | 0.1311 | 0.1677 | 0.0284 | 0.1760 | 0.0320 | 0.1285 | 0.0182 | 0.2358 | 0.0426 |
Framework versions
- Transformers 4.40.0.dev0
- Pytorch 2.2.1+cu121
- Datasets 2.18.0
- Tokenizers 0.15.2
- Downloads last month
- 2
Model tree for hajili/mms-1b-audio_books_news-aze-lr_1e3
Base model
facebook/mms-1b-all