wav2vec2-large-xlsr-53-esperanto-esperanto-asr-augment-dynamic

This model is a fine-tuned version of cpierse/wav2vec2-large-xlsr-53-esperanto on an unknown dataset. It achieves the following results on the evaluation set:

  • Loss: 0.2010
  • Wer: 0.2699

Model description

More information needed

Intended uses & limitations

More information needed

Training and evaluation data

More information needed

Training procedure

Training hyperparameters

The following hyperparameters were used during training:

  • learning_rate: 0.0003
  • train_batch_size: 4
  • eval_batch_size: 8
  • seed: 42
  • gradient_accumulation_steps: 2
  • total_train_batch_size: 8
  • optimizer: Use OptimizerNames.ADAMW_TORCH_FUSED with betas=(0.9,0.999) and epsilon=1e-08 and optimizer_args=No additional optimizer arguments
  • lr_scheduler_type: linear
  • lr_scheduler_warmup_steps: 500
  • num_epochs: 30
  • mixed_precision_training: Native AMP

Training results

Training Loss Epoch Step Validation Loss Wer
0.7886 0.1333 100 0.6312 0.8321
0.4812 0.2667 200 0.3694 0.7322
0.3773 0.4 300 0.2779 0.6179
0.3527 0.5333 400 0.2169 0.5091
0.3208 0.6667 500 0.1829 0.4537
0.3476 0.8 600 0.1861 0.4446
0.3121 0.9333 700 0.1748 0.4226
0.314 1.0667 800 0.1695 0.4265
0.2613 1.2 900 0.1648 0.4155
0.3094 1.3333 1000 0.1633 0.4153
0.2587 1.4667 1100 0.1565 0.3965
0.3307 1.6 1200 0.1621 0.3955
0.289 1.7333 1300 0.1615 0.4014
0.2736 1.8667 1400 0.1471 0.3790
0.2489 2.0 1500 0.1560 0.3801
0.2956 2.1333 1600 0.1531 0.3809
0.2427 2.2667 1700 0.1568 0.3869
0.2756 2.4 1800 0.1559 0.3884
0.3154 2.5333 1900 0.1532 0.3921
0.2561 2.6667 2000 0.1477 0.3751
0.2602 2.8 2100 0.1555 0.3852
0.2781 2.9333 2200 0.1526 0.3759
0.2251 3.0667 2300 0.1525 0.3811
0.2212 3.2 2400 0.1554 0.3762
0.2477 3.3333 2500 0.1461 0.3654
0.2219 3.4667 2600 0.1489 0.3658
0.2449 3.6 2700 0.1432 0.3618
0.2559 3.7333 2800 0.1543 0.3763
0.241 3.8667 2900 0.1510 0.3585
0.2478 4.0 3000 0.1436 0.3598
0.1725 4.1333 3100 0.1486 0.3585
0.2254 4.2667 3200 0.1548 0.3671
0.2243 4.4 3300 0.1465 0.3658
0.2584 4.5333 3400 0.1441 0.3596
0.2279 4.6667 3500 0.1458 0.3634
0.2127 4.8 3600 0.1470 0.3663
0.2332 4.9333 3700 0.1491 0.3571
0.1972 5.0667 3800 0.1487 0.3516
0.2081 5.2 3900 0.1453 0.3500
0.1987 5.3333 4000 0.1460 0.3577
0.2259 5.4667 4100 0.1479 0.3593
0.2636 5.6 4200 0.1463 0.3581
0.2621 5.7333 4300 0.1415 0.3432
0.1891 5.8667 4400 0.1387 0.3435
0.205 6.0 4500 0.1459 0.3464
0.1968 6.1333 4600 0.1434 0.3470
0.2033 6.2667 4700 0.1425 0.3472
0.1556 6.4 4800 0.1483 0.3433
0.2043 6.5333 4900 0.1529 0.3525
0.1757 6.6667 5000 0.1378 0.3325
0.2031 6.8 5100 0.1395 0.3401
0.1895 6.9333 5200 0.1433 0.3420
0.184 7.0667 5300 0.1556 0.3424
0.2042 7.2 5400 0.1410 0.3362
0.1742 7.3333 5500 0.1454 0.3460
0.1794 7.4667 5600 0.1455 0.3487
0.1864 7.6 5700 0.1373 0.3395
0.1902 7.7333 5800 0.1462 0.3422
0.1907 7.8667 5900 0.1437 0.3404
0.1605 8.0 6000 0.1464 0.3379
0.1494 8.1333 6100 0.1469 0.3297
0.1982 8.2667 6200 0.1454 0.3283
0.1984 8.4 6300 0.1525 0.3450
0.1813 8.5333 6400 0.1468 0.3353
0.1659 8.6667 6500 0.1500 0.3392
0.1271 8.8 6600 0.1412 0.3283
0.1586 8.9333 6700 0.1492 0.3334
0.1369 9.0667 6800 0.1564 0.3367
0.1419 9.2 6900 0.1486 0.3307
0.1423 9.3333 7000 0.1681 0.3378
0.1236 9.4667 7100 0.1460 0.3219
0.1336 9.6 7200 0.1501 0.3313
0.1591 9.7333 7300 0.1533 0.3339
0.1787 9.8667 7400 0.1427 0.3230
0.1621 10.0 7500 0.1590 0.3379
0.1589 10.1333 7600 0.1570 0.3296
0.1442 10.2667 7700 0.1501 0.3287
0.1364 10.4 7800 0.1568 0.3296
0.1252 10.5333 7900 0.1521 0.3258
0.1478 10.6667 8000 0.1479 0.3217
0.1103 10.8 8100 0.1464 0.3191
0.1495 10.9333 8200 0.1555 0.3316
0.1207 11.0667 8300 0.1559 0.3271
0.1036 11.2 8400 0.1679 0.3249
0.1142 11.3333 8500 0.1709 0.3255
0.1224 11.4667 8600 0.1542 0.3250
0.1135 11.6 8700 0.1529 0.3121
0.1204 11.7333 8800 0.1501 0.3136
0.1265 11.8667 8900 0.1569 0.3075
0.1035 12.0 9000 0.1516 0.3096
0.118 12.1333 9100 0.1572 0.3148
0.1244 12.2667 9200 0.1632 0.3169
0.0992 12.4 9300 0.1678 0.3149
0.0961 12.5333 9400 0.1716 0.3232
0.1314 12.6667 9500 0.1670 0.3196
0.1149 12.8 9600 0.1640 0.3201
0.1085 12.9333 9700 0.1746 0.3124
0.118 13.0667 9800 0.1609 0.3079
0.1008 13.2 9900 0.1667 0.3184
0.1051 13.3333 10000 0.1793 0.3128
0.0969 13.4667 10100 0.1752 0.3191
0.1242 13.6 10200 0.1675 0.3107
0.1039 13.7333 10300 0.1624 0.3165
0.0954 13.8667 10400 0.1621 0.3062
0.1223 14.0 10500 0.1621 0.3137
0.1052 14.1333 10600 0.1713 0.3150
0.0995 14.2667 10700 0.1751 0.3121
0.1128 14.4 10800 0.1796 0.3096
0.0919 14.5333 10900 0.1784 0.3049
0.0931 14.6667 11000 0.1835 0.3099
0.1069 14.8 11100 0.1856 0.3095
0.0944 14.9333 11200 0.1781 0.3082
0.0915 15.0667 11300 0.1866 0.3091
0.0851 15.2 11400 0.1897 0.3071
0.0746 15.3333 11500 0.1875 0.3054
0.0828 15.4667 11600 0.1822 0.3084
0.1077 15.6 11700 0.1808 0.3082
0.0719 15.7333 11800 0.1860 0.3046
0.1121 15.8667 11900 0.1674 0.3016
0.0873 16.0 12000 0.1636 0.3024
0.0694 16.1333 12100 0.1738 0.3029
0.1008 16.2667 12200 0.1796 0.3058
0.0811 16.4 12300 0.1866 0.3013
0.081 16.5333 12400 0.1781 0.3037
0.0647 16.6667 12500 0.1711 0.2999
0.0775 16.8 12600 0.1713 0.3003
0.069 16.9333 12700 0.1853 0.2977
0.0775 17.0667 12800 0.1955 0.3029
0.077 17.2 12900 0.1862 0.3021
0.0802 17.3333 13000 0.1759 0.3000
0.0615 17.4667 13100 0.2072 0.3057
0.0647 17.6 13200 0.1715 0.3044
0.0709 17.7333 13300 0.1634 0.3031
0.0979 17.8667 13400 0.1851 0.3012
0.0674 18.0 13500 0.1886 0.3045
0.0562 18.1333 13600 0.2009 0.3045
0.0571 18.2667 13700 0.1980 0.3058
0.0782 18.4 13800 0.1942 0.3059
0.0549 18.5333 13900 0.1874 0.3028
0.0603 18.6667 14000 0.1860 0.3020
0.0729 18.8 14100 0.1814 0.2974
0.0646 18.9333 14200 0.1916 0.3003
0.0773 19.0667 14300 0.1840 0.3027
0.0672 19.2 14400 0.1908 0.2977
0.0714 19.3333 14500 0.1972 0.2963
0.064 19.4667 14600 0.1832 0.2920
0.0583 19.6 14700 0.1858 0.3000
0.0651 19.7333 14800 0.1778 0.3000
0.0453 19.8667 14900 0.1891 0.2924
0.067 20.0 15000 0.1917 0.2912
0.0485 20.1333 15100 0.1853 0.2908
0.062 20.2667 15200 0.1908 0.2877
0.0486 20.4 15300 0.1992 0.2940
0.0551 20.5333 15400 0.1938 0.2924
0.0598 20.6667 15500 0.1948 0.2907
0.0586 20.8 15600 0.2021 0.2898
0.0563 20.9333 15700 0.1972 0.2921
0.0533 21.0667 15800 0.1910 0.2900
0.0638 21.2 15900 0.1970 0.2867
0.0582 21.3333 16000 0.1961 0.2895
0.0634 21.4667 16100 0.1920 0.2867
0.0605 21.6 16200 0.1875 0.2889
0.0523 21.7333 16300 0.1885 0.2864
0.0516 21.8667 16400 0.1956 0.2877
0.0789 22.0 16500 0.1834 0.2819
0.0558 22.1333 16600 0.1862 0.2842
0.0471 22.2667 16700 0.1868 0.2842
0.0352 22.4 16800 0.1910 0.2842
0.047 22.5333 16900 0.1731 0.2852
0.0412 22.6667 17000 0.1823 0.2839
0.0728 22.8 17100 0.1863 0.2814
0.0456 22.9333 17200 0.1789 0.2807
0.0378 23.0667 17300 0.1947 0.2829
0.0394 23.2 17400 0.1917 0.2804
0.0672 23.3333 17500 0.1874 0.2824
0.0412 23.4667 17600 0.1963 0.2836
0.0558 23.6 17700 0.2026 0.2861
0.0484 23.7333 17800 0.1976 0.2837
0.0488 23.8667 17900 0.1936 0.2818
0.0584 24.0 18000 0.1870 0.2831
0.0516 24.1333 18100 0.1945 0.2811
0.0658 24.2667 18200 0.1967 0.2860
0.0432 24.4 18300 0.1986 0.2839
0.0463 24.5333 18400 0.1875 0.2807
0.0492 24.6667 18500 0.1977 0.2814
0.0389 24.8 18600 0.2053 0.2785
0.0356 24.9333 18700 0.2002 0.2793
0.0484 25.0667 18800 0.1961 0.2789
0.0267 25.2 18900 0.2064 0.2773
0.085 25.3333 19000 0.2073 0.2752
0.0419 25.4667 19100 0.2080 0.2769
0.0474 25.6 19200 0.2126 0.2785
0.0384 25.7333 19300 0.2003 0.2770
0.0275 25.8667 19400 0.1967 0.2769
0.022 26.0 19500 0.2011 0.2786
0.038 26.1333 19600 0.2026 0.2777
0.0368 26.2667 19700 0.2037 0.2745
0.0429 26.4 19800 0.2057 0.2748
0.0375 26.5333 19900 0.1991 0.2770
0.0452 26.6667 20000 0.1955 0.2741
0.0515 26.8 20100 0.1985 0.2760
0.0398 26.9333 20200 0.2028 0.2760
0.0343 27.0667 20300 0.2004 0.2732
0.0324 27.2 20400 0.2030 0.2729
0.0434 27.3333 20500 0.2033 0.2724
0.0372 27.4667 20600 0.2070 0.2731
0.0404 27.6 20700 0.2013 0.2774
0.0349 27.7333 20800 0.2044 0.2750
0.0459 27.8667 20900 0.2053 0.2739
0.038 28.0 21000 0.1993 0.2732
0.033 28.1333 21100 0.1995 0.2703
0.0368 28.2667 21200 0.1997 0.2716
0.051 28.4 21300 0.2000 0.2723
0.0476 28.5333 21400 0.1980 0.2710
0.0416 28.6667 21500 0.2017 0.2728
0.0294 28.8 21600 0.2014 0.2728
0.0252 28.9333 21700 0.2017 0.2723
0.0451 29.0667 21800 0.1989 0.2722
0.0343 29.2 21900 0.2007 0.2720
0.0342 29.3333 22000 0.1991 0.2706
0.0422 29.4667 22100 0.2002 0.2708
0.0156 29.6 22200 0.2012 0.2706
0.0519 29.7333 22300 0.2008 0.2707
0.0511 29.8667 22400 0.2011 0.2700
0.0345 30.0 22500 0.2010 0.2699

Framework versions

  • Transformers 4.57.1
  • Pytorch 2.9.0+cu126
  • Datasets 4.0.0
  • Tokenizers 0.22.1
Downloads last month
2
Inference Providers NEW
This model isn't deployed by any Inference Provider. 🙋 Ask for provider support

Model tree for scinerd68/wav2vec2-large-xlsr-53-esperanto-esperanto-asr-augment-dynamic

Finetuned
(2)
this model