roberta-large-ner-ghtk-gam-add-3label-new-data-3090-13Sep-1
This model was trained from scratch on the None dataset. It achieves the following results on the evaluation set:
- Loss: 1.1466
- Hiều cao khách hàng: {'precision': 0.9523809523809523, 'recall': 1.0, 'f1': 0.975609756097561, 'number': 20}
- Hất tóc: {'precision': 0.2638888888888889, 'recall': 0.7037037037037037, 'f1': 0.38383838383838387, 'number': 27}
- Oại da: {'precision': 0.0, 'recall': 0.0, 'f1': 0.0, 'number': 23}
- Àu da: {'precision': 0.0, 'recall': 0.0, 'f1': 0.0, 'number': 38}
- Áng khuôn mặt: {'precision': 0.0, 'recall': 0.0, 'f1': 0.0, 'number': 16}
- Áng người: {'precision': 0.0, 'recall': 0.0, 'f1': 0.0, 'number': 13}
- Ân nặng khách hàng: {'precision': 0.9259259259259259, 'recall': 0.8064516129032258, 'f1': 0.8620689655172414, 'number': 31}
- Ật độ tóc: {'precision': 0.25862068965517243, 'recall': 1.0, 'f1': 0.4109589041095891, 'number': 15}
- Ặc điểm khác của da: {'precision': 0.0, 'recall': 0.0, 'f1': 0.0, 'number': 28}
- Ộ dài tóc: {'precision': 0.3111111111111111, 'recall': 0.7777777777777778, 'f1': 0.44444444444444436, 'number': 18}
- Overall Precision: 0.4152
- Overall Recall: 0.4061
- Overall F1: 0.4106
- Overall Accuracy: 0.8281
Model description
More information needed
Intended uses & limitations
More information needed
Training and evaluation data
More information needed
Training procedure
Training hyperparameters
The following hyperparameters were used during training:
- learning_rate: 2.5e-05
- train_batch_size: 8
- eval_batch_size: 8
- seed: 42
- optimizer: Adam with betas=(0.9,0.999) and epsilon=1e-08
- lr_scheduler_type: linear
- num_epochs: 10
Training results
| Training Loss | Epoch | Step | Validation Loss | Hiều cao khách hàng | Hất tóc | Oại da | Àu da | Áng khuôn mặt | Áng người | Ân nặng khách hàng | Ật độ tóc | Ặc điểm khác của da | Ộ dài tóc | Overall Precision | Overall Recall | Overall F1 | Overall Accuracy |
|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|
| No log | 1.0 | 29 | 1.0654 | {'precision': 0.0, 'recall': 0.0, 'f1': 0.0, 'number': 20} | {'precision': 0.23728813559322035, 'recall': 0.5185185185185185, 'f1': 0.3255813953488372, 'number': 27} | {'precision': 0.0, 'recall': 0.0, 'f1': 0.0, 'number': 23} | {'precision': 0.0, 'recall': 0.0, 'f1': 0.0, 'number': 38} | {'precision': 0.0, 'recall': 0.0, 'f1': 0.0, 'number': 16} | {'precision': 0.0, 'recall': 0.0, 'f1': 0.0, 'number': 13} | {'precision': 0.0, 'recall': 0.0, 'f1': 0.0, 'number': 31} | {'precision': 0.22807017543859648, 'recall': 0.8666666666666667, 'f1': 0.3611111111111111, 'number': 15} | {'precision': 0.0, 'recall': 0.0, 'f1': 0.0, 'number': 28} | {'precision': 0.18571428571428572, 'recall': 0.7222222222222222, 'f1': 0.29545454545454547, 'number': 18} | 0.2151 | 0.1747 | 0.1928 | 0.7708 |
| No log | 2.0 | 58 | 1.1336 | {'precision': 0.0, 'recall': 0.0, 'f1': 0.0, 'number': 20} | {'precision': 0.34, 'recall': 0.6296296296296297, 'f1': 0.4415584415584416, 'number': 27} | {'precision': 0.0, 'recall': 0.0, 'f1': 0.0, 'number': 23} | {'precision': 0.0, 'recall': 0.0, 'f1': 0.0, 'number': 38} | {'precision': 0.0, 'recall': 0.0, 'f1': 0.0, 'number': 16} | {'precision': 0.0, 'recall': 0.0, 'f1': 0.0, 'number': 13} | {'precision': 0.0, 'recall': 0.0, 'f1': 0.0, 'number': 31} | {'precision': 0.25, 'recall': 0.8666666666666667, 'f1': 0.3880597014925373, 'number': 15} | {'precision': 0.0, 'recall': 0.0, 'f1': 0.0, 'number': 28} | {'precision': 0.17721518987341772, 'recall': 0.7777777777777778, 'f1': 0.28865979381443296, 'number': 18} | 0.2431 | 0.1921 | 0.2146 | 0.7757 |
| No log | 3.0 | 87 | 1.2027 | {'precision': 0.0, 'recall': 0.0, 'f1': 0.0, 'number': 20} | {'precision': 0.32727272727272727, 'recall': 0.6666666666666666, 'f1': 0.43902439024390244, 'number': 27} | {'precision': 0.0, 'recall': 0.0, 'f1': 0.0, 'number': 23} | {'precision': 0.0, 'recall': 0.0, 'f1': 0.0, 'number': 38} | {'precision': 0.0, 'recall': 0.0, 'f1': 0.0, 'number': 16} | {'precision': 0.0, 'recall': 0.0, 'f1': 0.0, 'number': 13} | {'precision': 0.0, 'recall': 0.0, 'f1': 0.0, 'number': 31} | {'precision': 0.24561403508771928, 'recall': 0.9333333333333333, 'f1': 0.38888888888888884, 'number': 15} | {'precision': 0.0, 'recall': 0.0, 'f1': 0.0, 'number': 28} | {'precision': 0.13953488372093023, 'recall': 0.6666666666666666, 'f1': 0.23076923076923078, 'number': 18} | 0.2222 | 0.1921 | 0.2061 | 0.7719 |
| No log | 4.0 | 116 | 1.2138 | {'precision': 0.0, 'recall': 0.0, 'f1': 0.0, 'number': 20} | {'precision': 0.30357142857142855, 'recall': 0.6296296296296297, 'f1': 0.4096385542168675, 'number': 27} | {'precision': 0.0, 'recall': 0.0, 'f1': 0.0, 'number': 23} | {'precision': 0.0, 'recall': 0.0, 'f1': 0.0, 'number': 38} | {'precision': 0.0, 'recall': 0.0, 'f1': 0.0, 'number': 16} | {'precision': 0.0, 'recall': 0.0, 'f1': 0.0, 'number': 13} | {'precision': 0.0, 'recall': 0.0, 'f1': 0.0, 'number': 31} | {'precision': 0.23728813559322035, 'recall': 0.9333333333333333, 'f1': 0.37837837837837834, 'number': 15} | {'precision': 0.0, 'recall': 0.0, 'f1': 0.0, 'number': 28} | {'precision': 0.14285714285714285, 'recall': 0.7222222222222222, 'f1': 0.2385321100917431, 'number': 18} | 0.2136 | 0.1921 | 0.2023 | 0.7643 |
| No log | 5.0 | 145 | 1.2132 | {'precision': 0.0, 'recall': 0.0, 'f1': 0.0, 'number': 20} | {'precision': 0.2903225806451613, 'recall': 0.6666666666666666, 'f1': 0.4044943820224719, 'number': 27} | {'precision': 0.0, 'recall': 0.0, 'f1': 0.0, 'number': 23} | {'precision': 0.0, 'recall': 0.0, 'f1': 0.0, 'number': 38} | {'precision': 0.0, 'recall': 0.0, 'f1': 0.0, 'number': 16} | {'precision': 0.0, 'recall': 0.0, 'f1': 0.0, 'number': 13} | {'precision': 0.0, 'recall': 0.0, 'f1': 0.0, 'number': 31} | {'precision': 0.26785714285714285, 'recall': 1.0, 'f1': 0.4225352112676056, 'number': 15} | {'precision': 0.0, 'recall': 0.0, 'f1': 0.0, 'number': 28} | {'precision': 0.15294117647058825, 'recall': 0.7222222222222222, 'f1': 0.2524271844660194, 'number': 18} | 0.2266 | 0.2009 | 0.2130 | 0.7735 |
| No log | 6.0 | 174 | 1.1238 | {'precision': 0.95, 'recall': 0.95, 'f1': 0.9500000000000001, 'number': 20} | {'precision': 0.26865671641791045, 'recall': 0.6666666666666666, 'f1': 0.3829787234042553, 'number': 27} | {'precision': 0.0, 'recall': 0.0, 'f1': 0.0, 'number': 23} | {'precision': 0.0, 'recall': 0.0, 'f1': 0.0, 'number': 38} | {'precision': 0.0, 'recall': 0.0, 'f1': 0.0, 'number': 16} | {'precision': 0.0, 'recall': 0.0, 'f1': 0.0, 'number': 13} | {'precision': 0.0, 'recall': 0.0, 'f1': 0.0, 'number': 31} | {'precision': 0.26785714285714285, 'recall': 1.0, 'f1': 0.4225352112676056, 'number': 15} | {'precision': 0.0, 'recall': 0.0, 'f1': 0.0, 'number': 28} | {'precision': 0.16455696202531644, 'recall': 0.7222222222222222, 'f1': 0.26804123711340205, 'number': 18} | 0.2928 | 0.2838 | 0.2882 | 0.7924 |
| No log | 7.0 | 203 | 1.1253 | {'precision': 0.9523809523809523, 'recall': 1.0, 'f1': 0.975609756097561, 'number': 20} | {'precision': 0.2535211267605634, 'recall': 0.6666666666666666, 'f1': 0.3673469387755102, 'number': 27} | {'precision': 0.0, 'recall': 0.0, 'f1': 0.0, 'number': 23} | {'precision': 0.0, 'recall': 0.0, 'f1': 0.0, 'number': 38} | {'precision': 0.0, 'recall': 0.0, 'f1': 0.0, 'number': 16} | {'precision': 0.0, 'recall': 0.0, 'f1': 0.0, 'number': 13} | {'precision': 0.9166666666666666, 'recall': 0.7096774193548387, 'f1': 0.7999999999999999, 'number': 31} | {'precision': 0.2542372881355932, 'recall': 1.0, 'f1': 0.4054054054054054, 'number': 15} | {'precision': 0.0, 'recall': 0.0, 'f1': 0.0, 'number': 28} | {'precision': 0.2549019607843137, 'recall': 0.7222222222222222, 'f1': 0.3768115942028985, 'number': 18} | 0.3894 | 0.3843 | 0.3868 | 0.8222 |
| No log | 8.0 | 232 | 1.1323 | {'precision': 0.9523809523809523, 'recall': 1.0, 'f1': 0.975609756097561, 'number': 20} | {'precision': 0.2753623188405797, 'recall': 0.7037037037037037, 'f1': 0.3958333333333333, 'number': 27} | {'precision': 0.0, 'recall': 0.0, 'f1': 0.0, 'number': 23} | {'precision': 0.0, 'recall': 0.0, 'f1': 0.0, 'number': 38} | {'precision': 0.0, 'recall': 0.0, 'f1': 0.0, 'number': 16} | {'precision': 0.0, 'recall': 0.0, 'f1': 0.0, 'number': 13} | {'precision': 0.9259259259259259, 'recall': 0.8064516129032258, 'f1': 0.8620689655172414, 'number': 31} | {'precision': 0.25862068965517243, 'recall': 1.0, 'f1': 0.4109589041095891, 'number': 15} | {'precision': 0.0, 'recall': 0.0, 'f1': 0.0, 'number': 28} | {'precision': 0.3333333333333333, 'recall': 0.8333333333333334, 'f1': 0.47619047619047616, 'number': 18} | 0.4273 | 0.4105 | 0.4187 | 0.8351 |
| No log | 9.0 | 261 | 1.1526 | {'precision': 0.9523809523809523, 'recall': 1.0, 'f1': 0.975609756097561, 'number': 20} | {'precision': 0.2602739726027397, 'recall': 0.7037037037037037, 'f1': 0.38, 'number': 27} | {'precision': 0.0, 'recall': 0.0, 'f1': 0.0, 'number': 23} | {'precision': 0.0, 'recall': 0.0, 'f1': 0.0, 'number': 38} | {'precision': 0.0, 'recall': 0.0, 'f1': 0.0, 'number': 16} | {'precision': 0.0, 'recall': 0.0, 'f1': 0.0, 'number': 13} | {'precision': 0.9259259259259259, 'recall': 0.8064516129032258, 'f1': 0.8620689655172414, 'number': 31} | {'precision': 0.2631578947368421, 'recall': 1.0, 'f1': 0.4166666666666667, 'number': 15} | {'precision': 0.0, 'recall': 0.0, 'f1': 0.0, 'number': 28} | {'precision': 0.2978723404255319, 'recall': 0.7777777777777778, 'f1': 0.43076923076923074, 'number': 18} | 0.4115 | 0.4061 | 0.4088 | 0.8259 |
| No log | 10.0 | 290 | 1.1466 | {'precision': 0.9523809523809523, 'recall': 1.0, 'f1': 0.975609756097561, 'number': 20} | {'precision': 0.2638888888888889, 'recall': 0.7037037037037037, 'f1': 0.38383838383838387, 'number': 27} | {'precision': 0.0, 'recall': 0.0, 'f1': 0.0, 'number': 23} | {'precision': 0.0, 'recall': 0.0, 'f1': 0.0, 'number': 38} | {'precision': 0.0, 'recall': 0.0, 'f1': 0.0, 'number': 16} | {'precision': 0.0, 'recall': 0.0, 'f1': 0.0, 'number': 13} | {'precision': 0.9259259259259259, 'recall': 0.8064516129032258, 'f1': 0.8620689655172414, 'number': 31} | {'precision': 0.25862068965517243, 'recall': 1.0, 'f1': 0.4109589041095891, 'number': 15} | {'precision': 0.0, 'recall': 0.0, 'f1': 0.0, 'number': 28} | {'precision': 0.3111111111111111, 'recall': 0.7777777777777778, 'f1': 0.44444444444444436, 'number': 18} | 0.4152 | 0.4061 | 0.4106 | 0.8281 |
Framework versions
- Transformers 4.44.0
- Pytorch 2.3.1+cu121
- Datasets 2.19.1
- Tokenizers 0.19.1
- Downloads last month
- 1
Inference Providers NEW
This model isn't deployed by any Inference Provider. 🙋 Ask for provider support