roberta-large-ner-ghtk-cs-add-5label-16-new-data-3090-24Sep-1

This model was trained from scratch on the None dataset. It achieves the following results on the evaluation set:

  • Loss: 0.3385
  • Tk: {'precision': 0.7525773195876289, 'recall': 0.6293103448275862, 'f1': 0.6854460093896713, 'number': 116}
  • A: {'precision': 0.9447004608294931, 'recall': 0.951276102088167, 'f1': 0.9479768786127167, 'number': 431}
  • Gày: {'precision': 0.7692307692307693, 'recall': 0.8823529411764706, 'f1': 0.8219178082191781, 'number': 34}
  • Gày trừu tượng: {'precision': 0.8959183673469387, 'recall': 0.8995901639344263, 'f1': 0.8977505112474438, 'number': 488}
  • Iền: {'precision': 0.7291666666666666, 'recall': 0.8974358974358975, 'f1': 0.8045977011494253, 'number': 39}
  • Iờ: {'precision': 0.6923076923076923, 'recall': 0.7105263157894737, 'f1': 0.7012987012987013, 'number': 38}
  • Ã đơn: {'precision': 0.8670212765957447, 'recall': 0.8029556650246306, 'f1': 0.833759590792839, 'number': 203}
  • Đt: {'precision': 0.9284940411700975, 'recall': 0.9760820045558086, 'f1': 0.951693503609106, 'number': 878}
  • Đt trừu tượng: {'precision': 0.7717391304347826, 'recall': 0.9141630901287554, 'f1': 0.836935166994106, 'number': 233}
  • Ịa chỉ cụ thể: {'precision': 0.4791666666666667, 'recall': 0.5348837209302325, 'f1': 0.5054945054945056, 'number': 43}
  • Ịa chỉ trừu tượng: {'precision': 0.7534246575342466, 'recall': 0.7236842105263158, 'f1': 0.738255033557047, 'number': 76}
  • Overall Precision: 0.8757
  • Overall Recall: 0.9015
  • Overall F1: 0.8884
  • Overall Accuracy: 0.9499

Model description

More information needed

Intended uses & limitations

More information needed

Training and evaluation data

More information needed

Training procedure

Training hyperparameters

The following hyperparameters were used during training:

  • learning_rate: 2.5e-05
  • train_batch_size: 8
  • eval_batch_size: 8
  • seed: 42
  • optimizer: Adam with betas=(0.9,0.999) and epsilon=1e-08
  • lr_scheduler_type: linear
  • num_epochs: 10

Training results

Training Loss Epoch Step Validation Loss Tk A Gày Gày trừu tượng Iền Iờ Ã đơn Đt Đt trừu tượng Ịa chỉ cụ thể Ịa chỉ trừu tượng Overall Precision Overall Recall Overall F1 Overall Accuracy
No log 1.0 370 0.2146 {'precision': 0.717741935483871, 'recall': 0.7672413793103449, 'f1': 0.7416666666666667, 'number': 116} {'precision': 0.8964059196617337, 'recall': 0.9837587006960556, 'f1': 0.9380530973451328, 'number': 431} {'precision': 0.7692307692307693, 'recall': 0.8823529411764706, 'f1': 0.8219178082191781, 'number': 34} {'precision': 0.8692307692307693, 'recall': 0.9262295081967213, 'f1': 0.8968253968253969, 'number': 488} {'precision': 0.7931034482758621, 'recall': 0.5897435897435898, 'f1': 0.676470588235294, 'number': 39} {'precision': 0.5555555555555556, 'recall': 0.9210526315789473, 'f1': 0.693069306930693, 'number': 38} {'precision': 0.6514084507042254, 'recall': 0.9113300492610837, 'f1': 0.759753593429158, 'number': 203} {'precision': 0.889564336372847, 'recall': 1.0, 'f1': 0.9415549597855228, 'number': 878} {'precision': 0.6098265895953757, 'recall': 0.9055793991416309, 'f1': 0.7288428324697755, 'number': 233} {'precision': 0.4, 'recall': 0.4186046511627907, 'f1': 0.40909090909090917, 'number': 43} {'precision': 0.6571428571428571, 'recall': 0.6052631578947368, 'f1': 0.6301369863013698, 'number': 76} 0.8023 0.9271 0.8602 0.9325
0.2037 2.0 740 0.1838 {'precision': 0.8137254901960784, 'recall': 0.7155172413793104, 'f1': 0.761467889908257, 'number': 116} {'precision': 0.9750623441396509, 'recall': 0.9071925754060325, 'f1': 0.9399038461538463, 'number': 431} {'precision': 0.6976744186046512, 'recall': 0.8823529411764706, 'f1': 0.7792207792207793, 'number': 34} {'precision': 0.9155844155844156, 'recall': 0.8668032786885246, 'f1': 0.8905263157894737, 'number': 488} {'precision': 0.7777777777777778, 'recall': 0.8974358974358975, 'f1': 0.8333333333333333, 'number': 39} {'precision': 0.5555555555555556, 'recall': 0.6578947368421053, 'f1': 0.6024096385542169, 'number': 38} {'precision': 0.8203883495145631, 'recall': 0.8325123152709359, 'f1': 0.8264058679706602, 'number': 203} {'precision': 0.9379157427937915, 'recall': 0.9635535307517085, 'f1': 0.9505617977528089, 'number': 878} {'precision': 0.810077519379845, 'recall': 0.8969957081545065, 'f1': 0.8513238289205702, 'number': 233} {'precision': 0.4117647058823529, 'recall': 0.4883720930232558, 'f1': 0.44680851063829785, 'number': 43} {'precision': 0.7424242424242424, 'recall': 0.6447368421052632, 'f1': 0.6901408450704226, 'number': 76} 0.8838 0.8845 0.8841 0.9484
0.1035 3.0 1110 0.2108 {'precision': 0.6885245901639344, 'recall': 0.7241379310344828, 'f1': 0.7058823529411765, 'number': 116} {'precision': 0.913232104121475, 'recall': 0.9767981438515081, 'f1': 0.9439461883408071, 'number': 431} {'precision': 0.7941176470588235, 'recall': 0.7941176470588235, 'f1': 0.7941176470588235, 'number': 34} {'precision': 0.9061224489795918, 'recall': 0.9098360655737705, 'f1': 0.9079754601226994, 'number': 488} {'precision': 0.6923076923076923, 'recall': 0.9230769230769231, 'f1': 0.7912087912087913, 'number': 39} {'precision': 0.5932203389830508, 'recall': 0.9210526315789473, 'f1': 0.7216494845360825, 'number': 38} {'precision': 0.7375, 'recall': 0.8719211822660099, 'f1': 0.7990970654627539, 'number': 203} {'precision': 0.921443736730361, 'recall': 0.9886104783599089, 'f1': 0.9538461538461539, 'number': 878} {'precision': 0.8612244897959184, 'recall': 0.9055793991416309, 'f1': 0.8828451882845189, 'number': 233} {'precision': 0.2702702702702703, 'recall': 0.23255813953488372, 'f1': 0.25, 'number': 43} {'precision': 0.6944444444444444, 'recall': 0.6578947368421053, 'f1': 0.6756756756756757, 'number': 76} 0.8580 0.9162 0.8862 0.9415
0.1035 4.0 1480 0.2475 {'precision': 0.7107438016528925, 'recall': 0.7413793103448276, 'f1': 0.7257383966244725, 'number': 116} {'precision': 0.9265033407572383, 'recall': 0.9651972157772621, 'f1': 0.9454545454545454, 'number': 431} {'precision': 0.6744186046511628, 'recall': 0.8529411764705882, 'f1': 0.7532467532467532, 'number': 34} {'precision': 0.8979591836734694, 'recall': 0.9016393442622951, 'f1': 0.899795501022495, 'number': 488} {'precision': 0.5901639344262295, 'recall': 0.9230769230769231, 'f1': 0.7200000000000001, 'number': 39} {'precision': 0.6458333333333334, 'recall': 0.8157894736842105, 'f1': 0.7209302325581395, 'number': 38} {'precision': 0.9017341040462428, 'recall': 0.7684729064039408, 'f1': 0.8297872340425532, 'number': 203} {'precision': 0.9316239316239316, 'recall': 0.9931662870159453, 'f1': 0.9614112458654906, 'number': 878} {'precision': 0.6525679758308157, 'recall': 0.927038626609442, 'f1': 0.7659574468085106, 'number': 233} {'precision': 0.4791666666666667, 'recall': 0.5348837209302325, 'f1': 0.5054945054945056, 'number': 43} {'precision': 0.654320987654321, 'recall': 0.6973684210526315, 'f1': 0.6751592356687897, 'number': 76} 0.8479 0.9143 0.8799 0.9438
0.0667 5.0 1850 0.2543 {'precision': 0.6790123456790124, 'recall': 0.47413793103448276, 'f1': 0.5583756345177665, 'number': 116} {'precision': 0.9533799533799534, 'recall': 0.9489559164733179, 'f1': 0.9511627906976745, 'number': 431} {'precision': 0.75, 'recall': 0.8823529411764706, 'f1': 0.8108108108108107, 'number': 34} {'precision': 0.8759842519685039, 'recall': 0.9118852459016393, 'f1': 0.893574297188755, 'number': 488} {'precision': 0.7441860465116279, 'recall': 0.8205128205128205, 'f1': 0.7804878048780488, 'number': 39} {'precision': 0.5892857142857143, 'recall': 0.868421052631579, 'f1': 0.7021276595744681, 'number': 38} {'precision': 0.8, 'recall': 0.8275862068965517, 'f1': 0.8135593220338982, 'number': 203} {'precision': 0.8867147270854789, 'recall': 0.9806378132118451, 'f1': 0.9313142239048133, 'number': 878} {'precision': 0.7194719471947195, 'recall': 0.9356223175965666, 'f1': 0.8134328358208955, 'number': 233} {'precision': 0.4782608695652174, 'recall': 0.5116279069767442, 'f1': 0.49438202247191015, 'number': 43} {'precision': 0.7323943661971831, 'recall': 0.6842105263157895, 'f1': 0.7074829931972789, 'number': 76} 0.8430 0.9015 0.8713 0.9461
0.0411 6.0 2220 0.3105 {'precision': 0.6904761904761905, 'recall': 0.75, 'f1': 0.7190082644628099, 'number': 116} {'precision': 0.9172113289760349, 'recall': 0.9767981438515081, 'f1': 0.946067415730337, 'number': 431} {'precision': 0.75, 'recall': 0.8823529411764706, 'f1': 0.8108108108108107, 'number': 34} {'precision': 0.883629191321499, 'recall': 0.9180327868852459, 'f1': 0.9005025125628141, 'number': 488} {'precision': 0.6792452830188679, 'recall': 0.9230769230769231, 'f1': 0.7826086956521738, 'number': 39} {'precision': 0.5769230769230769, 'recall': 0.7894736842105263, 'f1': 0.6666666666666666, 'number': 38} {'precision': 0.8764044943820225, 'recall': 0.7684729064039408, 'f1': 0.8188976377952757, 'number': 203} {'precision': 0.9277238403451996, 'recall': 0.979498861047836, 'f1': 0.9529085872576177, 'number': 878} {'precision': 0.6666666666666666, 'recall': 0.9699570815450643, 'f1': 0.7902097902097902, 'number': 233} {'precision': 0.5094339622641509, 'recall': 0.627906976744186, 'f1': 0.5625, 'number': 43} {'precision': 0.6111111111111112, 'recall': 0.7236842105263158, 'f1': 0.6626506024096386, 'number': 76} 0.8414 0.9213 0.8795 0.9454
0.026 7.0 2590 0.2938 {'precision': 0.7657657657657657, 'recall': 0.7327586206896551, 'f1': 0.748898678414097, 'number': 116} {'precision': 0.9327354260089686, 'recall': 0.9651972157772621, 'f1': 0.9486887115165337, 'number': 431} {'precision': 0.7317073170731707, 'recall': 0.8823529411764706, 'f1': 0.8, 'number': 34} {'precision': 0.8893360160965795, 'recall': 0.9057377049180327, 'f1': 0.8974619289340101, 'number': 488} {'precision': 0.75, 'recall': 0.9230769230769231, 'f1': 0.8275862068965517, 'number': 39} {'precision': 0.6976744186046512, 'recall': 0.7894736842105263, 'f1': 0.7407407407407408, 'number': 38} {'precision': 0.873015873015873, 'recall': 0.812807881773399, 'f1': 0.8418367346938775, 'number': 203} {'precision': 0.9313725490196079, 'recall': 0.9738041002277904, 'f1': 0.9521158129175946, 'number': 878} {'precision': 0.740484429065744, 'recall': 0.9184549356223176, 'f1': 0.8199233716475095, 'number': 233} {'precision': 0.46808510638297873, 'recall': 0.5116279069767442, 'f1': 0.4888888888888889, 'number': 43} {'precision': 0.6753246753246753, 'recall': 0.6842105263157895, 'f1': 0.6797385620915033, 'number': 76} 0.8673 0.9100 0.8882 0.9489
0.026 8.0 2960 0.3202 {'precision': 0.7657657657657657, 'recall': 0.7327586206896551, 'f1': 0.748898678414097, 'number': 116} {'precision': 0.944954128440367, 'recall': 0.9559164733178654, 'f1': 0.9504036908881199, 'number': 431} {'precision': 0.75, 'recall': 0.8823529411764706, 'f1': 0.8108108108108107, 'number': 34} {'precision': 0.9026915113871635, 'recall': 0.8934426229508197, 'f1': 0.898043254376931, 'number': 488} {'precision': 0.7391304347826086, 'recall': 0.8717948717948718, 'f1': 0.7999999999999999, 'number': 39} {'precision': 0.6666666666666666, 'recall': 0.6842105263157895, 'f1': 0.6753246753246753, 'number': 38} {'precision': 0.8349514563106796, 'recall': 0.8472906403940886, 'f1': 0.8410757946210269, 'number': 203} {'precision': 0.9333333333333333, 'recall': 0.9726651480637813, 'f1': 0.9525934188510876, 'number': 878} {'precision': 0.7689530685920578, 'recall': 0.9141630901287554, 'f1': 0.8352941176470589, 'number': 233} {'precision': 0.4727272727272727, 'recall': 0.6046511627906976, 'f1': 0.5306122448979591, 'number': 43} {'precision': 0.7808219178082192, 'recall': 0.75, 'f1': 0.7651006711409396, 'number': 76} 0.8747 0.9093 0.8916 0.9509
0.0186 9.0 3330 0.3256 {'precision': 0.7448979591836735, 'recall': 0.6293103448275862, 'f1': 0.6822429906542057, 'number': 116} {'precision': 0.9304932735426009, 'recall': 0.962877030162413, 'f1': 0.9464082098061573, 'number': 431} {'precision': 0.75, 'recall': 0.8823529411764706, 'f1': 0.8108108108108107, 'number': 34} {'precision': 0.9036885245901639, 'recall': 0.9036885245901639, 'f1': 0.9036885245901639, 'number': 488} {'precision': 0.7142857142857143, 'recall': 0.8974358974358975, 'f1': 0.7954545454545455, 'number': 39} {'precision': 0.675, 'recall': 0.7105263157894737, 'f1': 0.6923076923076923, 'number': 38} {'precision': 0.8631578947368421, 'recall': 0.8078817733990148, 'f1': 0.8346055979643766, 'number': 203} {'precision': 0.9314472252448314, 'recall': 0.9749430523917996, 'f1': 0.9526989426822482, 'number': 878} {'precision': 0.7615658362989324, 'recall': 0.9184549356223176, 'f1': 0.8326848249027238, 'number': 233} {'precision': 0.5192307692307693, 'recall': 0.627906976744186, 'f1': 0.5684210526315789, 'number': 43} {'precision': 0.7297297297297297, 'recall': 0.7105263157894737, 'f1': 0.7200000000000001, 'number': 76} 0.8726 0.9058 0.8889 0.9510
0.0081 10.0 3700 0.3385 {'precision': 0.7525773195876289, 'recall': 0.6293103448275862, 'f1': 0.6854460093896713, 'number': 116} {'precision': 0.9447004608294931, 'recall': 0.951276102088167, 'f1': 0.9479768786127167, 'number': 431} {'precision': 0.7692307692307693, 'recall': 0.8823529411764706, 'f1': 0.8219178082191781, 'number': 34} {'precision': 0.8959183673469387, 'recall': 0.8995901639344263, 'f1': 0.8977505112474438, 'number': 488} {'precision': 0.7291666666666666, 'recall': 0.8974358974358975, 'f1': 0.8045977011494253, 'number': 39} {'precision': 0.6923076923076923, 'recall': 0.7105263157894737, 'f1': 0.7012987012987013, 'number': 38} {'precision': 0.8670212765957447, 'recall': 0.8029556650246306, 'f1': 0.833759590792839, 'number': 203} {'precision': 0.9284940411700975, 'recall': 0.9760820045558086, 'f1': 0.951693503609106, 'number': 878} {'precision': 0.7717391304347826, 'recall': 0.9141630901287554, 'f1': 0.836935166994106, 'number': 233} {'precision': 0.4791666666666667, 'recall': 0.5348837209302325, 'f1': 0.5054945054945056, 'number': 43} {'precision': 0.7534246575342466, 'recall': 0.7236842105263158, 'f1': 0.738255033557047, 'number': 76} 0.8757 0.9015 0.8884 0.9499

Framework versions

  • Transformers 4.44.0
  • Pytorch 2.3.1+cu121
  • Datasets 2.19.1
  • Tokenizers 0.19.1
Downloads last month
1
Safetensors
Model size
0.6B params
Tensor type
F32
·
Inference Providers NEW
This model isn't deployed by any Inference Provider. 🙋 Ask for provider support