roberta-large-ner-ghtk-cs-add-2label-20-new-data-3090-14Sep-1

This model was trained from scratch on the None dataset. It achieves the following results on the evaluation set:

  • Loss: 1.7376
  • Tk: {'precision': 0.0, 'recall': 0.0, 'f1': 0.0, 'number': 116}
  • A: {'precision': 0.0, 'recall': 0.0, 'f1': 0.0, 'number': 431}
  • Gày: {'precision': 0.0, 'recall': 0.0, 'f1': 0.0, 'number': 34}
  • Gày trừu tượng: {'precision': 0.0, 'recall': 0.0, 'f1': 0.0, 'number': 488}
  • Iờ: {'precision': 0.0, 'recall': 0.0, 'f1': 0.0, 'number': 38}
  • Ã đơn: {'precision': 0.0, 'recall': 0.0, 'f1': 0.0, 'number': 203}
  • Đt: {'precision': 0.0, 'recall': 0.0, 'f1': 0.0, 'number': 878}
  • Đt trừu tượng: {'precision': 0.0, 'recall': 0.0, 'f1': 0.0, 'number': 233}
  • Overall Precision: 0.0
  • Overall Recall: 0.0
  • Overall F1: 0.0
  • Overall Accuracy: 0.8099

Model description

More information needed

Intended uses & limitations

More information needed

Training and evaluation data

More information needed

Training procedure

Training hyperparameters

The following hyperparameters were used during training:

  • learning_rate: 2.5e-05
  • train_batch_size: 1
  • eval_batch_size: 1
  • seed: 42
  • optimizer: Adam with betas=(0.9,0.999) and epsilon=1e-08
  • lr_scheduler_type: linear
  • num_epochs: 10

Training results

Training Loss Epoch Step Validation Loss Tk A Gày Gày trừu tượng Iờ Ã đơn Đt Đt trừu tượng Overall Precision Overall Recall Overall F1 Overall Accuracy
0.3857 1.0 2463 1.7381 {'precision': 0.0, 'recall': 0.0, 'f1': 0.0, 'number': 116} {'precision': 0.0, 'recall': 0.0, 'f1': 0.0, 'number': 431} {'precision': 0.0, 'recall': 0.0, 'f1': 0.0, 'number': 34} {'precision': 0.0, 'recall': 0.0, 'f1': 0.0, 'number': 488} {'precision': 0.0, 'recall': 0.0, 'f1': 0.0, 'number': 38} {'precision': 0.0, 'recall': 0.0, 'f1': 0.0, 'number': 203} {'precision': 0.0, 'recall': 0.0, 'f1': 0.0, 'number': 878} {'precision': 0.0, 'recall': 0.0, 'f1': 0.0, 'number': 233} 0.0 0.0 0.0 0.8099
0.9397 2.0 4926 1.8867 {'precision': 0.0, 'recall': 0.0, 'f1': 0.0, 'number': 116} {'precision': 0.0, 'recall': 0.0, 'f1': 0.0, 'number': 431} {'precision': 0.0, 'recall': 0.0, 'f1': 0.0, 'number': 34} {'precision': 0.0, 'recall': 0.0, 'f1': 0.0, 'number': 488} {'precision': 0.0, 'recall': 0.0, 'f1': 0.0, 'number': 38} {'precision': 0.0, 'recall': 0.0, 'f1': 0.0, 'number': 203} {'precision': 0.0, 'recall': 0.0, 'f1': 0.0, 'number': 878} {'precision': 0.0, 'recall': 0.0, 'f1': 0.0, 'number': 233} 0.0 0.0 0.0 0.8099
0.9635 3.0 7389 1.7001 {'precision': 0.0, 'recall': 0.0, 'f1': 0.0, 'number': 116} {'precision': 0.0, 'recall': 0.0, 'f1': 0.0, 'number': 431} {'precision': 0.0, 'recall': 0.0, 'f1': 0.0, 'number': 34} {'precision': 0.0, 'recall': 0.0, 'f1': 0.0, 'number': 488} {'precision': 0.0, 'recall': 0.0, 'f1': 0.0, 'number': 38} {'precision': 0.0, 'recall': 0.0, 'f1': 0.0, 'number': 203} {'precision': 0.0, 'recall': 0.0, 'f1': 0.0, 'number': 878} {'precision': 0.0, 'recall': 0.0, 'f1': 0.0, 'number': 233} 0.0 0.0 0.0 0.8099
0.9523 4.0 9852 1.8670 {'precision': 0.0, 'recall': 0.0, 'f1': 0.0, 'number': 116} {'precision': 0.0, 'recall': 0.0, 'f1': 0.0, 'number': 431} {'precision': 0.0, 'recall': 0.0, 'f1': 0.0, 'number': 34} {'precision': 0.0, 'recall': 0.0, 'f1': 0.0, 'number': 488} {'precision': 0.0, 'recall': 0.0, 'f1': 0.0, 'number': 38} {'precision': 0.0, 'recall': 0.0, 'f1': 0.0, 'number': 203} {'precision': 0.0, 'recall': 0.0, 'f1': 0.0, 'number': 878} {'precision': 0.0, 'recall': 0.0, 'f1': 0.0, 'number': 233} 0.0 0.0 0.0 0.8099
0.9581 5.0 12315 1.8606 {'precision': 0.0, 'recall': 0.0, 'f1': 0.0, 'number': 116} {'precision': 0.0, 'recall': 0.0, 'f1': 0.0, 'number': 431} {'precision': 0.0, 'recall': 0.0, 'f1': 0.0, 'number': 34} {'precision': 0.0, 'recall': 0.0, 'f1': 0.0, 'number': 488} {'precision': 0.0, 'recall': 0.0, 'f1': 0.0, 'number': 38} {'precision': 0.0, 'recall': 0.0, 'f1': 0.0, 'number': 203} {'precision': 0.0, 'recall': 0.0, 'f1': 0.0, 'number': 878} {'precision': 0.0, 'recall': 0.0, 'f1': 0.0, 'number': 233} 0.0 0.0 0.0 0.8099
0.9238 6.0 14778 1.7525 {'precision': 0.0, 'recall': 0.0, 'f1': 0.0, 'number': 116} {'precision': 0.0, 'recall': 0.0, 'f1': 0.0, 'number': 431} {'precision': 0.0, 'recall': 0.0, 'f1': 0.0, 'number': 34} {'precision': 0.0, 'recall': 0.0, 'f1': 0.0, 'number': 488} {'precision': 0.0, 'recall': 0.0, 'f1': 0.0, 'number': 38} {'precision': 0.0, 'recall': 0.0, 'f1': 0.0, 'number': 203} {'precision': 0.0, 'recall': 0.0, 'f1': 0.0, 'number': 878} {'precision': 0.0, 'recall': 0.0, 'f1': 0.0, 'number': 233} 0.0 0.0 0.0 0.8099
0.9208 7.0 17241 1.7636 {'precision': 0.0, 'recall': 0.0, 'f1': 0.0, 'number': 116} {'precision': 0.0, 'recall': 0.0, 'f1': 0.0, 'number': 431} {'precision': 0.0, 'recall': 0.0, 'f1': 0.0, 'number': 34} {'precision': 0.0, 'recall': 0.0, 'f1': 0.0, 'number': 488} {'precision': 0.0, 'recall': 0.0, 'f1': 0.0, 'number': 38} {'precision': 0.0, 'recall': 0.0, 'f1': 0.0, 'number': 203} {'precision': 0.0, 'recall': 0.0, 'f1': 0.0, 'number': 878} {'precision': 0.0, 'recall': 0.0, 'f1': 0.0, 'number': 233} 0.0 0.0 0.0 0.8099
0.8936 8.0 19704 1.7165 {'precision': 0.0, 'recall': 0.0, 'f1': 0.0, 'number': 116} {'precision': 0.0, 'recall': 0.0, 'f1': 0.0, 'number': 431} {'precision': 0.0, 'recall': 0.0, 'f1': 0.0, 'number': 34} {'precision': 0.0, 'recall': 0.0, 'f1': 0.0, 'number': 488} {'precision': 0.0, 'recall': 0.0, 'f1': 0.0, 'number': 38} {'precision': 0.0, 'recall': 0.0, 'f1': 0.0, 'number': 203} {'precision': 0.0, 'recall': 0.0, 'f1': 0.0, 'number': 878} {'precision': 0.0, 'recall': 0.0, 'f1': 0.0, 'number': 233} 0.0 0.0 0.0 0.8099
0.8996 9.0 22167 1.7326 {'precision': 0.0, 'recall': 0.0, 'f1': 0.0, 'number': 116} {'precision': 0.0, 'recall': 0.0, 'f1': 0.0, 'number': 431} {'precision': 0.0, 'recall': 0.0, 'f1': 0.0, 'number': 34} {'precision': 0.0, 'recall': 0.0, 'f1': 0.0, 'number': 488} {'precision': 0.0, 'recall': 0.0, 'f1': 0.0, 'number': 38} {'precision': 0.0, 'recall': 0.0, 'f1': 0.0, 'number': 203} {'precision': 0.0, 'recall': 0.0, 'f1': 0.0, 'number': 878} {'precision': 0.0, 'recall': 0.0, 'f1': 0.0, 'number': 233} 0.0 0.0 0.0 0.8099
0.872 10.0 24630 1.7376 {'precision': 0.0, 'recall': 0.0, 'f1': 0.0, 'number': 116} {'precision': 0.0, 'recall': 0.0, 'f1': 0.0, 'number': 431} {'precision': 0.0, 'recall': 0.0, 'f1': 0.0, 'number': 34} {'precision': 0.0, 'recall': 0.0, 'f1': 0.0, 'number': 488} {'precision': 0.0, 'recall': 0.0, 'f1': 0.0, 'number': 38} {'precision': 0.0, 'recall': 0.0, 'f1': 0.0, 'number': 203} {'precision': 0.0, 'recall': 0.0, 'f1': 0.0, 'number': 878} {'precision': 0.0, 'recall': 0.0, 'f1': 0.0, 'number': 233} 0.0 0.0 0.0 0.8099

Framework versions

  • Transformers 4.44.0
  • Pytorch 2.3.1+cu121
  • Datasets 2.19.1
  • Tokenizers 0.19.1
Downloads last month
1
Safetensors
Model size
0.6B params
Tensor type
F32
·
Inference Providers NEW
This model isn't deployed by any Inference Provider. 🙋 Ask for provider support