| { |
| "best_global_step": null, |
| "best_metric": null, |
| "best_model_checkpoint": null, |
| "epoch": 0.3333333333333333, |
| "eval_steps": 500, |
| "global_step": 20000, |
| "is_hyper_param_search": false, |
| "is_local_process_zero": true, |
| "is_world_process_zero": true, |
| "log_history": [ |
| { |
| "epoch": 0.00016666666666666666, |
| "grad_norm": 79.5, |
| "learning_rate": 1.5000000000000002e-07, |
| "loss": 0.9186, |
| "step": 10 |
| }, |
| { |
| "epoch": 0.0003333333333333333, |
| "grad_norm": 138.0, |
| "learning_rate": 3.166666666666667e-07, |
| "loss": 0.9982, |
| "step": 20 |
| }, |
| { |
| "epoch": 0.0005, |
| "grad_norm": 79.0, |
| "learning_rate": 4.833333333333334e-07, |
| "loss": 0.9153, |
| "step": 30 |
| }, |
| { |
| "epoch": 0.0006666666666666666, |
| "grad_norm": 77.0, |
| "learning_rate": 6.5e-07, |
| "loss": 0.8708, |
| "step": 40 |
| }, |
| { |
| "epoch": 0.0008333333333333334, |
| "grad_norm": 71.5, |
| "learning_rate": 8.166666666666668e-07, |
| "loss": 0.8922, |
| "step": 50 |
| }, |
| { |
| "epoch": 0.001, |
| "grad_norm": 137.0, |
| "learning_rate": 9.833333333333334e-07, |
| "loss": 0.988, |
| "step": 60 |
| }, |
| { |
| "epoch": 0.0011666666666666668, |
| "grad_norm": 77.5, |
| "learning_rate": 1.1500000000000002e-06, |
| "loss": 1.111, |
| "step": 70 |
| }, |
| { |
| "epoch": 0.0013333333333333333, |
| "grad_norm": 87.0, |
| "learning_rate": 1.3166666666666666e-06, |
| "loss": 0.9795, |
| "step": 80 |
| }, |
| { |
| "epoch": 0.0015, |
| "grad_norm": 94.5, |
| "learning_rate": 1.4833333333333337e-06, |
| "loss": 0.9615, |
| "step": 90 |
| }, |
| { |
| "epoch": 0.0016666666666666668, |
| "grad_norm": 87.0, |
| "learning_rate": 1.6500000000000003e-06, |
| "loss": 0.963, |
| "step": 100 |
| }, |
| { |
| "epoch": 0.0018333333333333333, |
| "grad_norm": 78.0, |
| "learning_rate": 1.816666666666667e-06, |
| "loss": 0.9954, |
| "step": 110 |
| }, |
| { |
| "epoch": 0.002, |
| "grad_norm": 99.0, |
| "learning_rate": 1.9833333333333335e-06, |
| "loss": 0.9845, |
| "step": 120 |
| }, |
| { |
| "epoch": 0.0021666666666666666, |
| "grad_norm": 90.5, |
| "learning_rate": 2.15e-06, |
| "loss": 0.9081, |
| "step": 130 |
| }, |
| { |
| "epoch": 0.0023333333333333335, |
| "grad_norm": 134.0, |
| "learning_rate": 2.316666666666667e-06, |
| "loss": 1.131, |
| "step": 140 |
| }, |
| { |
| "epoch": 0.0025, |
| "grad_norm": 88.5, |
| "learning_rate": 2.4833333333333334e-06, |
| "loss": 0.9688, |
| "step": 150 |
| }, |
| { |
| "epoch": 0.0026666666666666666, |
| "grad_norm": 14.25, |
| "learning_rate": 2.6500000000000005e-06, |
| "loss": 0.8749, |
| "step": 160 |
| }, |
| { |
| "epoch": 0.0028333333333333335, |
| "grad_norm": 78.0, |
| "learning_rate": 2.816666666666667e-06, |
| "loss": 0.8338, |
| "step": 170 |
| }, |
| { |
| "epoch": 0.003, |
| "grad_norm": 86.0, |
| "learning_rate": 2.9833333333333337e-06, |
| "loss": 1.0068, |
| "step": 180 |
| }, |
| { |
| "epoch": 0.0031666666666666666, |
| "grad_norm": 88.0, |
| "learning_rate": 3.1500000000000003e-06, |
| "loss": 0.9065, |
| "step": 190 |
| }, |
| { |
| "epoch": 0.0033333333333333335, |
| "grad_norm": 1.703125, |
| "learning_rate": 3.316666666666667e-06, |
| "loss": 1.0106, |
| "step": 200 |
| }, |
| { |
| "epoch": 0.0035, |
| "grad_norm": 89.5, |
| "learning_rate": 3.4833333333333336e-06, |
| "loss": 0.9556, |
| "step": 210 |
| }, |
| { |
| "epoch": 0.0036666666666666666, |
| "grad_norm": 80.5, |
| "learning_rate": 3.65e-06, |
| "loss": 0.9967, |
| "step": 220 |
| }, |
| { |
| "epoch": 0.003833333333333333, |
| "grad_norm": 124.0, |
| "learning_rate": 3.816666666666667e-06, |
| "loss": 0.9259, |
| "step": 230 |
| }, |
| { |
| "epoch": 0.004, |
| "grad_norm": 95.5, |
| "learning_rate": 3.983333333333334e-06, |
| "loss": 0.9844, |
| "step": 240 |
| }, |
| { |
| "epoch": 0.004166666666666667, |
| "grad_norm": 95.0, |
| "learning_rate": 4.15e-06, |
| "loss": 0.9909, |
| "step": 250 |
| }, |
| { |
| "epoch": 0.004333333333333333, |
| "grad_norm": 86.5, |
| "learning_rate": 4.316666666666667e-06, |
| "loss": 1.056, |
| "step": 260 |
| }, |
| { |
| "epoch": 0.0045, |
| "grad_norm": 54.25, |
| "learning_rate": 4.483333333333333e-06, |
| "loss": 0.8905, |
| "step": 270 |
| }, |
| { |
| "epoch": 0.004666666666666667, |
| "grad_norm": 61.0, |
| "learning_rate": 4.65e-06, |
| "loss": 0.9442, |
| "step": 280 |
| }, |
| { |
| "epoch": 0.004833333333333334, |
| "grad_norm": 35.25, |
| "learning_rate": 4.816666666666667e-06, |
| "loss": 0.8478, |
| "step": 290 |
| }, |
| { |
| "epoch": 0.005, |
| "grad_norm": 63.0, |
| "learning_rate": 4.983333333333334e-06, |
| "loss": 0.9194, |
| "step": 300 |
| }, |
| { |
| "epoch": 0.005166666666666667, |
| "grad_norm": 69.5, |
| "learning_rate": 5.150000000000001e-06, |
| "loss": 0.9342, |
| "step": 310 |
| }, |
| { |
| "epoch": 0.005333333333333333, |
| "grad_norm": 65.0, |
| "learning_rate": 5.316666666666667e-06, |
| "loss": 0.9668, |
| "step": 320 |
| }, |
| { |
| "epoch": 0.0055, |
| "grad_norm": 56.75, |
| "learning_rate": 5.483333333333334e-06, |
| "loss": 0.8473, |
| "step": 330 |
| }, |
| { |
| "epoch": 0.005666666666666667, |
| "grad_norm": 97.5, |
| "learning_rate": 5.65e-06, |
| "loss": 0.9025, |
| "step": 340 |
| }, |
| { |
| "epoch": 0.005833333333333334, |
| "grad_norm": 115.5, |
| "learning_rate": 5.816666666666667e-06, |
| "loss": 0.7956, |
| "step": 350 |
| }, |
| { |
| "epoch": 0.006, |
| "grad_norm": 52.0, |
| "learning_rate": 5.983333333333334e-06, |
| "loss": 0.6824, |
| "step": 360 |
| }, |
| { |
| "epoch": 0.006166666666666667, |
| "grad_norm": 2.359375, |
| "learning_rate": 6.15e-06, |
| "loss": 0.625, |
| "step": 370 |
| }, |
| { |
| "epoch": 0.006333333333333333, |
| "grad_norm": 48.5, |
| "learning_rate": 6.3166666666666675e-06, |
| "loss": 0.608, |
| "step": 380 |
| }, |
| { |
| "epoch": 0.0065, |
| "grad_norm": 45.5, |
| "learning_rate": 6.483333333333334e-06, |
| "loss": 0.5668, |
| "step": 390 |
| }, |
| { |
| "epoch": 0.006666666666666667, |
| "grad_norm": 1.890625, |
| "learning_rate": 6.650000000000001e-06, |
| "loss": 0.5183, |
| "step": 400 |
| }, |
| { |
| "epoch": 0.006833333333333334, |
| "grad_norm": 34.75, |
| "learning_rate": 6.816666666666667e-06, |
| "loss": 0.489, |
| "step": 410 |
| }, |
| { |
| "epoch": 0.007, |
| "grad_norm": 37.0, |
| "learning_rate": 6.983333333333334e-06, |
| "loss": 0.4271, |
| "step": 420 |
| }, |
| { |
| "epoch": 0.007166666666666667, |
| "grad_norm": 14.8125, |
| "learning_rate": 7.15e-06, |
| "loss": 0.3947, |
| "step": 430 |
| }, |
| { |
| "epoch": 0.007333333333333333, |
| "grad_norm": 46.0, |
| "learning_rate": 7.316666666666667e-06, |
| "loss": 0.4865, |
| "step": 440 |
| }, |
| { |
| "epoch": 0.0075, |
| "grad_norm": 26.0, |
| "learning_rate": 7.483333333333333e-06, |
| "loss": 0.4608, |
| "step": 450 |
| }, |
| { |
| "epoch": 0.007666666666666666, |
| "grad_norm": 37.0, |
| "learning_rate": 7.650000000000001e-06, |
| "loss": 0.4195, |
| "step": 460 |
| }, |
| { |
| "epoch": 0.007833333333333333, |
| "grad_norm": 16.5, |
| "learning_rate": 7.816666666666667e-06, |
| "loss": 0.4194, |
| "step": 470 |
| }, |
| { |
| "epoch": 0.008, |
| "grad_norm": 32.5, |
| "learning_rate": 7.983333333333334e-06, |
| "loss": 0.4955, |
| "step": 480 |
| }, |
| { |
| "epoch": 0.008166666666666666, |
| "grad_norm": 26.25, |
| "learning_rate": 8.15e-06, |
| "loss": 0.4217, |
| "step": 490 |
| }, |
| { |
| "epoch": 0.008333333333333333, |
| "grad_norm": 21.5, |
| "learning_rate": 8.316666666666668e-06, |
| "loss": 0.373, |
| "step": 500 |
| }, |
| { |
| "epoch": 0.0085, |
| "grad_norm": 17.125, |
| "learning_rate": 8.483333333333334e-06, |
| "loss": 0.3975, |
| "step": 510 |
| }, |
| { |
| "epoch": 0.008666666666666666, |
| "grad_norm": 65.5, |
| "learning_rate": 8.65e-06, |
| "loss": 0.4535, |
| "step": 520 |
| }, |
| { |
| "epoch": 0.008833333333333334, |
| "grad_norm": 40.75, |
| "learning_rate": 8.816666666666668e-06, |
| "loss": 0.3229, |
| "step": 530 |
| }, |
| { |
| "epoch": 0.009, |
| "grad_norm": 41.75, |
| "learning_rate": 8.983333333333334e-06, |
| "loss": 0.3417, |
| "step": 540 |
| }, |
| { |
| "epoch": 0.009166666666666667, |
| "grad_norm": 4.46875, |
| "learning_rate": 9.15e-06, |
| "loss": 0.3646, |
| "step": 550 |
| }, |
| { |
| "epoch": 0.009333333333333334, |
| "grad_norm": 40.0, |
| "learning_rate": 9.316666666666667e-06, |
| "loss": 0.4597, |
| "step": 560 |
| }, |
| { |
| "epoch": 0.0095, |
| "grad_norm": 25.25, |
| "learning_rate": 9.483333333333335e-06, |
| "loss": 0.3785, |
| "step": 570 |
| }, |
| { |
| "epoch": 0.009666666666666667, |
| "grad_norm": 51.5, |
| "learning_rate": 9.65e-06, |
| "loss": 0.4106, |
| "step": 580 |
| }, |
| { |
| "epoch": 0.009833333333333333, |
| "grad_norm": 29.5, |
| "learning_rate": 9.816666666666667e-06, |
| "loss": 0.4153, |
| "step": 590 |
| }, |
| { |
| "epoch": 0.01, |
| "grad_norm": 17.375, |
| "learning_rate": 9.983333333333333e-06, |
| "loss": 0.3698, |
| "step": 600 |
| }, |
| { |
| "epoch": 0.010166666666666666, |
| "grad_norm": 19.75, |
| "learning_rate": 1.015e-05, |
| "loss": 0.3843, |
| "step": 610 |
| }, |
| { |
| "epoch": 0.010333333333333333, |
| "grad_norm": 24.25, |
| "learning_rate": 1.0316666666666669e-05, |
| "loss": 0.3957, |
| "step": 620 |
| }, |
| { |
| "epoch": 0.0105, |
| "grad_norm": 34.5, |
| "learning_rate": 1.0483333333333333e-05, |
| "loss": 0.3446, |
| "step": 630 |
| }, |
| { |
| "epoch": 0.010666666666666666, |
| "grad_norm": 2.046875, |
| "learning_rate": 1.065e-05, |
| "loss": 0.3148, |
| "step": 640 |
| }, |
| { |
| "epoch": 0.010833333333333334, |
| "grad_norm": 60.0, |
| "learning_rate": 1.081666666666667e-05, |
| "loss": 0.3773, |
| "step": 650 |
| }, |
| { |
| "epoch": 0.011, |
| "grad_norm": 31.25, |
| "learning_rate": 1.0983333333333335e-05, |
| "loss": 0.363, |
| "step": 660 |
| }, |
| { |
| "epoch": 0.011166666666666667, |
| "grad_norm": 7.84375, |
| "learning_rate": 1.1150000000000002e-05, |
| "loss": 0.3966, |
| "step": 670 |
| }, |
| { |
| "epoch": 0.011333333333333334, |
| "grad_norm": 37.75, |
| "learning_rate": 1.1316666666666666e-05, |
| "loss": 0.4126, |
| "step": 680 |
| }, |
| { |
| "epoch": 0.0115, |
| "grad_norm": 22.875, |
| "learning_rate": 1.1483333333333336e-05, |
| "loss": 0.367, |
| "step": 690 |
| }, |
| { |
| "epoch": 0.011666666666666667, |
| "grad_norm": 14.4375, |
| "learning_rate": 1.1650000000000002e-05, |
| "loss": 0.3754, |
| "step": 700 |
| }, |
| { |
| "epoch": 0.011833333333333333, |
| "grad_norm": 22.625, |
| "learning_rate": 1.1816666666666668e-05, |
| "loss": 0.3334, |
| "step": 710 |
| }, |
| { |
| "epoch": 0.012, |
| "grad_norm": 51.75, |
| "learning_rate": 1.1983333333333333e-05, |
| "loss": 0.3389, |
| "step": 720 |
| }, |
| { |
| "epoch": 0.012166666666666666, |
| "grad_norm": 23.625, |
| "learning_rate": 1.2150000000000002e-05, |
| "loss": 0.4041, |
| "step": 730 |
| }, |
| { |
| "epoch": 0.012333333333333333, |
| "grad_norm": 86.5, |
| "learning_rate": 1.2316666666666668e-05, |
| "loss": 0.3687, |
| "step": 740 |
| }, |
| { |
| "epoch": 0.0125, |
| "grad_norm": 111.5, |
| "learning_rate": 1.2483333333333335e-05, |
| "loss": 0.4112, |
| "step": 750 |
| }, |
| { |
| "epoch": 0.012666666666666666, |
| "grad_norm": 30.75, |
| "learning_rate": 1.2650000000000001e-05, |
| "loss": 0.3658, |
| "step": 760 |
| }, |
| { |
| "epoch": 0.012833333333333334, |
| "grad_norm": 13.125, |
| "learning_rate": 1.2816666666666669e-05, |
| "loss": 0.3687, |
| "step": 770 |
| }, |
| { |
| "epoch": 0.013, |
| "grad_norm": 30.5, |
| "learning_rate": 1.2983333333333335e-05, |
| "loss": 0.3738, |
| "step": 780 |
| }, |
| { |
| "epoch": 0.013166666666666667, |
| "grad_norm": 29.75, |
| "learning_rate": 1.3150000000000001e-05, |
| "loss": 0.393, |
| "step": 790 |
| }, |
| { |
| "epoch": 0.013333333333333334, |
| "grad_norm": 25.75, |
| "learning_rate": 1.3316666666666669e-05, |
| "loss": 0.4105, |
| "step": 800 |
| }, |
| { |
| "epoch": 0.0135, |
| "grad_norm": 14.4375, |
| "learning_rate": 1.3483333333333335e-05, |
| "loss": 0.3198, |
| "step": 810 |
| }, |
| { |
| "epoch": 0.013666666666666667, |
| "grad_norm": 35.0, |
| "learning_rate": 1.3650000000000001e-05, |
| "loss": 0.4023, |
| "step": 820 |
| }, |
| { |
| "epoch": 0.013833333333333333, |
| "grad_norm": 13.9375, |
| "learning_rate": 1.3816666666666668e-05, |
| "loss": 0.3591, |
| "step": 830 |
| }, |
| { |
| "epoch": 0.014, |
| "grad_norm": 37.0, |
| "learning_rate": 1.3983333333333336e-05, |
| "loss": 0.4186, |
| "step": 840 |
| }, |
| { |
| "epoch": 0.014166666666666666, |
| "grad_norm": 29.25, |
| "learning_rate": 1.4150000000000002e-05, |
| "loss": 0.3112, |
| "step": 850 |
| }, |
| { |
| "epoch": 0.014333333333333333, |
| "grad_norm": 40.75, |
| "learning_rate": 1.4316666666666668e-05, |
| "loss": 0.3016, |
| "step": 860 |
| }, |
| { |
| "epoch": 0.0145, |
| "grad_norm": 20.75, |
| "learning_rate": 1.4483333333333334e-05, |
| "loss": 0.354, |
| "step": 870 |
| }, |
| { |
| "epoch": 0.014666666666666666, |
| "grad_norm": 59.5, |
| "learning_rate": 1.4650000000000002e-05, |
| "loss": 0.3584, |
| "step": 880 |
| }, |
| { |
| "epoch": 0.014833333333333334, |
| "grad_norm": 5.03125, |
| "learning_rate": 1.4816666666666668e-05, |
| "loss": 0.3911, |
| "step": 890 |
| }, |
| { |
| "epoch": 0.015, |
| "grad_norm": 28.75, |
| "learning_rate": 1.4983333333333334e-05, |
| "loss": 0.3005, |
| "step": 900 |
| }, |
| { |
| "epoch": 0.015166666666666667, |
| "grad_norm": 56.25, |
| "learning_rate": 1.515e-05, |
| "loss": 0.3267, |
| "step": 910 |
| }, |
| { |
| "epoch": 0.015333333333333332, |
| "grad_norm": 59.75, |
| "learning_rate": 1.531666666666667e-05, |
| "loss": 0.391, |
| "step": 920 |
| }, |
| { |
| "epoch": 0.0155, |
| "grad_norm": 56.5, |
| "learning_rate": 1.5483333333333335e-05, |
| "loss": 0.3673, |
| "step": 930 |
| }, |
| { |
| "epoch": 0.015666666666666666, |
| "grad_norm": 1.484375, |
| "learning_rate": 1.565e-05, |
| "loss": 0.3299, |
| "step": 940 |
| }, |
| { |
| "epoch": 0.015833333333333335, |
| "grad_norm": 22.125, |
| "learning_rate": 1.581666666666667e-05, |
| "loss": 0.3215, |
| "step": 950 |
| }, |
| { |
| "epoch": 0.016, |
| "grad_norm": 17.5, |
| "learning_rate": 1.5983333333333337e-05, |
| "loss": 0.3348, |
| "step": 960 |
| }, |
| { |
| "epoch": 0.016166666666666666, |
| "grad_norm": 76.0, |
| "learning_rate": 1.6150000000000003e-05, |
| "loss": 0.3543, |
| "step": 970 |
| }, |
| { |
| "epoch": 0.01633333333333333, |
| "grad_norm": 56.0, |
| "learning_rate": 1.6316666666666666e-05, |
| "loss": 0.3063, |
| "step": 980 |
| }, |
| { |
| "epoch": 0.0165, |
| "grad_norm": 43.0, |
| "learning_rate": 1.6483333333333335e-05, |
| "loss": 0.2909, |
| "step": 990 |
| }, |
| { |
| "epoch": 0.016666666666666666, |
| "grad_norm": 38.25, |
| "learning_rate": 1.665e-05, |
| "loss": 0.2623, |
| "step": 1000 |
| }, |
| { |
| "epoch": 0.016833333333333332, |
| "grad_norm": 2.59375, |
| "learning_rate": 1.6816666666666668e-05, |
| "loss": 0.3787, |
| "step": 1010 |
| }, |
| { |
| "epoch": 0.017, |
| "grad_norm": 22.5, |
| "learning_rate": 1.6983333333333334e-05, |
| "loss": 0.3338, |
| "step": 1020 |
| }, |
| { |
| "epoch": 0.017166666666666667, |
| "grad_norm": 15.0625, |
| "learning_rate": 1.7150000000000004e-05, |
| "loss": 0.3496, |
| "step": 1030 |
| }, |
| { |
| "epoch": 0.017333333333333333, |
| "grad_norm": 26.5, |
| "learning_rate": 1.731666666666667e-05, |
| "loss": 0.3706, |
| "step": 1040 |
| }, |
| { |
| "epoch": 0.0175, |
| "grad_norm": 29.875, |
| "learning_rate": 1.7483333333333336e-05, |
| "loss": 0.3496, |
| "step": 1050 |
| }, |
| { |
| "epoch": 0.017666666666666667, |
| "grad_norm": 22.75, |
| "learning_rate": 1.7650000000000002e-05, |
| "loss": 0.3383, |
| "step": 1060 |
| }, |
| { |
| "epoch": 0.017833333333333333, |
| "grad_norm": 31.125, |
| "learning_rate": 1.781666666666667e-05, |
| "loss": 0.3426, |
| "step": 1070 |
| }, |
| { |
| "epoch": 0.018, |
| "grad_norm": 73.5, |
| "learning_rate": 1.7983333333333335e-05, |
| "loss": 0.3043, |
| "step": 1080 |
| }, |
| { |
| "epoch": 0.018166666666666668, |
| "grad_norm": 36.25, |
| "learning_rate": 1.815e-05, |
| "loss": 0.3091, |
| "step": 1090 |
| }, |
| { |
| "epoch": 0.018333333333333333, |
| "grad_norm": 29.25, |
| "learning_rate": 1.831666666666667e-05, |
| "loss": 0.3152, |
| "step": 1100 |
| }, |
| { |
| "epoch": 0.0185, |
| "grad_norm": 9.75, |
| "learning_rate": 1.8483333333333337e-05, |
| "loss": 0.2925, |
| "step": 1110 |
| }, |
| { |
| "epoch": 0.018666666666666668, |
| "grad_norm": 43.25, |
| "learning_rate": 1.8650000000000003e-05, |
| "loss": 0.3514, |
| "step": 1120 |
| }, |
| { |
| "epoch": 0.018833333333333334, |
| "grad_norm": 49.5, |
| "learning_rate": 1.881666666666667e-05, |
| "loss": 0.3167, |
| "step": 1130 |
| }, |
| { |
| "epoch": 0.019, |
| "grad_norm": 2.40625, |
| "learning_rate": 1.8983333333333335e-05, |
| "loss": 0.3299, |
| "step": 1140 |
| }, |
| { |
| "epoch": 0.019166666666666665, |
| "grad_norm": 39.25, |
| "learning_rate": 1.915e-05, |
| "loss": 0.3261, |
| "step": 1150 |
| }, |
| { |
| "epoch": 0.019333333333333334, |
| "grad_norm": 49.0, |
| "learning_rate": 1.9316666666666668e-05, |
| "loss": 0.3313, |
| "step": 1160 |
| }, |
| { |
| "epoch": 0.0195, |
| "grad_norm": 19.0, |
| "learning_rate": 1.9483333333333334e-05, |
| "loss": 0.3102, |
| "step": 1170 |
| }, |
| { |
| "epoch": 0.019666666666666666, |
| "grad_norm": 28.875, |
| "learning_rate": 1.9650000000000003e-05, |
| "loss": 0.3324, |
| "step": 1180 |
| }, |
| { |
| "epoch": 0.019833333333333335, |
| "grad_norm": 85.5, |
| "learning_rate": 1.981666666666667e-05, |
| "loss": 0.3165, |
| "step": 1190 |
| }, |
| { |
| "epoch": 0.02, |
| "grad_norm": 8.375, |
| "learning_rate": 1.9983333333333336e-05, |
| "loss": 0.2909, |
| "step": 1200 |
| }, |
| { |
| "epoch": 0.020166666666666666, |
| "grad_norm": 27.5, |
| "learning_rate": 1.9999998843887473e-05, |
| "loss": 0.3214, |
| "step": 1210 |
| }, |
| { |
| "epoch": 0.02033333333333333, |
| "grad_norm": 51.25, |
| "learning_rate": 1.999999484744944e-05, |
| "loss": 0.306, |
| "step": 1220 |
| }, |
| { |
| "epoch": 0.0205, |
| "grad_norm": 49.75, |
| "learning_rate": 1.9999987996414054e-05, |
| "loss": 0.3228, |
| "step": 1230 |
| }, |
| { |
| "epoch": 0.020666666666666667, |
| "grad_norm": 15.9375, |
| "learning_rate": 1.9999978290783265e-05, |
| "loss": 0.2511, |
| "step": 1240 |
| }, |
| { |
| "epoch": 0.020833333333333332, |
| "grad_norm": 87.5, |
| "learning_rate": 1.9999965730559848e-05, |
| "loss": 0.2893, |
| "step": 1250 |
| }, |
| { |
| "epoch": 0.021, |
| "grad_norm": 17.125, |
| "learning_rate": 1.9999950315747386e-05, |
| "loss": 0.2887, |
| "step": 1260 |
| }, |
| { |
| "epoch": 0.021166666666666667, |
| "grad_norm": 25.25, |
| "learning_rate": 1.9999932046350286e-05, |
| "loss": 0.2601, |
| "step": 1270 |
| }, |
| { |
| "epoch": 0.021333333333333333, |
| "grad_norm": 58.75, |
| "learning_rate": 1.9999910922373752e-05, |
| "loss": 0.2652, |
| "step": 1280 |
| }, |
| { |
| "epoch": 0.0215, |
| "grad_norm": 13.9375, |
| "learning_rate": 1.9999886943823822e-05, |
| "loss": 0.2857, |
| "step": 1290 |
| }, |
| { |
| "epoch": 0.021666666666666667, |
| "grad_norm": 22.125, |
| "learning_rate": 1.999986011070734e-05, |
| "loss": 0.2685, |
| "step": 1300 |
| }, |
| { |
| "epoch": 0.021833333333333333, |
| "grad_norm": 32.0, |
| "learning_rate": 1.999983042303196e-05, |
| "loss": 0.2718, |
| "step": 1310 |
| }, |
| { |
| "epoch": 0.022, |
| "grad_norm": 18.0, |
| "learning_rate": 1.9999797880806163e-05, |
| "loss": 0.2806, |
| "step": 1320 |
| }, |
| { |
| "epoch": 0.022166666666666668, |
| "grad_norm": 13.1875, |
| "learning_rate": 1.9999762484039238e-05, |
| "loss": 0.2475, |
| "step": 1330 |
| }, |
| { |
| "epoch": 0.022333333333333334, |
| "grad_norm": 25.5, |
| "learning_rate": 1.999972423274129e-05, |
| "loss": 0.2725, |
| "step": 1340 |
| }, |
| { |
| "epoch": 0.0225, |
| "grad_norm": 29.5, |
| "learning_rate": 1.999968312692323e-05, |
| "loss": 0.2784, |
| "step": 1350 |
| }, |
| { |
| "epoch": 0.02266666666666667, |
| "grad_norm": 13.625, |
| "learning_rate": 1.99996391665968e-05, |
| "loss": 0.2654, |
| "step": 1360 |
| }, |
| { |
| "epoch": 0.022833333333333334, |
| "grad_norm": 34.25, |
| "learning_rate": 1.999959235177455e-05, |
| "loss": 0.2734, |
| "step": 1370 |
| }, |
| { |
| "epoch": 0.023, |
| "grad_norm": 15.3125, |
| "learning_rate": 1.999954268246984e-05, |
| "loss": 0.2298, |
| "step": 1380 |
| }, |
| { |
| "epoch": 0.023166666666666665, |
| "grad_norm": 19.625, |
| "learning_rate": 1.9999490158696847e-05, |
| "loss": 0.275, |
| "step": 1390 |
| }, |
| { |
| "epoch": 0.023333333333333334, |
| "grad_norm": 42.0, |
| "learning_rate": 1.9999434780470567e-05, |
| "loss": 0.2922, |
| "step": 1400 |
| }, |
| { |
| "epoch": 0.0235, |
| "grad_norm": 26.5, |
| "learning_rate": 1.999937654780681e-05, |
| "loss": 0.2663, |
| "step": 1410 |
| }, |
| { |
| "epoch": 0.023666666666666666, |
| "grad_norm": 55.25, |
| "learning_rate": 1.9999315460722197e-05, |
| "loss": 0.2753, |
| "step": 1420 |
| }, |
| { |
| "epoch": 0.023833333333333335, |
| "grad_norm": 27.375, |
| "learning_rate": 1.9999251519234167e-05, |
| "loss": 0.229, |
| "step": 1430 |
| }, |
| { |
| "epoch": 0.024, |
| "grad_norm": 27.0, |
| "learning_rate": 1.9999184723360973e-05, |
| "loss": 0.2398, |
| "step": 1440 |
| }, |
| { |
| "epoch": 0.024166666666666666, |
| "grad_norm": 16.25, |
| "learning_rate": 1.9999115073121675e-05, |
| "loss": 0.2287, |
| "step": 1450 |
| }, |
| { |
| "epoch": 0.024333333333333332, |
| "grad_norm": 22.625, |
| "learning_rate": 1.9999042568536166e-05, |
| "loss": 0.2245, |
| "step": 1460 |
| }, |
| { |
| "epoch": 0.0245, |
| "grad_norm": 42.75, |
| "learning_rate": 1.999896720962514e-05, |
| "loss": 0.2418, |
| "step": 1470 |
| }, |
| { |
| "epoch": 0.024666666666666667, |
| "grad_norm": 30.75, |
| "learning_rate": 1.9998888996410107e-05, |
| "loss": 0.2645, |
| "step": 1480 |
| }, |
| { |
| "epoch": 0.024833333333333332, |
| "grad_norm": 46.0, |
| "learning_rate": 1.9998807928913394e-05, |
| "loss": 0.2228, |
| "step": 1490 |
| }, |
| { |
| "epoch": 0.025, |
| "grad_norm": 24.25, |
| "learning_rate": 1.9998724007158144e-05, |
| "loss": 0.2288, |
| "step": 1500 |
| }, |
| { |
| "epoch": 0.025166666666666667, |
| "grad_norm": 23.0, |
| "learning_rate": 1.999863723116831e-05, |
| "loss": 0.2268, |
| "step": 1510 |
| }, |
| { |
| "epoch": 0.025333333333333333, |
| "grad_norm": 19.75, |
| "learning_rate": 1.9998547600968667e-05, |
| "loss": 0.2499, |
| "step": 1520 |
| }, |
| { |
| "epoch": 0.0255, |
| "grad_norm": 87.0, |
| "learning_rate": 1.9998455116584797e-05, |
| "loss": 0.2499, |
| "step": 1530 |
| }, |
| { |
| "epoch": 0.025666666666666667, |
| "grad_norm": 22.875, |
| "learning_rate": 1.999835977804311e-05, |
| "loss": 0.2357, |
| "step": 1540 |
| }, |
| { |
| "epoch": 0.025833333333333333, |
| "grad_norm": 35.25, |
| "learning_rate": 1.9998261585370807e-05, |
| "loss": 0.2454, |
| "step": 1550 |
| }, |
| { |
| "epoch": 0.026, |
| "grad_norm": 16.875, |
| "learning_rate": 1.9998160538595927e-05, |
| "loss": 0.2547, |
| "step": 1560 |
| }, |
| { |
| "epoch": 0.026166666666666668, |
| "grad_norm": 40.25, |
| "learning_rate": 1.9998056637747315e-05, |
| "loss": 0.2035, |
| "step": 1570 |
| }, |
| { |
| "epoch": 0.026333333333333334, |
| "grad_norm": 45.25, |
| "learning_rate": 1.9997949882854626e-05, |
| "loss": 0.2325, |
| "step": 1580 |
| }, |
| { |
| "epoch": 0.0265, |
| "grad_norm": 33.5, |
| "learning_rate": 1.999784027394834e-05, |
| "loss": 0.25, |
| "step": 1590 |
| }, |
| { |
| "epoch": 0.02666666666666667, |
| "grad_norm": 21.25, |
| "learning_rate": 1.999772781105974e-05, |
| "loss": 0.2165, |
| "step": 1600 |
| }, |
| { |
| "epoch": 0.026833333333333334, |
| "grad_norm": 2.109375, |
| "learning_rate": 1.9997612494220932e-05, |
| "loss": 0.2383, |
| "step": 1610 |
| }, |
| { |
| "epoch": 0.027, |
| "grad_norm": 19.75, |
| "learning_rate": 1.9997494323464837e-05, |
| "loss": 0.2647, |
| "step": 1620 |
| }, |
| { |
| "epoch": 0.027166666666666665, |
| "grad_norm": 23.0, |
| "learning_rate": 1.9997373298825186e-05, |
| "loss": 0.2274, |
| "step": 1630 |
| }, |
| { |
| "epoch": 0.027333333333333334, |
| "grad_norm": 29.625, |
| "learning_rate": 1.9997249420336522e-05, |
| "loss": 0.2231, |
| "step": 1640 |
| }, |
| { |
| "epoch": 0.0275, |
| "grad_norm": 39.25, |
| "learning_rate": 1.9997122688034216e-05, |
| "loss": 0.2441, |
| "step": 1650 |
| }, |
| { |
| "epoch": 0.027666666666666666, |
| "grad_norm": 33.75, |
| "learning_rate": 1.9996993101954438e-05, |
| "loss": 0.208, |
| "step": 1660 |
| }, |
| { |
| "epoch": 0.027833333333333335, |
| "grad_norm": 38.75, |
| "learning_rate": 1.9996860662134185e-05, |
| "loss": 0.2063, |
| "step": 1670 |
| }, |
| { |
| "epoch": 0.028, |
| "grad_norm": 33.75, |
| "learning_rate": 1.999672536861126e-05, |
| "loss": 0.203, |
| "step": 1680 |
| }, |
| { |
| "epoch": 0.028166666666666666, |
| "grad_norm": 19.5, |
| "learning_rate": 1.9996587221424284e-05, |
| "loss": 0.2493, |
| "step": 1690 |
| }, |
| { |
| "epoch": 0.028333333333333332, |
| "grad_norm": 51.75, |
| "learning_rate": 1.9996446220612692e-05, |
| "loss": 0.2267, |
| "step": 1700 |
| }, |
| { |
| "epoch": 0.0285, |
| "grad_norm": 36.25, |
| "learning_rate": 1.9996302366216737e-05, |
| "loss": 0.2251, |
| "step": 1710 |
| }, |
| { |
| "epoch": 0.028666666666666667, |
| "grad_norm": 20.375, |
| "learning_rate": 1.999615565827748e-05, |
| "loss": 0.2228, |
| "step": 1720 |
| }, |
| { |
| "epoch": 0.028833333333333332, |
| "grad_norm": 36.75, |
| "learning_rate": 1.99960060968368e-05, |
| "loss": 0.1999, |
| "step": 1730 |
| }, |
| { |
| "epoch": 0.029, |
| "grad_norm": 22.125, |
| "learning_rate": 1.9995853681937397e-05, |
| "loss": 0.259, |
| "step": 1740 |
| }, |
| { |
| "epoch": 0.029166666666666667, |
| "grad_norm": 26.125, |
| "learning_rate": 1.9995698413622777e-05, |
| "loss": 0.2191, |
| "step": 1750 |
| }, |
| { |
| "epoch": 0.029333333333333333, |
| "grad_norm": 14.875, |
| "learning_rate": 1.9995540291937255e-05, |
| "loss": 0.2446, |
| "step": 1760 |
| }, |
| { |
| "epoch": 0.0295, |
| "grad_norm": 17.5, |
| "learning_rate": 1.9995379316925977e-05, |
| "loss": 0.2385, |
| "step": 1770 |
| }, |
| { |
| "epoch": 0.029666666666666668, |
| "grad_norm": 4.28125, |
| "learning_rate": 1.9995215488634892e-05, |
| "loss": 0.228, |
| "step": 1780 |
| }, |
| { |
| "epoch": 0.029833333333333333, |
| "grad_norm": 6.625, |
| "learning_rate": 1.9995048807110765e-05, |
| "loss": 0.2354, |
| "step": 1790 |
| }, |
| { |
| "epoch": 0.03, |
| "grad_norm": 18.375, |
| "learning_rate": 1.9994879272401184e-05, |
| "loss": 0.2073, |
| "step": 1800 |
| }, |
| { |
| "epoch": 0.030166666666666668, |
| "grad_norm": 14.6875, |
| "learning_rate": 1.9994706884554535e-05, |
| "loss": 0.1961, |
| "step": 1810 |
| }, |
| { |
| "epoch": 0.030333333333333334, |
| "grad_norm": 44.5, |
| "learning_rate": 1.9994531643620033e-05, |
| "loss": 0.2184, |
| "step": 1820 |
| }, |
| { |
| "epoch": 0.0305, |
| "grad_norm": 45.75, |
| "learning_rate": 1.9994353549647697e-05, |
| "loss": 0.2101, |
| "step": 1830 |
| }, |
| { |
| "epoch": 0.030666666666666665, |
| "grad_norm": 14.625, |
| "learning_rate": 1.9994172602688376e-05, |
| "loss": 0.2063, |
| "step": 1840 |
| }, |
| { |
| "epoch": 0.030833333333333334, |
| "grad_norm": 2.6875, |
| "learning_rate": 1.999398880279371e-05, |
| "loss": 0.2033, |
| "step": 1850 |
| }, |
| { |
| "epoch": 0.031, |
| "grad_norm": 24.625, |
| "learning_rate": 1.9993802150016176e-05, |
| "loss": 0.208, |
| "step": 1860 |
| }, |
| { |
| "epoch": 0.031166666666666665, |
| "grad_norm": 4.5, |
| "learning_rate": 1.9993612644409053e-05, |
| "loss": 0.1901, |
| "step": 1870 |
| }, |
| { |
| "epoch": 0.03133333333333333, |
| "grad_norm": 72.5, |
| "learning_rate": 1.999342028602644e-05, |
| "loss": 0.2063, |
| "step": 1880 |
| }, |
| { |
| "epoch": 0.0315, |
| "grad_norm": 21.25, |
| "learning_rate": 1.9993225074923244e-05, |
| "loss": 0.2423, |
| "step": 1890 |
| }, |
| { |
| "epoch": 0.03166666666666667, |
| "grad_norm": 20.0, |
| "learning_rate": 1.999302701115519e-05, |
| "loss": 0.1802, |
| "step": 1900 |
| }, |
| { |
| "epoch": 0.03183333333333333, |
| "grad_norm": 14.9375, |
| "learning_rate": 1.9992826094778817e-05, |
| "loss": 0.2306, |
| "step": 1910 |
| }, |
| { |
| "epoch": 0.032, |
| "grad_norm": 41.25, |
| "learning_rate": 1.999262232585148e-05, |
| "loss": 0.1871, |
| "step": 1920 |
| }, |
| { |
| "epoch": 0.03216666666666667, |
| "grad_norm": 37.0, |
| "learning_rate": 1.9992415704431352e-05, |
| "loss": 0.2077, |
| "step": 1930 |
| }, |
| { |
| "epoch": 0.03233333333333333, |
| "grad_norm": 38.5, |
| "learning_rate": 1.9992206230577406e-05, |
| "loss": 0.2191, |
| "step": 1940 |
| }, |
| { |
| "epoch": 0.0325, |
| "grad_norm": 1.5625, |
| "learning_rate": 1.999199390434944e-05, |
| "loss": 0.2278, |
| "step": 1950 |
| }, |
| { |
| "epoch": 0.03266666666666666, |
| "grad_norm": 25.0, |
| "learning_rate": 1.999177872580807e-05, |
| "loss": 0.2453, |
| "step": 1960 |
| }, |
| { |
| "epoch": 0.03283333333333333, |
| "grad_norm": 50.0, |
| "learning_rate": 1.9991560695014715e-05, |
| "loss": 0.2155, |
| "step": 1970 |
| }, |
| { |
| "epoch": 0.033, |
| "grad_norm": 27.375, |
| "learning_rate": 1.9991339812031618e-05, |
| "loss": 0.2314, |
| "step": 1980 |
| }, |
| { |
| "epoch": 0.033166666666666664, |
| "grad_norm": 19.875, |
| "learning_rate": 1.9991116076921826e-05, |
| "loss": 0.1786, |
| "step": 1990 |
| }, |
| { |
| "epoch": 0.03333333333333333, |
| "grad_norm": 33.75, |
| "learning_rate": 1.9990889489749217e-05, |
| "loss": 0.2349, |
| "step": 2000 |
| }, |
| { |
| "epoch": 0.0335, |
| "grad_norm": 24.0, |
| "learning_rate": 1.9990660050578464e-05, |
| "loss": 0.196, |
| "step": 2010 |
| }, |
| { |
| "epoch": 0.033666666666666664, |
| "grad_norm": 18.125, |
| "learning_rate": 1.9990427759475068e-05, |
| "loss": 0.2281, |
| "step": 2020 |
| }, |
| { |
| "epoch": 0.03383333333333333, |
| "grad_norm": 27.125, |
| "learning_rate": 1.9990192616505336e-05, |
| "loss": 0.1989, |
| "step": 2030 |
| }, |
| { |
| "epoch": 0.034, |
| "grad_norm": 34.25, |
| "learning_rate": 1.998995462173639e-05, |
| "loss": 0.2295, |
| "step": 2040 |
| }, |
| { |
| "epoch": 0.034166666666666665, |
| "grad_norm": 39.75, |
| "learning_rate": 1.9989713775236173e-05, |
| "loss": 0.2074, |
| "step": 2050 |
| }, |
| { |
| "epoch": 0.034333333333333334, |
| "grad_norm": 26.75, |
| "learning_rate": 1.9989470077073432e-05, |
| "loss": 0.2397, |
| "step": 2060 |
| }, |
| { |
| "epoch": 0.0345, |
| "grad_norm": 1.8359375, |
| "learning_rate": 1.9989223527317737e-05, |
| "loss": 0.2197, |
| "step": 2070 |
| }, |
| { |
| "epoch": 0.034666666666666665, |
| "grad_norm": 17.875, |
| "learning_rate": 1.998897412603946e-05, |
| "loss": 0.2277, |
| "step": 2080 |
| }, |
| { |
| "epoch": 0.034833333333333334, |
| "grad_norm": 22.5, |
| "learning_rate": 1.9988721873309808e-05, |
| "loss": 0.2221, |
| "step": 2090 |
| }, |
| { |
| "epoch": 0.035, |
| "grad_norm": 45.75, |
| "learning_rate": 1.9988466769200784e-05, |
| "loss": 0.2285, |
| "step": 2100 |
| }, |
| { |
| "epoch": 0.035166666666666666, |
| "grad_norm": 13.6875, |
| "learning_rate": 1.9988208813785205e-05, |
| "loss": 0.2167, |
| "step": 2110 |
| }, |
| { |
| "epoch": 0.035333333333333335, |
| "grad_norm": 10.5625, |
| "learning_rate": 1.9987948007136707e-05, |
| "loss": 0.2209, |
| "step": 2120 |
| }, |
| { |
| "epoch": 0.0355, |
| "grad_norm": 52.75, |
| "learning_rate": 1.9987684349329748e-05, |
| "loss": 0.2451, |
| "step": 2130 |
| }, |
| { |
| "epoch": 0.035666666666666666, |
| "grad_norm": 23.125, |
| "learning_rate": 1.9987417840439583e-05, |
| "loss": 0.2247, |
| "step": 2140 |
| }, |
| { |
| "epoch": 0.035833333333333335, |
| "grad_norm": 11.125, |
| "learning_rate": 1.9987148480542298e-05, |
| "loss": 0.201, |
| "step": 2150 |
| }, |
| { |
| "epoch": 0.036, |
| "grad_norm": 3.46875, |
| "learning_rate": 1.9986876269714773e-05, |
| "loss": 0.1788, |
| "step": 2160 |
| }, |
| { |
| "epoch": 0.036166666666666666, |
| "grad_norm": 31.0, |
| "learning_rate": 1.998660120803473e-05, |
| "loss": 0.1926, |
| "step": 2170 |
| }, |
| { |
| "epoch": 0.036333333333333336, |
| "grad_norm": 23.25, |
| "learning_rate": 1.998632329558067e-05, |
| "loss": 0.1977, |
| "step": 2180 |
| }, |
| { |
| "epoch": 0.0365, |
| "grad_norm": 72.0, |
| "learning_rate": 1.9986042532431934e-05, |
| "loss": 0.2519, |
| "step": 2190 |
| }, |
| { |
| "epoch": 0.03666666666666667, |
| "grad_norm": 36.75, |
| "learning_rate": 1.9985758918668674e-05, |
| "loss": 0.2138, |
| "step": 2200 |
| }, |
| { |
| "epoch": 0.036833333333333336, |
| "grad_norm": 2.5, |
| "learning_rate": 1.998547245437184e-05, |
| "loss": 0.2285, |
| "step": 2210 |
| }, |
| { |
| "epoch": 0.037, |
| "grad_norm": 28.625, |
| "learning_rate": 1.9985183139623213e-05, |
| "loss": 0.2048, |
| "step": 2220 |
| }, |
| { |
| "epoch": 0.03716666666666667, |
| "grad_norm": 3.796875, |
| "learning_rate": 1.9984890974505383e-05, |
| "loss": 0.2055, |
| "step": 2230 |
| }, |
| { |
| "epoch": 0.037333333333333336, |
| "grad_norm": 15.8125, |
| "learning_rate": 1.9984595959101743e-05, |
| "loss": 0.2026, |
| "step": 2240 |
| }, |
| { |
| "epoch": 0.0375, |
| "grad_norm": 36.0, |
| "learning_rate": 1.9984298093496512e-05, |
| "loss": 0.2429, |
| "step": 2250 |
| }, |
| { |
| "epoch": 0.03766666666666667, |
| "grad_norm": 28.875, |
| "learning_rate": 1.9983997377774718e-05, |
| "loss": 0.2344, |
| "step": 2260 |
| }, |
| { |
| "epoch": 0.03783333333333333, |
| "grad_norm": 17.5, |
| "learning_rate": 1.9983693812022206e-05, |
| "loss": 0.1871, |
| "step": 2270 |
| }, |
| { |
| "epoch": 0.038, |
| "grad_norm": 23.25, |
| "learning_rate": 1.9983387396325632e-05, |
| "loss": 0.2036, |
| "step": 2280 |
| }, |
| { |
| "epoch": 0.03816666666666667, |
| "grad_norm": 39.75, |
| "learning_rate": 1.9983078130772463e-05, |
| "loss": 0.2093, |
| "step": 2290 |
| }, |
| { |
| "epoch": 0.03833333333333333, |
| "grad_norm": 37.0, |
| "learning_rate": 1.9982766015450977e-05, |
| "loss": 0.2252, |
| "step": 2300 |
| }, |
| { |
| "epoch": 0.0385, |
| "grad_norm": 10.1875, |
| "learning_rate": 1.998245105045028e-05, |
| "loss": 0.2031, |
| "step": 2310 |
| }, |
| { |
| "epoch": 0.03866666666666667, |
| "grad_norm": 11.0, |
| "learning_rate": 1.9982133235860278e-05, |
| "loss": 0.2151, |
| "step": 2320 |
| }, |
| { |
| "epoch": 0.03883333333333333, |
| "grad_norm": 19.125, |
| "learning_rate": 1.9981812571771693e-05, |
| "loss": 0.1842, |
| "step": 2330 |
| }, |
| { |
| "epoch": 0.039, |
| "grad_norm": 9.875, |
| "learning_rate": 1.9981489058276065e-05, |
| "loss": 0.2303, |
| "step": 2340 |
| }, |
| { |
| "epoch": 0.03916666666666667, |
| "grad_norm": 22.375, |
| "learning_rate": 1.998116269546574e-05, |
| "loss": 0.2136, |
| "step": 2350 |
| }, |
| { |
| "epoch": 0.03933333333333333, |
| "grad_norm": 36.0, |
| "learning_rate": 1.9980833483433884e-05, |
| "loss": 0.2071, |
| "step": 2360 |
| }, |
| { |
| "epoch": 0.0395, |
| "grad_norm": 62.75, |
| "learning_rate": 1.9980501422274475e-05, |
| "loss": 0.19, |
| "step": 2370 |
| }, |
| { |
| "epoch": 0.03966666666666667, |
| "grad_norm": 42.25, |
| "learning_rate": 1.99801665120823e-05, |
| "loss": 0.2038, |
| "step": 2380 |
| }, |
| { |
| "epoch": 0.03983333333333333, |
| "grad_norm": 63.75, |
| "learning_rate": 1.997982875295296e-05, |
| "loss": 0.2099, |
| "step": 2390 |
| }, |
| { |
| "epoch": 0.04, |
| "grad_norm": 22.0, |
| "learning_rate": 1.9979488144982877e-05, |
| "loss": 0.1951, |
| "step": 2400 |
| }, |
| { |
| "epoch": 0.04016666666666667, |
| "grad_norm": 27.375, |
| "learning_rate": 1.9979144688269283e-05, |
| "loss": 0.2033, |
| "step": 2410 |
| }, |
| { |
| "epoch": 0.04033333333333333, |
| "grad_norm": 20.375, |
| "learning_rate": 1.9978798382910213e-05, |
| "loss": 0.199, |
| "step": 2420 |
| }, |
| { |
| "epoch": 0.0405, |
| "grad_norm": 39.0, |
| "learning_rate": 1.997844922900453e-05, |
| "loss": 0.1882, |
| "step": 2430 |
| }, |
| { |
| "epoch": 0.04066666666666666, |
| "grad_norm": 15.25, |
| "learning_rate": 1.99780972266519e-05, |
| "loss": 0.2002, |
| "step": 2440 |
| }, |
| { |
| "epoch": 0.04083333333333333, |
| "grad_norm": 40.75, |
| "learning_rate": 1.9977742375952807e-05, |
| "loss": 0.2445, |
| "step": 2450 |
| }, |
| { |
| "epoch": 0.041, |
| "grad_norm": 24.0, |
| "learning_rate": 1.9977384677008548e-05, |
| "loss": 0.2219, |
| "step": 2460 |
| }, |
| { |
| "epoch": 0.041166666666666664, |
| "grad_norm": 24.0, |
| "learning_rate": 1.997702412992123e-05, |
| "loss": 0.1997, |
| "step": 2470 |
| }, |
| { |
| "epoch": 0.04133333333333333, |
| "grad_norm": 14.25, |
| "learning_rate": 1.9976660734793772e-05, |
| "loss": 0.1994, |
| "step": 2480 |
| }, |
| { |
| "epoch": 0.0415, |
| "grad_norm": 14.0625, |
| "learning_rate": 1.9976294491729915e-05, |
| "loss": 0.2429, |
| "step": 2490 |
| }, |
| { |
| "epoch": 0.041666666666666664, |
| "grad_norm": 25.5, |
| "learning_rate": 1.9975925400834203e-05, |
| "loss": 0.199, |
| "step": 2500 |
| }, |
| { |
| "epoch": 0.041833333333333333, |
| "grad_norm": 19.0, |
| "learning_rate": 1.9975553462211995e-05, |
| "loss": 0.2076, |
| "step": 2510 |
| }, |
| { |
| "epoch": 0.042, |
| "grad_norm": 20.75, |
| "learning_rate": 1.9975178675969468e-05, |
| "loss": 0.2112, |
| "step": 2520 |
| }, |
| { |
| "epoch": 0.042166666666666665, |
| "grad_norm": 13.375, |
| "learning_rate": 1.9974801042213605e-05, |
| "loss": 0.2183, |
| "step": 2530 |
| }, |
| { |
| "epoch": 0.042333333333333334, |
| "grad_norm": 32.25, |
| "learning_rate": 1.9974420561052206e-05, |
| "loss": 0.2146, |
| "step": 2540 |
| }, |
| { |
| "epoch": 0.0425, |
| "grad_norm": 38.5, |
| "learning_rate": 1.997403723259389e-05, |
| "loss": 0.2438, |
| "step": 2550 |
| }, |
| { |
| "epoch": 0.042666666666666665, |
| "grad_norm": 31.375, |
| "learning_rate": 1.997365105694807e-05, |
| "loss": 0.2102, |
| "step": 2560 |
| }, |
| { |
| "epoch": 0.042833333333333334, |
| "grad_norm": 41.0, |
| "learning_rate": 1.9973262034224993e-05, |
| "loss": 0.214, |
| "step": 2570 |
| }, |
| { |
| "epoch": 0.043, |
| "grad_norm": 34.5, |
| "learning_rate": 1.9972870164535704e-05, |
| "loss": 0.2055, |
| "step": 2580 |
| }, |
| { |
| "epoch": 0.043166666666666666, |
| "grad_norm": 20.0, |
| "learning_rate": 1.997247544799207e-05, |
| "loss": 0.206, |
| "step": 2590 |
| }, |
| { |
| "epoch": 0.043333333333333335, |
| "grad_norm": 27.375, |
| "learning_rate": 1.9972077884706766e-05, |
| "loss": 0.1892, |
| "step": 2600 |
| }, |
| { |
| "epoch": 0.0435, |
| "grad_norm": 42.25, |
| "learning_rate": 1.9971677474793278e-05, |
| "loss": 0.1976, |
| "step": 2610 |
| }, |
| { |
| "epoch": 0.043666666666666666, |
| "grad_norm": 13.3125, |
| "learning_rate": 1.9971274218365906e-05, |
| "loss": 0.2117, |
| "step": 2620 |
| }, |
| { |
| "epoch": 0.043833333333333335, |
| "grad_norm": 6.625, |
| "learning_rate": 1.9970868115539768e-05, |
| "loss": 0.2168, |
| "step": 2630 |
| }, |
| { |
| "epoch": 0.044, |
| "grad_norm": 34.75, |
| "learning_rate": 1.997045916643079e-05, |
| "loss": 0.2062, |
| "step": 2640 |
| }, |
| { |
| "epoch": 0.04416666666666667, |
| "grad_norm": 70.0, |
| "learning_rate": 1.9970047371155704e-05, |
| "loss": 0.2147, |
| "step": 2650 |
| }, |
| { |
| "epoch": 0.044333333333333336, |
| "grad_norm": 27.125, |
| "learning_rate": 1.9969632729832068e-05, |
| "loss": 0.2276, |
| "step": 2660 |
| }, |
| { |
| "epoch": 0.0445, |
| "grad_norm": 17.375, |
| "learning_rate": 1.9969215242578245e-05, |
| "loss": 0.1923, |
| "step": 2670 |
| }, |
| { |
| "epoch": 0.04466666666666667, |
| "grad_norm": 12.0625, |
| "learning_rate": 1.9968794909513406e-05, |
| "loss": 0.226, |
| "step": 2680 |
| }, |
| { |
| "epoch": 0.044833333333333336, |
| "grad_norm": 10.6875, |
| "learning_rate": 1.996837173075754e-05, |
| "loss": 0.1967, |
| "step": 2690 |
| }, |
| { |
| "epoch": 0.045, |
| "grad_norm": 13.0, |
| "learning_rate": 1.9967945706431453e-05, |
| "loss": 0.2247, |
| "step": 2700 |
| }, |
| { |
| "epoch": 0.04516666666666667, |
| "grad_norm": 31.125, |
| "learning_rate": 1.9967516836656755e-05, |
| "loss": 0.2084, |
| "step": 2710 |
| }, |
| { |
| "epoch": 0.04533333333333334, |
| "grad_norm": 61.75, |
| "learning_rate": 1.9967085121555868e-05, |
| "loss": 0.1867, |
| "step": 2720 |
| }, |
| { |
| "epoch": 0.0455, |
| "grad_norm": 6.71875, |
| "learning_rate": 1.9966650561252033e-05, |
| "loss": 0.1813, |
| "step": 2730 |
| }, |
| { |
| "epoch": 0.04566666666666667, |
| "grad_norm": 63.75, |
| "learning_rate": 1.9966213155869303e-05, |
| "loss": 0.1956, |
| "step": 2740 |
| }, |
| { |
| "epoch": 0.04583333333333333, |
| "grad_norm": 38.0, |
| "learning_rate": 1.996577290553253e-05, |
| "loss": 0.1899, |
| "step": 2750 |
| }, |
| { |
| "epoch": 0.046, |
| "grad_norm": 22.5, |
| "learning_rate": 1.9965329810367394e-05, |
| "loss": 0.1975, |
| "step": 2760 |
| }, |
| { |
| "epoch": 0.04616666666666667, |
| "grad_norm": 8.75, |
| "learning_rate": 1.996488387050038e-05, |
| "loss": 0.188, |
| "step": 2770 |
| }, |
| { |
| "epoch": 0.04633333333333333, |
| "grad_norm": 4.1875, |
| "learning_rate": 1.9964435086058785e-05, |
| "loss": 0.1986, |
| "step": 2780 |
| }, |
| { |
| "epoch": 0.0465, |
| "grad_norm": 15.0, |
| "learning_rate": 1.996398345717072e-05, |
| "loss": 0.2072, |
| "step": 2790 |
| }, |
| { |
| "epoch": 0.04666666666666667, |
| "grad_norm": 14.1875, |
| "learning_rate": 1.996352898396511e-05, |
| "loss": 0.1998, |
| "step": 2800 |
| }, |
| { |
| "epoch": 0.04683333333333333, |
| "grad_norm": 10.5, |
| "learning_rate": 1.9963071666571683e-05, |
| "loss": 0.2045, |
| "step": 2810 |
| }, |
| { |
| "epoch": 0.047, |
| "grad_norm": 37.5, |
| "learning_rate": 1.9962611505120984e-05, |
| "loss": 0.1859, |
| "step": 2820 |
| }, |
| { |
| "epoch": 0.04716666666666667, |
| "grad_norm": 24.5, |
| "learning_rate": 1.996214849974438e-05, |
| "loss": 0.2235, |
| "step": 2830 |
| }, |
| { |
| "epoch": 0.04733333333333333, |
| "grad_norm": 31.5, |
| "learning_rate": 1.9961682650574033e-05, |
| "loss": 0.1815, |
| "step": 2840 |
| }, |
| { |
| "epoch": 0.0475, |
| "grad_norm": 42.75, |
| "learning_rate": 1.9961213957742925e-05, |
| "loss": 0.2075, |
| "step": 2850 |
| }, |
| { |
| "epoch": 0.04766666666666667, |
| "grad_norm": 23.625, |
| "learning_rate": 1.9960742421384846e-05, |
| "loss": 0.2138, |
| "step": 2860 |
| }, |
| { |
| "epoch": 0.04783333333333333, |
| "grad_norm": 12.3125, |
| "learning_rate": 1.996026804163441e-05, |
| "loss": 0.2043, |
| "step": 2870 |
| }, |
| { |
| "epoch": 0.048, |
| "grad_norm": 12.125, |
| "learning_rate": 1.9959790818627024e-05, |
| "loss": 0.2113, |
| "step": 2880 |
| }, |
| { |
| "epoch": 0.04816666666666667, |
| "grad_norm": 51.5, |
| "learning_rate": 1.995931075249892e-05, |
| "loss": 0.1773, |
| "step": 2890 |
| }, |
| { |
| "epoch": 0.04833333333333333, |
| "grad_norm": 1.4140625, |
| "learning_rate": 1.995882784338714e-05, |
| "loss": 0.2047, |
| "step": 2900 |
| }, |
| { |
| "epoch": 0.0485, |
| "grad_norm": 37.0, |
| "learning_rate": 1.9958342091429532e-05, |
| "loss": 0.2121, |
| "step": 2910 |
| }, |
| { |
| "epoch": 0.048666666666666664, |
| "grad_norm": 30.875, |
| "learning_rate": 1.9957853496764758e-05, |
| "loss": 0.2077, |
| "step": 2920 |
| }, |
| { |
| "epoch": 0.04883333333333333, |
| "grad_norm": 25.625, |
| "learning_rate": 1.9957362059532294e-05, |
| "loss": 0.209, |
| "step": 2930 |
| }, |
| { |
| "epoch": 0.049, |
| "grad_norm": 15.1875, |
| "learning_rate": 1.9956867779872425e-05, |
| "loss": 0.1788, |
| "step": 2940 |
| }, |
| { |
| "epoch": 0.049166666666666664, |
| "grad_norm": 21.0, |
| "learning_rate": 1.9956370657926247e-05, |
| "loss": 0.1907, |
| "step": 2950 |
| }, |
| { |
| "epoch": 0.04933333333333333, |
| "grad_norm": 25.0, |
| "learning_rate": 1.995587069383567e-05, |
| "loss": 0.1808, |
| "step": 2960 |
| }, |
| { |
| "epoch": 0.0495, |
| "grad_norm": 90.0, |
| "learning_rate": 1.9955367887743416e-05, |
| "loss": 0.179, |
| "step": 2970 |
| }, |
| { |
| "epoch": 0.049666666666666665, |
| "grad_norm": 46.25, |
| "learning_rate": 1.9954862239793012e-05, |
| "loss": 0.2158, |
| "step": 2980 |
| }, |
| { |
| "epoch": 0.049833333333333334, |
| "grad_norm": 16.5, |
| "learning_rate": 1.9954353750128798e-05, |
| "loss": 0.1854, |
| "step": 2990 |
| }, |
| { |
| "epoch": 0.05, |
| "grad_norm": 13.0625, |
| "learning_rate": 1.9953842418895936e-05, |
| "loss": 0.1907, |
| "step": 3000 |
| }, |
| { |
| "epoch": 0.050166666666666665, |
| "grad_norm": 33.5, |
| "learning_rate": 1.995332824624038e-05, |
| "loss": 0.2115, |
| "step": 3010 |
| }, |
| { |
| "epoch": 0.050333333333333334, |
| "grad_norm": 25.625, |
| "learning_rate": 1.9952811232308913e-05, |
| "loss": 0.1763, |
| "step": 3020 |
| }, |
| { |
| "epoch": 0.0505, |
| "grad_norm": 17.25, |
| "learning_rate": 1.995229137724912e-05, |
| "loss": 0.2001, |
| "step": 3030 |
| }, |
| { |
| "epoch": 0.050666666666666665, |
| "grad_norm": 12.6875, |
| "learning_rate": 1.99517686812094e-05, |
| "loss": 0.2043, |
| "step": 3040 |
| }, |
| { |
| "epoch": 0.050833333333333335, |
| "grad_norm": 42.0, |
| "learning_rate": 1.9951243144338955e-05, |
| "loss": 0.1946, |
| "step": 3050 |
| }, |
| { |
| "epoch": 0.051, |
| "grad_norm": 23.625, |
| "learning_rate": 1.9950714766787814e-05, |
| "loss": 0.1915, |
| "step": 3060 |
| }, |
| { |
| "epoch": 0.051166666666666666, |
| "grad_norm": 15.0, |
| "learning_rate": 1.9950183548706806e-05, |
| "loss": 0.219, |
| "step": 3070 |
| }, |
| { |
| "epoch": 0.051333333333333335, |
| "grad_norm": 11.5, |
| "learning_rate": 1.9949649490247566e-05, |
| "loss": 0.2163, |
| "step": 3080 |
| }, |
| { |
| "epoch": 0.0515, |
| "grad_norm": 33.5, |
| "learning_rate": 1.994911259156255e-05, |
| "loss": 0.2116, |
| "step": 3090 |
| }, |
| { |
| "epoch": 0.051666666666666666, |
| "grad_norm": 6.625, |
| "learning_rate": 1.9948572852805024e-05, |
| "loss": 0.2106, |
| "step": 3100 |
| }, |
| { |
| "epoch": 0.051833333333333335, |
| "grad_norm": 7.21875, |
| "learning_rate": 1.9948030274129055e-05, |
| "loss": 0.1915, |
| "step": 3110 |
| }, |
| { |
| "epoch": 0.052, |
| "grad_norm": 9.6875, |
| "learning_rate": 1.9947484855689537e-05, |
| "loss": 0.1877, |
| "step": 3120 |
| }, |
| { |
| "epoch": 0.05216666666666667, |
| "grad_norm": 35.25, |
| "learning_rate": 1.9946936597642154e-05, |
| "loss": 0.172, |
| "step": 3130 |
| }, |
| { |
| "epoch": 0.052333333333333336, |
| "grad_norm": 12.8125, |
| "learning_rate": 1.994638550014342e-05, |
| "loss": 0.1824, |
| "step": 3140 |
| }, |
| { |
| "epoch": 0.0525, |
| "grad_norm": 22.75, |
| "learning_rate": 1.9945831563350652e-05, |
| "loss": 0.2273, |
| "step": 3150 |
| }, |
| { |
| "epoch": 0.05266666666666667, |
| "grad_norm": 55.75, |
| "learning_rate": 1.9945274787421966e-05, |
| "loss": 0.1924, |
| "step": 3160 |
| }, |
| { |
| "epoch": 0.052833333333333336, |
| "grad_norm": 11.875, |
| "learning_rate": 1.9944715172516308e-05, |
| "loss": 0.1909, |
| "step": 3170 |
| }, |
| { |
| "epoch": 0.053, |
| "grad_norm": 25.625, |
| "learning_rate": 1.994415271879343e-05, |
| "loss": 0.1927, |
| "step": 3180 |
| }, |
| { |
| "epoch": 0.05316666666666667, |
| "grad_norm": 10.375, |
| "learning_rate": 1.9943587426413876e-05, |
| "loss": 0.2408, |
| "step": 3190 |
| }, |
| { |
| "epoch": 0.05333333333333334, |
| "grad_norm": 29.375, |
| "learning_rate": 1.9943019295539025e-05, |
| "loss": 0.1958, |
| "step": 3200 |
| }, |
| { |
| "epoch": 0.0535, |
| "grad_norm": 47.75, |
| "learning_rate": 1.9942448326331053e-05, |
| "loss": 0.2024, |
| "step": 3210 |
| }, |
| { |
| "epoch": 0.05366666666666667, |
| "grad_norm": 26.25, |
| "learning_rate": 1.994187451895295e-05, |
| "loss": 0.1912, |
| "step": 3220 |
| }, |
| { |
| "epoch": 0.05383333333333333, |
| "grad_norm": 8.8125, |
| "learning_rate": 1.9941297873568514e-05, |
| "loss": 0.1914, |
| "step": 3230 |
| }, |
| { |
| "epoch": 0.054, |
| "grad_norm": 26.0, |
| "learning_rate": 1.9940718390342357e-05, |
| "loss": 0.1926, |
| "step": 3240 |
| }, |
| { |
| "epoch": 0.05416666666666667, |
| "grad_norm": 25.5, |
| "learning_rate": 1.9940136069439887e-05, |
| "loss": 0.1966, |
| "step": 3250 |
| }, |
| { |
| "epoch": 0.05433333333333333, |
| "grad_norm": 28.5, |
| "learning_rate": 1.9939550911027345e-05, |
| "loss": 0.2099, |
| "step": 3260 |
| }, |
| { |
| "epoch": 0.0545, |
| "grad_norm": 18.75, |
| "learning_rate": 1.9938962915271767e-05, |
| "loss": 0.1948, |
| "step": 3270 |
| }, |
| { |
| "epoch": 0.05466666666666667, |
| "grad_norm": 35.75, |
| "learning_rate": 1.9938372082341e-05, |
| "loss": 0.1829, |
| "step": 3280 |
| }, |
| { |
| "epoch": 0.05483333333333333, |
| "grad_norm": 7.71875, |
| "learning_rate": 1.9937778412403707e-05, |
| "loss": 0.1899, |
| "step": 3290 |
| }, |
| { |
| "epoch": 0.055, |
| "grad_norm": 14.4375, |
| "learning_rate": 1.9937181905629352e-05, |
| "loss": 0.1892, |
| "step": 3300 |
| }, |
| { |
| "epoch": 0.05516666666666667, |
| "grad_norm": 11.5, |
| "learning_rate": 1.9936582562188217e-05, |
| "loss": 0.1816, |
| "step": 3310 |
| }, |
| { |
| "epoch": 0.05533333333333333, |
| "grad_norm": 33.0, |
| "learning_rate": 1.9935980382251392e-05, |
| "loss": 0.2079, |
| "step": 3320 |
| }, |
| { |
| "epoch": 0.0555, |
| "grad_norm": 41.0, |
| "learning_rate": 1.9935375365990774e-05, |
| "loss": 0.2315, |
| "step": 3330 |
| }, |
| { |
| "epoch": 0.05566666666666667, |
| "grad_norm": 32.25, |
| "learning_rate": 1.9934767513579065e-05, |
| "loss": 0.1818, |
| "step": 3340 |
| }, |
| { |
| "epoch": 0.05583333333333333, |
| "grad_norm": 15.6875, |
| "learning_rate": 1.9934156825189793e-05, |
| "loss": 0.1934, |
| "step": 3350 |
| }, |
| { |
| "epoch": 0.056, |
| "grad_norm": 24.125, |
| "learning_rate": 1.9933543300997277e-05, |
| "loss": 0.2002, |
| "step": 3360 |
| }, |
| { |
| "epoch": 0.05616666666666666, |
| "grad_norm": 32.5, |
| "learning_rate": 1.9932926941176656e-05, |
| "loss": 0.196, |
| "step": 3370 |
| }, |
| { |
| "epoch": 0.05633333333333333, |
| "grad_norm": 21.875, |
| "learning_rate": 1.9932307745903876e-05, |
| "loss": 0.2235, |
| "step": 3380 |
| }, |
| { |
| "epoch": 0.0565, |
| "grad_norm": 21.0, |
| "learning_rate": 1.9931685715355692e-05, |
| "loss": 0.1908, |
| "step": 3390 |
| }, |
| { |
| "epoch": 0.056666666666666664, |
| "grad_norm": 17.25, |
| "learning_rate": 1.993106084970967e-05, |
| "loss": 0.1983, |
| "step": 3400 |
| }, |
| { |
| "epoch": 0.05683333333333333, |
| "grad_norm": 29.875, |
| "learning_rate": 1.9930433149144184e-05, |
| "loss": 0.1919, |
| "step": 3410 |
| }, |
| { |
| "epoch": 0.057, |
| "grad_norm": 20.5, |
| "learning_rate": 1.9929802613838416e-05, |
| "loss": 0.2121, |
| "step": 3420 |
| }, |
| { |
| "epoch": 0.057166666666666664, |
| "grad_norm": 12.5625, |
| "learning_rate": 1.992916924397236e-05, |
| "loss": 0.171, |
| "step": 3430 |
| }, |
| { |
| "epoch": 0.05733333333333333, |
| "grad_norm": 1.6953125, |
| "learning_rate": 1.9928533039726815e-05, |
| "loss": 0.1845, |
| "step": 3440 |
| }, |
| { |
| "epoch": 0.0575, |
| "grad_norm": 11.5, |
| "learning_rate": 1.9927894001283397e-05, |
| "loss": 0.1858, |
| "step": 3450 |
| }, |
| { |
| "epoch": 0.057666666666666665, |
| "grad_norm": 9.625, |
| "learning_rate": 1.992725212882452e-05, |
| "loss": 0.2107, |
| "step": 3460 |
| }, |
| { |
| "epoch": 0.057833333333333334, |
| "grad_norm": 28.625, |
| "learning_rate": 1.9926607422533416e-05, |
| "loss": 0.2285, |
| "step": 3470 |
| }, |
| { |
| "epoch": 0.058, |
| "grad_norm": 29.0, |
| "learning_rate": 1.992595988259412e-05, |
| "loss": 0.2, |
| "step": 3480 |
| }, |
| { |
| "epoch": 0.058166666666666665, |
| "grad_norm": 6.21875, |
| "learning_rate": 1.9925309509191483e-05, |
| "loss": 0.195, |
| "step": 3490 |
| }, |
| { |
| "epoch": 0.058333333333333334, |
| "grad_norm": 28.0, |
| "learning_rate": 1.992465630251116e-05, |
| "loss": 0.2253, |
| "step": 3500 |
| }, |
| { |
| "epoch": 0.0585, |
| "grad_norm": 22.375, |
| "learning_rate": 1.9924000262739613e-05, |
| "loss": 0.1623, |
| "step": 3510 |
| }, |
| { |
| "epoch": 0.058666666666666666, |
| "grad_norm": 28.25, |
| "learning_rate": 1.9923341390064115e-05, |
| "loss": 0.17, |
| "step": 3520 |
| }, |
| { |
| "epoch": 0.058833333333333335, |
| "grad_norm": 28.5, |
| "learning_rate": 1.9922679684672744e-05, |
| "loss": 0.2089, |
| "step": 3530 |
| }, |
| { |
| "epoch": 0.059, |
| "grad_norm": 14.125, |
| "learning_rate": 1.9922015146754402e-05, |
| "loss": 0.1842, |
| "step": 3540 |
| }, |
| { |
| "epoch": 0.059166666666666666, |
| "grad_norm": 14.4375, |
| "learning_rate": 1.9921347776498776e-05, |
| "loss": 0.1987, |
| "step": 3550 |
| }, |
| { |
| "epoch": 0.059333333333333335, |
| "grad_norm": 30.875, |
| "learning_rate": 1.992067757409638e-05, |
| "loss": 0.1963, |
| "step": 3560 |
| }, |
| { |
| "epoch": 0.0595, |
| "grad_norm": 35.5, |
| "learning_rate": 1.992000453973853e-05, |
| "loss": 0.1716, |
| "step": 3570 |
| }, |
| { |
| "epoch": 0.059666666666666666, |
| "grad_norm": 28.875, |
| "learning_rate": 1.9919328673617345e-05, |
| "loss": 0.1859, |
| "step": 3580 |
| }, |
| { |
| "epoch": 0.059833333333333336, |
| "grad_norm": 6.5, |
| "learning_rate": 1.991864997592576e-05, |
| "loss": 0.1971, |
| "step": 3590 |
| }, |
| { |
| "epoch": 0.06, |
| "grad_norm": 45.75, |
| "learning_rate": 1.991796844685752e-05, |
| "loss": 0.195, |
| "step": 3600 |
| }, |
| { |
| "epoch": 0.06016666666666667, |
| "grad_norm": 49.75, |
| "learning_rate": 1.991728408660717e-05, |
| "loss": 0.1934, |
| "step": 3610 |
| }, |
| { |
| "epoch": 0.060333333333333336, |
| "grad_norm": 48.75, |
| "learning_rate": 1.991659689537007e-05, |
| "loss": 0.1957, |
| "step": 3620 |
| }, |
| { |
| "epoch": 0.0605, |
| "grad_norm": 26.5, |
| "learning_rate": 1.991590687334238e-05, |
| "loss": 0.2133, |
| "step": 3630 |
| }, |
| { |
| "epoch": 0.06066666666666667, |
| "grad_norm": 17.25, |
| "learning_rate": 1.9915214020721082e-05, |
| "loss": 0.2112, |
| "step": 3640 |
| }, |
| { |
| "epoch": 0.060833333333333336, |
| "grad_norm": 9.5, |
| "learning_rate": 1.9914518337703952e-05, |
| "loss": 0.1874, |
| "step": 3650 |
| }, |
| { |
| "epoch": 0.061, |
| "grad_norm": 49.5, |
| "learning_rate": 1.991381982448958e-05, |
| "loss": 0.1946, |
| "step": 3660 |
| }, |
| { |
| "epoch": 0.06116666666666667, |
| "grad_norm": 19.875, |
| "learning_rate": 1.991311848127736e-05, |
| "loss": 0.1943, |
| "step": 3670 |
| }, |
| { |
| "epoch": 0.06133333333333333, |
| "grad_norm": 1.5234375, |
| "learning_rate": 1.9912414308267508e-05, |
| "loss": 0.1748, |
| "step": 3680 |
| }, |
| { |
| "epoch": 0.0615, |
| "grad_norm": 41.5, |
| "learning_rate": 1.991170730566103e-05, |
| "loss": 0.1909, |
| "step": 3690 |
| }, |
| { |
| "epoch": 0.06166666666666667, |
| "grad_norm": 42.25, |
| "learning_rate": 1.991099747365975e-05, |
| "loss": 0.1743, |
| "step": 3700 |
| }, |
| { |
| "epoch": 0.06183333333333333, |
| "grad_norm": 31.5, |
| "learning_rate": 1.991028481246629e-05, |
| "loss": 0.1946, |
| "step": 3710 |
| }, |
| { |
| "epoch": 0.062, |
| "grad_norm": 4.9375, |
| "learning_rate": 1.9909569322284095e-05, |
| "loss": 0.193, |
| "step": 3720 |
| }, |
| { |
| "epoch": 0.06216666666666667, |
| "grad_norm": 16.125, |
| "learning_rate": 1.99088510033174e-05, |
| "loss": 0.1718, |
| "step": 3730 |
| }, |
| { |
| "epoch": 0.06233333333333333, |
| "grad_norm": 65.0, |
| "learning_rate": 1.9908129855771264e-05, |
| "loss": 0.1861, |
| "step": 3740 |
| }, |
| { |
| "epoch": 0.0625, |
| "grad_norm": 54.5, |
| "learning_rate": 1.990740587985154e-05, |
| "loss": 0.2243, |
| "step": 3750 |
| }, |
| { |
| "epoch": 0.06266666666666666, |
| "grad_norm": 23.0, |
| "learning_rate": 1.9906679075764894e-05, |
| "loss": 0.1951, |
| "step": 3760 |
| }, |
| { |
| "epoch": 0.06283333333333334, |
| "grad_norm": 2.15625, |
| "learning_rate": 1.9905949443718805e-05, |
| "loss": 0.1914, |
| "step": 3770 |
| }, |
| { |
| "epoch": 0.063, |
| "grad_norm": 25.5, |
| "learning_rate": 1.9905216983921546e-05, |
| "loss": 0.2108, |
| "step": 3780 |
| }, |
| { |
| "epoch": 0.06316666666666666, |
| "grad_norm": 12.3125, |
| "learning_rate": 1.9904481696582217e-05, |
| "loss": 0.1862, |
| "step": 3790 |
| }, |
| { |
| "epoch": 0.06333333333333334, |
| "grad_norm": 15.8125, |
| "learning_rate": 1.9903743581910698e-05, |
| "loss": 0.1628, |
| "step": 3800 |
| }, |
| { |
| "epoch": 0.0635, |
| "grad_norm": 54.25, |
| "learning_rate": 1.9903002640117704e-05, |
| "loss": 0.1702, |
| "step": 3810 |
| }, |
| { |
| "epoch": 0.06366666666666666, |
| "grad_norm": 27.375, |
| "learning_rate": 1.9902258871414736e-05, |
| "loss": 0.1846, |
| "step": 3820 |
| }, |
| { |
| "epoch": 0.06383333333333334, |
| "grad_norm": 52.5, |
| "learning_rate": 1.990151227601411e-05, |
| "loss": 0.1912, |
| "step": 3830 |
| }, |
| { |
| "epoch": 0.064, |
| "grad_norm": 13.375, |
| "learning_rate": 1.9900762854128956e-05, |
| "loss": 0.2028, |
| "step": 3840 |
| }, |
| { |
| "epoch": 0.06416666666666666, |
| "grad_norm": 10.75, |
| "learning_rate": 1.9900010605973198e-05, |
| "loss": 0.1741, |
| "step": 3850 |
| }, |
| { |
| "epoch": 0.06433333333333334, |
| "grad_norm": 17.0, |
| "learning_rate": 1.9899255531761573e-05, |
| "loss": 0.1767, |
| "step": 3860 |
| }, |
| { |
| "epoch": 0.0645, |
| "grad_norm": 38.25, |
| "learning_rate": 1.9898497631709628e-05, |
| "loss": 0.1896, |
| "step": 3870 |
| }, |
| { |
| "epoch": 0.06466666666666666, |
| "grad_norm": 8.375, |
| "learning_rate": 1.989773690603371e-05, |
| "loss": 0.2114, |
| "step": 3880 |
| }, |
| { |
| "epoch": 0.06483333333333334, |
| "grad_norm": 79.0, |
| "learning_rate": 1.9896973354950978e-05, |
| "loss": 0.196, |
| "step": 3890 |
| }, |
| { |
| "epoch": 0.065, |
| "grad_norm": 13.875, |
| "learning_rate": 1.989620697867939e-05, |
| "loss": 0.193, |
| "step": 3900 |
| }, |
| { |
| "epoch": 0.06516666666666666, |
| "grad_norm": 30.125, |
| "learning_rate": 1.989543777743772e-05, |
| "loss": 0.1881, |
| "step": 3910 |
| }, |
| { |
| "epoch": 0.06533333333333333, |
| "grad_norm": 33.0, |
| "learning_rate": 1.9894665751445546e-05, |
| "loss": 0.1954, |
| "step": 3920 |
| }, |
| { |
| "epoch": 0.0655, |
| "grad_norm": 68.0, |
| "learning_rate": 1.9893890900923245e-05, |
| "loss": 0.2121, |
| "step": 3930 |
| }, |
| { |
| "epoch": 0.06566666666666666, |
| "grad_norm": 19.625, |
| "learning_rate": 1.9893113226092013e-05, |
| "loss": 0.1987, |
| "step": 3940 |
| }, |
| { |
| "epoch": 0.06583333333333333, |
| "grad_norm": 12.0625, |
| "learning_rate": 1.9892332727173835e-05, |
| "loss": 0.2033, |
| "step": 3950 |
| }, |
| { |
| "epoch": 0.066, |
| "grad_norm": 2.0625, |
| "learning_rate": 1.989154940439152e-05, |
| "loss": 0.2131, |
| "step": 3960 |
| }, |
| { |
| "epoch": 0.06616666666666667, |
| "grad_norm": 49.5, |
| "learning_rate": 1.9890763257968673e-05, |
| "loss": 0.2036, |
| "step": 3970 |
| }, |
| { |
| "epoch": 0.06633333333333333, |
| "grad_norm": 16.5, |
| "learning_rate": 1.988997428812971e-05, |
| "loss": 0.2176, |
| "step": 3980 |
| }, |
| { |
| "epoch": 0.0665, |
| "grad_norm": 44.25, |
| "learning_rate": 1.9889182495099845e-05, |
| "loss": 0.1964, |
| "step": 3990 |
| }, |
| { |
| "epoch": 0.06666666666666667, |
| "grad_norm": 14.0, |
| "learning_rate": 1.9888387879105103e-05, |
| "loss": 0.191, |
| "step": 4000 |
| }, |
| { |
| "epoch": 0.06683333333333333, |
| "grad_norm": 27.125, |
| "learning_rate": 1.988759044037232e-05, |
| "loss": 0.1822, |
| "step": 4010 |
| }, |
| { |
| "epoch": 0.067, |
| "grad_norm": 14.375, |
| "learning_rate": 1.988679017912913e-05, |
| "loss": 0.1676, |
| "step": 4020 |
| }, |
| { |
| "epoch": 0.06716666666666667, |
| "grad_norm": 24.875, |
| "learning_rate": 1.9885987095603975e-05, |
| "loss": 0.2016, |
| "step": 4030 |
| }, |
| { |
| "epoch": 0.06733333333333333, |
| "grad_norm": 42.75, |
| "learning_rate": 1.9885181190026108e-05, |
| "loss": 0.1691, |
| "step": 4040 |
| }, |
| { |
| "epoch": 0.0675, |
| "grad_norm": 26.5, |
| "learning_rate": 1.9884372462625573e-05, |
| "loss": 0.1746, |
| "step": 4050 |
| }, |
| { |
| "epoch": 0.06766666666666667, |
| "grad_norm": 2.21875, |
| "learning_rate": 1.9883560913633238e-05, |
| "loss": 0.2018, |
| "step": 4060 |
| }, |
| { |
| "epoch": 0.06783333333333333, |
| "grad_norm": 47.25, |
| "learning_rate": 1.9882746543280764e-05, |
| "loss": 0.2047, |
| "step": 4070 |
| }, |
| { |
| "epoch": 0.068, |
| "grad_norm": 9.1875, |
| "learning_rate": 1.9881929351800623e-05, |
| "loss": 0.1996, |
| "step": 4080 |
| }, |
| { |
| "epoch": 0.06816666666666667, |
| "grad_norm": 16.0, |
| "learning_rate": 1.9881109339426085e-05, |
| "loss": 0.2045, |
| "step": 4090 |
| }, |
| { |
| "epoch": 0.06833333333333333, |
| "grad_norm": 33.0, |
| "learning_rate": 1.9880286506391236e-05, |
| "loss": 0.2052, |
| "step": 4100 |
| }, |
| { |
| "epoch": 0.0685, |
| "grad_norm": 43.5, |
| "learning_rate": 1.9879460852930962e-05, |
| "loss": 0.2079, |
| "step": 4110 |
| }, |
| { |
| "epoch": 0.06866666666666667, |
| "grad_norm": 18.125, |
| "learning_rate": 1.987863237928095e-05, |
| "loss": 0.202, |
| "step": 4120 |
| }, |
| { |
| "epoch": 0.06883333333333333, |
| "grad_norm": 55.25, |
| "learning_rate": 1.9877801085677705e-05, |
| "loss": 0.1965, |
| "step": 4130 |
| }, |
| { |
| "epoch": 0.069, |
| "grad_norm": 12.375, |
| "learning_rate": 1.9876966972358516e-05, |
| "loss": 0.1922, |
| "step": 4140 |
| }, |
| { |
| "epoch": 0.06916666666666667, |
| "grad_norm": 8.9375, |
| "learning_rate": 1.9876130039561493e-05, |
| "loss": 0.1981, |
| "step": 4150 |
| }, |
| { |
| "epoch": 0.06933333333333333, |
| "grad_norm": 33.5, |
| "learning_rate": 1.987529028752555e-05, |
| "loss": 0.1866, |
| "step": 4160 |
| }, |
| { |
| "epoch": 0.0695, |
| "grad_norm": 30.375, |
| "learning_rate": 1.98744477164904e-05, |
| "loss": 0.1704, |
| "step": 4170 |
| }, |
| { |
| "epoch": 0.06966666666666667, |
| "grad_norm": 12.0625, |
| "learning_rate": 1.9873602326696563e-05, |
| "loss": 0.1991, |
| "step": 4180 |
| }, |
| { |
| "epoch": 0.06983333333333333, |
| "grad_norm": 24.875, |
| "learning_rate": 1.9872754118385368e-05, |
| "loss": 0.2034, |
| "step": 4190 |
| }, |
| { |
| "epoch": 0.07, |
| "grad_norm": 35.0, |
| "learning_rate": 1.9871903091798937e-05, |
| "loss": 0.1936, |
| "step": 4200 |
| }, |
| { |
| "epoch": 0.07016666666666667, |
| "grad_norm": 13.0625, |
| "learning_rate": 1.987104924718021e-05, |
| "loss": 0.1725, |
| "step": 4210 |
| }, |
| { |
| "epoch": 0.07033333333333333, |
| "grad_norm": 37.75, |
| "learning_rate": 1.9870192584772922e-05, |
| "loss": 0.1899, |
| "step": 4220 |
| }, |
| { |
| "epoch": 0.0705, |
| "grad_norm": 18.375, |
| "learning_rate": 1.986933310482162e-05, |
| "loss": 0.1826, |
| "step": 4230 |
| }, |
| { |
| "epoch": 0.07066666666666667, |
| "grad_norm": 12.5, |
| "learning_rate": 1.9868470807571647e-05, |
| "loss": 0.1943, |
| "step": 4240 |
| }, |
| { |
| "epoch": 0.07083333333333333, |
| "grad_norm": 15.5, |
| "learning_rate": 1.9867605693269155e-05, |
| "loss": 0.1849, |
| "step": 4250 |
| }, |
| { |
| "epoch": 0.071, |
| "grad_norm": 23.75, |
| "learning_rate": 1.98667377621611e-05, |
| "loss": 0.2345, |
| "step": 4260 |
| }, |
| { |
| "epoch": 0.07116666666666667, |
| "grad_norm": 24.75, |
| "learning_rate": 1.986586701449524e-05, |
| "loss": 0.1784, |
| "step": 4270 |
| }, |
| { |
| "epoch": 0.07133333333333333, |
| "grad_norm": 20.875, |
| "learning_rate": 1.986499345052014e-05, |
| "loss": 0.2138, |
| "step": 4280 |
| }, |
| { |
| "epoch": 0.0715, |
| "grad_norm": 14.3125, |
| "learning_rate": 1.986411707048517e-05, |
| "loss": 0.2096, |
| "step": 4290 |
| }, |
| { |
| "epoch": 0.07166666666666667, |
| "grad_norm": 2.53125, |
| "learning_rate": 1.9863237874640496e-05, |
| "loss": 0.1759, |
| "step": 4300 |
| }, |
| { |
| "epoch": 0.07183333333333333, |
| "grad_norm": 27.25, |
| "learning_rate": 1.9862355863237096e-05, |
| "loss": 0.1967, |
| "step": 4310 |
| }, |
| { |
| "epoch": 0.072, |
| "grad_norm": 8.4375, |
| "learning_rate": 1.986147103652675e-05, |
| "loss": 0.1764, |
| "step": 4320 |
| }, |
| { |
| "epoch": 0.07216666666666667, |
| "grad_norm": 25.0, |
| "learning_rate": 1.986058339476204e-05, |
| "loss": 0.1774, |
| "step": 4330 |
| }, |
| { |
| "epoch": 0.07233333333333333, |
| "grad_norm": 45.75, |
| "learning_rate": 1.985969293819635e-05, |
| "loss": 0.182, |
| "step": 4340 |
| }, |
| { |
| "epoch": 0.0725, |
| "grad_norm": 23.25, |
| "learning_rate": 1.985879966708387e-05, |
| "loss": 0.1768, |
| "step": 4350 |
| }, |
| { |
| "epoch": 0.07266666666666667, |
| "grad_norm": 12.4375, |
| "learning_rate": 1.9857903581679595e-05, |
| "loss": 0.1943, |
| "step": 4360 |
| }, |
| { |
| "epoch": 0.07283333333333333, |
| "grad_norm": 28.75, |
| "learning_rate": 1.9857004682239324e-05, |
| "loss": 0.1781, |
| "step": 4370 |
| }, |
| { |
| "epoch": 0.073, |
| "grad_norm": 38.0, |
| "learning_rate": 1.9856102969019647e-05, |
| "loss": 0.1744, |
| "step": 4380 |
| }, |
| { |
| "epoch": 0.07316666666666667, |
| "grad_norm": 24.125, |
| "learning_rate": 1.985519844227798e-05, |
| "loss": 0.1763, |
| "step": 4390 |
| }, |
| { |
| "epoch": 0.07333333333333333, |
| "grad_norm": 27.75, |
| "learning_rate": 1.985429110227252e-05, |
| "loss": 0.2221, |
| "step": 4400 |
| }, |
| { |
| "epoch": 0.0735, |
| "grad_norm": 8.125, |
| "learning_rate": 1.9853380949262276e-05, |
| "loss": 0.2061, |
| "step": 4410 |
| }, |
| { |
| "epoch": 0.07366666666666667, |
| "grad_norm": 64.0, |
| "learning_rate": 1.985246798350706e-05, |
| "loss": 0.1825, |
| "step": 4420 |
| }, |
| { |
| "epoch": 0.07383333333333333, |
| "grad_norm": 28.25, |
| "learning_rate": 1.9851552205267495e-05, |
| "loss": 0.2157, |
| "step": 4430 |
| }, |
| { |
| "epoch": 0.074, |
| "grad_norm": 11.875, |
| "learning_rate": 1.9850633614804993e-05, |
| "loss": 0.2036, |
| "step": 4440 |
| }, |
| { |
| "epoch": 0.07416666666666667, |
| "grad_norm": 16.75, |
| "learning_rate": 1.9849712212381775e-05, |
| "loss": 0.1645, |
| "step": 4450 |
| }, |
| { |
| "epoch": 0.07433333333333333, |
| "grad_norm": 11.0625, |
| "learning_rate": 1.9848787998260864e-05, |
| "loss": 0.1783, |
| "step": 4460 |
| }, |
| { |
| "epoch": 0.0745, |
| "grad_norm": 19.75, |
| "learning_rate": 1.9847860972706088e-05, |
| "loss": 0.1568, |
| "step": 4470 |
| }, |
| { |
| "epoch": 0.07466666666666667, |
| "grad_norm": 16.375, |
| "learning_rate": 1.9846931135982073e-05, |
| "loss": 0.2129, |
| "step": 4480 |
| }, |
| { |
| "epoch": 0.07483333333333334, |
| "grad_norm": 24.625, |
| "learning_rate": 1.984599848835425e-05, |
| "loss": 0.1937, |
| "step": 4490 |
| }, |
| { |
| "epoch": 0.075, |
| "grad_norm": 36.5, |
| "learning_rate": 1.984506303008886e-05, |
| "loss": 0.1964, |
| "step": 4500 |
| }, |
| { |
| "epoch": 0.07516666666666667, |
| "grad_norm": 37.75, |
| "learning_rate": 1.9844124761452927e-05, |
| "loss": 0.1846, |
| "step": 4510 |
| }, |
| { |
| "epoch": 0.07533333333333334, |
| "grad_norm": 8.375, |
| "learning_rate": 1.98431836827143e-05, |
| "loss": 0.187, |
| "step": 4520 |
| }, |
| { |
| "epoch": 0.0755, |
| "grad_norm": 29.875, |
| "learning_rate": 1.9842239794141606e-05, |
| "loss": 0.1899, |
| "step": 4530 |
| }, |
| { |
| "epoch": 0.07566666666666666, |
| "grad_norm": 28.75, |
| "learning_rate": 1.98412930960043e-05, |
| "loss": 0.1879, |
| "step": 4540 |
| }, |
| { |
| "epoch": 0.07583333333333334, |
| "grad_norm": 66.0, |
| "learning_rate": 1.9840343588572625e-05, |
| "loss": 0.1831, |
| "step": 4550 |
| }, |
| { |
| "epoch": 0.076, |
| "grad_norm": 11.25, |
| "learning_rate": 1.9839391272117622e-05, |
| "loss": 0.1936, |
| "step": 4560 |
| }, |
| { |
| "epoch": 0.07616666666666666, |
| "grad_norm": 2.9375, |
| "learning_rate": 1.983843614691114e-05, |
| "loss": 0.1762, |
| "step": 4570 |
| }, |
| { |
| "epoch": 0.07633333333333334, |
| "grad_norm": 11.5625, |
| "learning_rate": 1.983747821322583e-05, |
| "loss": 0.2111, |
| "step": 4580 |
| }, |
| { |
| "epoch": 0.0765, |
| "grad_norm": 15.4375, |
| "learning_rate": 1.9836517471335148e-05, |
| "loss": 0.195, |
| "step": 4590 |
| }, |
| { |
| "epoch": 0.07666666666666666, |
| "grad_norm": 19.75, |
| "learning_rate": 1.983555392151334e-05, |
| "loss": 0.2097, |
| "step": 4600 |
| }, |
| { |
| "epoch": 0.07683333333333334, |
| "grad_norm": 38.5, |
| "learning_rate": 1.9834587564035464e-05, |
| "loss": 0.1798, |
| "step": 4610 |
| }, |
| { |
| "epoch": 0.077, |
| "grad_norm": 50.0, |
| "learning_rate": 1.9833618399177373e-05, |
| "loss": 0.1938, |
| "step": 4620 |
| }, |
| { |
| "epoch": 0.07716666666666666, |
| "grad_norm": 13.875, |
| "learning_rate": 1.983264642721573e-05, |
| "loss": 0.1822, |
| "step": 4630 |
| }, |
| { |
| "epoch": 0.07733333333333334, |
| "grad_norm": 33.5, |
| "learning_rate": 1.9831671648427996e-05, |
| "loss": 0.1878, |
| "step": 4640 |
| }, |
| { |
| "epoch": 0.0775, |
| "grad_norm": 25.5, |
| "learning_rate": 1.9830694063092425e-05, |
| "loss": 0.1805, |
| "step": 4650 |
| }, |
| { |
| "epoch": 0.07766666666666666, |
| "grad_norm": 1.703125, |
| "learning_rate": 1.9829713671488076e-05, |
| "loss": 0.1786, |
| "step": 4660 |
| }, |
| { |
| "epoch": 0.07783333333333334, |
| "grad_norm": 17.125, |
| "learning_rate": 1.982873047389482e-05, |
| "loss": 0.2096, |
| "step": 4670 |
| }, |
| { |
| "epoch": 0.078, |
| "grad_norm": 42.75, |
| "learning_rate": 1.9827744470593315e-05, |
| "loss": 0.1985, |
| "step": 4680 |
| }, |
| { |
| "epoch": 0.07816666666666666, |
| "grad_norm": 22.625, |
| "learning_rate": 1.9826755661865028e-05, |
| "loss": 0.1863, |
| "step": 4690 |
| }, |
| { |
| "epoch": 0.07833333333333334, |
| "grad_norm": 26.25, |
| "learning_rate": 1.9825764047992223e-05, |
| "loss": 0.1656, |
| "step": 4700 |
| }, |
| { |
| "epoch": 0.0785, |
| "grad_norm": 22.375, |
| "learning_rate": 1.9824769629257963e-05, |
| "loss": 0.1707, |
| "step": 4710 |
| }, |
| { |
| "epoch": 0.07866666666666666, |
| "grad_norm": 47.5, |
| "learning_rate": 1.982377240594612e-05, |
| "loss": 0.1899, |
| "step": 4720 |
| }, |
| { |
| "epoch": 0.07883333333333334, |
| "grad_norm": 23.125, |
| "learning_rate": 1.982277237834136e-05, |
| "loss": 0.1983, |
| "step": 4730 |
| }, |
| { |
| "epoch": 0.079, |
| "grad_norm": 27.875, |
| "learning_rate": 1.982176954672915e-05, |
| "loss": 0.1993, |
| "step": 4740 |
| }, |
| { |
| "epoch": 0.07916666666666666, |
| "grad_norm": 27.875, |
| "learning_rate": 1.9820763911395756e-05, |
| "loss": 0.1716, |
| "step": 4750 |
| }, |
| { |
| "epoch": 0.07933333333333334, |
| "grad_norm": 7.3125, |
| "learning_rate": 1.9819755472628247e-05, |
| "loss": 0.1929, |
| "step": 4760 |
| }, |
| { |
| "epoch": 0.0795, |
| "grad_norm": 33.0, |
| "learning_rate": 1.9818744230714496e-05, |
| "loss": 0.2073, |
| "step": 4770 |
| }, |
| { |
| "epoch": 0.07966666666666666, |
| "grad_norm": 30.375, |
| "learning_rate": 1.981773018594317e-05, |
| "loss": 0.193, |
| "step": 4780 |
| }, |
| { |
| "epoch": 0.07983333333333334, |
| "grad_norm": 5.875, |
| "learning_rate": 1.9816713338603737e-05, |
| "loss": 0.1807, |
| "step": 4790 |
| }, |
| { |
| "epoch": 0.08, |
| "grad_norm": 32.0, |
| "learning_rate": 1.9815693688986464e-05, |
| "loss": 0.1927, |
| "step": 4800 |
| }, |
| { |
| "epoch": 0.08016666666666666, |
| "grad_norm": 14.625, |
| "learning_rate": 1.9814671237382423e-05, |
| "loss": 0.1993, |
| "step": 4810 |
| }, |
| { |
| "epoch": 0.08033333333333334, |
| "grad_norm": 33.75, |
| "learning_rate": 1.9813645984083484e-05, |
| "loss": 0.1862, |
| "step": 4820 |
| }, |
| { |
| "epoch": 0.0805, |
| "grad_norm": 58.0, |
| "learning_rate": 1.9812617929382314e-05, |
| "loss": 0.1745, |
| "step": 4830 |
| }, |
| { |
| "epoch": 0.08066666666666666, |
| "grad_norm": 17.375, |
| "learning_rate": 1.981158707357238e-05, |
| "loss": 0.1928, |
| "step": 4840 |
| }, |
| { |
| "epoch": 0.08083333333333333, |
| "grad_norm": 43.0, |
| "learning_rate": 1.9810553416947954e-05, |
| "loss": 0.2033, |
| "step": 4850 |
| }, |
| { |
| "epoch": 0.081, |
| "grad_norm": 26.875, |
| "learning_rate": 1.98095169598041e-05, |
| "loss": 0.2033, |
| "step": 4860 |
| }, |
| { |
| "epoch": 0.08116666666666666, |
| "grad_norm": 29.5, |
| "learning_rate": 1.9808477702436684e-05, |
| "loss": 0.1853, |
| "step": 4870 |
| }, |
| { |
| "epoch": 0.08133333333333333, |
| "grad_norm": 73.0, |
| "learning_rate": 1.9807435645142375e-05, |
| "loss": 0.2271, |
| "step": 4880 |
| }, |
| { |
| "epoch": 0.0815, |
| "grad_norm": 1.6328125, |
| "learning_rate": 1.980639078821864e-05, |
| "loss": 0.1768, |
| "step": 4890 |
| }, |
| { |
| "epoch": 0.08166666666666667, |
| "grad_norm": 67.0, |
| "learning_rate": 1.9805343131963738e-05, |
| "loss": 0.2073, |
| "step": 4900 |
| }, |
| { |
| "epoch": 0.08183333333333333, |
| "grad_norm": 20.375, |
| "learning_rate": 1.980429267667674e-05, |
| "loss": 0.1813, |
| "step": 4910 |
| }, |
| { |
| "epoch": 0.082, |
| "grad_norm": 16.25, |
| "learning_rate": 1.9803239422657505e-05, |
| "loss": 0.1872, |
| "step": 4920 |
| }, |
| { |
| "epoch": 0.08216666666666667, |
| "grad_norm": 9.6875, |
| "learning_rate": 1.980218337020669e-05, |
| "loss": 0.1351, |
| "step": 4930 |
| }, |
| { |
| "epoch": 0.08233333333333333, |
| "grad_norm": 39.5, |
| "learning_rate": 1.9801124519625766e-05, |
| "loss": 0.1737, |
| "step": 4940 |
| }, |
| { |
| "epoch": 0.0825, |
| "grad_norm": 32.75, |
| "learning_rate": 1.980006287121698e-05, |
| "loss": 0.1693, |
| "step": 4950 |
| }, |
| { |
| "epoch": 0.08266666666666667, |
| "grad_norm": 15.25, |
| "learning_rate": 1.9798998425283404e-05, |
| "loss": 0.1893, |
| "step": 4960 |
| }, |
| { |
| "epoch": 0.08283333333333333, |
| "grad_norm": 29.5, |
| "learning_rate": 1.9797931182128886e-05, |
| "loss": 0.1893, |
| "step": 4970 |
| }, |
| { |
| "epoch": 0.083, |
| "grad_norm": 3.546875, |
| "learning_rate": 1.979686114205808e-05, |
| "loss": 0.1649, |
| "step": 4980 |
| }, |
| { |
| "epoch": 0.08316666666666667, |
| "grad_norm": 47.75, |
| "learning_rate": 1.9795788305376443e-05, |
| "loss": 0.1878, |
| "step": 4990 |
| }, |
| { |
| "epoch": 0.08333333333333333, |
| "grad_norm": 31.625, |
| "learning_rate": 1.979471267239023e-05, |
| "loss": 0.1766, |
| "step": 5000 |
| }, |
| { |
| "epoch": 0.0835, |
| "grad_norm": 20.75, |
| "learning_rate": 1.9793634243406484e-05, |
| "loss": 0.1877, |
| "step": 5010 |
| }, |
| { |
| "epoch": 0.08366666666666667, |
| "grad_norm": 25.75, |
| "learning_rate": 1.9792553018733054e-05, |
| "loss": 0.2126, |
| "step": 5020 |
| }, |
| { |
| "epoch": 0.08383333333333333, |
| "grad_norm": 10.5, |
| "learning_rate": 1.9791468998678592e-05, |
| "loss": 0.1882, |
| "step": 5030 |
| }, |
| { |
| "epoch": 0.084, |
| "grad_norm": 2.546875, |
| "learning_rate": 1.9790382183552538e-05, |
| "loss": 0.1737, |
| "step": 5040 |
| }, |
| { |
| "epoch": 0.08416666666666667, |
| "grad_norm": 39.0, |
| "learning_rate": 1.9789292573665134e-05, |
| "loss": 0.1732, |
| "step": 5050 |
| }, |
| { |
| "epoch": 0.08433333333333333, |
| "grad_norm": 7.875, |
| "learning_rate": 1.9788200169327417e-05, |
| "loss": 0.2129, |
| "step": 5060 |
| }, |
| { |
| "epoch": 0.0845, |
| "grad_norm": 23.25, |
| "learning_rate": 1.9787104970851234e-05, |
| "loss": 0.1768, |
| "step": 5070 |
| }, |
| { |
| "epoch": 0.08466666666666667, |
| "grad_norm": 8.9375, |
| "learning_rate": 1.9786006978549215e-05, |
| "loss": 0.1735, |
| "step": 5080 |
| }, |
| { |
| "epoch": 0.08483333333333333, |
| "grad_norm": 10.625, |
| "learning_rate": 1.9784906192734792e-05, |
| "loss": 0.1851, |
| "step": 5090 |
| }, |
| { |
| "epoch": 0.085, |
| "grad_norm": 29.875, |
| "learning_rate": 1.978380261372219e-05, |
| "loss": 0.1859, |
| "step": 5100 |
| }, |
| { |
| "epoch": 0.08516666666666667, |
| "grad_norm": 31.375, |
| "learning_rate": 1.9782696241826448e-05, |
| "loss": 0.2117, |
| "step": 5110 |
| }, |
| { |
| "epoch": 0.08533333333333333, |
| "grad_norm": 41.5, |
| "learning_rate": 1.9781587077363383e-05, |
| "loss": 0.2068, |
| "step": 5120 |
| }, |
| { |
| "epoch": 0.0855, |
| "grad_norm": 51.0, |
| "learning_rate": 1.978047512064962e-05, |
| "loss": 0.1836, |
| "step": 5130 |
| }, |
| { |
| "epoch": 0.08566666666666667, |
| "grad_norm": 42.0, |
| "learning_rate": 1.9779360372002576e-05, |
| "loss": 0.196, |
| "step": 5140 |
| }, |
| { |
| "epoch": 0.08583333333333333, |
| "grad_norm": 18.375, |
| "learning_rate": 1.977824283174047e-05, |
| "loss": 0.1717, |
| "step": 5150 |
| }, |
| { |
| "epoch": 0.086, |
| "grad_norm": 14.8125, |
| "learning_rate": 1.9777122500182308e-05, |
| "loss": 0.1736, |
| "step": 5160 |
| }, |
| { |
| "epoch": 0.08616666666666667, |
| "grad_norm": 27.625, |
| "learning_rate": 1.977599937764791e-05, |
| "loss": 0.2226, |
| "step": 5170 |
| }, |
| { |
| "epoch": 0.08633333333333333, |
| "grad_norm": 13.3125, |
| "learning_rate": 1.9774873464457874e-05, |
| "loss": 0.1872, |
| "step": 5180 |
| }, |
| { |
| "epoch": 0.0865, |
| "grad_norm": 35.25, |
| "learning_rate": 1.9773744760933607e-05, |
| "loss": 0.2243, |
| "step": 5190 |
| }, |
| { |
| "epoch": 0.08666666666666667, |
| "grad_norm": 16.75, |
| "learning_rate": 1.9772613267397304e-05, |
| "loss": 0.1895, |
| "step": 5200 |
| }, |
| { |
| "epoch": 0.08683333333333333, |
| "grad_norm": 38.75, |
| "learning_rate": 1.9771478984171968e-05, |
| "loss": 0.2098, |
| "step": 5210 |
| }, |
| { |
| "epoch": 0.087, |
| "grad_norm": 27.25, |
| "learning_rate": 1.977034191158139e-05, |
| "loss": 0.1762, |
| "step": 5220 |
| }, |
| { |
| "epoch": 0.08716666666666667, |
| "grad_norm": 1.7734375, |
| "learning_rate": 1.9769202049950152e-05, |
| "loss": 0.1689, |
| "step": 5230 |
| }, |
| { |
| "epoch": 0.08733333333333333, |
| "grad_norm": 22.375, |
| "learning_rate": 1.9768059399603645e-05, |
| "loss": 0.1703, |
| "step": 5240 |
| }, |
| { |
| "epoch": 0.0875, |
| "grad_norm": 4.9375, |
| "learning_rate": 1.976691396086805e-05, |
| "loss": 0.2019, |
| "step": 5250 |
| }, |
| { |
| "epoch": 0.08766666666666667, |
| "grad_norm": 17.375, |
| "learning_rate": 1.976576573407034e-05, |
| "loss": 0.2208, |
| "step": 5260 |
| }, |
| { |
| "epoch": 0.08783333333333333, |
| "grad_norm": 6.53125, |
| "learning_rate": 1.9764614719538292e-05, |
| "loss": 0.1749, |
| "step": 5270 |
| }, |
| { |
| "epoch": 0.088, |
| "grad_norm": 24.875, |
| "learning_rate": 1.9763460917600467e-05, |
| "loss": 0.1898, |
| "step": 5280 |
| }, |
| { |
| "epoch": 0.08816666666666667, |
| "grad_norm": 31.5, |
| "learning_rate": 1.976230432858624e-05, |
| "loss": 0.1986, |
| "step": 5290 |
| }, |
| { |
| "epoch": 0.08833333333333333, |
| "grad_norm": 17.625, |
| "learning_rate": 1.9761144952825763e-05, |
| "loss": 0.1963, |
| "step": 5300 |
| }, |
| { |
| "epoch": 0.0885, |
| "grad_norm": 18.625, |
| "learning_rate": 1.9759982790649994e-05, |
| "loss": 0.1567, |
| "step": 5310 |
| }, |
| { |
| "epoch": 0.08866666666666667, |
| "grad_norm": 62.0, |
| "learning_rate": 1.9758817842390683e-05, |
| "loss": 0.1818, |
| "step": 5320 |
| }, |
| { |
| "epoch": 0.08883333333333333, |
| "grad_norm": 31.875, |
| "learning_rate": 1.975765010838037e-05, |
| "loss": 0.1788, |
| "step": 5330 |
| }, |
| { |
| "epoch": 0.089, |
| "grad_norm": 17.375, |
| "learning_rate": 1.9756479588952412e-05, |
| "loss": 0.1992, |
| "step": 5340 |
| }, |
| { |
| "epoch": 0.08916666666666667, |
| "grad_norm": 18.5, |
| "learning_rate": 1.9755306284440928e-05, |
| "loss": 0.1936, |
| "step": 5350 |
| }, |
| { |
| "epoch": 0.08933333333333333, |
| "grad_norm": 18.125, |
| "learning_rate": 1.975413019518086e-05, |
| "loss": 0.2065, |
| "step": 5360 |
| }, |
| { |
| "epoch": 0.0895, |
| "grad_norm": 13.375, |
| "learning_rate": 1.9752951321507935e-05, |
| "loss": 0.2168, |
| "step": 5370 |
| }, |
| { |
| "epoch": 0.08966666666666667, |
| "grad_norm": 11.5, |
| "learning_rate": 1.9751769663758665e-05, |
| "loss": 0.192, |
| "step": 5380 |
| }, |
| { |
| "epoch": 0.08983333333333333, |
| "grad_norm": 34.5, |
| "learning_rate": 1.9750585222270372e-05, |
| "loss": 0.1945, |
| "step": 5390 |
| }, |
| { |
| "epoch": 0.09, |
| "grad_norm": 9.1875, |
| "learning_rate": 1.974939799738117e-05, |
| "loss": 0.2013, |
| "step": 5400 |
| }, |
| { |
| "epoch": 0.09016666666666667, |
| "grad_norm": 39.0, |
| "learning_rate": 1.9748207989429954e-05, |
| "loss": 0.2236, |
| "step": 5410 |
| }, |
| { |
| "epoch": 0.09033333333333333, |
| "grad_norm": 14.6875, |
| "learning_rate": 1.974701519875643e-05, |
| "loss": 0.1849, |
| "step": 5420 |
| }, |
| { |
| "epoch": 0.0905, |
| "grad_norm": 14.4375, |
| "learning_rate": 1.9745819625701095e-05, |
| "loss": 0.1993, |
| "step": 5430 |
| }, |
| { |
| "epoch": 0.09066666666666667, |
| "grad_norm": 40.5, |
| "learning_rate": 1.9744621270605232e-05, |
| "loss": 0.1794, |
| "step": 5440 |
| }, |
| { |
| "epoch": 0.09083333333333334, |
| "grad_norm": 12.8125, |
| "learning_rate": 1.9743420133810924e-05, |
| "loss": 0.1809, |
| "step": 5450 |
| }, |
| { |
| "epoch": 0.091, |
| "grad_norm": 16.25, |
| "learning_rate": 1.974221621566105e-05, |
| "loss": 0.1949, |
| "step": 5460 |
| }, |
| { |
| "epoch": 0.09116666666666666, |
| "grad_norm": 62.5, |
| "learning_rate": 1.9741009516499276e-05, |
| "loss": 0.2075, |
| "step": 5470 |
| }, |
| { |
| "epoch": 0.09133333333333334, |
| "grad_norm": 12.0625, |
| "learning_rate": 1.973980003667007e-05, |
| "loss": 0.1789, |
| "step": 5480 |
| }, |
| { |
| "epoch": 0.0915, |
| "grad_norm": 13.375, |
| "learning_rate": 1.9738587776518686e-05, |
| "loss": 0.1853, |
| "step": 5490 |
| }, |
| { |
| "epoch": 0.09166666666666666, |
| "grad_norm": 13.375, |
| "learning_rate": 1.973737273639118e-05, |
| "loss": 0.1934, |
| "step": 5500 |
| }, |
| { |
| "epoch": 0.09183333333333334, |
| "grad_norm": 44.75, |
| "learning_rate": 1.9736154916634397e-05, |
| "loss": 0.2001, |
| "step": 5510 |
| }, |
| { |
| "epoch": 0.092, |
| "grad_norm": 7.375, |
| "learning_rate": 1.9734934317595975e-05, |
| "loss": 0.1895, |
| "step": 5520 |
| }, |
| { |
| "epoch": 0.09216666666666666, |
| "grad_norm": 42.0, |
| "learning_rate": 1.9733710939624343e-05, |
| "loss": 0.1776, |
| "step": 5530 |
| }, |
| { |
| "epoch": 0.09233333333333334, |
| "grad_norm": 58.75, |
| "learning_rate": 1.973248478306873e-05, |
| "loss": 0.1967, |
| "step": 5540 |
| }, |
| { |
| "epoch": 0.0925, |
| "grad_norm": 12.5, |
| "learning_rate": 1.973125584827915e-05, |
| "loss": 0.1892, |
| "step": 5550 |
| }, |
| { |
| "epoch": 0.09266666666666666, |
| "grad_norm": 16.375, |
| "learning_rate": 1.973002413560642e-05, |
| "loss": 0.2163, |
| "step": 5560 |
| }, |
| { |
| "epoch": 0.09283333333333334, |
| "grad_norm": 34.25, |
| "learning_rate": 1.972878964540214e-05, |
| "loss": 0.2147, |
| "step": 5570 |
| }, |
| { |
| "epoch": 0.093, |
| "grad_norm": 28.375, |
| "learning_rate": 1.972755237801871e-05, |
| "loss": 0.2098, |
| "step": 5580 |
| }, |
| { |
| "epoch": 0.09316666666666666, |
| "grad_norm": 20.75, |
| "learning_rate": 1.9726312333809322e-05, |
| "loss": 0.1838, |
| "step": 5590 |
| }, |
| { |
| "epoch": 0.09333333333333334, |
| "grad_norm": 26.0, |
| "learning_rate": 1.9725069513127955e-05, |
| "loss": 0.1586, |
| "step": 5600 |
| }, |
| { |
| "epoch": 0.0935, |
| "grad_norm": 19.25, |
| "learning_rate": 1.972382391632939e-05, |
| "loss": 0.2096, |
| "step": 5610 |
| }, |
| { |
| "epoch": 0.09366666666666666, |
| "grad_norm": 17.0, |
| "learning_rate": 1.9722575543769187e-05, |
| "loss": 0.1879, |
| "step": 5620 |
| }, |
| { |
| "epoch": 0.09383333333333334, |
| "grad_norm": 42.5, |
| "learning_rate": 1.972132439580371e-05, |
| "loss": 0.1867, |
| "step": 5630 |
| }, |
| { |
| "epoch": 0.094, |
| "grad_norm": 11.1875, |
| "learning_rate": 1.972007047279011e-05, |
| "loss": 0.1819, |
| "step": 5640 |
| }, |
| { |
| "epoch": 0.09416666666666666, |
| "grad_norm": 13.6875, |
| "learning_rate": 1.9718813775086342e-05, |
| "loss": 0.1936, |
| "step": 5650 |
| }, |
| { |
| "epoch": 0.09433333333333334, |
| "grad_norm": 15.1875, |
| "learning_rate": 1.9717554303051126e-05, |
| "loss": 0.2036, |
| "step": 5660 |
| }, |
| { |
| "epoch": 0.0945, |
| "grad_norm": 40.0, |
| "learning_rate": 1.9716292057044004e-05, |
| "loss": 0.1839, |
| "step": 5670 |
| }, |
| { |
| "epoch": 0.09466666666666666, |
| "grad_norm": 22.0, |
| "learning_rate": 1.971502703742529e-05, |
| "loss": 0.202, |
| "step": 5680 |
| }, |
| { |
| "epoch": 0.09483333333333334, |
| "grad_norm": 41.5, |
| "learning_rate": 1.9713759244556097e-05, |
| "loss": 0.1894, |
| "step": 5690 |
| }, |
| { |
| "epoch": 0.095, |
| "grad_norm": 48.0, |
| "learning_rate": 1.971248867879833e-05, |
| "loss": 0.196, |
| "step": 5700 |
| }, |
| { |
| "epoch": 0.09516666666666666, |
| "grad_norm": 24.0, |
| "learning_rate": 1.9711215340514688e-05, |
| "loss": 0.2143, |
| "step": 5710 |
| }, |
| { |
| "epoch": 0.09533333333333334, |
| "grad_norm": 22.5, |
| "learning_rate": 1.9709939230068652e-05, |
| "loss": 0.1791, |
| "step": 5720 |
| }, |
| { |
| "epoch": 0.0955, |
| "grad_norm": 16.875, |
| "learning_rate": 1.9708660347824502e-05, |
| "loss": 0.1824, |
| "step": 5730 |
| }, |
| { |
| "epoch": 0.09566666666666666, |
| "grad_norm": 15.75, |
| "learning_rate": 1.970737869414731e-05, |
| "loss": 0.1769, |
| "step": 5740 |
| }, |
| { |
| "epoch": 0.09583333333333334, |
| "grad_norm": 15.0625, |
| "learning_rate": 1.9706094269402936e-05, |
| "loss": 0.1994, |
| "step": 5750 |
| }, |
| { |
| "epoch": 0.096, |
| "grad_norm": 59.75, |
| "learning_rate": 1.970480707395803e-05, |
| "loss": 0.1979, |
| "step": 5760 |
| }, |
| { |
| "epoch": 0.09616666666666666, |
| "grad_norm": 35.75, |
| "learning_rate": 1.970351710818003e-05, |
| "loss": 0.1974, |
| "step": 5770 |
| }, |
| { |
| "epoch": 0.09633333333333334, |
| "grad_norm": 12.5625, |
| "learning_rate": 1.9702224372437183e-05, |
| "loss": 0.1696, |
| "step": 5780 |
| }, |
| { |
| "epoch": 0.0965, |
| "grad_norm": 2.59375, |
| "learning_rate": 1.9700928867098503e-05, |
| "loss": 0.1614, |
| "step": 5790 |
| }, |
| { |
| "epoch": 0.09666666666666666, |
| "grad_norm": 50.75, |
| "learning_rate": 1.969963059253381e-05, |
| "loss": 0.1945, |
| "step": 5800 |
| }, |
| { |
| "epoch": 0.09683333333333333, |
| "grad_norm": 4.25, |
| "learning_rate": 1.9698329549113703e-05, |
| "loss": 0.186, |
| "step": 5810 |
| }, |
| { |
| "epoch": 0.097, |
| "grad_norm": 1.8359375, |
| "learning_rate": 1.9697025737209582e-05, |
| "loss": 0.1951, |
| "step": 5820 |
| }, |
| { |
| "epoch": 0.09716666666666667, |
| "grad_norm": 38.5, |
| "learning_rate": 1.969571915719363e-05, |
| "loss": 0.2018, |
| "step": 5830 |
| }, |
| { |
| "epoch": 0.09733333333333333, |
| "grad_norm": 52.0, |
| "learning_rate": 1.9694409809438827e-05, |
| "loss": 0.1911, |
| "step": 5840 |
| }, |
| { |
| "epoch": 0.0975, |
| "grad_norm": 20.625, |
| "learning_rate": 1.969309769431894e-05, |
| "loss": 0.18, |
| "step": 5850 |
| }, |
| { |
| "epoch": 0.09766666666666667, |
| "grad_norm": 21.25, |
| "learning_rate": 1.969178281220852e-05, |
| "loss": 0.1846, |
| "step": 5860 |
| }, |
| { |
| "epoch": 0.09783333333333333, |
| "grad_norm": 24.25, |
| "learning_rate": 1.9690465163482914e-05, |
| "loss": 0.1941, |
| "step": 5870 |
| }, |
| { |
| "epoch": 0.098, |
| "grad_norm": 24.0, |
| "learning_rate": 1.9689144748518263e-05, |
| "loss": 0.1828, |
| "step": 5880 |
| }, |
| { |
| "epoch": 0.09816666666666667, |
| "grad_norm": 9.5625, |
| "learning_rate": 1.968782156769149e-05, |
| "loss": 0.2106, |
| "step": 5890 |
| }, |
| { |
| "epoch": 0.09833333333333333, |
| "grad_norm": 9.5625, |
| "learning_rate": 1.9686495621380306e-05, |
| "loss": 0.1994, |
| "step": 5900 |
| }, |
| { |
| "epoch": 0.0985, |
| "grad_norm": 17.125, |
| "learning_rate": 1.968516690996322e-05, |
| "loss": 0.1934, |
| "step": 5910 |
| }, |
| { |
| "epoch": 0.09866666666666667, |
| "grad_norm": 17.25, |
| "learning_rate": 1.9683835433819523e-05, |
| "loss": 0.167, |
| "step": 5920 |
| }, |
| { |
| "epoch": 0.09883333333333333, |
| "grad_norm": 11.25, |
| "learning_rate": 1.9682501193329303e-05, |
| "loss": 0.1914, |
| "step": 5930 |
| }, |
| { |
| "epoch": 0.099, |
| "grad_norm": 15.5625, |
| "learning_rate": 1.9681164188873425e-05, |
| "loss": 0.1731, |
| "step": 5940 |
| }, |
| { |
| "epoch": 0.09916666666666667, |
| "grad_norm": 30.375, |
| "learning_rate": 1.9679824420833558e-05, |
| "loss": 0.1892, |
| "step": 5950 |
| }, |
| { |
| "epoch": 0.09933333333333333, |
| "grad_norm": 19.375, |
| "learning_rate": 1.9678481889592144e-05, |
| "loss": 0.187, |
| "step": 5960 |
| }, |
| { |
| "epoch": 0.0995, |
| "grad_norm": 21.875, |
| "learning_rate": 1.9677136595532426e-05, |
| "loss": 0.1707, |
| "step": 5970 |
| }, |
| { |
| "epoch": 0.09966666666666667, |
| "grad_norm": 13.5, |
| "learning_rate": 1.9675788539038435e-05, |
| "loss": 0.1949, |
| "step": 5980 |
| }, |
| { |
| "epoch": 0.09983333333333333, |
| "grad_norm": 21.375, |
| "learning_rate": 1.967443772049498e-05, |
| "loss": 0.1857, |
| "step": 5990 |
| }, |
| { |
| "epoch": 0.1, |
| "grad_norm": 26.625, |
| "learning_rate": 1.967308414028767e-05, |
| "loss": 0.177, |
| "step": 6000 |
| }, |
| { |
| "epoch": 0.10016666666666667, |
| "grad_norm": 19.625, |
| "learning_rate": 1.9671727798802895e-05, |
| "loss": 0.1987, |
| "step": 6010 |
| }, |
| { |
| "epoch": 0.10033333333333333, |
| "grad_norm": 19.125, |
| "learning_rate": 1.967036869642784e-05, |
| "loss": 0.1783, |
| "step": 6020 |
| }, |
| { |
| "epoch": 0.1005, |
| "grad_norm": 10.0, |
| "learning_rate": 1.9669006833550467e-05, |
| "loss": 0.1995, |
| "step": 6030 |
| }, |
| { |
| "epoch": 0.10066666666666667, |
| "grad_norm": 50.75, |
| "learning_rate": 1.9667642210559546e-05, |
| "loss": 0.1893, |
| "step": 6040 |
| }, |
| { |
| "epoch": 0.10083333333333333, |
| "grad_norm": 34.25, |
| "learning_rate": 1.966627482784461e-05, |
| "loss": 0.2009, |
| "step": 6050 |
| }, |
| { |
| "epoch": 0.101, |
| "grad_norm": 8.3125, |
| "learning_rate": 1.9664904685795994e-05, |
| "loss": 0.1748, |
| "step": 6060 |
| }, |
| { |
| "epoch": 0.10116666666666667, |
| "grad_norm": 2.078125, |
| "learning_rate": 1.9663531784804822e-05, |
| "loss": 0.2002, |
| "step": 6070 |
| }, |
| { |
| "epoch": 0.10133333333333333, |
| "grad_norm": 27.625, |
| "learning_rate": 1.9662156125263002e-05, |
| "loss": 0.2089, |
| "step": 6080 |
| }, |
| { |
| "epoch": 0.1015, |
| "grad_norm": 8.5, |
| "learning_rate": 1.9660777707563227e-05, |
| "loss": 0.176, |
| "step": 6090 |
| }, |
| { |
| "epoch": 0.10166666666666667, |
| "grad_norm": 22.875, |
| "learning_rate": 1.965939653209898e-05, |
| "loss": 0.1787, |
| "step": 6100 |
| }, |
| { |
| "epoch": 0.10183333333333333, |
| "grad_norm": 1.734375, |
| "learning_rate": 1.9658012599264538e-05, |
| "loss": 0.1689, |
| "step": 6110 |
| }, |
| { |
| "epoch": 0.102, |
| "grad_norm": 17.625, |
| "learning_rate": 1.9656625909454948e-05, |
| "loss": 0.1804, |
| "step": 6120 |
| }, |
| { |
| "epoch": 0.10216666666666667, |
| "grad_norm": 15.625, |
| "learning_rate": 1.965523646306606e-05, |
| "loss": 0.2187, |
| "step": 6130 |
| }, |
| { |
| "epoch": 0.10233333333333333, |
| "grad_norm": 42.75, |
| "learning_rate": 1.965384426049451e-05, |
| "loss": 0.1747, |
| "step": 6140 |
| }, |
| { |
| "epoch": 0.1025, |
| "grad_norm": 8.125, |
| "learning_rate": 1.9652449302137705e-05, |
| "loss": 0.1754, |
| "step": 6150 |
| }, |
| { |
| "epoch": 0.10266666666666667, |
| "grad_norm": 2.3125, |
| "learning_rate": 1.965105158839385e-05, |
| "loss": 0.1817, |
| "step": 6160 |
| }, |
| { |
| "epoch": 0.10283333333333333, |
| "grad_norm": 26.75, |
| "learning_rate": 1.964965111966195e-05, |
| "loss": 0.1689, |
| "step": 6170 |
| }, |
| { |
| "epoch": 0.103, |
| "grad_norm": 33.75, |
| "learning_rate": 1.964824789634177e-05, |
| "loss": 0.1827, |
| "step": 6180 |
| }, |
| { |
| "epoch": 0.10316666666666667, |
| "grad_norm": 48.5, |
| "learning_rate": 1.964684191883388e-05, |
| "loss": 0.1675, |
| "step": 6190 |
| }, |
| { |
| "epoch": 0.10333333333333333, |
| "grad_norm": 18.125, |
| "learning_rate": 1.9645433187539624e-05, |
| "loss": 0.183, |
| "step": 6200 |
| }, |
| { |
| "epoch": 0.1035, |
| "grad_norm": 36.75, |
| "learning_rate": 1.9644021702861148e-05, |
| "loss": 0.1906, |
| "step": 6210 |
| }, |
| { |
| "epoch": 0.10366666666666667, |
| "grad_norm": 27.625, |
| "learning_rate": 1.9642607465201364e-05, |
| "loss": 0.1664, |
| "step": 6220 |
| }, |
| { |
| "epoch": 0.10383333333333333, |
| "grad_norm": 16.0, |
| "learning_rate": 1.9641190474963988e-05, |
| "loss": 0.1752, |
| "step": 6230 |
| }, |
| { |
| "epoch": 0.104, |
| "grad_norm": 2.734375, |
| "learning_rate": 1.9639770732553506e-05, |
| "loss": 0.2117, |
| "step": 6240 |
| }, |
| { |
| "epoch": 0.10416666666666667, |
| "grad_norm": 24.875, |
| "learning_rate": 1.9638348238375203e-05, |
| "loss": 0.1692, |
| "step": 6250 |
| }, |
| { |
| "epoch": 0.10433333333333333, |
| "grad_norm": 27.625, |
| "learning_rate": 1.9636922992835146e-05, |
| "loss": 0.185, |
| "step": 6260 |
| }, |
| { |
| "epoch": 0.1045, |
| "grad_norm": 19.875, |
| "learning_rate": 1.9635494996340182e-05, |
| "loss": 0.1903, |
| "step": 6270 |
| }, |
| { |
| "epoch": 0.10466666666666667, |
| "grad_norm": 40.5, |
| "learning_rate": 1.9634064249297945e-05, |
| "loss": 0.199, |
| "step": 6280 |
| }, |
| { |
| "epoch": 0.10483333333333333, |
| "grad_norm": 33.75, |
| "learning_rate": 1.963263075211686e-05, |
| "loss": 0.2183, |
| "step": 6290 |
| }, |
| { |
| "epoch": 0.105, |
| "grad_norm": 6.03125, |
| "learning_rate": 1.9631194505206133e-05, |
| "loss": 0.1858, |
| "step": 6300 |
| }, |
| { |
| "epoch": 0.10516666666666667, |
| "grad_norm": 31.0, |
| "learning_rate": 1.962975550897575e-05, |
| "loss": 0.2057, |
| "step": 6310 |
| }, |
| { |
| "epoch": 0.10533333333333333, |
| "grad_norm": 19.5, |
| "learning_rate": 1.962831376383649e-05, |
| "loss": 0.21, |
| "step": 6320 |
| }, |
| { |
| "epoch": 0.1055, |
| "grad_norm": 53.75, |
| "learning_rate": 1.962686927019991e-05, |
| "loss": 0.2015, |
| "step": 6330 |
| }, |
| { |
| "epoch": 0.10566666666666667, |
| "grad_norm": 6.78125, |
| "learning_rate": 1.962542202847836e-05, |
| "loss": 0.178, |
| "step": 6340 |
| }, |
| { |
| "epoch": 0.10583333333333333, |
| "grad_norm": 22.75, |
| "learning_rate": 1.962397203908497e-05, |
| "loss": 0.1556, |
| "step": 6350 |
| }, |
| { |
| "epoch": 0.106, |
| "grad_norm": 9.125, |
| "learning_rate": 1.962251930243365e-05, |
| "loss": 0.1562, |
| "step": 6360 |
| }, |
| { |
| "epoch": 0.10616666666666667, |
| "grad_norm": 17.625, |
| "learning_rate": 1.96210638189391e-05, |
| "loss": 0.1637, |
| "step": 6370 |
| }, |
| { |
| "epoch": 0.10633333333333334, |
| "grad_norm": 22.875, |
| "learning_rate": 1.9619605589016796e-05, |
| "loss": 0.1748, |
| "step": 6380 |
| }, |
| { |
| "epoch": 0.1065, |
| "grad_norm": 28.625, |
| "learning_rate": 1.9618144613083015e-05, |
| "loss": 0.1749, |
| "step": 6390 |
| }, |
| { |
| "epoch": 0.10666666666666667, |
| "grad_norm": 10.4375, |
| "learning_rate": 1.96166808915548e-05, |
| "loss": 0.1937, |
| "step": 6400 |
| }, |
| { |
| "epoch": 0.10683333333333334, |
| "grad_norm": 23.75, |
| "learning_rate": 1.9615214424849988e-05, |
| "loss": 0.2017, |
| "step": 6410 |
| }, |
| { |
| "epoch": 0.107, |
| "grad_norm": 14.4375, |
| "learning_rate": 1.961374521338719e-05, |
| "loss": 0.2089, |
| "step": 6420 |
| }, |
| { |
| "epoch": 0.10716666666666666, |
| "grad_norm": 22.125, |
| "learning_rate": 1.9612273257585817e-05, |
| "loss": 0.1915, |
| "step": 6430 |
| }, |
| { |
| "epoch": 0.10733333333333334, |
| "grad_norm": 19.125, |
| "learning_rate": 1.9610798557866043e-05, |
| "loss": 0.2135, |
| "step": 6440 |
| }, |
| { |
| "epoch": 0.1075, |
| "grad_norm": 41.75, |
| "learning_rate": 1.9609321114648846e-05, |
| "loss": 0.1732, |
| "step": 6450 |
| }, |
| { |
| "epoch": 0.10766666666666666, |
| "grad_norm": 19.125, |
| "learning_rate": 1.960784092835597e-05, |
| "loss": 0.183, |
| "step": 6460 |
| }, |
| { |
| "epoch": 0.10783333333333334, |
| "grad_norm": 5.78125, |
| "learning_rate": 1.9606357999409948e-05, |
| "loss": 0.1749, |
| "step": 6470 |
| }, |
| { |
| "epoch": 0.108, |
| "grad_norm": 27.875, |
| "learning_rate": 1.9604872328234096e-05, |
| "loss": 0.2021, |
| "step": 6480 |
| }, |
| { |
| "epoch": 0.10816666666666666, |
| "grad_norm": 19.625, |
| "learning_rate": 1.9603383915252523e-05, |
| "loss": 0.1753, |
| "step": 6490 |
| }, |
| { |
| "epoch": 0.10833333333333334, |
| "grad_norm": 8.25, |
| "learning_rate": 1.96018927608901e-05, |
| "loss": 0.1628, |
| "step": 6500 |
| }, |
| { |
| "epoch": 0.1085, |
| "grad_norm": 31.875, |
| "learning_rate": 1.96003988655725e-05, |
| "loss": 0.2064, |
| "step": 6510 |
| }, |
| { |
| "epoch": 0.10866666666666666, |
| "grad_norm": 22.75, |
| "learning_rate": 1.9598902229726166e-05, |
| "loss": 0.1879, |
| "step": 6520 |
| }, |
| { |
| "epoch": 0.10883333333333334, |
| "grad_norm": 2.0625, |
| "learning_rate": 1.9597402853778323e-05, |
| "loss": 0.1863, |
| "step": 6530 |
| }, |
| { |
| "epoch": 0.109, |
| "grad_norm": 12.3125, |
| "learning_rate": 1.9595900738156996e-05, |
| "loss": 0.1735, |
| "step": 6540 |
| }, |
| { |
| "epoch": 0.10916666666666666, |
| "grad_norm": 39.0, |
| "learning_rate": 1.9594395883290965e-05, |
| "loss": 0.1744, |
| "step": 6550 |
| }, |
| { |
| "epoch": 0.10933333333333334, |
| "grad_norm": 42.0, |
| "learning_rate": 1.959288828960981e-05, |
| "loss": 0.1997, |
| "step": 6560 |
| }, |
| { |
| "epoch": 0.1095, |
| "grad_norm": 24.625, |
| "learning_rate": 1.9591377957543893e-05, |
| "loss": 0.2146, |
| "step": 6570 |
| }, |
| { |
| "epoch": 0.10966666666666666, |
| "grad_norm": 67.5, |
| "learning_rate": 1.958986488752435e-05, |
| "loss": 0.2075, |
| "step": 6580 |
| }, |
| { |
| "epoch": 0.10983333333333334, |
| "grad_norm": 19.25, |
| "learning_rate": 1.95883490799831e-05, |
| "loss": 0.1669, |
| "step": 6590 |
| }, |
| { |
| "epoch": 0.11, |
| "grad_norm": 54.5, |
| "learning_rate": 1.9586830535352845e-05, |
| "loss": 0.1851, |
| "step": 6600 |
| }, |
| { |
| "epoch": 0.11016666666666666, |
| "grad_norm": 15.8125, |
| "learning_rate": 1.9585309254067077e-05, |
| "loss": 0.1981, |
| "step": 6610 |
| }, |
| { |
| "epoch": 0.11033333333333334, |
| "grad_norm": 37.0, |
| "learning_rate": 1.9583785236560045e-05, |
| "loss": 0.1894, |
| "step": 6620 |
| }, |
| { |
| "epoch": 0.1105, |
| "grad_norm": 27.875, |
| "learning_rate": 1.958225848326681e-05, |
| "loss": 0.2092, |
| "step": 6630 |
| }, |
| { |
| "epoch": 0.11066666666666666, |
| "grad_norm": 38.25, |
| "learning_rate": 1.9580728994623194e-05, |
| "loss": 0.1879, |
| "step": 6640 |
| }, |
| { |
| "epoch": 0.11083333333333334, |
| "grad_norm": 25.875, |
| "learning_rate": 1.9579196771065804e-05, |
| "loss": 0.1724, |
| "step": 6650 |
| }, |
| { |
| "epoch": 0.111, |
| "grad_norm": 18.5, |
| "learning_rate": 1.9577661813032022e-05, |
| "loss": 0.1827, |
| "step": 6660 |
| }, |
| { |
| "epoch": 0.11116666666666666, |
| "grad_norm": 6.09375, |
| "learning_rate": 1.9576124120960028e-05, |
| "loss": 0.212, |
| "step": 6670 |
| }, |
| { |
| "epoch": 0.11133333333333334, |
| "grad_norm": 11.25, |
| "learning_rate": 1.9574583695288764e-05, |
| "loss": 0.179, |
| "step": 6680 |
| }, |
| { |
| "epoch": 0.1115, |
| "grad_norm": 53.75, |
| "learning_rate": 1.9573040536457963e-05, |
| "loss": 0.1962, |
| "step": 6690 |
| }, |
| { |
| "epoch": 0.11166666666666666, |
| "grad_norm": 36.75, |
| "learning_rate": 1.9571494644908132e-05, |
| "loss": 0.1877, |
| "step": 6700 |
| }, |
| { |
| "epoch": 0.11183333333333334, |
| "grad_norm": 31.875, |
| "learning_rate": 1.956994602108057e-05, |
| "loss": 0.1903, |
| "step": 6710 |
| }, |
| { |
| "epoch": 0.112, |
| "grad_norm": 14.625, |
| "learning_rate": 1.956839466541733e-05, |
| "loss": 0.1778, |
| "step": 6720 |
| }, |
| { |
| "epoch": 0.11216666666666666, |
| "grad_norm": 36.25, |
| "learning_rate": 1.956684057836128e-05, |
| "loss": 0.1945, |
| "step": 6730 |
| }, |
| { |
| "epoch": 0.11233333333333333, |
| "grad_norm": 26.5, |
| "learning_rate": 1.9565283760356036e-05, |
| "loss": 0.1837, |
| "step": 6740 |
| }, |
| { |
| "epoch": 0.1125, |
| "grad_norm": 35.25, |
| "learning_rate": 1.9563724211846016e-05, |
| "loss": 0.1871, |
| "step": 6750 |
| }, |
| { |
| "epoch": 0.11266666666666666, |
| "grad_norm": 13.3125, |
| "learning_rate": 1.9562161933276402e-05, |
| "loss": 0.1799, |
| "step": 6760 |
| }, |
| { |
| "epoch": 0.11283333333333333, |
| "grad_norm": 22.375, |
| "learning_rate": 1.9560596925093165e-05, |
| "loss": 0.194, |
| "step": 6770 |
| }, |
| { |
| "epoch": 0.113, |
| "grad_norm": 42.0, |
| "learning_rate": 1.9559029187743053e-05, |
| "loss": 0.18, |
| "step": 6780 |
| }, |
| { |
| "epoch": 0.11316666666666667, |
| "grad_norm": 9.1875, |
| "learning_rate": 1.955745872167359e-05, |
| "loss": 0.1938, |
| "step": 6790 |
| }, |
| { |
| "epoch": 0.11333333333333333, |
| "grad_norm": 19.25, |
| "learning_rate": 1.9555885527333083e-05, |
| "loss": 0.1895, |
| "step": 6800 |
| }, |
| { |
| "epoch": 0.1135, |
| "grad_norm": 69.0, |
| "learning_rate": 1.9554309605170615e-05, |
| "loss": 0.1639, |
| "step": 6810 |
| }, |
| { |
| "epoch": 0.11366666666666667, |
| "grad_norm": 49.0, |
| "learning_rate": 1.9552730955636048e-05, |
| "loss": 0.1959, |
| "step": 6820 |
| }, |
| { |
| "epoch": 0.11383333333333333, |
| "grad_norm": 17.5, |
| "learning_rate": 1.9551149579180025e-05, |
| "loss": 0.1755, |
| "step": 6830 |
| }, |
| { |
| "epoch": 0.114, |
| "grad_norm": 14.1875, |
| "learning_rate": 1.954956547625396e-05, |
| "loss": 0.2104, |
| "step": 6840 |
| }, |
| { |
| "epoch": 0.11416666666666667, |
| "grad_norm": 48.25, |
| "learning_rate": 1.954797864731006e-05, |
| "loss": 0.1667, |
| "step": 6850 |
| }, |
| { |
| "epoch": 0.11433333333333333, |
| "grad_norm": 20.375, |
| "learning_rate": 1.9546389092801292e-05, |
| "loss": 0.1582, |
| "step": 6860 |
| }, |
| { |
| "epoch": 0.1145, |
| "grad_norm": 21.75, |
| "learning_rate": 1.9544796813181416e-05, |
| "loss": 0.2012, |
| "step": 6870 |
| }, |
| { |
| "epoch": 0.11466666666666667, |
| "grad_norm": 41.5, |
| "learning_rate": 1.954320180890496e-05, |
| "loss": 0.1985, |
| "step": 6880 |
| }, |
| { |
| "epoch": 0.11483333333333333, |
| "grad_norm": 13.0625, |
| "learning_rate": 1.9541604080427236e-05, |
| "loss": 0.2176, |
| "step": 6890 |
| }, |
| { |
| "epoch": 0.115, |
| "grad_norm": 43.75, |
| "learning_rate": 1.9540003628204334e-05, |
| "loss": 0.1867, |
| "step": 6900 |
| }, |
| { |
| "epoch": 0.11516666666666667, |
| "grad_norm": 6.4375, |
| "learning_rate": 1.9538400452693112e-05, |
| "loss": 0.1732, |
| "step": 6910 |
| }, |
| { |
| "epoch": 0.11533333333333333, |
| "grad_norm": 21.25, |
| "learning_rate": 1.9536794554351218e-05, |
| "loss": 0.1818, |
| "step": 6920 |
| }, |
| { |
| "epoch": 0.1155, |
| "grad_norm": 36.75, |
| "learning_rate": 1.953518593363707e-05, |
| "loss": 0.179, |
| "step": 6930 |
| }, |
| { |
| "epoch": 0.11566666666666667, |
| "grad_norm": 12.375, |
| "learning_rate": 1.9533574591009864e-05, |
| "loss": 0.2057, |
| "step": 6940 |
| }, |
| { |
| "epoch": 0.11583333333333333, |
| "grad_norm": 5.78125, |
| "learning_rate": 1.9531960526929573e-05, |
| "loss": 0.2112, |
| "step": 6950 |
| }, |
| { |
| "epoch": 0.116, |
| "grad_norm": 32.25, |
| "learning_rate": 1.9530343741856954e-05, |
| "loss": 0.191, |
| "step": 6960 |
| }, |
| { |
| "epoch": 0.11616666666666667, |
| "grad_norm": 8.875, |
| "learning_rate": 1.9528724236253526e-05, |
| "loss": 0.176, |
| "step": 6970 |
| }, |
| { |
| "epoch": 0.11633333333333333, |
| "grad_norm": 19.125, |
| "learning_rate": 1.952710201058159e-05, |
| "loss": 0.2016, |
| "step": 6980 |
| }, |
| { |
| "epoch": 0.1165, |
| "grad_norm": 33.5, |
| "learning_rate": 1.9525477065304236e-05, |
| "loss": 0.1772, |
| "step": 6990 |
| }, |
| { |
| "epoch": 0.11666666666666667, |
| "grad_norm": 18.0, |
| "learning_rate": 1.952384940088532e-05, |
| "loss": 0.1913, |
| "step": 7000 |
| }, |
| { |
| "epoch": 0.11683333333333333, |
| "grad_norm": 5.96875, |
| "learning_rate": 1.952221901778947e-05, |
| "loss": 0.2096, |
| "step": 7010 |
| }, |
| { |
| "epoch": 0.117, |
| "grad_norm": 23.5, |
| "learning_rate": 1.9520585916482097e-05, |
| "loss": 0.174, |
| "step": 7020 |
| }, |
| { |
| "epoch": 0.11716666666666667, |
| "grad_norm": 49.5, |
| "learning_rate": 1.9518950097429383e-05, |
| "loss": 0.2065, |
| "step": 7030 |
| }, |
| { |
| "epoch": 0.11733333333333333, |
| "grad_norm": 14.125, |
| "learning_rate": 1.9517311561098294e-05, |
| "loss": 0.1801, |
| "step": 7040 |
| }, |
| { |
| "epoch": 0.1175, |
| "grad_norm": 32.0, |
| "learning_rate": 1.9515670307956563e-05, |
| "loss": 0.2031, |
| "step": 7050 |
| }, |
| { |
| "epoch": 0.11766666666666667, |
| "grad_norm": 49.25, |
| "learning_rate": 1.9514026338472703e-05, |
| "loss": 0.1672, |
| "step": 7060 |
| }, |
| { |
| "epoch": 0.11783333333333333, |
| "grad_norm": 29.75, |
| "learning_rate": 1.9512379653116e-05, |
| "loss": 0.2078, |
| "step": 7070 |
| }, |
| { |
| "epoch": 0.118, |
| "grad_norm": 33.0, |
| "learning_rate": 1.9510730252356517e-05, |
| "loss": 0.1673, |
| "step": 7080 |
| }, |
| { |
| "epoch": 0.11816666666666667, |
| "grad_norm": 35.5, |
| "learning_rate": 1.9509078136665092e-05, |
| "loss": 0.185, |
| "step": 7090 |
| }, |
| { |
| "epoch": 0.11833333333333333, |
| "grad_norm": 17.375, |
| "learning_rate": 1.950742330651334e-05, |
| "loss": 0.2074, |
| "step": 7100 |
| }, |
| { |
| "epoch": 0.1185, |
| "grad_norm": 45.5, |
| "learning_rate": 1.950576576237365e-05, |
| "loss": 0.1952, |
| "step": 7110 |
| }, |
| { |
| "epoch": 0.11866666666666667, |
| "grad_norm": 2.46875, |
| "learning_rate": 1.9504105504719177e-05, |
| "loss": 0.1661, |
| "step": 7120 |
| }, |
| { |
| "epoch": 0.11883333333333333, |
| "grad_norm": 87.0, |
| "learning_rate": 1.950244253402386e-05, |
| "loss": 0.1653, |
| "step": 7130 |
| }, |
| { |
| "epoch": 0.119, |
| "grad_norm": 48.75, |
| "learning_rate": 1.9500776850762415e-05, |
| "loss": 0.1943, |
| "step": 7140 |
| }, |
| { |
| "epoch": 0.11916666666666667, |
| "grad_norm": 25.875, |
| "learning_rate": 1.9499108455410327e-05, |
| "loss": 0.1915, |
| "step": 7150 |
| }, |
| { |
| "epoch": 0.11933333333333333, |
| "grad_norm": 22.25, |
| "learning_rate": 1.9497437348443854e-05, |
| "loss": 0.2004, |
| "step": 7160 |
| }, |
| { |
| "epoch": 0.1195, |
| "grad_norm": 17.375, |
| "learning_rate": 1.9495763530340026e-05, |
| "loss": 0.1855, |
| "step": 7170 |
| }, |
| { |
| "epoch": 0.11966666666666667, |
| "grad_norm": 17.75, |
| "learning_rate": 1.949408700157666e-05, |
| "loss": 0.2253, |
| "step": 7180 |
| }, |
| { |
| "epoch": 0.11983333333333333, |
| "grad_norm": 28.75, |
| "learning_rate": 1.9492407762632327e-05, |
| "loss": 0.1751, |
| "step": 7190 |
| }, |
| { |
| "epoch": 0.12, |
| "grad_norm": 16.625, |
| "learning_rate": 1.9490725813986392e-05, |
| "loss": 0.1901, |
| "step": 7200 |
| }, |
| { |
| "epoch": 0.12016666666666667, |
| "grad_norm": 27.5, |
| "learning_rate": 1.948904115611898e-05, |
| "loss": 0.1872, |
| "step": 7210 |
| }, |
| { |
| "epoch": 0.12033333333333333, |
| "grad_norm": 30.25, |
| "learning_rate": 1.948735378951099e-05, |
| "loss": 0.1861, |
| "step": 7220 |
| }, |
| { |
| "epoch": 0.1205, |
| "grad_norm": 27.75, |
| "learning_rate": 1.9485663714644104e-05, |
| "loss": 0.1936, |
| "step": 7230 |
| }, |
| { |
| "epoch": 0.12066666666666667, |
| "grad_norm": 12.3125, |
| "learning_rate": 1.9483970932000767e-05, |
| "loss": 0.1886, |
| "step": 7240 |
| }, |
| { |
| "epoch": 0.12083333333333333, |
| "grad_norm": 28.5, |
| "learning_rate": 1.94822754420642e-05, |
| "loss": 0.1718, |
| "step": 7250 |
| }, |
| { |
| "epoch": 0.121, |
| "grad_norm": 11.9375, |
| "learning_rate": 1.94805772453184e-05, |
| "loss": 0.1649, |
| "step": 7260 |
| }, |
| { |
| "epoch": 0.12116666666666667, |
| "grad_norm": 1.6953125, |
| "learning_rate": 1.947887634224813e-05, |
| "loss": 0.1833, |
| "step": 7270 |
| }, |
| { |
| "epoch": 0.12133333333333333, |
| "grad_norm": 22.125, |
| "learning_rate": 1.9477172733338934e-05, |
| "loss": 0.2003, |
| "step": 7280 |
| }, |
| { |
| "epoch": 0.1215, |
| "grad_norm": 67.5, |
| "learning_rate": 1.947546641907712e-05, |
| "loss": 0.1744, |
| "step": 7290 |
| }, |
| { |
| "epoch": 0.12166666666666667, |
| "grad_norm": 39.5, |
| "learning_rate": 1.9473757399949773e-05, |
| "loss": 0.1855, |
| "step": 7300 |
| }, |
| { |
| "epoch": 0.12183333333333334, |
| "grad_norm": 21.625, |
| "learning_rate": 1.9472045676444753e-05, |
| "loss": 0.1924, |
| "step": 7310 |
| }, |
| { |
| "epoch": 0.122, |
| "grad_norm": 11.9375, |
| "learning_rate": 1.9470331249050686e-05, |
| "loss": 0.1925, |
| "step": 7320 |
| }, |
| { |
| "epoch": 0.12216666666666667, |
| "grad_norm": 10.125, |
| "learning_rate": 1.946861411825697e-05, |
| "loss": 0.1993, |
| "step": 7330 |
| }, |
| { |
| "epoch": 0.12233333333333334, |
| "grad_norm": 11.0, |
| "learning_rate": 1.9466894284553778e-05, |
| "loss": 0.1612, |
| "step": 7340 |
| }, |
| { |
| "epoch": 0.1225, |
| "grad_norm": 36.5, |
| "learning_rate": 1.9465171748432056e-05, |
| "loss": 0.1871, |
| "step": 7350 |
| }, |
| { |
| "epoch": 0.12266666666666666, |
| "grad_norm": 30.375, |
| "learning_rate": 1.9463446510383517e-05, |
| "loss": 0.182, |
| "step": 7360 |
| }, |
| { |
| "epoch": 0.12283333333333334, |
| "grad_norm": 41.25, |
| "learning_rate": 1.946171857090065e-05, |
| "loss": 0.217, |
| "step": 7370 |
| }, |
| { |
| "epoch": 0.123, |
| "grad_norm": 51.75, |
| "learning_rate": 1.945998793047671e-05, |
| "loss": 0.1986, |
| "step": 7380 |
| }, |
| { |
| "epoch": 0.12316666666666666, |
| "grad_norm": 20.375, |
| "learning_rate": 1.9458254589605723e-05, |
| "loss": 0.1584, |
| "step": 7390 |
| }, |
| { |
| "epoch": 0.12333333333333334, |
| "grad_norm": 14.4375, |
| "learning_rate": 1.9456518548782494e-05, |
| "loss": 0.1897, |
| "step": 7400 |
| }, |
| { |
| "epoch": 0.1235, |
| "grad_norm": 19.625, |
| "learning_rate": 1.945477980850259e-05, |
| "loss": 0.1778, |
| "step": 7410 |
| }, |
| { |
| "epoch": 0.12366666666666666, |
| "grad_norm": 35.0, |
| "learning_rate": 1.945303836926235e-05, |
| "loss": 0.2106, |
| "step": 7420 |
| }, |
| { |
| "epoch": 0.12383333333333334, |
| "grad_norm": 51.5, |
| "learning_rate": 1.9451294231558884e-05, |
| "loss": 0.1914, |
| "step": 7430 |
| }, |
| { |
| "epoch": 0.124, |
| "grad_norm": 20.375, |
| "learning_rate": 1.9449547395890077e-05, |
| "loss": 0.1851, |
| "step": 7440 |
| }, |
| { |
| "epoch": 0.12416666666666666, |
| "grad_norm": 34.75, |
| "learning_rate": 1.944779786275458e-05, |
| "loss": 0.1677, |
| "step": 7450 |
| }, |
| { |
| "epoch": 0.12433333333333334, |
| "grad_norm": 34.25, |
| "learning_rate": 1.9446045632651815e-05, |
| "loss": 0.1758, |
| "step": 7460 |
| }, |
| { |
| "epoch": 0.1245, |
| "grad_norm": 38.75, |
| "learning_rate": 1.944429070608197e-05, |
| "loss": 0.1999, |
| "step": 7470 |
| }, |
| { |
| "epoch": 0.12466666666666666, |
| "grad_norm": 56.5, |
| "learning_rate": 1.944253308354601e-05, |
| "loss": 0.1924, |
| "step": 7480 |
| }, |
| { |
| "epoch": 0.12483333333333334, |
| "grad_norm": 22.0, |
| "learning_rate": 1.9440772765545666e-05, |
| "loss": 0.1939, |
| "step": 7490 |
| }, |
| { |
| "epoch": 0.125, |
| "grad_norm": 14.0, |
| "learning_rate": 1.9439009752583437e-05, |
| "loss": 0.1876, |
| "step": 7500 |
| }, |
| { |
| "epoch": 0.12516666666666668, |
| "grad_norm": 26.125, |
| "learning_rate": 1.943724404516259e-05, |
| "loss": 0.1794, |
| "step": 7510 |
| }, |
| { |
| "epoch": 0.12533333333333332, |
| "grad_norm": 15.3125, |
| "learning_rate": 1.9435475643787163e-05, |
| "loss": 0.1794, |
| "step": 7520 |
| }, |
| { |
| "epoch": 0.1255, |
| "grad_norm": 14.6875, |
| "learning_rate": 1.9433704548961966e-05, |
| "loss": 0.2242, |
| "step": 7530 |
| }, |
| { |
| "epoch": 0.12566666666666668, |
| "grad_norm": 23.5, |
| "learning_rate": 1.943193076119258e-05, |
| "loss": 0.2107, |
| "step": 7540 |
| }, |
| { |
| "epoch": 0.12583333333333332, |
| "grad_norm": 13.875, |
| "learning_rate": 1.943015428098534e-05, |
| "loss": 0.2177, |
| "step": 7550 |
| }, |
| { |
| "epoch": 0.126, |
| "grad_norm": 22.0, |
| "learning_rate": 1.9428375108847373e-05, |
| "loss": 0.1743, |
| "step": 7560 |
| }, |
| { |
| "epoch": 0.12616666666666668, |
| "grad_norm": 24.375, |
| "learning_rate": 1.9426593245286547e-05, |
| "loss": 0.1774, |
| "step": 7570 |
| }, |
| { |
| "epoch": 0.12633333333333333, |
| "grad_norm": 1.6328125, |
| "learning_rate": 1.9424808690811523e-05, |
| "loss": 0.1859, |
| "step": 7580 |
| }, |
| { |
| "epoch": 0.1265, |
| "grad_norm": 15.0, |
| "learning_rate": 1.9423021445931714e-05, |
| "loss": 0.1779, |
| "step": 7590 |
| }, |
| { |
| "epoch": 0.12666666666666668, |
| "grad_norm": 7.875, |
| "learning_rate": 1.9421231511157314e-05, |
| "loss": 0.1778, |
| "step": 7600 |
| }, |
| { |
| "epoch": 0.12683333333333333, |
| "grad_norm": 22.875, |
| "learning_rate": 1.9419438886999268e-05, |
| "loss": 0.1793, |
| "step": 7610 |
| }, |
| { |
| "epoch": 0.127, |
| "grad_norm": 19.625, |
| "learning_rate": 1.9417643573969304e-05, |
| "loss": 0.1637, |
| "step": 7620 |
| }, |
| { |
| "epoch": 0.12716666666666668, |
| "grad_norm": 22.875, |
| "learning_rate": 1.941584557257991e-05, |
| "loss": 0.2069, |
| "step": 7630 |
| }, |
| { |
| "epoch": 0.12733333333333333, |
| "grad_norm": 28.75, |
| "learning_rate": 1.9414044883344346e-05, |
| "loss": 0.2095, |
| "step": 7640 |
| }, |
| { |
| "epoch": 0.1275, |
| "grad_norm": 5.28125, |
| "learning_rate": 1.9412241506776633e-05, |
| "loss": 0.1634, |
| "step": 7650 |
| }, |
| { |
| "epoch": 0.12766666666666668, |
| "grad_norm": 24.25, |
| "learning_rate": 1.9410435443391565e-05, |
| "loss": 0.2038, |
| "step": 7660 |
| }, |
| { |
| "epoch": 0.12783333333333333, |
| "grad_norm": 41.25, |
| "learning_rate": 1.94086266937047e-05, |
| "loss": 0.1832, |
| "step": 7670 |
| }, |
| { |
| "epoch": 0.128, |
| "grad_norm": 31.625, |
| "learning_rate": 1.940681525823236e-05, |
| "loss": 0.1722, |
| "step": 7680 |
| }, |
| { |
| "epoch": 0.12816666666666668, |
| "grad_norm": 22.125, |
| "learning_rate": 1.9405001137491642e-05, |
| "loss": 0.1921, |
| "step": 7690 |
| }, |
| { |
| "epoch": 0.12833333333333333, |
| "grad_norm": 15.9375, |
| "learning_rate": 1.9403184332000405e-05, |
| "loss": 0.195, |
| "step": 7700 |
| }, |
| { |
| "epoch": 0.1285, |
| "grad_norm": 33.75, |
| "learning_rate": 1.940136484227727e-05, |
| "loss": 0.1917, |
| "step": 7710 |
| }, |
| { |
| "epoch": 0.12866666666666668, |
| "grad_norm": 15.5625, |
| "learning_rate": 1.939954266884163e-05, |
| "loss": 0.1839, |
| "step": 7720 |
| }, |
| { |
| "epoch": 0.12883333333333333, |
| "grad_norm": 35.0, |
| "learning_rate": 1.9397717812213644e-05, |
| "loss": 0.2191, |
| "step": 7730 |
| }, |
| { |
| "epoch": 0.129, |
| "grad_norm": 12.3125, |
| "learning_rate": 1.9395890272914237e-05, |
| "loss": 0.2197, |
| "step": 7740 |
| }, |
| { |
| "epoch": 0.12916666666666668, |
| "grad_norm": 16.375, |
| "learning_rate": 1.939406005146509e-05, |
| "loss": 0.205, |
| "step": 7750 |
| }, |
| { |
| "epoch": 0.12933333333333333, |
| "grad_norm": 60.0, |
| "learning_rate": 1.9392227148388667e-05, |
| "loss": 0.1941, |
| "step": 7760 |
| }, |
| { |
| "epoch": 0.1295, |
| "grad_norm": 4.90625, |
| "learning_rate": 1.9390391564208184e-05, |
| "loss": 0.181, |
| "step": 7770 |
| }, |
| { |
| "epoch": 0.12966666666666668, |
| "grad_norm": 17.625, |
| "learning_rate": 1.9388553299447625e-05, |
| "loss": 0.1654, |
| "step": 7780 |
| }, |
| { |
| "epoch": 0.12983333333333333, |
| "grad_norm": 18.0, |
| "learning_rate": 1.9386712354631748e-05, |
| "loss": 0.1815, |
| "step": 7790 |
| }, |
| { |
| "epoch": 0.13, |
| "grad_norm": 70.5, |
| "learning_rate": 1.9384868730286058e-05, |
| "loss": 0.1922, |
| "step": 7800 |
| }, |
| { |
| "epoch": 0.13016666666666668, |
| "grad_norm": 21.875, |
| "learning_rate": 1.9383022426936848e-05, |
| "loss": 0.1776, |
| "step": 7810 |
| }, |
| { |
| "epoch": 0.13033333333333333, |
| "grad_norm": 29.75, |
| "learning_rate": 1.938117344511115e-05, |
| "loss": 0.157, |
| "step": 7820 |
| }, |
| { |
| "epoch": 0.1305, |
| "grad_norm": 34.0, |
| "learning_rate": 1.9379321785336785e-05, |
| "loss": 0.1812, |
| "step": 7830 |
| }, |
| { |
| "epoch": 0.13066666666666665, |
| "grad_norm": 11.25, |
| "learning_rate": 1.9377467448142325e-05, |
| "loss": 0.1812, |
| "step": 7840 |
| }, |
| { |
| "epoch": 0.13083333333333333, |
| "grad_norm": 24.375, |
| "learning_rate": 1.9375610434057103e-05, |
| "loss": 0.1895, |
| "step": 7850 |
| }, |
| { |
| "epoch": 0.131, |
| "grad_norm": 20.875, |
| "learning_rate": 1.937375074361123e-05, |
| "loss": 0.1896, |
| "step": 7860 |
| }, |
| { |
| "epoch": 0.13116666666666665, |
| "grad_norm": 23.625, |
| "learning_rate": 1.9371888377335574e-05, |
| "loss": 0.1909, |
| "step": 7870 |
| }, |
| { |
| "epoch": 0.13133333333333333, |
| "grad_norm": 22.25, |
| "learning_rate": 1.9370023335761755e-05, |
| "loss": 0.1938, |
| "step": 7880 |
| }, |
| { |
| "epoch": 0.1315, |
| "grad_norm": 24.625, |
| "learning_rate": 1.936815561942218e-05, |
| "loss": 0.1894, |
| "step": 7890 |
| }, |
| { |
| "epoch": 0.13166666666666665, |
| "grad_norm": 62.5, |
| "learning_rate": 1.9366285228849996e-05, |
| "loss": 0.1868, |
| "step": 7900 |
| }, |
| { |
| "epoch": 0.13183333333333333, |
| "grad_norm": 16.0, |
| "learning_rate": 1.9364412164579135e-05, |
| "loss": 0.1834, |
| "step": 7910 |
| }, |
| { |
| "epoch": 0.132, |
| "grad_norm": 53.5, |
| "learning_rate": 1.9362536427144273e-05, |
| "loss": 0.2082, |
| "step": 7920 |
| }, |
| { |
| "epoch": 0.13216666666666665, |
| "grad_norm": 9.8125, |
| "learning_rate": 1.936065801708086e-05, |
| "loss": 0.1859, |
| "step": 7930 |
| }, |
| { |
| "epoch": 0.13233333333333333, |
| "grad_norm": 18.375, |
| "learning_rate": 1.935877693492511e-05, |
| "loss": 0.1965, |
| "step": 7940 |
| }, |
| { |
| "epoch": 0.1325, |
| "grad_norm": 37.0, |
| "learning_rate": 1.9356893181213997e-05, |
| "loss": 0.2047, |
| "step": 7950 |
| }, |
| { |
| "epoch": 0.13266666666666665, |
| "grad_norm": 12.5, |
| "learning_rate": 1.935500675648525e-05, |
| "loss": 0.1752, |
| "step": 7960 |
| }, |
| { |
| "epoch": 0.13283333333333333, |
| "grad_norm": 1.7109375, |
| "learning_rate": 1.9353117661277374e-05, |
| "loss": 0.1821, |
| "step": 7970 |
| }, |
| { |
| "epoch": 0.133, |
| "grad_norm": 18.0, |
| "learning_rate": 1.9351225896129627e-05, |
| "loss": 0.1938, |
| "step": 7980 |
| }, |
| { |
| "epoch": 0.13316666666666666, |
| "grad_norm": 5.40625, |
| "learning_rate": 1.934933146158204e-05, |
| "loss": 0.1802, |
| "step": 7990 |
| }, |
| { |
| "epoch": 0.13333333333333333, |
| "grad_norm": 30.375, |
| "learning_rate": 1.9347434358175383e-05, |
| "loss": 0.1944, |
| "step": 8000 |
| }, |
| { |
| "epoch": 0.1335, |
| "grad_norm": 10.875, |
| "learning_rate": 1.9345534586451212e-05, |
| "loss": 0.1739, |
| "step": 8010 |
| }, |
| { |
| "epoch": 0.13366666666666666, |
| "grad_norm": 13.3125, |
| "learning_rate": 1.9343632146951837e-05, |
| "loss": 0.1973, |
| "step": 8020 |
| }, |
| { |
| "epoch": 0.13383333333333333, |
| "grad_norm": 12.6875, |
| "learning_rate": 1.9341727040220325e-05, |
| "loss": 0.1906, |
| "step": 8030 |
| }, |
| { |
| "epoch": 0.134, |
| "grad_norm": 48.75, |
| "learning_rate": 1.9339819266800514e-05, |
| "loss": 0.1861, |
| "step": 8040 |
| }, |
| { |
| "epoch": 0.13416666666666666, |
| "grad_norm": 13.125, |
| "learning_rate": 1.9337908827236983e-05, |
| "loss": 0.1667, |
| "step": 8050 |
| }, |
| { |
| "epoch": 0.13433333333333333, |
| "grad_norm": 40.75, |
| "learning_rate": 1.93359957220751e-05, |
| "loss": 0.1996, |
| "step": 8060 |
| }, |
| { |
| "epoch": 0.1345, |
| "grad_norm": 55.0, |
| "learning_rate": 1.933407995186097e-05, |
| "loss": 0.2087, |
| "step": 8070 |
| }, |
| { |
| "epoch": 0.13466666666666666, |
| "grad_norm": 18.875, |
| "learning_rate": 1.9332161517141476e-05, |
| "loss": 0.1815, |
| "step": 8080 |
| }, |
| { |
| "epoch": 0.13483333333333333, |
| "grad_norm": 52.75, |
| "learning_rate": 1.9330240418464247e-05, |
| "loss": 0.1851, |
| "step": 8090 |
| }, |
| { |
| "epoch": 0.135, |
| "grad_norm": 47.25, |
| "learning_rate": 1.9328316656377682e-05, |
| "loss": 0.1854, |
| "step": 8100 |
| }, |
| { |
| "epoch": 0.13516666666666666, |
| "grad_norm": 64.0, |
| "learning_rate": 1.9326390231430944e-05, |
| "loss": 0.151, |
| "step": 8110 |
| }, |
| { |
| "epoch": 0.13533333333333333, |
| "grad_norm": 17.125, |
| "learning_rate": 1.932446114417394e-05, |
| "loss": 0.1677, |
| "step": 8120 |
| }, |
| { |
| "epoch": 0.1355, |
| "grad_norm": 21.0, |
| "learning_rate": 1.9322529395157356e-05, |
| "loss": 0.1958, |
| "step": 8130 |
| }, |
| { |
| "epoch": 0.13566666666666666, |
| "grad_norm": 71.5, |
| "learning_rate": 1.9320594984932625e-05, |
| "loss": 0.1762, |
| "step": 8140 |
| }, |
| { |
| "epoch": 0.13583333333333333, |
| "grad_norm": 31.5, |
| "learning_rate": 1.931865791405194e-05, |
| "loss": 0.1912, |
| "step": 8150 |
| }, |
| { |
| "epoch": 0.136, |
| "grad_norm": 21.625, |
| "learning_rate": 1.9316718183068265e-05, |
| "loss": 0.1956, |
| "step": 8160 |
| }, |
| { |
| "epoch": 0.13616666666666666, |
| "grad_norm": 17.0, |
| "learning_rate": 1.9314775792535307e-05, |
| "loss": 0.1807, |
| "step": 8170 |
| }, |
| { |
| "epoch": 0.13633333333333333, |
| "grad_norm": 36.5, |
| "learning_rate": 1.9312830743007548e-05, |
| "loss": 0.1844, |
| "step": 8180 |
| }, |
| { |
| "epoch": 0.1365, |
| "grad_norm": 2.03125, |
| "learning_rate": 1.9310883035040217e-05, |
| "loss": 0.1882, |
| "step": 8190 |
| }, |
| { |
| "epoch": 0.13666666666666666, |
| "grad_norm": 22.25, |
| "learning_rate": 1.9308932669189305e-05, |
| "loss": 0.1739, |
| "step": 8200 |
| }, |
| { |
| "epoch": 0.13683333333333333, |
| "grad_norm": 42.75, |
| "learning_rate": 1.9306979646011567e-05, |
| "loss": 0.1848, |
| "step": 8210 |
| }, |
| { |
| "epoch": 0.137, |
| "grad_norm": 30.875, |
| "learning_rate": 1.930502396606451e-05, |
| "loss": 0.1875, |
| "step": 8220 |
| }, |
| { |
| "epoch": 0.13716666666666666, |
| "grad_norm": 34.0, |
| "learning_rate": 1.9303065629906408e-05, |
| "loss": 0.177, |
| "step": 8230 |
| }, |
| { |
| "epoch": 0.13733333333333334, |
| "grad_norm": 17.625, |
| "learning_rate": 1.930110463809628e-05, |
| "loss": 0.1709, |
| "step": 8240 |
| }, |
| { |
| "epoch": 0.1375, |
| "grad_norm": 10.375, |
| "learning_rate": 1.9299140991193912e-05, |
| "loss": 0.1832, |
| "step": 8250 |
| }, |
| { |
| "epoch": 0.13766666666666666, |
| "grad_norm": 23.0, |
| "learning_rate": 1.9297174689759852e-05, |
| "loss": 0.161, |
| "step": 8260 |
| }, |
| { |
| "epoch": 0.13783333333333334, |
| "grad_norm": 19.125, |
| "learning_rate": 1.9295205734355395e-05, |
| "loss": 0.17, |
| "step": 8270 |
| }, |
| { |
| "epoch": 0.138, |
| "grad_norm": 18.0, |
| "learning_rate": 1.92932341255426e-05, |
| "loss": 0.1855, |
| "step": 8280 |
| }, |
| { |
| "epoch": 0.13816666666666666, |
| "grad_norm": 13.75, |
| "learning_rate": 1.929125986388428e-05, |
| "loss": 0.1826, |
| "step": 8290 |
| }, |
| { |
| "epoch": 0.13833333333333334, |
| "grad_norm": 41.0, |
| "learning_rate": 1.928928294994401e-05, |
| "loss": 0.1902, |
| "step": 8300 |
| }, |
| { |
| "epoch": 0.1385, |
| "grad_norm": 13.5, |
| "learning_rate": 1.928730338428612e-05, |
| "loss": 0.1946, |
| "step": 8310 |
| }, |
| { |
| "epoch": 0.13866666666666666, |
| "grad_norm": 12.6875, |
| "learning_rate": 1.92853211674757e-05, |
| "loss": 0.1625, |
| "step": 8320 |
| }, |
| { |
| "epoch": 0.13883333333333334, |
| "grad_norm": 14.5625, |
| "learning_rate": 1.9283336300078583e-05, |
| "loss": 0.189, |
| "step": 8330 |
| }, |
| { |
| "epoch": 0.139, |
| "grad_norm": 81.0, |
| "learning_rate": 1.928134878266138e-05, |
| "loss": 0.1752, |
| "step": 8340 |
| }, |
| { |
| "epoch": 0.13916666666666666, |
| "grad_norm": 42.25, |
| "learning_rate": 1.927935861579144e-05, |
| "loss": 0.174, |
| "step": 8350 |
| }, |
| { |
| "epoch": 0.13933333333333334, |
| "grad_norm": 31.375, |
| "learning_rate": 1.927736580003688e-05, |
| "loss": 0.1946, |
| "step": 8360 |
| }, |
| { |
| "epoch": 0.1395, |
| "grad_norm": 36.5, |
| "learning_rate": 1.927537033596657e-05, |
| "loss": 0.1871, |
| "step": 8370 |
| }, |
| { |
| "epoch": 0.13966666666666666, |
| "grad_norm": 1.40625, |
| "learning_rate": 1.9273372224150126e-05, |
| "loss": 0.2036, |
| "step": 8380 |
| }, |
| { |
| "epoch": 0.13983333333333334, |
| "grad_norm": 33.25, |
| "learning_rate": 1.927137146515794e-05, |
| "loss": 0.1634, |
| "step": 8390 |
| }, |
| { |
| "epoch": 0.14, |
| "grad_norm": 38.75, |
| "learning_rate": 1.926936805956114e-05, |
| "loss": 0.1906, |
| "step": 8400 |
| }, |
| { |
| "epoch": 0.14016666666666666, |
| "grad_norm": 31.875, |
| "learning_rate": 1.9267362007931624e-05, |
| "loss": 0.1933, |
| "step": 8410 |
| }, |
| { |
| "epoch": 0.14033333333333334, |
| "grad_norm": 18.5, |
| "learning_rate": 1.9265353310842035e-05, |
| "loss": 0.1901, |
| "step": 8420 |
| }, |
| { |
| "epoch": 0.1405, |
| "grad_norm": 25.75, |
| "learning_rate": 1.926334196886578e-05, |
| "loss": 0.1806, |
| "step": 8430 |
| }, |
| { |
| "epoch": 0.14066666666666666, |
| "grad_norm": 65.5, |
| "learning_rate": 1.9261327982577015e-05, |
| "loss": 0.1722, |
| "step": 8440 |
| }, |
| { |
| "epoch": 0.14083333333333334, |
| "grad_norm": 17.0, |
| "learning_rate": 1.9259311352550648e-05, |
| "loss": 0.2039, |
| "step": 8450 |
| }, |
| { |
| "epoch": 0.141, |
| "grad_norm": 18.875, |
| "learning_rate": 1.925729207936235e-05, |
| "loss": 0.1827, |
| "step": 8460 |
| }, |
| { |
| "epoch": 0.14116666666666666, |
| "grad_norm": 14.625, |
| "learning_rate": 1.9255270163588543e-05, |
| "loss": 0.2146, |
| "step": 8470 |
| }, |
| { |
| "epoch": 0.14133333333333334, |
| "grad_norm": 17.25, |
| "learning_rate": 1.9253245605806397e-05, |
| "loss": 0.1702, |
| "step": 8480 |
| }, |
| { |
| "epoch": 0.1415, |
| "grad_norm": 18.25, |
| "learning_rate": 1.925121840659385e-05, |
| "loss": 0.1664, |
| "step": 8490 |
| }, |
| { |
| "epoch": 0.14166666666666666, |
| "grad_norm": 7.40625, |
| "learning_rate": 1.924918856652958e-05, |
| "loss": 0.1837, |
| "step": 8500 |
| }, |
| { |
| "epoch": 0.14183333333333334, |
| "grad_norm": 22.75, |
| "learning_rate": 1.924715608619303e-05, |
| "loss": 0.1822, |
| "step": 8510 |
| }, |
| { |
| "epoch": 0.142, |
| "grad_norm": 19.5, |
| "learning_rate": 1.9245120966164385e-05, |
| "loss": 0.1889, |
| "step": 8520 |
| }, |
| { |
| "epoch": 0.14216666666666666, |
| "grad_norm": 21.25, |
| "learning_rate": 1.92430832070246e-05, |
| "loss": 0.184, |
| "step": 8530 |
| }, |
| { |
| "epoch": 0.14233333333333334, |
| "grad_norm": 21.5, |
| "learning_rate": 1.9241042809355362e-05, |
| "loss": 0.1829, |
| "step": 8540 |
| }, |
| { |
| "epoch": 0.1425, |
| "grad_norm": 24.75, |
| "learning_rate": 1.923899977373913e-05, |
| "loss": 0.1755, |
| "step": 8550 |
| }, |
| { |
| "epoch": 0.14266666666666666, |
| "grad_norm": 34.25, |
| "learning_rate": 1.9236954100759106e-05, |
| "loss": 0.1907, |
| "step": 8560 |
| }, |
| { |
| "epoch": 0.14283333333333334, |
| "grad_norm": 12.875, |
| "learning_rate": 1.9234905790999253e-05, |
| "loss": 0.1586, |
| "step": 8570 |
| }, |
| { |
| "epoch": 0.143, |
| "grad_norm": 1.859375, |
| "learning_rate": 1.923285484504427e-05, |
| "loss": 0.1746, |
| "step": 8580 |
| }, |
| { |
| "epoch": 0.14316666666666666, |
| "grad_norm": 1.71875, |
| "learning_rate": 1.923080126347963e-05, |
| "loss": 0.1645, |
| "step": 8590 |
| }, |
| { |
| "epoch": 0.14333333333333334, |
| "grad_norm": 109.0, |
| "learning_rate": 1.9228745046891545e-05, |
| "loss": 0.1801, |
| "step": 8600 |
| }, |
| { |
| "epoch": 0.1435, |
| "grad_norm": 20.0, |
| "learning_rate": 1.9226686195866982e-05, |
| "loss": 0.1721, |
| "step": 8610 |
| }, |
| { |
| "epoch": 0.14366666666666666, |
| "grad_norm": 1.828125, |
| "learning_rate": 1.9224624710993657e-05, |
| "loss": 0.1826, |
| "step": 8620 |
| }, |
| { |
| "epoch": 0.14383333333333334, |
| "grad_norm": 42.25, |
| "learning_rate": 1.922256059286005e-05, |
| "loss": 0.1964, |
| "step": 8630 |
| }, |
| { |
| "epoch": 0.144, |
| "grad_norm": 7.0625, |
| "learning_rate": 1.9220493842055376e-05, |
| "loss": 0.198, |
| "step": 8640 |
| }, |
| { |
| "epoch": 0.14416666666666667, |
| "grad_norm": 58.0, |
| "learning_rate": 1.9218424459169613e-05, |
| "loss": 0.2204, |
| "step": 8650 |
| }, |
| { |
| "epoch": 0.14433333333333334, |
| "grad_norm": 20.875, |
| "learning_rate": 1.9216352444793484e-05, |
| "loss": 0.1901, |
| "step": 8660 |
| }, |
| { |
| "epoch": 0.1445, |
| "grad_norm": 34.5, |
| "learning_rate": 1.921427779951847e-05, |
| "loss": 0.1661, |
| "step": 8670 |
| }, |
| { |
| "epoch": 0.14466666666666667, |
| "grad_norm": 13.75, |
| "learning_rate": 1.9212200523936792e-05, |
| "loss": 0.2065, |
| "step": 8680 |
| }, |
| { |
| "epoch": 0.14483333333333334, |
| "grad_norm": 15.1875, |
| "learning_rate": 1.9210120618641435e-05, |
| "loss": 0.1774, |
| "step": 8690 |
| }, |
| { |
| "epoch": 0.145, |
| "grad_norm": 37.5, |
| "learning_rate": 1.920803808422613e-05, |
| "loss": 0.2029, |
| "step": 8700 |
| }, |
| { |
| "epoch": 0.14516666666666667, |
| "grad_norm": 42.5, |
| "learning_rate": 1.9205952921285354e-05, |
| "loss": 0.1847, |
| "step": 8710 |
| }, |
| { |
| "epoch": 0.14533333333333334, |
| "grad_norm": 18.375, |
| "learning_rate": 1.9203865130414338e-05, |
| "loss": 0.172, |
| "step": 8720 |
| }, |
| { |
| "epoch": 0.1455, |
| "grad_norm": 24.25, |
| "learning_rate": 1.9201774712209058e-05, |
| "loss": 0.1982, |
| "step": 8730 |
| }, |
| { |
| "epoch": 0.14566666666666667, |
| "grad_norm": 11.6875, |
| "learning_rate": 1.9199681667266254e-05, |
| "loss": 0.1746, |
| "step": 8740 |
| }, |
| { |
| "epoch": 0.14583333333333334, |
| "grad_norm": 26.375, |
| "learning_rate": 1.9197585996183397e-05, |
| "loss": 0.1943, |
| "step": 8750 |
| }, |
| { |
| "epoch": 0.146, |
| "grad_norm": 46.25, |
| "learning_rate": 1.919548769955872e-05, |
| "loss": 0.18, |
| "step": 8760 |
| }, |
| { |
| "epoch": 0.14616666666666667, |
| "grad_norm": 5.90625, |
| "learning_rate": 1.9193386777991207e-05, |
| "loss": 0.1716, |
| "step": 8770 |
| }, |
| { |
| "epoch": 0.14633333333333334, |
| "grad_norm": 17.125, |
| "learning_rate": 1.919128323208058e-05, |
| "loss": 0.1891, |
| "step": 8780 |
| }, |
| { |
| "epoch": 0.1465, |
| "grad_norm": 4.03125, |
| "learning_rate": 1.9189177062427324e-05, |
| "loss": 0.1873, |
| "step": 8790 |
| }, |
| { |
| "epoch": 0.14666666666666667, |
| "grad_norm": 10.875, |
| "learning_rate": 1.918706826963266e-05, |
| "loss": 0.2206, |
| "step": 8800 |
| }, |
| { |
| "epoch": 0.14683333333333334, |
| "grad_norm": 25.25, |
| "learning_rate": 1.9184956854298565e-05, |
| "loss": 0.189, |
| "step": 8810 |
| }, |
| { |
| "epoch": 0.147, |
| "grad_norm": 59.75, |
| "learning_rate": 1.9182842817027768e-05, |
| "loss": 0.1851, |
| "step": 8820 |
| }, |
| { |
| "epoch": 0.14716666666666667, |
| "grad_norm": 33.75, |
| "learning_rate": 1.9180726158423735e-05, |
| "loss": 0.1965, |
| "step": 8830 |
| }, |
| { |
| "epoch": 0.14733333333333334, |
| "grad_norm": 32.75, |
| "learning_rate": 1.917860687909069e-05, |
| "loss": 0.186, |
| "step": 8840 |
| }, |
| { |
| "epoch": 0.1475, |
| "grad_norm": 25.125, |
| "learning_rate": 1.9176484979633602e-05, |
| "loss": 0.1956, |
| "step": 8850 |
| }, |
| { |
| "epoch": 0.14766666666666667, |
| "grad_norm": 7.1875, |
| "learning_rate": 1.9174360460658192e-05, |
| "loss": 0.1732, |
| "step": 8860 |
| }, |
| { |
| "epoch": 0.14783333333333334, |
| "grad_norm": 13.8125, |
| "learning_rate": 1.917223332277092e-05, |
| "loss": 0.1851, |
| "step": 8870 |
| }, |
| { |
| "epoch": 0.148, |
| "grad_norm": 41.5, |
| "learning_rate": 1.9170103566579003e-05, |
| "loss": 0.1719, |
| "step": 8880 |
| }, |
| { |
| "epoch": 0.14816666666666667, |
| "grad_norm": 5.5625, |
| "learning_rate": 1.916797119269039e-05, |
| "loss": 0.1811, |
| "step": 8890 |
| }, |
| { |
| "epoch": 0.14833333333333334, |
| "grad_norm": 13.25, |
| "learning_rate": 1.9165836201713802e-05, |
| "loss": 0.172, |
| "step": 8900 |
| }, |
| { |
| "epoch": 0.1485, |
| "grad_norm": 13.3125, |
| "learning_rate": 1.9163698594258687e-05, |
| "loss": 0.1915, |
| "step": 8910 |
| }, |
| { |
| "epoch": 0.14866666666666667, |
| "grad_norm": 66.0, |
| "learning_rate": 1.9161558370935248e-05, |
| "loss": 0.208, |
| "step": 8920 |
| }, |
| { |
| "epoch": 0.14883333333333335, |
| "grad_norm": 51.0, |
| "learning_rate": 1.915941553235443e-05, |
| "loss": 0.183, |
| "step": 8930 |
| }, |
| { |
| "epoch": 0.149, |
| "grad_norm": 17.875, |
| "learning_rate": 1.915727007912793e-05, |
| "loss": 0.1817, |
| "step": 8940 |
| }, |
| { |
| "epoch": 0.14916666666666667, |
| "grad_norm": 7.4375, |
| "learning_rate": 1.9155122011868188e-05, |
| "loss": 0.1822, |
| "step": 8950 |
| }, |
| { |
| "epoch": 0.14933333333333335, |
| "grad_norm": 19.125, |
| "learning_rate": 1.915297133118839e-05, |
| "loss": 0.1992, |
| "step": 8960 |
| }, |
| { |
| "epoch": 0.1495, |
| "grad_norm": 12.75, |
| "learning_rate": 1.915081803770247e-05, |
| "loss": 0.179, |
| "step": 8970 |
| }, |
| { |
| "epoch": 0.14966666666666667, |
| "grad_norm": 13.5, |
| "learning_rate": 1.914866213202511e-05, |
| "loss": 0.156, |
| "step": 8980 |
| }, |
| { |
| "epoch": 0.14983333333333335, |
| "grad_norm": 14.6875, |
| "learning_rate": 1.9146503614771728e-05, |
| "loss": 0.1809, |
| "step": 8990 |
| }, |
| { |
| "epoch": 0.15, |
| "grad_norm": 23.5, |
| "learning_rate": 1.9144342486558497e-05, |
| "loss": 0.171, |
| "step": 9000 |
| }, |
| { |
| "epoch": 0.15016666666666667, |
| "grad_norm": 15.125, |
| "learning_rate": 1.9142178748002335e-05, |
| "loss": 0.1826, |
| "step": 9010 |
| }, |
| { |
| "epoch": 0.15033333333333335, |
| "grad_norm": 12.125, |
| "learning_rate": 1.9140012399720898e-05, |
| "loss": 0.185, |
| "step": 9020 |
| }, |
| { |
| "epoch": 0.1505, |
| "grad_norm": 15.0625, |
| "learning_rate": 1.9137843442332595e-05, |
| "loss": 0.1902, |
| "step": 9030 |
| }, |
| { |
| "epoch": 0.15066666666666667, |
| "grad_norm": 19.625, |
| "learning_rate": 1.913567187645658e-05, |
| "loss": 0.2123, |
| "step": 9040 |
| }, |
| { |
| "epoch": 0.15083333333333335, |
| "grad_norm": 32.5, |
| "learning_rate": 1.9133497702712737e-05, |
| "loss": 0.2112, |
| "step": 9050 |
| }, |
| { |
| "epoch": 0.151, |
| "grad_norm": 1.4453125, |
| "learning_rate": 1.9131320921721713e-05, |
| "loss": 0.1957, |
| "step": 9060 |
| }, |
| { |
| "epoch": 0.15116666666666667, |
| "grad_norm": 24.125, |
| "learning_rate": 1.912914153410489e-05, |
| "loss": 0.1696, |
| "step": 9070 |
| }, |
| { |
| "epoch": 0.15133333333333332, |
| "grad_norm": 24.25, |
| "learning_rate": 1.91269595404844e-05, |
| "loss": 0.1844, |
| "step": 9080 |
| }, |
| { |
| "epoch": 0.1515, |
| "grad_norm": 16.75, |
| "learning_rate": 1.912477494148311e-05, |
| "loss": 0.1801, |
| "step": 9090 |
| }, |
| { |
| "epoch": 0.15166666666666667, |
| "grad_norm": 11.875, |
| "learning_rate": 1.9122587737724633e-05, |
| "loss": 0.1818, |
| "step": 9100 |
| }, |
| { |
| "epoch": 0.15183333333333332, |
| "grad_norm": 15.9375, |
| "learning_rate": 1.9120397929833334e-05, |
| "loss": 0.2123, |
| "step": 9110 |
| }, |
| { |
| "epoch": 0.152, |
| "grad_norm": 35.75, |
| "learning_rate": 1.911820551843431e-05, |
| "loss": 0.1763, |
| "step": 9120 |
| }, |
| { |
| "epoch": 0.15216666666666667, |
| "grad_norm": 29.625, |
| "learning_rate": 1.911601050415341e-05, |
| "loss": 0.1674, |
| "step": 9130 |
| }, |
| { |
| "epoch": 0.15233333333333332, |
| "grad_norm": 51.75, |
| "learning_rate": 1.911381288761722e-05, |
| "loss": 0.2002, |
| "step": 9140 |
| }, |
| { |
| "epoch": 0.1525, |
| "grad_norm": 27.0, |
| "learning_rate": 1.9111612669453074e-05, |
| "loss": 0.2106, |
| "step": 9150 |
| }, |
| { |
| "epoch": 0.15266666666666667, |
| "grad_norm": 36.75, |
| "learning_rate": 1.9109409850289045e-05, |
| "loss": 0.1774, |
| "step": 9160 |
| }, |
| { |
| "epoch": 0.15283333333333332, |
| "grad_norm": 2.140625, |
| "learning_rate": 1.9107204430753947e-05, |
| "loss": 0.2025, |
| "step": 9170 |
| }, |
| { |
| "epoch": 0.153, |
| "grad_norm": 33.0, |
| "learning_rate": 1.9104996411477344e-05, |
| "loss": 0.1737, |
| "step": 9180 |
| }, |
| { |
| "epoch": 0.15316666666666667, |
| "grad_norm": 12.125, |
| "learning_rate": 1.9102785793089534e-05, |
| "loss": 0.1883, |
| "step": 9190 |
| }, |
| { |
| "epoch": 0.15333333333333332, |
| "grad_norm": 26.125, |
| "learning_rate": 1.910057257622156e-05, |
| "loss": 0.1857, |
| "step": 9200 |
| }, |
| { |
| "epoch": 0.1535, |
| "grad_norm": 35.25, |
| "learning_rate": 1.9098356761505204e-05, |
| "loss": 0.1866, |
| "step": 9210 |
| }, |
| { |
| "epoch": 0.15366666666666667, |
| "grad_norm": 14.8125, |
| "learning_rate": 1.9096138349572993e-05, |
| "loss": 0.1774, |
| "step": 9220 |
| }, |
| { |
| "epoch": 0.15383333333333332, |
| "grad_norm": 19.5, |
| "learning_rate": 1.90939173410582e-05, |
| "loss": 0.197, |
| "step": 9230 |
| }, |
| { |
| "epoch": 0.154, |
| "grad_norm": 15.875, |
| "learning_rate": 1.909169373659483e-05, |
| "loss": 0.1656, |
| "step": 9240 |
| }, |
| { |
| "epoch": 0.15416666666666667, |
| "grad_norm": 34.25, |
| "learning_rate": 1.908946753681763e-05, |
| "loss": 0.1874, |
| "step": 9250 |
| }, |
| { |
| "epoch": 0.15433333333333332, |
| "grad_norm": 26.875, |
| "learning_rate": 1.9087238742362094e-05, |
| "loss": 0.1942, |
| "step": 9260 |
| }, |
| { |
| "epoch": 0.1545, |
| "grad_norm": 25.25, |
| "learning_rate": 1.9085007353864457e-05, |
| "loss": 0.1738, |
| "step": 9270 |
| }, |
| { |
| "epoch": 0.15466666666666667, |
| "grad_norm": 31.625, |
| "learning_rate": 1.9082773371961684e-05, |
| "loss": 0.1735, |
| "step": 9280 |
| }, |
| { |
| "epoch": 0.15483333333333332, |
| "grad_norm": 1.859375, |
| "learning_rate": 1.9080536797291493e-05, |
| "loss": 0.1553, |
| "step": 9290 |
| }, |
| { |
| "epoch": 0.155, |
| "grad_norm": 16.5, |
| "learning_rate": 1.9078297630492327e-05, |
| "loss": 0.1718, |
| "step": 9300 |
| }, |
| { |
| "epoch": 0.15516666666666667, |
| "grad_norm": 15.625, |
| "learning_rate": 1.907605587220339e-05, |
| "loss": 0.2031, |
| "step": 9310 |
| }, |
| { |
| "epoch": 0.15533333333333332, |
| "grad_norm": 26.5, |
| "learning_rate": 1.907381152306461e-05, |
| "loss": 0.1709, |
| "step": 9320 |
| }, |
| { |
| "epoch": 0.1555, |
| "grad_norm": 7.96875, |
| "learning_rate": 1.9071564583716656e-05, |
| "loss": 0.1965, |
| "step": 9330 |
| }, |
| { |
| "epoch": 0.15566666666666668, |
| "grad_norm": 28.125, |
| "learning_rate": 1.906931505480094e-05, |
| "loss": 0.1569, |
| "step": 9340 |
| }, |
| { |
| "epoch": 0.15583333333333332, |
| "grad_norm": 23.875, |
| "learning_rate": 1.906706293695961e-05, |
| "loss": 0.1805, |
| "step": 9350 |
| }, |
| { |
| "epoch": 0.156, |
| "grad_norm": 7.25, |
| "learning_rate": 1.9064808230835566e-05, |
| "loss": 0.1855, |
| "step": 9360 |
| }, |
| { |
| "epoch": 0.15616666666666668, |
| "grad_norm": 37.5, |
| "learning_rate": 1.906255093707242e-05, |
| "loss": 0.1839, |
| "step": 9370 |
| }, |
| { |
| "epoch": 0.15633333333333332, |
| "grad_norm": 71.5, |
| "learning_rate": 1.906029105631455e-05, |
| "loss": 0.1955, |
| "step": 9380 |
| }, |
| { |
| "epoch": 0.1565, |
| "grad_norm": 14.25, |
| "learning_rate": 1.905802858920706e-05, |
| "loss": 0.1668, |
| "step": 9390 |
| }, |
| { |
| "epoch": 0.15666666666666668, |
| "grad_norm": 39.75, |
| "learning_rate": 1.9055763536395794e-05, |
| "loss": 0.1673, |
| "step": 9400 |
| }, |
| { |
| "epoch": 0.15683333333333332, |
| "grad_norm": 16.0, |
| "learning_rate": 1.905349589852733e-05, |
| "loss": 0.1898, |
| "step": 9410 |
| }, |
| { |
| "epoch": 0.157, |
| "grad_norm": 15.8125, |
| "learning_rate": 1.9051225676248987e-05, |
| "loss": 0.1854, |
| "step": 9420 |
| }, |
| { |
| "epoch": 0.15716666666666668, |
| "grad_norm": 12.625, |
| "learning_rate": 1.9048952870208825e-05, |
| "loss": 0.2137, |
| "step": 9430 |
| }, |
| { |
| "epoch": 0.15733333333333333, |
| "grad_norm": 26.75, |
| "learning_rate": 1.9046677481055637e-05, |
| "loss": 0.177, |
| "step": 9440 |
| }, |
| { |
| "epoch": 0.1575, |
| "grad_norm": 20.75, |
| "learning_rate": 1.904439950943896e-05, |
| "loss": 0.1947, |
| "step": 9450 |
| }, |
| { |
| "epoch": 0.15766666666666668, |
| "grad_norm": 27.5, |
| "learning_rate": 1.904211895600906e-05, |
| "loss": 0.2001, |
| "step": 9460 |
| }, |
| { |
| "epoch": 0.15783333333333333, |
| "grad_norm": 15.25, |
| "learning_rate": 1.9039835821416946e-05, |
| "loss": 0.1911, |
| "step": 9470 |
| }, |
| { |
| "epoch": 0.158, |
| "grad_norm": 49.5, |
| "learning_rate": 1.9037550106314356e-05, |
| "loss": 0.1992, |
| "step": 9480 |
| }, |
| { |
| "epoch": 0.15816666666666668, |
| "grad_norm": 9.1875, |
| "learning_rate": 1.9035261811353775e-05, |
| "loss": 0.183, |
| "step": 9490 |
| }, |
| { |
| "epoch": 0.15833333333333333, |
| "grad_norm": 28.25, |
| "learning_rate": 1.9032970937188417e-05, |
| "loss": 0.1745, |
| "step": 9500 |
| }, |
| { |
| "epoch": 0.1585, |
| "grad_norm": 24.5, |
| "learning_rate": 1.9030677484472235e-05, |
| "loss": 0.1797, |
| "step": 9510 |
| }, |
| { |
| "epoch": 0.15866666666666668, |
| "grad_norm": 40.75, |
| "learning_rate": 1.9028381453859918e-05, |
| "loss": 0.1681, |
| "step": 9520 |
| }, |
| { |
| "epoch": 0.15883333333333333, |
| "grad_norm": 10.0625, |
| "learning_rate": 1.9026082846006894e-05, |
| "loss": 0.1993, |
| "step": 9530 |
| }, |
| { |
| "epoch": 0.159, |
| "grad_norm": 25.875, |
| "learning_rate": 1.9023781661569317e-05, |
| "loss": 0.2105, |
| "step": 9540 |
| }, |
| { |
| "epoch": 0.15916666666666668, |
| "grad_norm": 24.5, |
| "learning_rate": 1.9021477901204087e-05, |
| "loss": 0.202, |
| "step": 9550 |
| }, |
| { |
| "epoch": 0.15933333333333333, |
| "grad_norm": 21.625, |
| "learning_rate": 1.9019171565568832e-05, |
| "loss": 0.1617, |
| "step": 9560 |
| }, |
| { |
| "epoch": 0.1595, |
| "grad_norm": 2.140625, |
| "learning_rate": 1.9016862655321924e-05, |
| "loss": 0.2086, |
| "step": 9570 |
| }, |
| { |
| "epoch": 0.15966666666666668, |
| "grad_norm": 8.5625, |
| "learning_rate": 1.9014551171122456e-05, |
| "loss": 0.1726, |
| "step": 9580 |
| }, |
| { |
| "epoch": 0.15983333333333333, |
| "grad_norm": 2.515625, |
| "learning_rate": 1.9012237113630275e-05, |
| "loss": 0.1849, |
| "step": 9590 |
| }, |
| { |
| "epoch": 0.16, |
| "grad_norm": 17.625, |
| "learning_rate": 1.900992048350594e-05, |
| "loss": 0.1841, |
| "step": 9600 |
| }, |
| { |
| "epoch": 0.16016666666666668, |
| "grad_norm": 5.53125, |
| "learning_rate": 1.9007601281410763e-05, |
| "loss": 0.1504, |
| "step": 9610 |
| }, |
| { |
| "epoch": 0.16033333333333333, |
| "grad_norm": 37.5, |
| "learning_rate": 1.9005279508006782e-05, |
| "loss": 0.2057, |
| "step": 9620 |
| }, |
| { |
| "epoch": 0.1605, |
| "grad_norm": 29.5, |
| "learning_rate": 1.900295516395677e-05, |
| "loss": 0.2094, |
| "step": 9630 |
| }, |
| { |
| "epoch": 0.16066666666666668, |
| "grad_norm": 22.375, |
| "learning_rate": 1.9000628249924232e-05, |
| "loss": 0.1676, |
| "step": 9640 |
| }, |
| { |
| "epoch": 0.16083333333333333, |
| "grad_norm": 24.875, |
| "learning_rate": 1.8998298766573408e-05, |
| "loss": 0.1774, |
| "step": 9650 |
| }, |
| { |
| "epoch": 0.161, |
| "grad_norm": 29.75, |
| "learning_rate": 1.899596671456928e-05, |
| "loss": 0.1701, |
| "step": 9660 |
| }, |
| { |
| "epoch": 0.16116666666666668, |
| "grad_norm": 35.25, |
| "learning_rate": 1.8993632094577542e-05, |
| "loss": 0.1655, |
| "step": 9670 |
| }, |
| { |
| "epoch": 0.16133333333333333, |
| "grad_norm": 33.75, |
| "learning_rate": 1.899129490726465e-05, |
| "loss": 0.1932, |
| "step": 9680 |
| }, |
| { |
| "epoch": 0.1615, |
| "grad_norm": 32.75, |
| "learning_rate": 1.8988955153297762e-05, |
| "loss": 0.1689, |
| "step": 9690 |
| }, |
| { |
| "epoch": 0.16166666666666665, |
| "grad_norm": 21.75, |
| "learning_rate": 1.898661283334479e-05, |
| "loss": 0.1698, |
| "step": 9700 |
| }, |
| { |
| "epoch": 0.16183333333333333, |
| "grad_norm": 19.625, |
| "learning_rate": 1.898426794807438e-05, |
| "loss": 0.2175, |
| "step": 9710 |
| }, |
| { |
| "epoch": 0.162, |
| "grad_norm": 19.125, |
| "learning_rate": 1.8981920498155892e-05, |
| "loss": 0.2006, |
| "step": 9720 |
| }, |
| { |
| "epoch": 0.16216666666666665, |
| "grad_norm": 19.75, |
| "learning_rate": 1.8979570484259434e-05, |
| "loss": 0.2046, |
| "step": 9730 |
| }, |
| { |
| "epoch": 0.16233333333333333, |
| "grad_norm": 51.0, |
| "learning_rate": 1.897721790705584e-05, |
| "loss": 0.2021, |
| "step": 9740 |
| }, |
| { |
| "epoch": 0.1625, |
| "grad_norm": 19.375, |
| "learning_rate": 1.8974862767216673e-05, |
| "loss": 0.1792, |
| "step": 9750 |
| }, |
| { |
| "epoch": 0.16266666666666665, |
| "grad_norm": 35.0, |
| "learning_rate": 1.8972505065414236e-05, |
| "loss": 0.1951, |
| "step": 9760 |
| }, |
| { |
| "epoch": 0.16283333333333333, |
| "grad_norm": 42.75, |
| "learning_rate": 1.8970144802321554e-05, |
| "loss": 0.172, |
| "step": 9770 |
| }, |
| { |
| "epoch": 0.163, |
| "grad_norm": 19.125, |
| "learning_rate": 1.8967781978612393e-05, |
| "loss": 0.1687, |
| "step": 9780 |
| }, |
| { |
| "epoch": 0.16316666666666665, |
| "grad_norm": 24.75, |
| "learning_rate": 1.8965416594961238e-05, |
| "loss": 0.2071, |
| "step": 9790 |
| }, |
| { |
| "epoch": 0.16333333333333333, |
| "grad_norm": 8.5, |
| "learning_rate": 1.8963048652043316e-05, |
| "loss": 0.1806, |
| "step": 9800 |
| }, |
| { |
| "epoch": 0.1635, |
| "grad_norm": 11.25, |
| "learning_rate": 1.8960678150534576e-05, |
| "loss": 0.197, |
| "step": 9810 |
| }, |
| { |
| "epoch": 0.16366666666666665, |
| "grad_norm": 24.75, |
| "learning_rate": 1.8958305091111703e-05, |
| "loss": 0.1913, |
| "step": 9820 |
| }, |
| { |
| "epoch": 0.16383333333333333, |
| "grad_norm": 16.875, |
| "learning_rate": 1.895592947445211e-05, |
| "loss": 0.1599, |
| "step": 9830 |
| }, |
| { |
| "epoch": 0.164, |
| "grad_norm": 44.25, |
| "learning_rate": 1.8953551301233942e-05, |
| "loss": 0.1766, |
| "step": 9840 |
| }, |
| { |
| "epoch": 0.16416666666666666, |
| "grad_norm": 14.75, |
| "learning_rate": 1.895117057213607e-05, |
| "loss": 0.1722, |
| "step": 9850 |
| }, |
| { |
| "epoch": 0.16433333333333333, |
| "grad_norm": 66.0, |
| "learning_rate": 1.8948787287838094e-05, |
| "loss": 0.1804, |
| "step": 9860 |
| }, |
| { |
| "epoch": 0.1645, |
| "grad_norm": 42.75, |
| "learning_rate": 1.8946401449020353e-05, |
| "loss": 0.1659, |
| "step": 9870 |
| }, |
| { |
| "epoch": 0.16466666666666666, |
| "grad_norm": 14.375, |
| "learning_rate": 1.8944013056363902e-05, |
| "loss": 0.1869, |
| "step": 9880 |
| }, |
| { |
| "epoch": 0.16483333333333333, |
| "grad_norm": 38.75, |
| "learning_rate": 1.8941622110550534e-05, |
| "loss": 0.1733, |
| "step": 9890 |
| }, |
| { |
| "epoch": 0.165, |
| "grad_norm": 26.25, |
| "learning_rate": 1.8939228612262766e-05, |
| "loss": 0.18, |
| "step": 9900 |
| }, |
| { |
| "epoch": 0.16516666666666666, |
| "grad_norm": 26.875, |
| "learning_rate": 1.893683256218385e-05, |
| "loss": 0.1864, |
| "step": 9910 |
| }, |
| { |
| "epoch": 0.16533333333333333, |
| "grad_norm": 1.6953125, |
| "learning_rate": 1.8934433960997757e-05, |
| "loss": 0.1701, |
| "step": 9920 |
| }, |
| { |
| "epoch": 0.1655, |
| "grad_norm": 41.25, |
| "learning_rate": 1.89320328093892e-05, |
| "loss": 0.1625, |
| "step": 9930 |
| }, |
| { |
| "epoch": 0.16566666666666666, |
| "grad_norm": 6.03125, |
| "learning_rate": 1.8929629108043598e-05, |
| "loss": 0.1882, |
| "step": 9940 |
| }, |
| { |
| "epoch": 0.16583333333333333, |
| "grad_norm": 9.5, |
| "learning_rate": 1.8927222857647125e-05, |
| "loss": 0.1853, |
| "step": 9950 |
| }, |
| { |
| "epoch": 0.166, |
| "grad_norm": 26.75, |
| "learning_rate": 1.892481405888666e-05, |
| "loss": 0.1881, |
| "step": 9960 |
| }, |
| { |
| "epoch": 0.16616666666666666, |
| "grad_norm": 27.75, |
| "learning_rate": 1.892240271244982e-05, |
| "loss": 0.2011, |
| "step": 9970 |
| }, |
| { |
| "epoch": 0.16633333333333333, |
| "grad_norm": 40.75, |
| "learning_rate": 1.891998881902495e-05, |
| "loss": 0.1727, |
| "step": 9980 |
| }, |
| { |
| "epoch": 0.1665, |
| "grad_norm": 47.75, |
| "learning_rate": 1.891757237930112e-05, |
| "loss": 0.1998, |
| "step": 9990 |
| }, |
| { |
| "epoch": 0.16666666666666666, |
| "grad_norm": 11.25, |
| "learning_rate": 1.8915153393968122e-05, |
| "loss": 0.1725, |
| "step": 10000 |
| }, |
| { |
| "epoch": 0.16683333333333333, |
| "grad_norm": 5.9375, |
| "learning_rate": 1.8912731863716485e-05, |
| "loss": 0.1955, |
| "step": 10010 |
| }, |
| { |
| "epoch": 0.167, |
| "grad_norm": 34.75, |
| "learning_rate": 1.8910307789237453e-05, |
| "loss": 0.202, |
| "step": 10020 |
| }, |
| { |
| "epoch": 0.16716666666666666, |
| "grad_norm": 21.0, |
| "learning_rate": 1.890788117122301e-05, |
| "loss": 0.1794, |
| "step": 10030 |
| }, |
| { |
| "epoch": 0.16733333333333333, |
| "grad_norm": 4.25, |
| "learning_rate": 1.890545201036585e-05, |
| "loss": 0.1816, |
| "step": 10040 |
| }, |
| { |
| "epoch": 0.1675, |
| "grad_norm": 40.5, |
| "learning_rate": 1.8903020307359406e-05, |
| "loss": 0.1836, |
| "step": 10050 |
| }, |
| { |
| "epoch": 0.16766666666666666, |
| "grad_norm": 2.0, |
| "learning_rate": 1.890058606289783e-05, |
| "loss": 0.1815, |
| "step": 10060 |
| }, |
| { |
| "epoch": 0.16783333333333333, |
| "grad_norm": 20.25, |
| "learning_rate": 1.8898149277676e-05, |
| "loss": 0.1925, |
| "step": 10070 |
| }, |
| { |
| "epoch": 0.168, |
| "grad_norm": 18.625, |
| "learning_rate": 1.889570995238952e-05, |
| "loss": 0.1655, |
| "step": 10080 |
| }, |
| { |
| "epoch": 0.16816666666666666, |
| "grad_norm": 17.5, |
| "learning_rate": 1.8893268087734724e-05, |
| "loss": 0.1932, |
| "step": 10090 |
| }, |
| { |
| "epoch": 0.16833333333333333, |
| "grad_norm": 37.25, |
| "learning_rate": 1.889082368440866e-05, |
| "loss": 0.1937, |
| "step": 10100 |
| }, |
| { |
| "epoch": 0.1685, |
| "grad_norm": 58.5, |
| "learning_rate": 1.8888376743109114e-05, |
| "loss": 0.1668, |
| "step": 10110 |
| }, |
| { |
| "epoch": 0.16866666666666666, |
| "grad_norm": 45.5, |
| "learning_rate": 1.8885927264534585e-05, |
| "loss": 0.1757, |
| "step": 10120 |
| }, |
| { |
| "epoch": 0.16883333333333334, |
| "grad_norm": 28.5, |
| "learning_rate": 1.8883475249384302e-05, |
| "loss": 0.1819, |
| "step": 10130 |
| }, |
| { |
| "epoch": 0.169, |
| "grad_norm": 28.625, |
| "learning_rate": 1.8881020698358217e-05, |
| "loss": 0.1841, |
| "step": 10140 |
| }, |
| { |
| "epoch": 0.16916666666666666, |
| "grad_norm": 23.25, |
| "learning_rate": 1.8878563612157004e-05, |
| "loss": 0.1966, |
| "step": 10150 |
| }, |
| { |
| "epoch": 0.16933333333333334, |
| "grad_norm": 14.375, |
| "learning_rate": 1.8876103991482065e-05, |
| "loss": 0.1644, |
| "step": 10160 |
| }, |
| { |
| "epoch": 0.1695, |
| "grad_norm": 27.5, |
| "learning_rate": 1.8873641837035523e-05, |
| "loss": 0.191, |
| "step": 10170 |
| }, |
| { |
| "epoch": 0.16966666666666666, |
| "grad_norm": 11.125, |
| "learning_rate": 1.8871177149520225e-05, |
| "loss": 0.169, |
| "step": 10180 |
| }, |
| { |
| "epoch": 0.16983333333333334, |
| "grad_norm": 7.0625, |
| "learning_rate": 1.8868709929639736e-05, |
| "loss": 0.1769, |
| "step": 10190 |
| }, |
| { |
| "epoch": 0.17, |
| "grad_norm": 13.375, |
| "learning_rate": 1.8866240178098356e-05, |
| "loss": 0.1583, |
| "step": 10200 |
| }, |
| { |
| "epoch": 0.17016666666666666, |
| "grad_norm": 44.5, |
| "learning_rate": 1.8863767895601088e-05, |
| "loss": 0.1963, |
| "step": 10210 |
| }, |
| { |
| "epoch": 0.17033333333333334, |
| "grad_norm": 53.75, |
| "learning_rate": 1.8861293082853682e-05, |
| "loss": 0.1871, |
| "step": 10220 |
| }, |
| { |
| "epoch": 0.1705, |
| "grad_norm": 13.75, |
| "learning_rate": 1.885881574056259e-05, |
| "loss": 0.1836, |
| "step": 10230 |
| }, |
| { |
| "epoch": 0.17066666666666666, |
| "grad_norm": 24.5, |
| "learning_rate": 1.8856335869434997e-05, |
| "loss": 0.1861, |
| "step": 10240 |
| }, |
| { |
| "epoch": 0.17083333333333334, |
| "grad_norm": 15.125, |
| "learning_rate": 1.8853853470178808e-05, |
| "loss": 0.208, |
| "step": 10250 |
| }, |
| { |
| "epoch": 0.171, |
| "grad_norm": 22.125, |
| "learning_rate": 1.8851368543502648e-05, |
| "loss": 0.1744, |
| "step": 10260 |
| }, |
| { |
| "epoch": 0.17116666666666666, |
| "grad_norm": 29.0, |
| "learning_rate": 1.884888109011586e-05, |
| "loss": 0.2083, |
| "step": 10270 |
| }, |
| { |
| "epoch": 0.17133333333333334, |
| "grad_norm": 1.84375, |
| "learning_rate": 1.8846391110728513e-05, |
| "loss": 0.179, |
| "step": 10280 |
| }, |
| { |
| "epoch": 0.1715, |
| "grad_norm": 13.5625, |
| "learning_rate": 1.88438986060514e-05, |
| "loss": 0.1946, |
| "step": 10290 |
| }, |
| { |
| "epoch": 0.17166666666666666, |
| "grad_norm": 30.125, |
| "learning_rate": 1.8841403576796024e-05, |
| "loss": 0.1779, |
| "step": 10300 |
| }, |
| { |
| "epoch": 0.17183333333333334, |
| "grad_norm": 21.125, |
| "learning_rate": 1.883890602367463e-05, |
| "loss": 0.1736, |
| "step": 10310 |
| }, |
| { |
| "epoch": 0.172, |
| "grad_norm": 15.5625, |
| "learning_rate": 1.8836405947400153e-05, |
| "loss": 0.1656, |
| "step": 10320 |
| }, |
| { |
| "epoch": 0.17216666666666666, |
| "grad_norm": 8.3125, |
| "learning_rate": 1.883390334868627e-05, |
| "loss": 0.2022, |
| "step": 10330 |
| }, |
| { |
| "epoch": 0.17233333333333334, |
| "grad_norm": 2.390625, |
| "learning_rate": 1.8831398228247378e-05, |
| "loss": 0.1595, |
| "step": 10340 |
| }, |
| { |
| "epoch": 0.1725, |
| "grad_norm": 26.625, |
| "learning_rate": 1.882889058679858e-05, |
| "loss": 0.2032, |
| "step": 10350 |
| }, |
| { |
| "epoch": 0.17266666666666666, |
| "grad_norm": 12.125, |
| "learning_rate": 1.8826380425055717e-05, |
| "loss": 0.1987, |
| "step": 10360 |
| }, |
| { |
| "epoch": 0.17283333333333334, |
| "grad_norm": 14.875, |
| "learning_rate": 1.882386774373533e-05, |
| "loss": 0.1749, |
| "step": 10370 |
| }, |
| { |
| "epoch": 0.173, |
| "grad_norm": 27.375, |
| "learning_rate": 1.882135254355469e-05, |
| "loss": 0.1823, |
| "step": 10380 |
| }, |
| { |
| "epoch": 0.17316666666666666, |
| "grad_norm": 6.625, |
| "learning_rate": 1.8818834825231796e-05, |
| "loss": 0.1993, |
| "step": 10390 |
| }, |
| { |
| "epoch": 0.17333333333333334, |
| "grad_norm": 12.0625, |
| "learning_rate": 1.881631458948534e-05, |
| "loss": 0.1778, |
| "step": 10400 |
| }, |
| { |
| "epoch": 0.1735, |
| "grad_norm": 12.0625, |
| "learning_rate": 1.881379183703476e-05, |
| "loss": 0.1954, |
| "step": 10410 |
| }, |
| { |
| "epoch": 0.17366666666666666, |
| "grad_norm": 33.0, |
| "learning_rate": 1.8811266568600194e-05, |
| "loss": 0.2079, |
| "step": 10420 |
| }, |
| { |
| "epoch": 0.17383333333333334, |
| "grad_norm": 1.578125, |
| "learning_rate": 1.880873878490251e-05, |
| "loss": 0.1807, |
| "step": 10430 |
| }, |
| { |
| "epoch": 0.174, |
| "grad_norm": 16.875, |
| "learning_rate": 1.8806208486663286e-05, |
| "loss": 0.1689, |
| "step": 10440 |
| }, |
| { |
| "epoch": 0.17416666666666666, |
| "grad_norm": 30.625, |
| "learning_rate": 1.880367567460482e-05, |
| "loss": 0.177, |
| "step": 10450 |
| }, |
| { |
| "epoch": 0.17433333333333334, |
| "grad_norm": 18.0, |
| "learning_rate": 1.8801140349450132e-05, |
| "loss": 0.1838, |
| "step": 10460 |
| }, |
| { |
| "epoch": 0.1745, |
| "grad_norm": 26.25, |
| "learning_rate": 1.879860251192295e-05, |
| "loss": 0.202, |
| "step": 10470 |
| }, |
| { |
| "epoch": 0.17466666666666666, |
| "grad_norm": 30.25, |
| "learning_rate": 1.8796062162747725e-05, |
| "loss": 0.1443, |
| "step": 10480 |
| }, |
| { |
| "epoch": 0.17483333333333334, |
| "grad_norm": 50.5, |
| "learning_rate": 1.8793519302649633e-05, |
| "loss": 0.1718, |
| "step": 10490 |
| }, |
| { |
| "epoch": 0.175, |
| "grad_norm": 68.0, |
| "learning_rate": 1.879097393235455e-05, |
| "loss": 0.1915, |
| "step": 10500 |
| }, |
| { |
| "epoch": 0.17516666666666666, |
| "grad_norm": 57.25, |
| "learning_rate": 1.8788426052589076e-05, |
| "loss": 0.1715, |
| "step": 10510 |
| }, |
| { |
| "epoch": 0.17533333333333334, |
| "grad_norm": 9.75, |
| "learning_rate": 1.878587566408054e-05, |
| "loss": 0.1537, |
| "step": 10520 |
| }, |
| { |
| "epoch": 0.1755, |
| "grad_norm": 44.75, |
| "learning_rate": 1.878332276755696e-05, |
| "loss": 0.1636, |
| "step": 10530 |
| }, |
| { |
| "epoch": 0.17566666666666667, |
| "grad_norm": 41.5, |
| "learning_rate": 1.8780767363747103e-05, |
| "loss": 0.1634, |
| "step": 10540 |
| }, |
| { |
| "epoch": 0.17583333333333334, |
| "grad_norm": 14.9375, |
| "learning_rate": 1.877820945338042e-05, |
| "loss": 0.1947, |
| "step": 10550 |
| }, |
| { |
| "epoch": 0.176, |
| "grad_norm": 47.75, |
| "learning_rate": 1.8775649037187092e-05, |
| "loss": 0.1753, |
| "step": 10560 |
| }, |
| { |
| "epoch": 0.17616666666666667, |
| "grad_norm": 53.0, |
| "learning_rate": 1.8773086115898027e-05, |
| "loss": 0.1826, |
| "step": 10570 |
| }, |
| { |
| "epoch": 0.17633333333333334, |
| "grad_norm": 36.25, |
| "learning_rate": 1.8770520690244825e-05, |
| "loss": 0.1837, |
| "step": 10580 |
| }, |
| { |
| "epoch": 0.1765, |
| "grad_norm": 26.25, |
| "learning_rate": 1.8767952760959817e-05, |
| "loss": 0.2059, |
| "step": 10590 |
| }, |
| { |
| "epoch": 0.17666666666666667, |
| "grad_norm": 14.1875, |
| "learning_rate": 1.8765382328776044e-05, |
| "loss": 0.2, |
| "step": 10600 |
| }, |
| { |
| "epoch": 0.17683333333333334, |
| "grad_norm": 28.875, |
| "learning_rate": 1.876280939442726e-05, |
| "loss": 0.2032, |
| "step": 10610 |
| }, |
| { |
| "epoch": 0.177, |
| "grad_norm": 60.0, |
| "learning_rate": 1.8760233958647936e-05, |
| "loss": 0.1746, |
| "step": 10620 |
| }, |
| { |
| "epoch": 0.17716666666666667, |
| "grad_norm": 56.75, |
| "learning_rate": 1.875765602217325e-05, |
| "loss": 0.1815, |
| "step": 10630 |
| }, |
| { |
| "epoch": 0.17733333333333334, |
| "grad_norm": 15.25, |
| "learning_rate": 1.8755075585739107e-05, |
| "loss": 0.1981, |
| "step": 10640 |
| }, |
| { |
| "epoch": 0.1775, |
| "grad_norm": 18.75, |
| "learning_rate": 1.8752492650082112e-05, |
| "loss": 0.2002, |
| "step": 10650 |
| }, |
| { |
| "epoch": 0.17766666666666667, |
| "grad_norm": 49.0, |
| "learning_rate": 1.8749907215939595e-05, |
| "loss": 0.1799, |
| "step": 10660 |
| }, |
| { |
| "epoch": 0.17783333333333334, |
| "grad_norm": 43.75, |
| "learning_rate": 1.874731928404959e-05, |
| "loss": 0.1828, |
| "step": 10670 |
| }, |
| { |
| "epoch": 0.178, |
| "grad_norm": 16.5, |
| "learning_rate": 1.874472885515085e-05, |
| "loss": 0.1939, |
| "step": 10680 |
| }, |
| { |
| "epoch": 0.17816666666666667, |
| "grad_norm": 10.625, |
| "learning_rate": 1.8742135929982837e-05, |
| "loss": 0.2129, |
| "step": 10690 |
| }, |
| { |
| "epoch": 0.17833333333333334, |
| "grad_norm": 28.25, |
| "learning_rate": 1.8739540509285724e-05, |
| "loss": 0.1755, |
| "step": 10700 |
| }, |
| { |
| "epoch": 0.1785, |
| "grad_norm": 31.5, |
| "learning_rate": 1.8736942593800408e-05, |
| "loss": 0.1606, |
| "step": 10710 |
| }, |
| { |
| "epoch": 0.17866666666666667, |
| "grad_norm": 26.625, |
| "learning_rate": 1.8734342184268483e-05, |
| "loss": 0.1757, |
| "step": 10720 |
| }, |
| { |
| "epoch": 0.17883333333333334, |
| "grad_norm": 46.75, |
| "learning_rate": 1.873173928143226e-05, |
| "loss": 0.1571, |
| "step": 10730 |
| }, |
| { |
| "epoch": 0.179, |
| "grad_norm": 47.0, |
| "learning_rate": 1.8729133886034773e-05, |
| "loss": 0.1955, |
| "step": 10740 |
| }, |
| { |
| "epoch": 0.17916666666666667, |
| "grad_norm": 44.0, |
| "learning_rate": 1.8726525998819743e-05, |
| "loss": 0.1726, |
| "step": 10750 |
| }, |
| { |
| "epoch": 0.17933333333333334, |
| "grad_norm": 33.75, |
| "learning_rate": 1.872391562053163e-05, |
| "loss": 0.1847, |
| "step": 10760 |
| }, |
| { |
| "epoch": 0.1795, |
| "grad_norm": 17.75, |
| "learning_rate": 1.8721302751915588e-05, |
| "loss": 0.1975, |
| "step": 10770 |
| }, |
| { |
| "epoch": 0.17966666666666667, |
| "grad_norm": 19.25, |
| "learning_rate": 1.8718687393717484e-05, |
| "loss": 0.1832, |
| "step": 10780 |
| }, |
| { |
| "epoch": 0.17983333333333335, |
| "grad_norm": 53.0, |
| "learning_rate": 1.8716069546683904e-05, |
| "loss": 0.1798, |
| "step": 10790 |
| }, |
| { |
| "epoch": 0.18, |
| "grad_norm": 30.875, |
| "learning_rate": 1.8713449211562132e-05, |
| "loss": 0.194, |
| "step": 10800 |
| }, |
| { |
| "epoch": 0.18016666666666667, |
| "grad_norm": 30.25, |
| "learning_rate": 1.8710826389100168e-05, |
| "loss": 0.1955, |
| "step": 10810 |
| }, |
| { |
| "epoch": 0.18033333333333335, |
| "grad_norm": 16.0, |
| "learning_rate": 1.870820108004673e-05, |
| "loss": 0.1625, |
| "step": 10820 |
| }, |
| { |
| "epoch": 0.1805, |
| "grad_norm": 16.5, |
| "learning_rate": 1.870557328515123e-05, |
| "loss": 0.1732, |
| "step": 10830 |
| }, |
| { |
| "epoch": 0.18066666666666667, |
| "grad_norm": 31.0, |
| "learning_rate": 1.8702943005163802e-05, |
| "loss": 0.1829, |
| "step": 10840 |
| }, |
| { |
| "epoch": 0.18083333333333335, |
| "grad_norm": 14.625, |
| "learning_rate": 1.8700310240835287e-05, |
| "loss": 0.1519, |
| "step": 10850 |
| }, |
| { |
| "epoch": 0.181, |
| "grad_norm": 10.75, |
| "learning_rate": 1.8697674992917233e-05, |
| "loss": 0.1668, |
| "step": 10860 |
| }, |
| { |
| "epoch": 0.18116666666666667, |
| "grad_norm": 37.0, |
| "learning_rate": 1.869503726216189e-05, |
| "loss": 0.1864, |
| "step": 10870 |
| }, |
| { |
| "epoch": 0.18133333333333335, |
| "grad_norm": 42.25, |
| "learning_rate": 1.8692397049322236e-05, |
| "loss": 0.1871, |
| "step": 10880 |
| }, |
| { |
| "epoch": 0.1815, |
| "grad_norm": 23.625, |
| "learning_rate": 1.868975435515194e-05, |
| "loss": 0.1998, |
| "step": 10890 |
| }, |
| { |
| "epoch": 0.18166666666666667, |
| "grad_norm": 36.0, |
| "learning_rate": 1.8687109180405384e-05, |
| "loss": 0.1873, |
| "step": 10900 |
| }, |
| { |
| "epoch": 0.18183333333333335, |
| "grad_norm": 6.625, |
| "learning_rate": 1.868446152583766e-05, |
| "loss": 0.1655, |
| "step": 10910 |
| }, |
| { |
| "epoch": 0.182, |
| "grad_norm": 10.375, |
| "learning_rate": 1.868181139220457e-05, |
| "loss": 0.1736, |
| "step": 10920 |
| }, |
| { |
| "epoch": 0.18216666666666667, |
| "grad_norm": 27.0, |
| "learning_rate": 1.8679158780262618e-05, |
| "loss": 0.1673, |
| "step": 10930 |
| }, |
| { |
| "epoch": 0.18233333333333332, |
| "grad_norm": 42.5, |
| "learning_rate": 1.867650369076902e-05, |
| "loss": 0.1812, |
| "step": 10940 |
| }, |
| { |
| "epoch": 0.1825, |
| "grad_norm": 33.75, |
| "learning_rate": 1.8673846124481696e-05, |
| "loss": 0.1901, |
| "step": 10950 |
| }, |
| { |
| "epoch": 0.18266666666666667, |
| "grad_norm": 22.75, |
| "learning_rate": 1.8671186082159275e-05, |
| "loss": 0.1937, |
| "step": 10960 |
| }, |
| { |
| "epoch": 0.18283333333333332, |
| "grad_norm": 77.0, |
| "learning_rate": 1.8668523564561095e-05, |
| "loss": 0.1784, |
| "step": 10970 |
| }, |
| { |
| "epoch": 0.183, |
| "grad_norm": 11.3125, |
| "learning_rate": 1.8665858572447196e-05, |
| "loss": 0.1893, |
| "step": 10980 |
| }, |
| { |
| "epoch": 0.18316666666666667, |
| "grad_norm": 35.0, |
| "learning_rate": 1.8663191106578324e-05, |
| "loss": 0.1723, |
| "step": 10990 |
| }, |
| { |
| "epoch": 0.18333333333333332, |
| "grad_norm": 25.75, |
| "learning_rate": 1.866052116771593e-05, |
| "loss": 0.1736, |
| "step": 11000 |
| }, |
| { |
| "epoch": 0.1835, |
| "grad_norm": 34.75, |
| "learning_rate": 1.865784875662219e-05, |
| "loss": 0.1862, |
| "step": 11010 |
| }, |
| { |
| "epoch": 0.18366666666666667, |
| "grad_norm": 24.25, |
| "learning_rate": 1.8655173874059956e-05, |
| "loss": 0.1808, |
| "step": 11020 |
| }, |
| { |
| "epoch": 0.18383333333333332, |
| "grad_norm": 18.25, |
| "learning_rate": 1.86524965207928e-05, |
| "loss": 0.1698, |
| "step": 11030 |
| }, |
| { |
| "epoch": 0.184, |
| "grad_norm": 33.0, |
| "learning_rate": 1.8649816697585005e-05, |
| "loss": 0.1876, |
| "step": 11040 |
| }, |
| { |
| "epoch": 0.18416666666666667, |
| "grad_norm": 10.0, |
| "learning_rate": 1.8647134405201554e-05, |
| "loss": 0.1908, |
| "step": 11050 |
| }, |
| { |
| "epoch": 0.18433333333333332, |
| "grad_norm": 47.0, |
| "learning_rate": 1.8644449644408126e-05, |
| "loss": 0.1772, |
| "step": 11060 |
| }, |
| { |
| "epoch": 0.1845, |
| "grad_norm": 42.5, |
| "learning_rate": 1.864176241597112e-05, |
| "loss": 0.1906, |
| "step": 11070 |
| }, |
| { |
| "epoch": 0.18466666666666667, |
| "grad_norm": 8.9375, |
| "learning_rate": 1.8639072720657626e-05, |
| "loss": 0.2161, |
| "step": 11080 |
| }, |
| { |
| "epoch": 0.18483333333333332, |
| "grad_norm": 51.5, |
| "learning_rate": 1.863638055923545e-05, |
| "loss": 0.1828, |
| "step": 11090 |
| }, |
| { |
| "epoch": 0.185, |
| "grad_norm": 34.75, |
| "learning_rate": 1.8633685932473093e-05, |
| "loss": 0.192, |
| "step": 11100 |
| }, |
| { |
| "epoch": 0.18516666666666667, |
| "grad_norm": 16.25, |
| "learning_rate": 1.863098884113976e-05, |
| "loss": 0.1718, |
| "step": 11110 |
| }, |
| { |
| "epoch": 0.18533333333333332, |
| "grad_norm": 19.625, |
| "learning_rate": 1.8628289286005366e-05, |
| "loss": 0.1939, |
| "step": 11120 |
| }, |
| { |
| "epoch": 0.1855, |
| "grad_norm": 14.0, |
| "learning_rate": 1.8625587267840527e-05, |
| "loss": 0.1852, |
| "step": 11130 |
| }, |
| { |
| "epoch": 0.18566666666666667, |
| "grad_norm": 17.625, |
| "learning_rate": 1.8622882787416558e-05, |
| "loss": 0.1889, |
| "step": 11140 |
| }, |
| { |
| "epoch": 0.18583333333333332, |
| "grad_norm": 26.375, |
| "learning_rate": 1.862017584550548e-05, |
| "loss": 0.1825, |
| "step": 11150 |
| }, |
| { |
| "epoch": 0.186, |
| "grad_norm": 38.0, |
| "learning_rate": 1.861746644288002e-05, |
| "loss": 0.1888, |
| "step": 11160 |
| }, |
| { |
| "epoch": 0.18616666666666667, |
| "grad_norm": 11.5625, |
| "learning_rate": 1.8614754580313596e-05, |
| "loss": 0.1777, |
| "step": 11170 |
| }, |
| { |
| "epoch": 0.18633333333333332, |
| "grad_norm": 20.75, |
| "learning_rate": 1.8612040258580345e-05, |
| "loss": 0.1957, |
| "step": 11180 |
| }, |
| { |
| "epoch": 0.1865, |
| "grad_norm": 35.0, |
| "learning_rate": 1.860932347845509e-05, |
| "loss": 0.1798, |
| "step": 11190 |
| }, |
| { |
| "epoch": 0.18666666666666668, |
| "grad_norm": 26.5, |
| "learning_rate": 1.8606604240713364e-05, |
| "loss": 0.1603, |
| "step": 11200 |
| }, |
| { |
| "epoch": 0.18683333333333332, |
| "grad_norm": 5.53125, |
| "learning_rate": 1.8603882546131402e-05, |
| "loss": 0.1706, |
| "step": 11210 |
| }, |
| { |
| "epoch": 0.187, |
| "grad_norm": 17.75, |
| "learning_rate": 1.860115839548614e-05, |
| "loss": 0.1843, |
| "step": 11220 |
| }, |
| { |
| "epoch": 0.18716666666666668, |
| "grad_norm": 17.375, |
| "learning_rate": 1.859843178955521e-05, |
| "loss": 0.1846, |
| "step": 11230 |
| }, |
| { |
| "epoch": 0.18733333333333332, |
| "grad_norm": 2.890625, |
| "learning_rate": 1.859570272911695e-05, |
| "loss": 0.1857, |
| "step": 11240 |
| }, |
| { |
| "epoch": 0.1875, |
| "grad_norm": 36.25, |
| "learning_rate": 1.8592971214950403e-05, |
| "loss": 0.1871, |
| "step": 11250 |
| }, |
| { |
| "epoch": 0.18766666666666668, |
| "grad_norm": 21.625, |
| "learning_rate": 1.8590237247835296e-05, |
| "loss": 0.1867, |
| "step": 11260 |
| }, |
| { |
| "epoch": 0.18783333333333332, |
| "grad_norm": 24.375, |
| "learning_rate": 1.8587500828552075e-05, |
| "loss": 0.1904, |
| "step": 11270 |
| }, |
| { |
| "epoch": 0.188, |
| "grad_norm": 2.25, |
| "learning_rate": 1.858476195788187e-05, |
| "loss": 0.1752, |
| "step": 11280 |
| }, |
| { |
| "epoch": 0.18816666666666668, |
| "grad_norm": 23.125, |
| "learning_rate": 1.858202063660653e-05, |
| "loss": 0.1929, |
| "step": 11290 |
| }, |
| { |
| "epoch": 0.18833333333333332, |
| "grad_norm": 38.0, |
| "learning_rate": 1.8579276865508587e-05, |
| "loss": 0.1842, |
| "step": 11300 |
| }, |
| { |
| "epoch": 0.1885, |
| "grad_norm": 32.25, |
| "learning_rate": 1.8576530645371275e-05, |
| "loss": 0.1992, |
| "step": 11310 |
| }, |
| { |
| "epoch": 0.18866666666666668, |
| "grad_norm": 41.25, |
| "learning_rate": 1.8573781976978528e-05, |
| "loss": 0.1927, |
| "step": 11320 |
| }, |
| { |
| "epoch": 0.18883333333333333, |
| "grad_norm": 10.5, |
| "learning_rate": 1.8571030861114986e-05, |
| "loss": 0.1708, |
| "step": 11330 |
| }, |
| { |
| "epoch": 0.189, |
| "grad_norm": 11.875, |
| "learning_rate": 1.856827729856598e-05, |
| "loss": 0.176, |
| "step": 11340 |
| }, |
| { |
| "epoch": 0.18916666666666668, |
| "grad_norm": 46.75, |
| "learning_rate": 1.8565521290117544e-05, |
| "loss": 0.1639, |
| "step": 11350 |
| }, |
| { |
| "epoch": 0.18933333333333333, |
| "grad_norm": 8.6875, |
| "learning_rate": 1.8562762836556407e-05, |
| "loss": 0.1963, |
| "step": 11360 |
| }, |
| { |
| "epoch": 0.1895, |
| "grad_norm": 9.75, |
| "learning_rate": 1.8560001938669994e-05, |
| "loss": 0.1569, |
| "step": 11370 |
| }, |
| { |
| "epoch": 0.18966666666666668, |
| "grad_norm": 36.5, |
| "learning_rate": 1.855723859724643e-05, |
| "loss": 0.1625, |
| "step": 11380 |
| }, |
| { |
| "epoch": 0.18983333333333333, |
| "grad_norm": 5.28125, |
| "learning_rate": 1.8554472813074543e-05, |
| "loss": 0.1677, |
| "step": 11390 |
| }, |
| { |
| "epoch": 0.19, |
| "grad_norm": 30.75, |
| "learning_rate": 1.855170458694385e-05, |
| "loss": 0.1732, |
| "step": 11400 |
| }, |
| { |
| "epoch": 0.19016666666666668, |
| "grad_norm": 53.25, |
| "learning_rate": 1.8548933919644567e-05, |
| "loss": 0.2097, |
| "step": 11410 |
| }, |
| { |
| "epoch": 0.19033333333333333, |
| "grad_norm": 9.4375, |
| "learning_rate": 1.8546160811967616e-05, |
| "loss": 0.1839, |
| "step": 11420 |
| }, |
| { |
| "epoch": 0.1905, |
| "grad_norm": 19.0, |
| "learning_rate": 1.8543385264704598e-05, |
| "loss": 0.1965, |
| "step": 11430 |
| }, |
| { |
| "epoch": 0.19066666666666668, |
| "grad_norm": 6.625, |
| "learning_rate": 1.8540607278647828e-05, |
| "loss": 0.1745, |
| "step": 11440 |
| }, |
| { |
| "epoch": 0.19083333333333333, |
| "grad_norm": 16.0, |
| "learning_rate": 1.8537826854590302e-05, |
| "loss": 0.1481, |
| "step": 11450 |
| }, |
| { |
| "epoch": 0.191, |
| "grad_norm": 24.125, |
| "learning_rate": 1.8535043993325728e-05, |
| "loss": 0.1734, |
| "step": 11460 |
| }, |
| { |
| "epoch": 0.19116666666666668, |
| "grad_norm": 46.75, |
| "learning_rate": 1.85322586956485e-05, |
| "loss": 0.1826, |
| "step": 11470 |
| }, |
| { |
| "epoch": 0.19133333333333333, |
| "grad_norm": 42.5, |
| "learning_rate": 1.85294709623537e-05, |
| "loss": 0.1681, |
| "step": 11480 |
| }, |
| { |
| "epoch": 0.1915, |
| "grad_norm": 24.0, |
| "learning_rate": 1.852668079423712e-05, |
| "loss": 0.1665, |
| "step": 11490 |
| }, |
| { |
| "epoch": 0.19166666666666668, |
| "grad_norm": 26.0, |
| "learning_rate": 1.8523888192095246e-05, |
| "loss": 0.1652, |
| "step": 11500 |
| }, |
| { |
| "epoch": 0.19183333333333333, |
| "grad_norm": 30.0, |
| "learning_rate": 1.8521093156725245e-05, |
| "loss": 0.1603, |
| "step": 11510 |
| }, |
| { |
| "epoch": 0.192, |
| "grad_norm": 69.0, |
| "learning_rate": 1.8518295688924993e-05, |
| "loss": 0.2148, |
| "step": 11520 |
| }, |
| { |
| "epoch": 0.19216666666666668, |
| "grad_norm": 63.25, |
| "learning_rate": 1.8515495789493053e-05, |
| "loss": 0.1709, |
| "step": 11530 |
| }, |
| { |
| "epoch": 0.19233333333333333, |
| "grad_norm": 14.0, |
| "learning_rate": 1.8512693459228684e-05, |
| "loss": 0.1699, |
| "step": 11540 |
| }, |
| { |
| "epoch": 0.1925, |
| "grad_norm": 58.75, |
| "learning_rate": 1.8509888698931843e-05, |
| "loss": 0.1742, |
| "step": 11550 |
| }, |
| { |
| "epoch": 0.19266666666666668, |
| "grad_norm": 9.8125, |
| "learning_rate": 1.8507081509403167e-05, |
| "loss": 0.1947, |
| "step": 11560 |
| }, |
| { |
| "epoch": 0.19283333333333333, |
| "grad_norm": 22.75, |
| "learning_rate": 1.8504271891444005e-05, |
| "loss": 0.1893, |
| "step": 11570 |
| }, |
| { |
| "epoch": 0.193, |
| "grad_norm": 25.625, |
| "learning_rate": 1.8501459845856388e-05, |
| "loss": 0.1668, |
| "step": 11580 |
| }, |
| { |
| "epoch": 0.19316666666666665, |
| "grad_norm": 36.75, |
| "learning_rate": 1.849864537344304e-05, |
| "loss": 0.1883, |
| "step": 11590 |
| }, |
| { |
| "epoch": 0.19333333333333333, |
| "grad_norm": 11.9375, |
| "learning_rate": 1.849582847500738e-05, |
| "loss": 0.1967, |
| "step": 11600 |
| }, |
| { |
| "epoch": 0.1935, |
| "grad_norm": 7.125, |
| "learning_rate": 1.8493009151353524e-05, |
| "loss": 0.1952, |
| "step": 11610 |
| }, |
| { |
| "epoch": 0.19366666666666665, |
| "grad_norm": 24.5, |
| "learning_rate": 1.849018740328627e-05, |
| "loss": 0.1849, |
| "step": 11620 |
| }, |
| { |
| "epoch": 0.19383333333333333, |
| "grad_norm": 9.5, |
| "learning_rate": 1.8487363231611114e-05, |
| "loss": 0.1612, |
| "step": 11630 |
| }, |
| { |
| "epoch": 0.194, |
| "grad_norm": 8.0625, |
| "learning_rate": 1.848453663713425e-05, |
| "loss": 0.173, |
| "step": 11640 |
| }, |
| { |
| "epoch": 0.19416666666666665, |
| "grad_norm": 15.9375, |
| "learning_rate": 1.848170762066255e-05, |
| "loss": 0.1929, |
| "step": 11650 |
| }, |
| { |
| "epoch": 0.19433333333333333, |
| "grad_norm": 13.875, |
| "learning_rate": 1.847887618300359e-05, |
| "loss": 0.1906, |
| "step": 11660 |
| }, |
| { |
| "epoch": 0.1945, |
| "grad_norm": 15.0, |
| "learning_rate": 1.847604232496563e-05, |
| "loss": 0.179, |
| "step": 11670 |
| }, |
| { |
| "epoch": 0.19466666666666665, |
| "grad_norm": 48.0, |
| "learning_rate": 1.847320604735762e-05, |
| "loss": 0.1712, |
| "step": 11680 |
| }, |
| { |
| "epoch": 0.19483333333333333, |
| "grad_norm": 19.0, |
| "learning_rate": 1.8470367350989208e-05, |
| "loss": 0.2072, |
| "step": 11690 |
| }, |
| { |
| "epoch": 0.195, |
| "grad_norm": 49.0, |
| "learning_rate": 1.8467526236670726e-05, |
| "loss": 0.188, |
| "step": 11700 |
| }, |
| { |
| "epoch": 0.19516666666666665, |
| "grad_norm": 5.8125, |
| "learning_rate": 1.8464682705213198e-05, |
| "loss": 0.1653, |
| "step": 11710 |
| }, |
| { |
| "epoch": 0.19533333333333333, |
| "grad_norm": 29.5, |
| "learning_rate": 1.8461836757428342e-05, |
| "loss": 0.1815, |
| "step": 11720 |
| }, |
| { |
| "epoch": 0.1955, |
| "grad_norm": 20.125, |
| "learning_rate": 1.8458988394128555e-05, |
| "loss": 0.174, |
| "step": 11730 |
| }, |
| { |
| "epoch": 0.19566666666666666, |
| "grad_norm": 20.875, |
| "learning_rate": 1.8456137616126933e-05, |
| "loss": 0.1932, |
| "step": 11740 |
| }, |
| { |
| "epoch": 0.19583333333333333, |
| "grad_norm": 26.125, |
| "learning_rate": 1.8453284424237263e-05, |
| "loss": 0.1858, |
| "step": 11750 |
| }, |
| { |
| "epoch": 0.196, |
| "grad_norm": 13.4375, |
| "learning_rate": 1.8450428819274006e-05, |
| "loss": 0.1746, |
| "step": 11760 |
| }, |
| { |
| "epoch": 0.19616666666666666, |
| "grad_norm": 9.375, |
| "learning_rate": 1.8447570802052337e-05, |
| "loss": 0.1581, |
| "step": 11770 |
| }, |
| { |
| "epoch": 0.19633333333333333, |
| "grad_norm": 28.875, |
| "learning_rate": 1.8444710373388095e-05, |
| "loss": 0.1587, |
| "step": 11780 |
| }, |
| { |
| "epoch": 0.1965, |
| "grad_norm": 6.03125, |
| "learning_rate": 1.844184753409782e-05, |
| "loss": 0.1853, |
| "step": 11790 |
| }, |
| { |
| "epoch": 0.19666666666666666, |
| "grad_norm": 9.1875, |
| "learning_rate": 1.8438982284998745e-05, |
| "loss": 0.1768, |
| "step": 11800 |
| }, |
| { |
| "epoch": 0.19683333333333333, |
| "grad_norm": 21.625, |
| "learning_rate": 1.843611462690877e-05, |
| "loss": 0.1965, |
| "step": 11810 |
| }, |
| { |
| "epoch": 0.197, |
| "grad_norm": 12.25, |
| "learning_rate": 1.8433244560646505e-05, |
| "loss": 0.1669, |
| "step": 11820 |
| }, |
| { |
| "epoch": 0.19716666666666666, |
| "grad_norm": 1.296875, |
| "learning_rate": 1.8430372087031242e-05, |
| "loss": 0.1951, |
| "step": 11830 |
| }, |
| { |
| "epoch": 0.19733333333333333, |
| "grad_norm": 25.625, |
| "learning_rate": 1.842749720688295e-05, |
| "loss": 0.1646, |
| "step": 11840 |
| }, |
| { |
| "epoch": 0.1975, |
| "grad_norm": 34.0, |
| "learning_rate": 1.8424619921022293e-05, |
| "loss": 0.1692, |
| "step": 11850 |
| }, |
| { |
| "epoch": 0.19766666666666666, |
| "grad_norm": 24.5, |
| "learning_rate": 1.8421740230270623e-05, |
| "loss": 0.1695, |
| "step": 11860 |
| }, |
| { |
| "epoch": 0.19783333333333333, |
| "grad_norm": 18.75, |
| "learning_rate": 1.8418858135449976e-05, |
| "loss": 0.1711, |
| "step": 11870 |
| }, |
| { |
| "epoch": 0.198, |
| "grad_norm": 9.0625, |
| "learning_rate": 1.8415973637383074e-05, |
| "loss": 0.196, |
| "step": 11880 |
| }, |
| { |
| "epoch": 0.19816666666666666, |
| "grad_norm": 60.5, |
| "learning_rate": 1.841308673689332e-05, |
| "loss": 0.1998, |
| "step": 11890 |
| }, |
| { |
| "epoch": 0.19833333333333333, |
| "grad_norm": 29.875, |
| "learning_rate": 1.841019743480482e-05, |
| "loss": 0.1915, |
| "step": 11900 |
| }, |
| { |
| "epoch": 0.1985, |
| "grad_norm": 53.0, |
| "learning_rate": 1.8407305731942345e-05, |
| "loss": 0.1809, |
| "step": 11910 |
| }, |
| { |
| "epoch": 0.19866666666666666, |
| "grad_norm": 44.5, |
| "learning_rate": 1.8404411629131363e-05, |
| "loss": 0.2017, |
| "step": 11920 |
| }, |
| { |
| "epoch": 0.19883333333333333, |
| "grad_norm": 9.5, |
| "learning_rate": 1.840151512719802e-05, |
| "loss": 0.172, |
| "step": 11930 |
| }, |
| { |
| "epoch": 0.199, |
| "grad_norm": 20.75, |
| "learning_rate": 1.839861622696916e-05, |
| "loss": 0.1632, |
| "step": 11940 |
| }, |
| { |
| "epoch": 0.19916666666666666, |
| "grad_norm": 34.0, |
| "learning_rate": 1.8395714929272297e-05, |
| "loss": 0.1845, |
| "step": 11950 |
| }, |
| { |
| "epoch": 0.19933333333333333, |
| "grad_norm": 21.875, |
| "learning_rate": 1.839281123493563e-05, |
| "loss": 0.1697, |
| "step": 11960 |
| }, |
| { |
| "epoch": 0.1995, |
| "grad_norm": 22.625, |
| "learning_rate": 1.838990514478806e-05, |
| "loss": 0.1838, |
| "step": 11970 |
| }, |
| { |
| "epoch": 0.19966666666666666, |
| "grad_norm": 9.375, |
| "learning_rate": 1.8386996659659147e-05, |
| "loss": 0.1932, |
| "step": 11980 |
| }, |
| { |
| "epoch": 0.19983333333333334, |
| "grad_norm": 19.375, |
| "learning_rate": 1.8384085780379154e-05, |
| "loss": 0.2077, |
| "step": 11990 |
| }, |
| { |
| "epoch": 0.2, |
| "grad_norm": 19.625, |
| "learning_rate": 1.8381172507779016e-05, |
| "loss": 0.1656, |
| "step": 12000 |
| }, |
| { |
| "epoch": 0.20016666666666666, |
| "grad_norm": 1.9453125, |
| "learning_rate": 1.837825684269036e-05, |
| "loss": 0.1819, |
| "step": 12010 |
| }, |
| { |
| "epoch": 0.20033333333333334, |
| "grad_norm": 18.875, |
| "learning_rate": 1.8375338785945487e-05, |
| "loss": 0.1953, |
| "step": 12020 |
| }, |
| { |
| "epoch": 0.2005, |
| "grad_norm": 5.875, |
| "learning_rate": 1.837241833837739e-05, |
| "loss": 0.2031, |
| "step": 12030 |
| }, |
| { |
| "epoch": 0.20066666666666666, |
| "grad_norm": 9.5, |
| "learning_rate": 1.8369495500819737e-05, |
| "loss": 0.1858, |
| "step": 12040 |
| }, |
| { |
| "epoch": 0.20083333333333334, |
| "grad_norm": 14.25, |
| "learning_rate": 1.8366570274106878e-05, |
| "loss": 0.1748, |
| "step": 12050 |
| }, |
| { |
| "epoch": 0.201, |
| "grad_norm": 9.5, |
| "learning_rate": 1.8363642659073852e-05, |
| "loss": 0.1853, |
| "step": 12060 |
| }, |
| { |
| "epoch": 0.20116666666666666, |
| "grad_norm": 14.4375, |
| "learning_rate": 1.836071265655637e-05, |
| "loss": 0.1986, |
| "step": 12070 |
| }, |
| { |
| "epoch": 0.20133333333333334, |
| "grad_norm": 48.75, |
| "learning_rate": 1.835778026739084e-05, |
| "loss": 0.1958, |
| "step": 12080 |
| }, |
| { |
| "epoch": 0.2015, |
| "grad_norm": 37.0, |
| "learning_rate": 1.8354845492414332e-05, |
| "loss": 0.1854, |
| "step": 12090 |
| }, |
| { |
| "epoch": 0.20166666666666666, |
| "grad_norm": 27.0, |
| "learning_rate": 1.835190833246461e-05, |
| "loss": 0.1833, |
| "step": 12100 |
| }, |
| { |
| "epoch": 0.20183333333333334, |
| "grad_norm": 38.25, |
| "learning_rate": 1.834896878838012e-05, |
| "loss": 0.1787, |
| "step": 12110 |
| }, |
| { |
| "epoch": 0.202, |
| "grad_norm": 15.625, |
| "learning_rate": 1.8346026860999976e-05, |
| "loss": 0.1904, |
| "step": 12120 |
| }, |
| { |
| "epoch": 0.20216666666666666, |
| "grad_norm": 10.875, |
| "learning_rate": 1.8343082551163984e-05, |
| "loss": 0.1698, |
| "step": 12130 |
| }, |
| { |
| "epoch": 0.20233333333333334, |
| "grad_norm": 25.625, |
| "learning_rate": 1.834013585971263e-05, |
| "loss": 0.1735, |
| "step": 12140 |
| }, |
| { |
| "epoch": 0.2025, |
| "grad_norm": 34.0, |
| "learning_rate": 1.8337186787487066e-05, |
| "loss": 0.1997, |
| "step": 12150 |
| }, |
| { |
| "epoch": 0.20266666666666666, |
| "grad_norm": 12.5625, |
| "learning_rate": 1.8334235335329143e-05, |
| "loss": 0.1849, |
| "step": 12160 |
| }, |
| { |
| "epoch": 0.20283333333333334, |
| "grad_norm": 11.6875, |
| "learning_rate": 1.833128150408138e-05, |
| "loss": 0.1807, |
| "step": 12170 |
| }, |
| { |
| "epoch": 0.203, |
| "grad_norm": 18.625, |
| "learning_rate": 1.8328325294586973e-05, |
| "loss": 0.2022, |
| "step": 12180 |
| }, |
| { |
| "epoch": 0.20316666666666666, |
| "grad_norm": 18.75, |
| "learning_rate": 1.832536670768981e-05, |
| "loss": 0.162, |
| "step": 12190 |
| }, |
| { |
| "epoch": 0.20333333333333334, |
| "grad_norm": 21.0, |
| "learning_rate": 1.8322405744234443e-05, |
| "loss": 0.1992, |
| "step": 12200 |
| }, |
| { |
| "epoch": 0.2035, |
| "grad_norm": 30.0, |
| "learning_rate": 1.8319442405066108e-05, |
| "loss": 0.1762, |
| "step": 12210 |
| }, |
| { |
| "epoch": 0.20366666666666666, |
| "grad_norm": 12.625, |
| "learning_rate": 1.831647669103072e-05, |
| "loss": 0.1668, |
| "step": 12220 |
| }, |
| { |
| "epoch": 0.20383333333333334, |
| "grad_norm": 42.75, |
| "learning_rate": 1.831350860297487e-05, |
| "loss": 0.1937, |
| "step": 12230 |
| }, |
| { |
| "epoch": 0.204, |
| "grad_norm": 7.03125, |
| "learning_rate": 1.831053814174583e-05, |
| "loss": 0.1896, |
| "step": 12240 |
| }, |
| { |
| "epoch": 0.20416666666666666, |
| "grad_norm": 37.25, |
| "learning_rate": 1.830756530819155e-05, |
| "loss": 0.1822, |
| "step": 12250 |
| }, |
| { |
| "epoch": 0.20433333333333334, |
| "grad_norm": 17.0, |
| "learning_rate": 1.830459010316065e-05, |
| "loss": 0.1513, |
| "step": 12260 |
| }, |
| { |
| "epoch": 0.2045, |
| "grad_norm": 46.0, |
| "learning_rate": 1.8301612527502433e-05, |
| "loss": 0.1902, |
| "step": 12270 |
| }, |
| { |
| "epoch": 0.20466666666666666, |
| "grad_norm": 6.78125, |
| "learning_rate": 1.829863258206688e-05, |
| "loss": 0.1746, |
| "step": 12280 |
| }, |
| { |
| "epoch": 0.20483333333333334, |
| "grad_norm": 31.625, |
| "learning_rate": 1.829565026770465e-05, |
| "loss": 0.1963, |
| "step": 12290 |
| }, |
| { |
| "epoch": 0.205, |
| "grad_norm": 27.0, |
| "learning_rate": 1.829266558526706e-05, |
| "loss": 0.15, |
| "step": 12300 |
| }, |
| { |
| "epoch": 0.20516666666666666, |
| "grad_norm": 10.375, |
| "learning_rate": 1.8289678535606124e-05, |
| "loss": 0.1742, |
| "step": 12310 |
| }, |
| { |
| "epoch": 0.20533333333333334, |
| "grad_norm": 6.71875, |
| "learning_rate": 1.8286689119574532e-05, |
| "loss": 0.171, |
| "step": 12320 |
| }, |
| { |
| "epoch": 0.2055, |
| "grad_norm": 25.375, |
| "learning_rate": 1.8283697338025632e-05, |
| "loss": 0.1664, |
| "step": 12330 |
| }, |
| { |
| "epoch": 0.20566666666666666, |
| "grad_norm": 32.25, |
| "learning_rate": 1.8280703191813468e-05, |
| "loss": 0.1903, |
| "step": 12340 |
| }, |
| { |
| "epoch": 0.20583333333333334, |
| "grad_norm": 30.125, |
| "learning_rate": 1.8277706681792736e-05, |
| "loss": 0.1862, |
| "step": 12350 |
| }, |
| { |
| "epoch": 0.206, |
| "grad_norm": 2.96875, |
| "learning_rate": 1.827470780881883e-05, |
| "loss": 0.1953, |
| "step": 12360 |
| }, |
| { |
| "epoch": 0.20616666666666666, |
| "grad_norm": 24.0, |
| "learning_rate": 1.8271706573747802e-05, |
| "loss": 0.1807, |
| "step": 12370 |
| }, |
| { |
| "epoch": 0.20633333333333334, |
| "grad_norm": 9.0, |
| "learning_rate": 1.826870297743639e-05, |
| "loss": 0.1632, |
| "step": 12380 |
| }, |
| { |
| "epoch": 0.2065, |
| "grad_norm": 40.75, |
| "learning_rate": 1.826569702074199e-05, |
| "loss": 0.1939, |
| "step": 12390 |
| }, |
| { |
| "epoch": 0.20666666666666667, |
| "grad_norm": 18.625, |
| "learning_rate": 1.8262688704522694e-05, |
| "loss": 0.192, |
| "step": 12400 |
| }, |
| { |
| "epoch": 0.20683333333333334, |
| "grad_norm": 12.6875, |
| "learning_rate": 1.825967802963725e-05, |
| "loss": 0.1866, |
| "step": 12410 |
| }, |
| { |
| "epoch": 0.207, |
| "grad_norm": 33.0, |
| "learning_rate": 1.8256664996945083e-05, |
| "loss": 0.1693, |
| "step": 12420 |
| }, |
| { |
| "epoch": 0.20716666666666667, |
| "grad_norm": 63.25, |
| "learning_rate": 1.8253649607306294e-05, |
| "loss": 0.1809, |
| "step": 12430 |
| }, |
| { |
| "epoch": 0.20733333333333334, |
| "grad_norm": 14.4375, |
| "learning_rate": 1.825063186158166e-05, |
| "loss": 0.1672, |
| "step": 12440 |
| }, |
| { |
| "epoch": 0.2075, |
| "grad_norm": 21.25, |
| "learning_rate": 1.824761176063262e-05, |
| "loss": 0.1826, |
| "step": 12450 |
| }, |
| { |
| "epoch": 0.20766666666666667, |
| "grad_norm": 57.25, |
| "learning_rate": 1.8244589305321294e-05, |
| "loss": 0.1896, |
| "step": 12460 |
| }, |
| { |
| "epoch": 0.20783333333333334, |
| "grad_norm": 46.25, |
| "learning_rate": 1.8241564496510476e-05, |
| "loss": 0.1781, |
| "step": 12470 |
| }, |
| { |
| "epoch": 0.208, |
| "grad_norm": 50.25, |
| "learning_rate": 1.823853733506362e-05, |
| "loss": 0.1961, |
| "step": 12480 |
| }, |
| { |
| "epoch": 0.20816666666666667, |
| "grad_norm": 9.5625, |
| "learning_rate": 1.8235507821844865e-05, |
| "loss": 0.1873, |
| "step": 12490 |
| }, |
| { |
| "epoch": 0.20833333333333334, |
| "grad_norm": 37.5, |
| "learning_rate": 1.8232475957719015e-05, |
| "loss": 0.1761, |
| "step": 12500 |
| }, |
| { |
| "epoch": 0.2085, |
| "grad_norm": 23.375, |
| "learning_rate": 1.8229441743551546e-05, |
| "loss": 0.1687, |
| "step": 12510 |
| }, |
| { |
| "epoch": 0.20866666666666667, |
| "grad_norm": 31.75, |
| "learning_rate": 1.82264051802086e-05, |
| "loss": 0.1759, |
| "step": 12520 |
| }, |
| { |
| "epoch": 0.20883333333333334, |
| "grad_norm": 9.0, |
| "learning_rate": 1.8223366268556996e-05, |
| "loss": 0.1708, |
| "step": 12530 |
| }, |
| { |
| "epoch": 0.209, |
| "grad_norm": 16.625, |
| "learning_rate": 1.8220325009464225e-05, |
| "loss": 0.1702, |
| "step": 12540 |
| }, |
| { |
| "epoch": 0.20916666666666667, |
| "grad_norm": 24.875, |
| "learning_rate": 1.8217281403798438e-05, |
| "loss": 0.1839, |
| "step": 12550 |
| }, |
| { |
| "epoch": 0.20933333333333334, |
| "grad_norm": 26.0, |
| "learning_rate": 1.8214235452428468e-05, |
| "loss": 0.1968, |
| "step": 12560 |
| }, |
| { |
| "epoch": 0.2095, |
| "grad_norm": 22.625, |
| "learning_rate": 1.821118715622381e-05, |
| "loss": 0.1908, |
| "step": 12570 |
| }, |
| { |
| "epoch": 0.20966666666666667, |
| "grad_norm": 12.3125, |
| "learning_rate": 1.8208136516054628e-05, |
| "loss": 0.1686, |
| "step": 12580 |
| }, |
| { |
| "epoch": 0.20983333333333334, |
| "grad_norm": 32.0, |
| "learning_rate": 1.820508353279176e-05, |
| "loss": 0.1865, |
| "step": 12590 |
| }, |
| { |
| "epoch": 0.21, |
| "grad_norm": 54.25, |
| "learning_rate": 1.8202028207306712e-05, |
| "loss": 0.2096, |
| "step": 12600 |
| }, |
| { |
| "epoch": 0.21016666666666667, |
| "grad_norm": 41.75, |
| "learning_rate": 1.8198970540471653e-05, |
| "loss": 0.1855, |
| "step": 12610 |
| }, |
| { |
| "epoch": 0.21033333333333334, |
| "grad_norm": 15.5, |
| "learning_rate": 1.8195910533159427e-05, |
| "loss": 0.1995, |
| "step": 12620 |
| }, |
| { |
| "epoch": 0.2105, |
| "grad_norm": 31.625, |
| "learning_rate": 1.819284818624354e-05, |
| "loss": 0.1738, |
| "step": 12630 |
| }, |
| { |
| "epoch": 0.21066666666666667, |
| "grad_norm": 18.25, |
| "learning_rate": 1.8189783500598173e-05, |
| "loss": 0.1675, |
| "step": 12640 |
| }, |
| { |
| "epoch": 0.21083333333333334, |
| "grad_norm": 14.0625, |
| "learning_rate": 1.818671647709817e-05, |
| "loss": 0.197, |
| "step": 12650 |
| }, |
| { |
| "epoch": 0.211, |
| "grad_norm": 8.5625, |
| "learning_rate": 1.8183647116619037e-05, |
| "loss": 0.1535, |
| "step": 12660 |
| }, |
| { |
| "epoch": 0.21116666666666667, |
| "grad_norm": 28.0, |
| "learning_rate": 1.8180575420036962e-05, |
| "loss": 0.1883, |
| "step": 12670 |
| }, |
| { |
| "epoch": 0.21133333333333335, |
| "grad_norm": 32.0, |
| "learning_rate": 1.817750138822879e-05, |
| "loss": 0.1938, |
| "step": 12680 |
| }, |
| { |
| "epoch": 0.2115, |
| "grad_norm": 29.5, |
| "learning_rate": 1.8174425022072027e-05, |
| "loss": 0.162, |
| "step": 12690 |
| }, |
| { |
| "epoch": 0.21166666666666667, |
| "grad_norm": 6.9375, |
| "learning_rate": 1.817134632244486e-05, |
| "loss": 0.1986, |
| "step": 12700 |
| }, |
| { |
| "epoch": 0.21183333333333335, |
| "grad_norm": 26.125, |
| "learning_rate": 1.816826529022613e-05, |
| "loss": 0.218, |
| "step": 12710 |
| }, |
| { |
| "epoch": 0.212, |
| "grad_norm": 31.125, |
| "learning_rate": 1.816518192629535e-05, |
| "loss": 0.1625, |
| "step": 12720 |
| }, |
| { |
| "epoch": 0.21216666666666667, |
| "grad_norm": 35.5, |
| "learning_rate": 1.8162096231532694e-05, |
| "loss": 0.1854, |
| "step": 12730 |
| }, |
| { |
| "epoch": 0.21233333333333335, |
| "grad_norm": 16.375, |
| "learning_rate": 1.8159008206819003e-05, |
| "loss": 0.1658, |
| "step": 12740 |
| }, |
| { |
| "epoch": 0.2125, |
| "grad_norm": 25.25, |
| "learning_rate": 1.8155917853035792e-05, |
| "loss": 0.1718, |
| "step": 12750 |
| }, |
| { |
| "epoch": 0.21266666666666667, |
| "grad_norm": 4.125, |
| "learning_rate": 1.8152825171065224e-05, |
| "loss": 0.1675, |
| "step": 12760 |
| }, |
| { |
| "epoch": 0.21283333333333335, |
| "grad_norm": 16.5, |
| "learning_rate": 1.814973016179014e-05, |
| "loss": 0.1896, |
| "step": 12770 |
| }, |
| { |
| "epoch": 0.213, |
| "grad_norm": 29.375, |
| "learning_rate": 1.8146632826094043e-05, |
| "loss": 0.1906, |
| "step": 12780 |
| }, |
| { |
| "epoch": 0.21316666666666667, |
| "grad_norm": 62.75, |
| "learning_rate": 1.8143533164861092e-05, |
| "loss": 0.1838, |
| "step": 12790 |
| }, |
| { |
| "epoch": 0.21333333333333335, |
| "grad_norm": 1.8984375, |
| "learning_rate": 1.8140431178976122e-05, |
| "loss": 0.1923, |
| "step": 12800 |
| }, |
| { |
| "epoch": 0.2135, |
| "grad_norm": 18.375, |
| "learning_rate": 1.8137326869324623e-05, |
| "loss": 0.2013, |
| "step": 12810 |
| }, |
| { |
| "epoch": 0.21366666666666667, |
| "grad_norm": 13.0, |
| "learning_rate": 1.813422023679275e-05, |
| "loss": 0.1899, |
| "step": 12820 |
| }, |
| { |
| "epoch": 0.21383333333333332, |
| "grad_norm": 50.25, |
| "learning_rate": 1.8131111282267323e-05, |
| "loss": 0.2011, |
| "step": 12830 |
| }, |
| { |
| "epoch": 0.214, |
| "grad_norm": 6.59375, |
| "learning_rate": 1.8128000006635825e-05, |
| "loss": 0.1842, |
| "step": 12840 |
| }, |
| { |
| "epoch": 0.21416666666666667, |
| "grad_norm": 18.875, |
| "learning_rate": 1.8124886410786397e-05, |
| "loss": 0.1684, |
| "step": 12850 |
| }, |
| { |
| "epoch": 0.21433333333333332, |
| "grad_norm": 28.375, |
| "learning_rate": 1.812177049560785e-05, |
| "loss": 0.1603, |
| "step": 12860 |
| }, |
| { |
| "epoch": 0.2145, |
| "grad_norm": 2.0, |
| "learning_rate": 1.8118652261989647e-05, |
| "loss": 0.173, |
| "step": 12870 |
| }, |
| { |
| "epoch": 0.21466666666666667, |
| "grad_norm": 35.75, |
| "learning_rate": 1.8115531710821926e-05, |
| "loss": 0.1868, |
| "step": 12880 |
| }, |
| { |
| "epoch": 0.21483333333333332, |
| "grad_norm": 19.875, |
| "learning_rate": 1.811240884299547e-05, |
| "loss": 0.172, |
| "step": 12890 |
| }, |
| { |
| "epoch": 0.215, |
| "grad_norm": 10.3125, |
| "learning_rate": 1.8109283659401746e-05, |
| "loss": 0.1817, |
| "step": 12900 |
| }, |
| { |
| "epoch": 0.21516666666666667, |
| "grad_norm": 23.875, |
| "learning_rate": 1.8106156160932854e-05, |
| "loss": 0.1925, |
| "step": 12910 |
| }, |
| { |
| "epoch": 0.21533333333333332, |
| "grad_norm": 47.5, |
| "learning_rate": 1.8103026348481576e-05, |
| "loss": 0.203, |
| "step": 12920 |
| }, |
| { |
| "epoch": 0.2155, |
| "grad_norm": 39.25, |
| "learning_rate": 1.8099894222941348e-05, |
| "loss": 0.1933, |
| "step": 12930 |
| }, |
| { |
| "epoch": 0.21566666666666667, |
| "grad_norm": 22.375, |
| "learning_rate": 1.8096759785206268e-05, |
| "loss": 0.1842, |
| "step": 12940 |
| }, |
| { |
| "epoch": 0.21583333333333332, |
| "grad_norm": 33.75, |
| "learning_rate": 1.8093623036171087e-05, |
| "loss": 0.1933, |
| "step": 12950 |
| }, |
| { |
| "epoch": 0.216, |
| "grad_norm": 24.5, |
| "learning_rate": 1.8090483976731224e-05, |
| "loss": 0.156, |
| "step": 12960 |
| }, |
| { |
| "epoch": 0.21616666666666667, |
| "grad_norm": 60.0, |
| "learning_rate": 1.808734260778276e-05, |
| "loss": 0.1779, |
| "step": 12970 |
| }, |
| { |
| "epoch": 0.21633333333333332, |
| "grad_norm": 23.875, |
| "learning_rate": 1.8084198930222418e-05, |
| "loss": 0.1927, |
| "step": 12980 |
| }, |
| { |
| "epoch": 0.2165, |
| "grad_norm": 19.75, |
| "learning_rate": 1.8081052944947602e-05, |
| "loss": 0.1667, |
| "step": 12990 |
| }, |
| { |
| "epoch": 0.21666666666666667, |
| "grad_norm": 22.625, |
| "learning_rate": 1.8077904652856356e-05, |
| "loss": 0.1673, |
| "step": 13000 |
| }, |
| { |
| "epoch": 0.21683333333333332, |
| "grad_norm": 6.09375, |
| "learning_rate": 1.80747540548474e-05, |
| "loss": 0.1655, |
| "step": 13010 |
| }, |
| { |
| "epoch": 0.217, |
| "grad_norm": 14.5, |
| "learning_rate": 1.80716011518201e-05, |
| "loss": 0.189, |
| "step": 13020 |
| }, |
| { |
| "epoch": 0.21716666666666667, |
| "grad_norm": 54.75, |
| "learning_rate": 1.8068445944674478e-05, |
| "loss": 0.1763, |
| "step": 13030 |
| }, |
| { |
| "epoch": 0.21733333333333332, |
| "grad_norm": 28.5, |
| "learning_rate": 1.8065288434311226e-05, |
| "loss": 0.1779, |
| "step": 13040 |
| }, |
| { |
| "epoch": 0.2175, |
| "grad_norm": 22.75, |
| "learning_rate": 1.8062128621631684e-05, |
| "loss": 0.1889, |
| "step": 13050 |
| }, |
| { |
| "epoch": 0.21766666666666667, |
| "grad_norm": 19.875, |
| "learning_rate": 1.8058966507537854e-05, |
| "loss": 0.1858, |
| "step": 13060 |
| }, |
| { |
| "epoch": 0.21783333333333332, |
| "grad_norm": 71.5, |
| "learning_rate": 1.805580209293239e-05, |
| "loss": 0.1916, |
| "step": 13070 |
| }, |
| { |
| "epoch": 0.218, |
| "grad_norm": 32.0, |
| "learning_rate": 1.8052635378718605e-05, |
| "loss": 0.1806, |
| "step": 13080 |
| }, |
| { |
| "epoch": 0.21816666666666668, |
| "grad_norm": 23.0, |
| "learning_rate": 1.8049466365800466e-05, |
| "loss": 0.1808, |
| "step": 13090 |
| }, |
| { |
| "epoch": 0.21833333333333332, |
| "grad_norm": 47.25, |
| "learning_rate": 1.8046295055082607e-05, |
| "loss": 0.1996, |
| "step": 13100 |
| }, |
| { |
| "epoch": 0.2185, |
| "grad_norm": 11.5625, |
| "learning_rate": 1.8043121447470305e-05, |
| "loss": 0.2019, |
| "step": 13110 |
| }, |
| { |
| "epoch": 0.21866666666666668, |
| "grad_norm": 8.625, |
| "learning_rate": 1.80399455438695e-05, |
| "loss": 0.1714, |
| "step": 13120 |
| }, |
| { |
| "epoch": 0.21883333333333332, |
| "grad_norm": 12.6875, |
| "learning_rate": 1.8036767345186783e-05, |
| "loss": 0.1616, |
| "step": 13130 |
| }, |
| { |
| "epoch": 0.219, |
| "grad_norm": 50.5, |
| "learning_rate": 1.80335868523294e-05, |
| "loss": 0.1639, |
| "step": 13140 |
| }, |
| { |
| "epoch": 0.21916666666666668, |
| "grad_norm": 20.0, |
| "learning_rate": 1.803040406620526e-05, |
| "loss": 0.1807, |
| "step": 13150 |
| }, |
| { |
| "epoch": 0.21933333333333332, |
| "grad_norm": 30.125, |
| "learning_rate": 1.802721898772292e-05, |
| "loss": 0.1679, |
| "step": 13160 |
| }, |
| { |
| "epoch": 0.2195, |
| "grad_norm": 9.75, |
| "learning_rate": 1.8024031617791585e-05, |
| "loss": 0.1862, |
| "step": 13170 |
| }, |
| { |
| "epoch": 0.21966666666666668, |
| "grad_norm": 33.0, |
| "learning_rate": 1.8020841957321127e-05, |
| "loss": 0.1887, |
| "step": 13180 |
| }, |
| { |
| "epoch": 0.21983333333333333, |
| "grad_norm": 27.25, |
| "learning_rate": 1.8017650007222066e-05, |
| "loss": 0.1954, |
| "step": 13190 |
| }, |
| { |
| "epoch": 0.22, |
| "grad_norm": 17.875, |
| "learning_rate": 1.8014455768405578e-05, |
| "loss": 0.185, |
| "step": 13200 |
| }, |
| { |
| "epoch": 0.22016666666666668, |
| "grad_norm": 17.625, |
| "learning_rate": 1.801125924178348e-05, |
| "loss": 0.1879, |
| "step": 13210 |
| }, |
| { |
| "epoch": 0.22033333333333333, |
| "grad_norm": 11.0625, |
| "learning_rate": 1.8008060428268266e-05, |
| "loss": 0.1795, |
| "step": 13220 |
| }, |
| { |
| "epoch": 0.2205, |
| "grad_norm": 44.0, |
| "learning_rate": 1.800485932877306e-05, |
| "loss": 0.1624, |
| "step": 13230 |
| }, |
| { |
| "epoch": 0.22066666666666668, |
| "grad_norm": 39.25, |
| "learning_rate": 1.8001655944211646e-05, |
| "loss": 0.1535, |
| "step": 13240 |
| }, |
| { |
| "epoch": 0.22083333333333333, |
| "grad_norm": 4.34375, |
| "learning_rate": 1.799845027549847e-05, |
| "loss": 0.1847, |
| "step": 13250 |
| }, |
| { |
| "epoch": 0.221, |
| "grad_norm": 20.125, |
| "learning_rate": 1.7995242323548613e-05, |
| "loss": 0.1863, |
| "step": 13260 |
| }, |
| { |
| "epoch": 0.22116666666666668, |
| "grad_norm": 33.0, |
| "learning_rate": 1.7992032089277822e-05, |
| "loss": 0.1711, |
| "step": 13270 |
| }, |
| { |
| "epoch": 0.22133333333333333, |
| "grad_norm": 54.5, |
| "learning_rate": 1.798881957360249e-05, |
| "loss": 0.1745, |
| "step": 13280 |
| }, |
| { |
| "epoch": 0.2215, |
| "grad_norm": 17.5, |
| "learning_rate": 1.798560477743966e-05, |
| "loss": 0.1763, |
| "step": 13290 |
| }, |
| { |
| "epoch": 0.22166666666666668, |
| "grad_norm": 31.0, |
| "learning_rate": 1.7982387701707024e-05, |
| "loss": 0.1931, |
| "step": 13300 |
| }, |
| { |
| "epoch": 0.22183333333333333, |
| "grad_norm": 8.1875, |
| "learning_rate": 1.7979168347322934e-05, |
| "loss": 0.1829, |
| "step": 13310 |
| }, |
| { |
| "epoch": 0.222, |
| "grad_norm": 22.75, |
| "learning_rate": 1.7975946715206385e-05, |
| "loss": 0.1992, |
| "step": 13320 |
| }, |
| { |
| "epoch": 0.22216666666666668, |
| "grad_norm": 3.90625, |
| "learning_rate": 1.7972722806277024e-05, |
| "loss": 0.2064, |
| "step": 13330 |
| }, |
| { |
| "epoch": 0.22233333333333333, |
| "grad_norm": 10.0, |
| "learning_rate": 1.796949662145514e-05, |
| "loss": 0.2048, |
| "step": 13340 |
| }, |
| { |
| "epoch": 0.2225, |
| "grad_norm": 5.75, |
| "learning_rate": 1.7966268161661693e-05, |
| "loss": 0.1674, |
| "step": 13350 |
| }, |
| { |
| "epoch": 0.22266666666666668, |
| "grad_norm": 20.125, |
| "learning_rate": 1.7963037427818268e-05, |
| "loss": 0.2146, |
| "step": 13360 |
| }, |
| { |
| "epoch": 0.22283333333333333, |
| "grad_norm": 24.5, |
| "learning_rate": 1.7959804420847115e-05, |
| "loss": 0.1847, |
| "step": 13370 |
| }, |
| { |
| "epoch": 0.223, |
| "grad_norm": 23.5, |
| "learning_rate": 1.7956569141671124e-05, |
| "loss": 0.1898, |
| "step": 13380 |
| }, |
| { |
| "epoch": 0.22316666666666668, |
| "grad_norm": 12.5, |
| "learning_rate": 1.7953331591213843e-05, |
| "loss": 0.1782, |
| "step": 13390 |
| }, |
| { |
| "epoch": 0.22333333333333333, |
| "grad_norm": 23.125, |
| "learning_rate": 1.795009177039946e-05, |
| "loss": 0.2078, |
| "step": 13400 |
| }, |
| { |
| "epoch": 0.2235, |
| "grad_norm": 15.8125, |
| "learning_rate": 1.7946849680152806e-05, |
| "loss": 0.1786, |
| "step": 13410 |
| }, |
| { |
| "epoch": 0.22366666666666668, |
| "grad_norm": 1.609375, |
| "learning_rate": 1.7943605321399383e-05, |
| "loss": 0.1735, |
| "step": 13420 |
| }, |
| { |
| "epoch": 0.22383333333333333, |
| "grad_norm": 2.375, |
| "learning_rate": 1.7940358695065313e-05, |
| "loss": 0.1682, |
| "step": 13430 |
| }, |
| { |
| "epoch": 0.224, |
| "grad_norm": 16.875, |
| "learning_rate": 1.793710980207738e-05, |
| "loss": 0.1766, |
| "step": 13440 |
| }, |
| { |
| "epoch": 0.22416666666666665, |
| "grad_norm": 38.25, |
| "learning_rate": 1.7933858643363018e-05, |
| "loss": 0.1942, |
| "step": 13450 |
| }, |
| { |
| "epoch": 0.22433333333333333, |
| "grad_norm": 36.0, |
| "learning_rate": 1.7930605219850296e-05, |
| "loss": 0.1744, |
| "step": 13460 |
| }, |
| { |
| "epoch": 0.2245, |
| "grad_norm": 40.0, |
| "learning_rate": 1.7927349532467944e-05, |
| "loss": 0.1909, |
| "step": 13470 |
| }, |
| { |
| "epoch": 0.22466666666666665, |
| "grad_norm": 71.5, |
| "learning_rate": 1.792409158214532e-05, |
| "loss": 0.165, |
| "step": 13480 |
| }, |
| { |
| "epoch": 0.22483333333333333, |
| "grad_norm": 14.8125, |
| "learning_rate": 1.7920831369812445e-05, |
| "loss": 0.199, |
| "step": 13490 |
| }, |
| { |
| "epoch": 0.225, |
| "grad_norm": 117.5, |
| "learning_rate": 1.7917568896399974e-05, |
| "loss": 0.1772, |
| "step": 13500 |
| }, |
| { |
| "epoch": 0.22516666666666665, |
| "grad_norm": 11.0, |
| "learning_rate": 1.7914304162839218e-05, |
| "loss": 0.1919, |
| "step": 13510 |
| }, |
| { |
| "epoch": 0.22533333333333333, |
| "grad_norm": 57.25, |
| "learning_rate": 1.7911037170062125e-05, |
| "loss": 0.1786, |
| "step": 13520 |
| }, |
| { |
| "epoch": 0.2255, |
| "grad_norm": 32.25, |
| "learning_rate": 1.7907767919001286e-05, |
| "loss": 0.2057, |
| "step": 13530 |
| }, |
| { |
| "epoch": 0.22566666666666665, |
| "grad_norm": 31.25, |
| "learning_rate": 1.7904496410589948e-05, |
| "loss": 0.1614, |
| "step": 13540 |
| }, |
| { |
| "epoch": 0.22583333333333333, |
| "grad_norm": 40.5, |
| "learning_rate": 1.7901222645761992e-05, |
| "loss": 0.1741, |
| "step": 13550 |
| }, |
| { |
| "epoch": 0.226, |
| "grad_norm": 24.75, |
| "learning_rate": 1.7897946625451947e-05, |
| "loss": 0.1985, |
| "step": 13560 |
| }, |
| { |
| "epoch": 0.22616666666666665, |
| "grad_norm": 10.125, |
| "learning_rate": 1.7894668350594983e-05, |
| "loss": 0.1554, |
| "step": 13570 |
| }, |
| { |
| "epoch": 0.22633333333333333, |
| "grad_norm": 32.5, |
| "learning_rate": 1.789138782212692e-05, |
| "loss": 0.1872, |
| "step": 13580 |
| }, |
| { |
| "epoch": 0.2265, |
| "grad_norm": 68.0, |
| "learning_rate": 1.7888105040984217e-05, |
| "loss": 0.1909, |
| "step": 13590 |
| }, |
| { |
| "epoch": 0.22666666666666666, |
| "grad_norm": 51.5, |
| "learning_rate": 1.788482000810397e-05, |
| "loss": 0.2021, |
| "step": 13600 |
| }, |
| { |
| "epoch": 0.22683333333333333, |
| "grad_norm": 37.25, |
| "learning_rate": 1.7881532724423934e-05, |
| "loss": 0.1765, |
| "step": 13610 |
| }, |
| { |
| "epoch": 0.227, |
| "grad_norm": 39.25, |
| "learning_rate": 1.787824319088249e-05, |
| "loss": 0.1716, |
| "step": 13620 |
| }, |
| { |
| "epoch": 0.22716666666666666, |
| "grad_norm": 4.375, |
| "learning_rate": 1.7874951408418667e-05, |
| "loss": 0.1976, |
| "step": 13630 |
| }, |
| { |
| "epoch": 0.22733333333333333, |
| "grad_norm": 16.375, |
| "learning_rate": 1.787165737797214e-05, |
| "loss": 0.1855, |
| "step": 13640 |
| }, |
| { |
| "epoch": 0.2275, |
| "grad_norm": 11.25, |
| "learning_rate": 1.7868361100483224e-05, |
| "loss": 0.1754, |
| "step": 13650 |
| }, |
| { |
| "epoch": 0.22766666666666666, |
| "grad_norm": 13.0625, |
| "learning_rate": 1.7865062576892872e-05, |
| "loss": 0.1622, |
| "step": 13660 |
| }, |
| { |
| "epoch": 0.22783333333333333, |
| "grad_norm": 24.5, |
| "learning_rate": 1.7861761808142675e-05, |
| "loss": 0.1702, |
| "step": 13670 |
| }, |
| { |
| "epoch": 0.228, |
| "grad_norm": 42.75, |
| "learning_rate": 1.7858458795174877e-05, |
| "loss": 0.1926, |
| "step": 13680 |
| }, |
| { |
| "epoch": 0.22816666666666666, |
| "grad_norm": 19.25, |
| "learning_rate": 1.7855153538932356e-05, |
| "loss": 0.1512, |
| "step": 13690 |
| }, |
| { |
| "epoch": 0.22833333333333333, |
| "grad_norm": 15.5, |
| "learning_rate": 1.7851846040358626e-05, |
| "loss": 0.1828, |
| "step": 13700 |
| }, |
| { |
| "epoch": 0.2285, |
| "grad_norm": 27.75, |
| "learning_rate": 1.7848536300397848e-05, |
| "loss": 0.1817, |
| "step": 13710 |
| }, |
| { |
| "epoch": 0.22866666666666666, |
| "grad_norm": 24.125, |
| "learning_rate": 1.7845224319994816e-05, |
| "loss": 0.1546, |
| "step": 13720 |
| }, |
| { |
| "epoch": 0.22883333333333333, |
| "grad_norm": 62.25, |
| "learning_rate": 1.784191010009497e-05, |
| "loss": 0.1886, |
| "step": 13730 |
| }, |
| { |
| "epoch": 0.229, |
| "grad_norm": 51.75, |
| "learning_rate": 1.783859364164439e-05, |
| "loss": 0.1951, |
| "step": 13740 |
| }, |
| { |
| "epoch": 0.22916666666666666, |
| "grad_norm": 2.234375, |
| "learning_rate": 1.7835274945589792e-05, |
| "loss": 0.2184, |
| "step": 13750 |
| }, |
| { |
| "epoch": 0.22933333333333333, |
| "grad_norm": 34.25, |
| "learning_rate": 1.783195401287852e-05, |
| "loss": 0.165, |
| "step": 13760 |
| }, |
| { |
| "epoch": 0.2295, |
| "grad_norm": 2.046875, |
| "learning_rate": 1.782863084445858e-05, |
| "loss": 0.1943, |
| "step": 13770 |
| }, |
| { |
| "epoch": 0.22966666666666666, |
| "grad_norm": 17.875, |
| "learning_rate": 1.7825305441278596e-05, |
| "loss": 0.2153, |
| "step": 13780 |
| }, |
| { |
| "epoch": 0.22983333333333333, |
| "grad_norm": 6.65625, |
| "learning_rate": 1.782197780428784e-05, |
| "loss": 0.1828, |
| "step": 13790 |
| }, |
| { |
| "epoch": 0.23, |
| "grad_norm": 4.0, |
| "learning_rate": 1.7818647934436218e-05, |
| "loss": 0.1628, |
| "step": 13800 |
| }, |
| { |
| "epoch": 0.23016666666666666, |
| "grad_norm": 15.125, |
| "learning_rate": 1.7815315832674275e-05, |
| "loss": 0.1812, |
| "step": 13810 |
| }, |
| { |
| "epoch": 0.23033333333333333, |
| "grad_norm": 33.25, |
| "learning_rate": 1.781198149995319e-05, |
| "loss": 0.1775, |
| "step": 13820 |
| }, |
| { |
| "epoch": 0.2305, |
| "grad_norm": 21.5, |
| "learning_rate": 1.7808644937224783e-05, |
| "loss": 0.1777, |
| "step": 13830 |
| }, |
| { |
| "epoch": 0.23066666666666666, |
| "grad_norm": 25.625, |
| "learning_rate": 1.780530614544151e-05, |
| "loss": 0.1686, |
| "step": 13840 |
| }, |
| { |
| "epoch": 0.23083333333333333, |
| "grad_norm": 13.375, |
| "learning_rate": 1.780196512555646e-05, |
| "loss": 0.1786, |
| "step": 13850 |
| }, |
| { |
| "epoch": 0.231, |
| "grad_norm": 93.0, |
| "learning_rate": 1.7798621878523362e-05, |
| "loss": 0.2037, |
| "step": 13860 |
| }, |
| { |
| "epoch": 0.23116666666666666, |
| "grad_norm": 4.96875, |
| "learning_rate": 1.7795276405296575e-05, |
| "loss": 0.168, |
| "step": 13870 |
| }, |
| { |
| "epoch": 0.23133333333333334, |
| "grad_norm": 36.25, |
| "learning_rate": 1.77919287068311e-05, |
| "loss": 0.1932, |
| "step": 13880 |
| }, |
| { |
| "epoch": 0.2315, |
| "grad_norm": 31.75, |
| "learning_rate": 1.7788578784082574e-05, |
| "loss": 0.1735, |
| "step": 13890 |
| }, |
| { |
| "epoch": 0.23166666666666666, |
| "grad_norm": 40.25, |
| "learning_rate": 1.7785226638007264e-05, |
| "loss": 0.2122, |
| "step": 13900 |
| }, |
| { |
| "epoch": 0.23183333333333334, |
| "grad_norm": 37.0, |
| "learning_rate": 1.7781872269562062e-05, |
| "loss": 0.1934, |
| "step": 13910 |
| }, |
| { |
| "epoch": 0.232, |
| "grad_norm": 1.4765625, |
| "learning_rate": 1.7778515679704526e-05, |
| "loss": 0.1907, |
| "step": 13920 |
| }, |
| { |
| "epoch": 0.23216666666666666, |
| "grad_norm": 12.1875, |
| "learning_rate": 1.777515686939281e-05, |
| "loss": 0.1764, |
| "step": 13930 |
| }, |
| { |
| "epoch": 0.23233333333333334, |
| "grad_norm": 46.75, |
| "learning_rate": 1.777179583958573e-05, |
| "loss": 0.1933, |
| "step": 13940 |
| }, |
| { |
| "epoch": 0.2325, |
| "grad_norm": 17.125, |
| "learning_rate": 1.776843259124272e-05, |
| "loss": 0.1578, |
| "step": 13950 |
| }, |
| { |
| "epoch": 0.23266666666666666, |
| "grad_norm": 31.125, |
| "learning_rate": 1.7765067125323858e-05, |
| "loss": 0.1773, |
| "step": 13960 |
| }, |
| { |
| "epoch": 0.23283333333333334, |
| "grad_norm": 26.875, |
| "learning_rate": 1.776169944278984e-05, |
| "loss": 0.1793, |
| "step": 13970 |
| }, |
| { |
| "epoch": 0.233, |
| "grad_norm": 7.34375, |
| "learning_rate": 1.7758329544602014e-05, |
| "loss": 0.1871, |
| "step": 13980 |
| }, |
| { |
| "epoch": 0.23316666666666666, |
| "grad_norm": 2.078125, |
| "learning_rate": 1.7754957431722347e-05, |
| "loss": 0.1856, |
| "step": 13990 |
| }, |
| { |
| "epoch": 0.23333333333333334, |
| "grad_norm": 11.75, |
| "learning_rate": 1.775158310511344e-05, |
| "loss": 0.1777, |
| "step": 14000 |
| }, |
| { |
| "epoch": 0.2335, |
| "grad_norm": 27.375, |
| "learning_rate": 1.7748206565738527e-05, |
| "loss": 0.1996, |
| "step": 14010 |
| }, |
| { |
| "epoch": 0.23366666666666666, |
| "grad_norm": 21.75, |
| "learning_rate": 1.7744827814561482e-05, |
| "loss": 0.1899, |
| "step": 14020 |
| }, |
| { |
| "epoch": 0.23383333333333334, |
| "grad_norm": 27.75, |
| "learning_rate": 1.7741446852546795e-05, |
| "loss": 0.1857, |
| "step": 14030 |
| }, |
| { |
| "epoch": 0.234, |
| "grad_norm": 27.5, |
| "learning_rate": 1.77380636806596e-05, |
| "loss": 0.1646, |
| "step": 14040 |
| }, |
| { |
| "epoch": 0.23416666666666666, |
| "grad_norm": 18.5, |
| "learning_rate": 1.7734678299865653e-05, |
| "loss": 0.174, |
| "step": 14050 |
| }, |
| { |
| "epoch": 0.23433333333333334, |
| "grad_norm": 10.1875, |
| "learning_rate": 1.773129071113135e-05, |
| "loss": 0.2066, |
| "step": 14060 |
| }, |
| { |
| "epoch": 0.2345, |
| "grad_norm": 32.5, |
| "learning_rate": 1.7727900915423702e-05, |
| "loss": 0.2014, |
| "step": 14070 |
| }, |
| { |
| "epoch": 0.23466666666666666, |
| "grad_norm": 13.4375, |
| "learning_rate": 1.772450891371037e-05, |
| "loss": 0.1926, |
| "step": 14080 |
| }, |
| { |
| "epoch": 0.23483333333333334, |
| "grad_norm": 16.625, |
| "learning_rate": 1.772111470695963e-05, |
| "loss": 0.1609, |
| "step": 14090 |
| }, |
| { |
| "epoch": 0.235, |
| "grad_norm": 21.25, |
| "learning_rate": 1.7717718296140388e-05, |
| "loss": 0.1767, |
| "step": 14100 |
| }, |
| { |
| "epoch": 0.23516666666666666, |
| "grad_norm": 11.9375, |
| "learning_rate": 1.7714319682222192e-05, |
| "loss": 0.1879, |
| "step": 14110 |
| }, |
| { |
| "epoch": 0.23533333333333334, |
| "grad_norm": 53.5, |
| "learning_rate": 1.7710918866175203e-05, |
| "loss": 0.1862, |
| "step": 14120 |
| }, |
| { |
| "epoch": 0.2355, |
| "grad_norm": 10.0, |
| "learning_rate": 1.7707515848970217e-05, |
| "loss": 0.1924, |
| "step": 14130 |
| }, |
| { |
| "epoch": 0.23566666666666666, |
| "grad_norm": 19.125, |
| "learning_rate": 1.7704110631578665e-05, |
| "loss": 0.1875, |
| "step": 14140 |
| }, |
| { |
| "epoch": 0.23583333333333334, |
| "grad_norm": 34.25, |
| "learning_rate": 1.770070321497259e-05, |
| "loss": 0.1863, |
| "step": 14150 |
| }, |
| { |
| "epoch": 0.236, |
| "grad_norm": 30.375, |
| "learning_rate": 1.7697293600124685e-05, |
| "loss": 0.192, |
| "step": 14160 |
| }, |
| { |
| "epoch": 0.23616666666666666, |
| "grad_norm": 24.75, |
| "learning_rate": 1.769388178800825e-05, |
| "loss": 0.1986, |
| "step": 14170 |
| }, |
| { |
| "epoch": 0.23633333333333334, |
| "grad_norm": 22.125, |
| "learning_rate": 1.7690467779597225e-05, |
| "loss": 0.1756, |
| "step": 14180 |
| }, |
| { |
| "epoch": 0.2365, |
| "grad_norm": 24.5, |
| "learning_rate": 1.768705157586617e-05, |
| "loss": 0.2072, |
| "step": 14190 |
| }, |
| { |
| "epoch": 0.23666666666666666, |
| "grad_norm": 16.125, |
| "learning_rate": 1.7683633177790272e-05, |
| "loss": 0.1782, |
| "step": 14200 |
| }, |
| { |
| "epoch": 0.23683333333333334, |
| "grad_norm": 21.5, |
| "learning_rate": 1.7680212586345347e-05, |
| "loss": 0.174, |
| "step": 14210 |
| }, |
| { |
| "epoch": 0.237, |
| "grad_norm": 49.0, |
| "learning_rate": 1.7676789802507844e-05, |
| "loss": 0.183, |
| "step": 14220 |
| }, |
| { |
| "epoch": 0.23716666666666666, |
| "grad_norm": 20.875, |
| "learning_rate": 1.7673364827254824e-05, |
| "loss": 0.1681, |
| "step": 14230 |
| }, |
| { |
| "epoch": 0.23733333333333334, |
| "grad_norm": 13.125, |
| "learning_rate": 1.7669937661563977e-05, |
| "loss": 0.2216, |
| "step": 14240 |
| }, |
| { |
| "epoch": 0.2375, |
| "grad_norm": 26.625, |
| "learning_rate": 1.7666508306413626e-05, |
| "loss": 0.2015, |
| "step": 14250 |
| }, |
| { |
| "epoch": 0.23766666666666666, |
| "grad_norm": 33.75, |
| "learning_rate": 1.7663076762782715e-05, |
| "loss": 0.1821, |
| "step": 14260 |
| }, |
| { |
| "epoch": 0.23783333333333334, |
| "grad_norm": 19.625, |
| "learning_rate": 1.7659643031650813e-05, |
| "loss": 0.2034, |
| "step": 14270 |
| }, |
| { |
| "epoch": 0.238, |
| "grad_norm": 25.125, |
| "learning_rate": 1.7656207113998107e-05, |
| "loss": 0.1681, |
| "step": 14280 |
| }, |
| { |
| "epoch": 0.23816666666666667, |
| "grad_norm": 7.6875, |
| "learning_rate": 1.7652769010805416e-05, |
| "loss": 0.2022, |
| "step": 14290 |
| }, |
| { |
| "epoch": 0.23833333333333334, |
| "grad_norm": 28.875, |
| "learning_rate": 1.7649328723054185e-05, |
| "loss": 0.1687, |
| "step": 14300 |
| }, |
| { |
| "epoch": 0.2385, |
| "grad_norm": 51.25, |
| "learning_rate": 1.7645886251726474e-05, |
| "loss": 0.1844, |
| "step": 14310 |
| }, |
| { |
| "epoch": 0.23866666666666667, |
| "grad_norm": 28.25, |
| "learning_rate": 1.7642441597804966e-05, |
| "loss": 0.1799, |
| "step": 14320 |
| }, |
| { |
| "epoch": 0.23883333333333334, |
| "grad_norm": 13.5, |
| "learning_rate": 1.763899476227298e-05, |
| "loss": 0.1636, |
| "step": 14330 |
| }, |
| { |
| "epoch": 0.239, |
| "grad_norm": 19.375, |
| "learning_rate": 1.7635545746114447e-05, |
| "loss": 0.2084, |
| "step": 14340 |
| }, |
| { |
| "epoch": 0.23916666666666667, |
| "grad_norm": 31.125, |
| "learning_rate": 1.763209455031392e-05, |
| "loss": 0.1895, |
| "step": 14350 |
| }, |
| { |
| "epoch": 0.23933333333333334, |
| "grad_norm": 49.25, |
| "learning_rate": 1.7628641175856577e-05, |
| "loss": 0.1951, |
| "step": 14360 |
| }, |
| { |
| "epoch": 0.2395, |
| "grad_norm": 7.84375, |
| "learning_rate": 1.7625185623728222e-05, |
| "loss": 0.1967, |
| "step": 14370 |
| }, |
| { |
| "epoch": 0.23966666666666667, |
| "grad_norm": 41.5, |
| "learning_rate": 1.762172789491527e-05, |
| "loss": 0.1833, |
| "step": 14380 |
| }, |
| { |
| "epoch": 0.23983333333333334, |
| "grad_norm": 7.15625, |
| "learning_rate": 1.7618267990404773e-05, |
| "loss": 0.1651, |
| "step": 14390 |
| }, |
| { |
| "epoch": 0.24, |
| "grad_norm": 38.5, |
| "learning_rate": 1.7614805911184387e-05, |
| "loss": 0.1885, |
| "step": 14400 |
| }, |
| { |
| "epoch": 0.24016666666666667, |
| "grad_norm": 25.375, |
| "learning_rate": 1.7611341658242396e-05, |
| "loss": 0.2017, |
| "step": 14410 |
| }, |
| { |
| "epoch": 0.24033333333333334, |
| "grad_norm": 3.015625, |
| "learning_rate": 1.760787523256771e-05, |
| "loss": 0.173, |
| "step": 14420 |
| }, |
| { |
| "epoch": 0.2405, |
| "grad_norm": 53.0, |
| "learning_rate": 1.7604406635149855e-05, |
| "loss": 0.1872, |
| "step": 14430 |
| }, |
| { |
| "epoch": 0.24066666666666667, |
| "grad_norm": 44.75, |
| "learning_rate": 1.7600935866978976e-05, |
| "loss": 0.1908, |
| "step": 14440 |
| }, |
| { |
| "epoch": 0.24083333333333334, |
| "grad_norm": 16.75, |
| "learning_rate": 1.7597462929045833e-05, |
| "loss": 0.1827, |
| "step": 14450 |
| }, |
| { |
| "epoch": 0.241, |
| "grad_norm": 11.8125, |
| "learning_rate": 1.7593987822341814e-05, |
| "loss": 0.1654, |
| "step": 14460 |
| }, |
| { |
| "epoch": 0.24116666666666667, |
| "grad_norm": 46.25, |
| "learning_rate": 1.7590510547858923e-05, |
| "loss": 0.1922, |
| "step": 14470 |
| }, |
| { |
| "epoch": 0.24133333333333334, |
| "grad_norm": 23.375, |
| "learning_rate": 1.7587031106589783e-05, |
| "loss": 0.1783, |
| "step": 14480 |
| }, |
| { |
| "epoch": 0.2415, |
| "grad_norm": 23.25, |
| "learning_rate": 1.758354949952763e-05, |
| "loss": 0.1944, |
| "step": 14490 |
| }, |
| { |
| "epoch": 0.24166666666666667, |
| "grad_norm": 13.9375, |
| "learning_rate": 1.7580065727666332e-05, |
| "loss": 0.1815, |
| "step": 14500 |
| }, |
| { |
| "epoch": 0.24183333333333334, |
| "grad_norm": 16.0, |
| "learning_rate": 1.757657979200036e-05, |
| "loss": 0.1919, |
| "step": 14510 |
| }, |
| { |
| "epoch": 0.242, |
| "grad_norm": 56.25, |
| "learning_rate": 1.757309169352481e-05, |
| "loss": 0.1838, |
| "step": 14520 |
| }, |
| { |
| "epoch": 0.24216666666666667, |
| "grad_norm": 27.375, |
| "learning_rate": 1.7569601433235392e-05, |
| "loss": 0.1772, |
| "step": 14530 |
| }, |
| { |
| "epoch": 0.24233333333333335, |
| "grad_norm": 7.75, |
| "learning_rate": 1.7566109012128437e-05, |
| "loss": 0.1888, |
| "step": 14540 |
| }, |
| { |
| "epoch": 0.2425, |
| "grad_norm": 19.75, |
| "learning_rate": 1.756261443120089e-05, |
| "loss": 0.1976, |
| "step": 14550 |
| }, |
| { |
| "epoch": 0.24266666666666667, |
| "grad_norm": 14.875, |
| "learning_rate": 1.755911769145032e-05, |
| "loss": 0.1553, |
| "step": 14560 |
| }, |
| { |
| "epoch": 0.24283333333333335, |
| "grad_norm": 4.3125, |
| "learning_rate": 1.75556187938749e-05, |
| "loss": 0.1432, |
| "step": 14570 |
| }, |
| { |
| "epoch": 0.243, |
| "grad_norm": 22.625, |
| "learning_rate": 1.755211773947342e-05, |
| "loss": 0.1684, |
| "step": 14580 |
| }, |
| { |
| "epoch": 0.24316666666666667, |
| "grad_norm": 16.375, |
| "learning_rate": 1.75486145292453e-05, |
| "loss": 0.1823, |
| "step": 14590 |
| }, |
| { |
| "epoch": 0.24333333333333335, |
| "grad_norm": 34.0, |
| "learning_rate": 1.7545109164190564e-05, |
| "loss": 0.1892, |
| "step": 14600 |
| }, |
| { |
| "epoch": 0.2435, |
| "grad_norm": 49.0, |
| "learning_rate": 1.7541601645309853e-05, |
| "loss": 0.198, |
| "step": 14610 |
| }, |
| { |
| "epoch": 0.24366666666666667, |
| "grad_norm": 29.875, |
| "learning_rate": 1.7538091973604416e-05, |
| "loss": 0.1872, |
| "step": 14620 |
| }, |
| { |
| "epoch": 0.24383333333333335, |
| "grad_norm": 25.75, |
| "learning_rate": 1.7534580150076134e-05, |
| "loss": 0.1973, |
| "step": 14630 |
| }, |
| { |
| "epoch": 0.244, |
| "grad_norm": 4.65625, |
| "learning_rate": 1.753106617572748e-05, |
| "loss": 0.1655, |
| "step": 14640 |
| }, |
| { |
| "epoch": 0.24416666666666667, |
| "grad_norm": 17.75, |
| "learning_rate": 1.7527550051561567e-05, |
| "loss": 0.2063, |
| "step": 14650 |
| }, |
| { |
| "epoch": 0.24433333333333335, |
| "grad_norm": 3.015625, |
| "learning_rate": 1.7524031778582092e-05, |
| "loss": 0.1894, |
| "step": 14660 |
| }, |
| { |
| "epoch": 0.2445, |
| "grad_norm": 29.25, |
| "learning_rate": 1.7520511357793398e-05, |
| "loss": 0.1876, |
| "step": 14670 |
| }, |
| { |
| "epoch": 0.24466666666666667, |
| "grad_norm": 15.4375, |
| "learning_rate": 1.7516988790200407e-05, |
| "loss": 0.1797, |
| "step": 14680 |
| }, |
| { |
| "epoch": 0.24483333333333332, |
| "grad_norm": 5.5625, |
| "learning_rate": 1.751346407680868e-05, |
| "loss": 0.1748, |
| "step": 14690 |
| }, |
| { |
| "epoch": 0.245, |
| "grad_norm": 20.125, |
| "learning_rate": 1.750993721862438e-05, |
| "loss": 0.1933, |
| "step": 14700 |
| }, |
| { |
| "epoch": 0.24516666666666667, |
| "grad_norm": 27.375, |
| "learning_rate": 1.750640821665428e-05, |
| "loss": 0.1846, |
| "step": 14710 |
| }, |
| { |
| "epoch": 0.24533333333333332, |
| "grad_norm": 20.5, |
| "learning_rate": 1.7502877071905777e-05, |
| "loss": 0.1824, |
| "step": 14720 |
| }, |
| { |
| "epoch": 0.2455, |
| "grad_norm": 12.25, |
| "learning_rate": 1.7499343785386863e-05, |
| "loss": 0.1889, |
| "step": 14730 |
| }, |
| { |
| "epoch": 0.24566666666666667, |
| "grad_norm": 5.0625, |
| "learning_rate": 1.749580835810615e-05, |
| "loss": 0.1827, |
| "step": 14740 |
| }, |
| { |
| "epoch": 0.24583333333333332, |
| "grad_norm": 21.125, |
| "learning_rate": 1.7492270791072865e-05, |
| "loss": 0.1813, |
| "step": 14750 |
| }, |
| { |
| "epoch": 0.246, |
| "grad_norm": 25.625, |
| "learning_rate": 1.748873108529684e-05, |
| "loss": 0.1679, |
| "step": 14760 |
| }, |
| { |
| "epoch": 0.24616666666666667, |
| "grad_norm": 49.0, |
| "learning_rate": 1.748518924178852e-05, |
| "loss": 0.1876, |
| "step": 14770 |
| }, |
| { |
| "epoch": 0.24633333333333332, |
| "grad_norm": 21.75, |
| "learning_rate": 1.748164526155895e-05, |
| "loss": 0.1843, |
| "step": 14780 |
| }, |
| { |
| "epoch": 0.2465, |
| "grad_norm": 27.0, |
| "learning_rate": 1.747809914561981e-05, |
| "loss": 0.1704, |
| "step": 14790 |
| }, |
| { |
| "epoch": 0.24666666666666667, |
| "grad_norm": 20.0, |
| "learning_rate": 1.747455089498336e-05, |
| "loss": 0.1928, |
| "step": 14800 |
| }, |
| { |
| "epoch": 0.24683333333333332, |
| "grad_norm": 44.5, |
| "learning_rate": 1.7471000510662492e-05, |
| "loss": 0.1753, |
| "step": 14810 |
| }, |
| { |
| "epoch": 0.247, |
| "grad_norm": 50.25, |
| "learning_rate": 1.746744799367069e-05, |
| "loss": 0.1576, |
| "step": 14820 |
| }, |
| { |
| "epoch": 0.24716666666666667, |
| "grad_norm": 17.875, |
| "learning_rate": 1.7463893345022067e-05, |
| "loss": 0.1888, |
| "step": 14830 |
| }, |
| { |
| "epoch": 0.24733333333333332, |
| "grad_norm": 14.5, |
| "learning_rate": 1.7460336565731325e-05, |
| "loss": 0.1875, |
| "step": 14840 |
| }, |
| { |
| "epoch": 0.2475, |
| "grad_norm": 25.125, |
| "learning_rate": 1.7456777656813778e-05, |
| "loss": 0.2131, |
| "step": 14850 |
| }, |
| { |
| "epoch": 0.24766666666666667, |
| "grad_norm": 9.6875, |
| "learning_rate": 1.745321661928536e-05, |
| "loss": 0.1568, |
| "step": 14860 |
| }, |
| { |
| "epoch": 0.24783333333333332, |
| "grad_norm": 19.125, |
| "learning_rate": 1.7449653454162598e-05, |
| "loss": 0.1807, |
| "step": 14870 |
| }, |
| { |
| "epoch": 0.248, |
| "grad_norm": 15.1875, |
| "learning_rate": 1.7446088162462636e-05, |
| "loss": 0.1808, |
| "step": 14880 |
| }, |
| { |
| "epoch": 0.24816666666666667, |
| "grad_norm": 28.0, |
| "learning_rate": 1.744252074520322e-05, |
| "loss": 0.1692, |
| "step": 14890 |
| }, |
| { |
| "epoch": 0.24833333333333332, |
| "grad_norm": 13.3125, |
| "learning_rate": 1.743895120340271e-05, |
| "loss": 0.1857, |
| "step": 14900 |
| }, |
| { |
| "epoch": 0.2485, |
| "grad_norm": 15.625, |
| "learning_rate": 1.7435379538080057e-05, |
| "loss": 0.1811, |
| "step": 14910 |
| }, |
| { |
| "epoch": 0.24866666666666667, |
| "grad_norm": 23.75, |
| "learning_rate": 1.7431805750254837e-05, |
| "loss": 0.1821, |
| "step": 14920 |
| }, |
| { |
| "epoch": 0.24883333333333332, |
| "grad_norm": 36.0, |
| "learning_rate": 1.742822984094722e-05, |
| "loss": 0.1822, |
| "step": 14930 |
| }, |
| { |
| "epoch": 0.249, |
| "grad_norm": 23.5, |
| "learning_rate": 1.742465181117798e-05, |
| "loss": 0.1709, |
| "step": 14940 |
| }, |
| { |
| "epoch": 0.24916666666666668, |
| "grad_norm": 32.5, |
| "learning_rate": 1.742107166196851e-05, |
| "loss": 0.1921, |
| "step": 14950 |
| }, |
| { |
| "epoch": 0.24933333333333332, |
| "grad_norm": 22.5, |
| "learning_rate": 1.7417489394340794e-05, |
| "loss": 0.1711, |
| "step": 14960 |
| }, |
| { |
| "epoch": 0.2495, |
| "grad_norm": 15.625, |
| "learning_rate": 1.7413905009317423e-05, |
| "loss": 0.184, |
| "step": 14970 |
| }, |
| { |
| "epoch": 0.24966666666666668, |
| "grad_norm": 10.375, |
| "learning_rate": 1.74103185079216e-05, |
| "loss": 0.1856, |
| "step": 14980 |
| }, |
| { |
| "epoch": 0.24983333333333332, |
| "grad_norm": 6.5625, |
| "learning_rate": 1.7406729891177126e-05, |
| "loss": 0.1787, |
| "step": 14990 |
| }, |
| { |
| "epoch": 0.25, |
| "grad_norm": 21.625, |
| "learning_rate": 1.7403139160108403e-05, |
| "loss": 0.1677, |
| "step": 15000 |
| }, |
| { |
| "epoch": 0.25016666666666665, |
| "grad_norm": 13.875, |
| "learning_rate": 1.7399546315740446e-05, |
| "loss": 0.1959, |
| "step": 15010 |
| }, |
| { |
| "epoch": 0.25033333333333335, |
| "grad_norm": 2.109375, |
| "learning_rate": 1.739595135909887e-05, |
| "loss": 0.1837, |
| "step": 15020 |
| }, |
| { |
| "epoch": 0.2505, |
| "grad_norm": 13.75, |
| "learning_rate": 1.7392354291209884e-05, |
| "loss": 0.1777, |
| "step": 15030 |
| }, |
| { |
| "epoch": 0.25066666666666665, |
| "grad_norm": 20.875, |
| "learning_rate": 1.738875511310031e-05, |
| "loss": 0.1887, |
| "step": 15040 |
| }, |
| { |
| "epoch": 0.25083333333333335, |
| "grad_norm": 33.25, |
| "learning_rate": 1.738515382579757e-05, |
| "loss": 0.1686, |
| "step": 15050 |
| }, |
| { |
| "epoch": 0.251, |
| "grad_norm": 7.59375, |
| "learning_rate": 1.7381550430329684e-05, |
| "loss": 0.1768, |
| "step": 15060 |
| }, |
| { |
| "epoch": 0.25116666666666665, |
| "grad_norm": 30.625, |
| "learning_rate": 1.7377944927725275e-05, |
| "loss": 0.1654, |
| "step": 15070 |
| }, |
| { |
| "epoch": 0.25133333333333335, |
| "grad_norm": 17.5, |
| "learning_rate": 1.7374337319013576e-05, |
| "loss": 0.1966, |
| "step": 15080 |
| }, |
| { |
| "epoch": 0.2515, |
| "grad_norm": 39.5, |
| "learning_rate": 1.7370727605224414e-05, |
| "loss": 0.2022, |
| "step": 15090 |
| }, |
| { |
| "epoch": 0.25166666666666665, |
| "grad_norm": 39.75, |
| "learning_rate": 1.736711578738821e-05, |
| "loss": 0.1857, |
| "step": 15100 |
| }, |
| { |
| "epoch": 0.25183333333333335, |
| "grad_norm": 15.6875, |
| "learning_rate": 1.7363501866536003e-05, |
| "loss": 0.1777, |
| "step": 15110 |
| }, |
| { |
| "epoch": 0.252, |
| "grad_norm": 10.625, |
| "learning_rate": 1.7359885843699417e-05, |
| "loss": 0.1903, |
| "step": 15120 |
| }, |
| { |
| "epoch": 0.25216666666666665, |
| "grad_norm": 14.5625, |
| "learning_rate": 1.7356267719910674e-05, |
| "loss": 0.1767, |
| "step": 15130 |
| }, |
| { |
| "epoch": 0.25233333333333335, |
| "grad_norm": 9.0, |
| "learning_rate": 1.735264749620262e-05, |
| "loss": 0.1538, |
| "step": 15140 |
| }, |
| { |
| "epoch": 0.2525, |
| "grad_norm": 10.1875, |
| "learning_rate": 1.734902517360867e-05, |
| "loss": 0.1537, |
| "step": 15150 |
| }, |
| { |
| "epoch": 0.25266666666666665, |
| "grad_norm": 65.0, |
| "learning_rate": 1.7345400753162857e-05, |
| "loss": 0.1576, |
| "step": 15160 |
| }, |
| { |
| "epoch": 0.25283333333333335, |
| "grad_norm": 13.375, |
| "learning_rate": 1.734177423589981e-05, |
| "loss": 0.1827, |
| "step": 15170 |
| }, |
| { |
| "epoch": 0.253, |
| "grad_norm": 10.875, |
| "learning_rate": 1.733814562285475e-05, |
| "loss": 0.1608, |
| "step": 15180 |
| }, |
| { |
| "epoch": 0.25316666666666665, |
| "grad_norm": 41.25, |
| "learning_rate": 1.73345149150635e-05, |
| "loss": 0.179, |
| "step": 15190 |
| }, |
| { |
| "epoch": 0.25333333333333335, |
| "grad_norm": 24.625, |
| "learning_rate": 1.7330882113562484e-05, |
| "loss": 0.1915, |
| "step": 15200 |
| }, |
| { |
| "epoch": 0.2535, |
| "grad_norm": 6.0, |
| "learning_rate": 1.732724721938872e-05, |
| "loss": 0.2065, |
| "step": 15210 |
| }, |
| { |
| "epoch": 0.25366666666666665, |
| "grad_norm": 50.75, |
| "learning_rate": 1.7323610233579823e-05, |
| "loss": 0.2062, |
| "step": 15220 |
| }, |
| { |
| "epoch": 0.25383333333333336, |
| "grad_norm": 74.0, |
| "learning_rate": 1.731997115717401e-05, |
| "loss": 0.1751, |
| "step": 15230 |
| }, |
| { |
| "epoch": 0.254, |
| "grad_norm": 2.203125, |
| "learning_rate": 1.731632999121009e-05, |
| "loss": 0.1992, |
| "step": 15240 |
| }, |
| { |
| "epoch": 0.25416666666666665, |
| "grad_norm": 36.75, |
| "learning_rate": 1.731268673672747e-05, |
| "loss": 0.1808, |
| "step": 15250 |
| }, |
| { |
| "epoch": 0.25433333333333336, |
| "grad_norm": 35.0, |
| "learning_rate": 1.730904139476615e-05, |
| "loss": 0.1549, |
| "step": 15260 |
| }, |
| { |
| "epoch": 0.2545, |
| "grad_norm": 2.359375, |
| "learning_rate": 1.7305393966366733e-05, |
| "loss": 0.1634, |
| "step": 15270 |
| }, |
| { |
| "epoch": 0.25466666666666665, |
| "grad_norm": 35.5, |
| "learning_rate": 1.7301744452570413e-05, |
| "loss": 0.2114, |
| "step": 15280 |
| }, |
| { |
| "epoch": 0.25483333333333336, |
| "grad_norm": 15.8125, |
| "learning_rate": 1.7298092854418977e-05, |
| "loss": 0.1803, |
| "step": 15290 |
| }, |
| { |
| "epoch": 0.255, |
| "grad_norm": 1.8125, |
| "learning_rate": 1.729443917295481e-05, |
| "loss": 0.1743, |
| "step": 15300 |
| }, |
| { |
| "epoch": 0.25516666666666665, |
| "grad_norm": 22.375, |
| "learning_rate": 1.7290783409220896e-05, |
| "loss": 0.1563, |
| "step": 15310 |
| }, |
| { |
| "epoch": 0.25533333333333336, |
| "grad_norm": 50.75, |
| "learning_rate": 1.7287125564260804e-05, |
| "loss": 0.1893, |
| "step": 15320 |
| }, |
| { |
| "epoch": 0.2555, |
| "grad_norm": 8.625, |
| "learning_rate": 1.72834656391187e-05, |
| "loss": 0.1791, |
| "step": 15330 |
| }, |
| { |
| "epoch": 0.25566666666666665, |
| "grad_norm": 16.5, |
| "learning_rate": 1.7279803634839354e-05, |
| "loss": 0.1684, |
| "step": 15340 |
| }, |
| { |
| "epoch": 0.25583333333333336, |
| "grad_norm": 13.5625, |
| "learning_rate": 1.7276139552468114e-05, |
| "loss": 0.1875, |
| "step": 15350 |
| }, |
| { |
| "epoch": 0.256, |
| "grad_norm": 2.046875, |
| "learning_rate": 1.7272473393050932e-05, |
| "loss": 0.1953, |
| "step": 15360 |
| }, |
| { |
| "epoch": 0.25616666666666665, |
| "grad_norm": 48.75, |
| "learning_rate": 1.7268805157634353e-05, |
| "loss": 0.1773, |
| "step": 15370 |
| }, |
| { |
| "epoch": 0.25633333333333336, |
| "grad_norm": 57.5, |
| "learning_rate": 1.72651348472655e-05, |
| "loss": 0.1883, |
| "step": 15380 |
| }, |
| { |
| "epoch": 0.2565, |
| "grad_norm": 16.25, |
| "learning_rate": 1.7261462462992112e-05, |
| "loss": 0.1936, |
| "step": 15390 |
| }, |
| { |
| "epoch": 0.25666666666666665, |
| "grad_norm": 27.75, |
| "learning_rate": 1.7257788005862498e-05, |
| "loss": 0.1868, |
| "step": 15400 |
| }, |
| { |
| "epoch": 0.25683333333333336, |
| "grad_norm": 14.625, |
| "learning_rate": 1.7254111476925572e-05, |
| "loss": 0.2063, |
| "step": 15410 |
| }, |
| { |
| "epoch": 0.257, |
| "grad_norm": 34.0, |
| "learning_rate": 1.7250432877230835e-05, |
| "loss": 0.1718, |
| "step": 15420 |
| }, |
| { |
| "epoch": 0.25716666666666665, |
| "grad_norm": 25.875, |
| "learning_rate": 1.724675220782838e-05, |
| "loss": 0.1825, |
| "step": 15430 |
| }, |
| { |
| "epoch": 0.25733333333333336, |
| "grad_norm": 29.375, |
| "learning_rate": 1.724306946976889e-05, |
| "loss": 0.1789, |
| "step": 15440 |
| }, |
| { |
| "epoch": 0.2575, |
| "grad_norm": 34.25, |
| "learning_rate": 1.7239384664103642e-05, |
| "loss": 0.1701, |
| "step": 15450 |
| }, |
| { |
| "epoch": 0.25766666666666665, |
| "grad_norm": 27.375, |
| "learning_rate": 1.7235697791884492e-05, |
| "loss": 0.1671, |
| "step": 15460 |
| }, |
| { |
| "epoch": 0.25783333333333336, |
| "grad_norm": 22.25, |
| "learning_rate": 1.7232008854163903e-05, |
| "loss": 0.167, |
| "step": 15470 |
| }, |
| { |
| "epoch": 0.258, |
| "grad_norm": 20.125, |
| "learning_rate": 1.722831785199492e-05, |
| "loss": 0.1941, |
| "step": 15480 |
| }, |
| { |
| "epoch": 0.25816666666666666, |
| "grad_norm": 14.1875, |
| "learning_rate": 1.7224624786431165e-05, |
| "loss": 0.1916, |
| "step": 15490 |
| }, |
| { |
| "epoch": 0.25833333333333336, |
| "grad_norm": 9.375, |
| "learning_rate": 1.722092965852687e-05, |
| "loss": 0.1797, |
| "step": 15500 |
| }, |
| { |
| "epoch": 0.2585, |
| "grad_norm": 3.625, |
| "learning_rate": 1.721723246933684e-05, |
| "loss": 0.1954, |
| "step": 15510 |
| }, |
| { |
| "epoch": 0.25866666666666666, |
| "grad_norm": 20.25, |
| "learning_rate": 1.7213533219916473e-05, |
| "loss": 0.1777, |
| "step": 15520 |
| }, |
| { |
| "epoch": 0.25883333333333336, |
| "grad_norm": 45.25, |
| "learning_rate": 1.7209831911321763e-05, |
| "loss": 0.1854, |
| "step": 15530 |
| }, |
| { |
| "epoch": 0.259, |
| "grad_norm": 16.0, |
| "learning_rate": 1.720612854460928e-05, |
| "loss": 0.2053, |
| "step": 15540 |
| }, |
| { |
| "epoch": 0.25916666666666666, |
| "grad_norm": 35.25, |
| "learning_rate": 1.7202423120836188e-05, |
| "loss": 0.1835, |
| "step": 15550 |
| }, |
| { |
| "epoch": 0.25933333333333336, |
| "grad_norm": 50.75, |
| "learning_rate": 1.7198715641060243e-05, |
| "loss": 0.1862, |
| "step": 15560 |
| }, |
| { |
| "epoch": 0.2595, |
| "grad_norm": 18.5, |
| "learning_rate": 1.7195006106339772e-05, |
| "loss": 0.1766, |
| "step": 15570 |
| }, |
| { |
| "epoch": 0.25966666666666666, |
| "grad_norm": 21.0, |
| "learning_rate": 1.71912945177337e-05, |
| "loss": 0.1732, |
| "step": 15580 |
| }, |
| { |
| "epoch": 0.25983333333333336, |
| "grad_norm": 29.625, |
| "learning_rate": 1.718758087630154e-05, |
| "loss": 0.185, |
| "step": 15590 |
| }, |
| { |
| "epoch": 0.26, |
| "grad_norm": 12.375, |
| "learning_rate": 1.718386518310339e-05, |
| "loss": 0.1704, |
| "step": 15600 |
| }, |
| { |
| "epoch": 0.26016666666666666, |
| "grad_norm": 15.875, |
| "learning_rate": 1.7180147439199926e-05, |
| "loss": 0.1827, |
| "step": 15610 |
| }, |
| { |
| "epoch": 0.26033333333333336, |
| "grad_norm": 14.0625, |
| "learning_rate": 1.7176427645652417e-05, |
| "loss": 0.1711, |
| "step": 15620 |
| }, |
| { |
| "epoch": 0.2605, |
| "grad_norm": 6.125, |
| "learning_rate": 1.7172705803522714e-05, |
| "loss": 0.1591, |
| "step": 15630 |
| }, |
| { |
| "epoch": 0.26066666666666666, |
| "grad_norm": 4.28125, |
| "learning_rate": 1.7168981913873255e-05, |
| "loss": 0.1881, |
| "step": 15640 |
| }, |
| { |
| "epoch": 0.2608333333333333, |
| "grad_norm": 12.875, |
| "learning_rate": 1.7165255977767058e-05, |
| "loss": 0.2116, |
| "step": 15650 |
| }, |
| { |
| "epoch": 0.261, |
| "grad_norm": 12.875, |
| "learning_rate": 1.7161527996267734e-05, |
| "loss": 0.1736, |
| "step": 15660 |
| }, |
| { |
| "epoch": 0.26116666666666666, |
| "grad_norm": 28.25, |
| "learning_rate": 1.7157797970439466e-05, |
| "loss": 0.1885, |
| "step": 15670 |
| }, |
| { |
| "epoch": 0.2613333333333333, |
| "grad_norm": 33.5, |
| "learning_rate": 1.7154065901347027e-05, |
| "loss": 0.1611, |
| "step": 15680 |
| }, |
| { |
| "epoch": 0.2615, |
| "grad_norm": 13.75, |
| "learning_rate": 1.715033179005578e-05, |
| "loss": 0.1754, |
| "step": 15690 |
| }, |
| { |
| "epoch": 0.26166666666666666, |
| "grad_norm": 24.125, |
| "learning_rate": 1.7146595637631657e-05, |
| "loss": 0.1796, |
| "step": 15700 |
| }, |
| { |
| "epoch": 0.2618333333333333, |
| "grad_norm": 27.125, |
| "learning_rate": 1.7142857445141185e-05, |
| "loss": 0.1668, |
| "step": 15710 |
| }, |
| { |
| "epoch": 0.262, |
| "grad_norm": 21.0, |
| "learning_rate": 1.713911721365146e-05, |
| "loss": 0.1882, |
| "step": 15720 |
| }, |
| { |
| "epoch": 0.26216666666666666, |
| "grad_norm": 59.25, |
| "learning_rate": 1.713537494423018e-05, |
| "loss": 0.1781, |
| "step": 15730 |
| }, |
| { |
| "epoch": 0.2623333333333333, |
| "grad_norm": 24.875, |
| "learning_rate": 1.71316306379456e-05, |
| "loss": 0.162, |
| "step": 15740 |
| }, |
| { |
| "epoch": 0.2625, |
| "grad_norm": 18.125, |
| "learning_rate": 1.7127884295866578e-05, |
| "loss": 0.1857, |
| "step": 15750 |
| }, |
| { |
| "epoch": 0.26266666666666666, |
| "grad_norm": 18.125, |
| "learning_rate": 1.712413591906254e-05, |
| "loss": 0.1778, |
| "step": 15760 |
| }, |
| { |
| "epoch": 0.2628333333333333, |
| "grad_norm": 35.0, |
| "learning_rate": 1.7120385508603497e-05, |
| "loss": 0.1532, |
| "step": 15770 |
| }, |
| { |
| "epoch": 0.263, |
| "grad_norm": 22.625, |
| "learning_rate": 1.7116633065560043e-05, |
| "loss": 0.1772, |
| "step": 15780 |
| }, |
| { |
| "epoch": 0.26316666666666666, |
| "grad_norm": 31.5, |
| "learning_rate": 1.711287859100335e-05, |
| "loss": 0.17, |
| "step": 15790 |
| }, |
| { |
| "epoch": 0.2633333333333333, |
| "grad_norm": 58.75, |
| "learning_rate": 1.7109122086005173e-05, |
| "loss": 0.1715, |
| "step": 15800 |
| }, |
| { |
| "epoch": 0.2635, |
| "grad_norm": 17.25, |
| "learning_rate": 1.7105363551637836e-05, |
| "loss": 0.1689, |
| "step": 15810 |
| }, |
| { |
| "epoch": 0.26366666666666666, |
| "grad_norm": 24.75, |
| "learning_rate": 1.7101602988974254e-05, |
| "loss": 0.1731, |
| "step": 15820 |
| }, |
| { |
| "epoch": 0.2638333333333333, |
| "grad_norm": 9.625, |
| "learning_rate": 1.7097840399087915e-05, |
| "loss": 0.1675, |
| "step": 15830 |
| }, |
| { |
| "epoch": 0.264, |
| "grad_norm": 14.125, |
| "learning_rate": 1.709407578305289e-05, |
| "loss": 0.1771, |
| "step": 15840 |
| }, |
| { |
| "epoch": 0.26416666666666666, |
| "grad_norm": 12.875, |
| "learning_rate": 1.7090309141943822e-05, |
| "loss": 0.1996, |
| "step": 15850 |
| }, |
| { |
| "epoch": 0.2643333333333333, |
| "grad_norm": 30.0, |
| "learning_rate": 1.7086540476835943e-05, |
| "loss": 0.1957, |
| "step": 15860 |
| }, |
| { |
| "epoch": 0.2645, |
| "grad_norm": 42.0, |
| "learning_rate": 1.708276978880505e-05, |
| "loss": 0.1514, |
| "step": 15870 |
| }, |
| { |
| "epoch": 0.26466666666666666, |
| "grad_norm": 24.875, |
| "learning_rate": 1.707899707892752e-05, |
| "loss": 0.1874, |
| "step": 15880 |
| }, |
| { |
| "epoch": 0.2648333333333333, |
| "grad_norm": 11.0625, |
| "learning_rate": 1.707522234828032e-05, |
| "loss": 0.1918, |
| "step": 15890 |
| }, |
| { |
| "epoch": 0.265, |
| "grad_norm": 14.3125, |
| "learning_rate": 1.7071445597940978e-05, |
| "loss": 0.1753, |
| "step": 15900 |
| }, |
| { |
| "epoch": 0.26516666666666666, |
| "grad_norm": 41.25, |
| "learning_rate": 1.7067666828987604e-05, |
| "loss": 0.1825, |
| "step": 15910 |
| }, |
| { |
| "epoch": 0.2653333333333333, |
| "grad_norm": 9.1875, |
| "learning_rate": 1.7063886042498885e-05, |
| "loss": 0.1844, |
| "step": 15920 |
| }, |
| { |
| "epoch": 0.2655, |
| "grad_norm": 42.0, |
| "learning_rate": 1.7060103239554088e-05, |
| "loss": 0.1957, |
| "step": 15930 |
| }, |
| { |
| "epoch": 0.26566666666666666, |
| "grad_norm": 66.5, |
| "learning_rate": 1.705631842123305e-05, |
| "loss": 0.1669, |
| "step": 15940 |
| }, |
| { |
| "epoch": 0.2658333333333333, |
| "grad_norm": 23.75, |
| "learning_rate": 1.7052531588616176e-05, |
| "loss": 0.2064, |
| "step": 15950 |
| }, |
| { |
| "epoch": 0.266, |
| "grad_norm": 18.625, |
| "learning_rate": 1.704874274278447e-05, |
| "loss": 0.1788, |
| "step": 15960 |
| }, |
| { |
| "epoch": 0.26616666666666666, |
| "grad_norm": 42.25, |
| "learning_rate": 1.7044951884819486e-05, |
| "loss": 0.1827, |
| "step": 15970 |
| }, |
| { |
| "epoch": 0.2663333333333333, |
| "grad_norm": 20.0, |
| "learning_rate": 1.7041159015803365e-05, |
| "loss": 0.1796, |
| "step": 15980 |
| }, |
| { |
| "epoch": 0.2665, |
| "grad_norm": 25.625, |
| "learning_rate": 1.7037364136818815e-05, |
| "loss": 0.2114, |
| "step": 15990 |
| }, |
| { |
| "epoch": 0.26666666666666666, |
| "grad_norm": 10.75, |
| "learning_rate": 1.7033567248949125e-05, |
| "loss": 0.1603, |
| "step": 16000 |
| }, |
| { |
| "epoch": 0.2668333333333333, |
| "grad_norm": 48.25, |
| "learning_rate": 1.7029768353278157e-05, |
| "loss": 0.1726, |
| "step": 16010 |
| }, |
| { |
| "epoch": 0.267, |
| "grad_norm": 24.0, |
| "learning_rate": 1.7025967450890335e-05, |
| "loss": 0.1718, |
| "step": 16020 |
| }, |
| { |
| "epoch": 0.26716666666666666, |
| "grad_norm": 13.75, |
| "learning_rate": 1.7022164542870673e-05, |
| "loss": 0.1658, |
| "step": 16030 |
| }, |
| { |
| "epoch": 0.2673333333333333, |
| "grad_norm": 25.625, |
| "learning_rate": 1.7018359630304742e-05, |
| "loss": 0.2001, |
| "step": 16040 |
| }, |
| { |
| "epoch": 0.2675, |
| "grad_norm": 36.5, |
| "learning_rate": 1.7014552714278693e-05, |
| "loss": 0.19, |
| "step": 16050 |
| }, |
| { |
| "epoch": 0.26766666666666666, |
| "grad_norm": 6.40625, |
| "learning_rate": 1.7010743795879256e-05, |
| "loss": 0.1622, |
| "step": 16060 |
| }, |
| { |
| "epoch": 0.2678333333333333, |
| "grad_norm": 40.75, |
| "learning_rate": 1.7006932876193712e-05, |
| "loss": 0.1751, |
| "step": 16070 |
| }, |
| { |
| "epoch": 0.268, |
| "grad_norm": 17.125, |
| "learning_rate": 1.700311995630993e-05, |
| "loss": 0.1726, |
| "step": 16080 |
| }, |
| { |
| "epoch": 0.26816666666666666, |
| "grad_norm": 4.9375, |
| "learning_rate": 1.6999305037316354e-05, |
| "loss": 0.1663, |
| "step": 16090 |
| }, |
| { |
| "epoch": 0.2683333333333333, |
| "grad_norm": 27.375, |
| "learning_rate": 1.699548812030198e-05, |
| "loss": 0.1969, |
| "step": 16100 |
| }, |
| { |
| "epoch": 0.2685, |
| "grad_norm": 11.25, |
| "learning_rate": 1.6991669206356386e-05, |
| "loss": 0.153, |
| "step": 16110 |
| }, |
| { |
| "epoch": 0.26866666666666666, |
| "grad_norm": 14.25, |
| "learning_rate": 1.6987848296569723e-05, |
| "loss": 0.1713, |
| "step": 16120 |
| }, |
| { |
| "epoch": 0.2688333333333333, |
| "grad_norm": 15.25, |
| "learning_rate": 1.6984025392032707e-05, |
| "loss": 0.232, |
| "step": 16130 |
| }, |
| { |
| "epoch": 0.269, |
| "grad_norm": 24.125, |
| "learning_rate": 1.698020049383662e-05, |
| "loss": 0.1751, |
| "step": 16140 |
| }, |
| { |
| "epoch": 0.26916666666666667, |
| "grad_norm": 15.375, |
| "learning_rate": 1.6976373603073318e-05, |
| "loss": 0.1958, |
| "step": 16150 |
| }, |
| { |
| "epoch": 0.2693333333333333, |
| "grad_norm": 30.75, |
| "learning_rate": 1.697254472083523e-05, |
| "loss": 0.1794, |
| "step": 16160 |
| }, |
| { |
| "epoch": 0.2695, |
| "grad_norm": 33.5, |
| "learning_rate": 1.6968713848215342e-05, |
| "loss": 0.183, |
| "step": 16170 |
| }, |
| { |
| "epoch": 0.26966666666666667, |
| "grad_norm": 35.0, |
| "learning_rate": 1.6964880986307217e-05, |
| "loss": 0.1627, |
| "step": 16180 |
| }, |
| { |
| "epoch": 0.2698333333333333, |
| "grad_norm": 3.984375, |
| "learning_rate": 1.6961046136204983e-05, |
| "loss": 0.2235, |
| "step": 16190 |
| }, |
| { |
| "epoch": 0.27, |
| "grad_norm": 10.25, |
| "learning_rate": 1.6957209299003334e-05, |
| "loss": 0.1774, |
| "step": 16200 |
| }, |
| { |
| "epoch": 0.27016666666666667, |
| "grad_norm": 35.25, |
| "learning_rate": 1.695337047579754e-05, |
| "loss": 0.1898, |
| "step": 16210 |
| }, |
| { |
| "epoch": 0.2703333333333333, |
| "grad_norm": 13.75, |
| "learning_rate": 1.694952966768342e-05, |
| "loss": 0.1747, |
| "step": 16220 |
| }, |
| { |
| "epoch": 0.2705, |
| "grad_norm": 36.5, |
| "learning_rate": 1.694568687575738e-05, |
| "loss": 0.1811, |
| "step": 16230 |
| }, |
| { |
| "epoch": 0.27066666666666667, |
| "grad_norm": 30.25, |
| "learning_rate": 1.694184210111638e-05, |
| "loss": 0.1866, |
| "step": 16240 |
| }, |
| { |
| "epoch": 0.2708333333333333, |
| "grad_norm": 59.5, |
| "learning_rate": 1.6937995344857947e-05, |
| "loss": 0.1585, |
| "step": 16250 |
| }, |
| { |
| "epoch": 0.271, |
| "grad_norm": 31.5, |
| "learning_rate": 1.693414660808018e-05, |
| "loss": 0.1893, |
| "step": 16260 |
| }, |
| { |
| "epoch": 0.27116666666666667, |
| "grad_norm": 14.8125, |
| "learning_rate": 1.693029589188173e-05, |
| "loss": 0.1998, |
| "step": 16270 |
| }, |
| { |
| "epoch": 0.2713333333333333, |
| "grad_norm": 19.25, |
| "learning_rate": 1.6926443197361833e-05, |
| "loss": 0.1702, |
| "step": 16280 |
| }, |
| { |
| "epoch": 0.2715, |
| "grad_norm": 9.5625, |
| "learning_rate": 1.6922588525620275e-05, |
| "loss": 0.1996, |
| "step": 16290 |
| }, |
| { |
| "epoch": 0.27166666666666667, |
| "grad_norm": 11.0625, |
| "learning_rate": 1.6918731877757407e-05, |
| "loss": 0.1676, |
| "step": 16300 |
| }, |
| { |
| "epoch": 0.2718333333333333, |
| "grad_norm": 21.375, |
| "learning_rate": 1.6914873254874148e-05, |
| "loss": 0.1895, |
| "step": 16310 |
| }, |
| { |
| "epoch": 0.272, |
| "grad_norm": 8.875, |
| "learning_rate": 1.6911012658071983e-05, |
| "loss": 0.1758, |
| "step": 16320 |
| }, |
| { |
| "epoch": 0.27216666666666667, |
| "grad_norm": 16.5, |
| "learning_rate": 1.6907150088452953e-05, |
| "loss": 0.1718, |
| "step": 16330 |
| }, |
| { |
| "epoch": 0.2723333333333333, |
| "grad_norm": 1.4140625, |
| "learning_rate": 1.6903285547119672e-05, |
| "loss": 0.188, |
| "step": 16340 |
| }, |
| { |
| "epoch": 0.2725, |
| "grad_norm": 22.5, |
| "learning_rate": 1.6899419035175308e-05, |
| "loss": 0.1796, |
| "step": 16350 |
| }, |
| { |
| "epoch": 0.27266666666666667, |
| "grad_norm": 7.125, |
| "learning_rate": 1.6895550553723596e-05, |
| "loss": 0.1667, |
| "step": 16360 |
| }, |
| { |
| "epoch": 0.2728333333333333, |
| "grad_norm": 23.5, |
| "learning_rate": 1.689168010386883e-05, |
| "loss": 0.2059, |
| "step": 16370 |
| }, |
| { |
| "epoch": 0.273, |
| "grad_norm": 20.0, |
| "learning_rate": 1.6887807686715872e-05, |
| "loss": 0.1812, |
| "step": 16380 |
| }, |
| { |
| "epoch": 0.27316666666666667, |
| "grad_norm": 17.5, |
| "learning_rate": 1.6883933303370142e-05, |
| "loss": 0.1783, |
| "step": 16390 |
| }, |
| { |
| "epoch": 0.2733333333333333, |
| "grad_norm": 45.75, |
| "learning_rate": 1.6880056954937617e-05, |
| "loss": 0.1562, |
| "step": 16400 |
| }, |
| { |
| "epoch": 0.2735, |
| "grad_norm": 33.0, |
| "learning_rate": 1.6876178642524844e-05, |
| "loss": 0.1923, |
| "step": 16410 |
| }, |
| { |
| "epoch": 0.27366666666666667, |
| "grad_norm": 21.625, |
| "learning_rate": 1.687229836723892e-05, |
| "loss": 0.1852, |
| "step": 16420 |
| }, |
| { |
| "epoch": 0.2738333333333333, |
| "grad_norm": 31.375, |
| "learning_rate": 1.686841613018751e-05, |
| "loss": 0.1869, |
| "step": 16430 |
| }, |
| { |
| "epoch": 0.274, |
| "grad_norm": 22.0, |
| "learning_rate": 1.6864531932478838e-05, |
| "loss": 0.1605, |
| "step": 16440 |
| }, |
| { |
| "epoch": 0.27416666666666667, |
| "grad_norm": 56.0, |
| "learning_rate": 1.686064577522169e-05, |
| "loss": 0.1974, |
| "step": 16450 |
| }, |
| { |
| "epoch": 0.2743333333333333, |
| "grad_norm": 6.5, |
| "learning_rate": 1.68567576595254e-05, |
| "loss": 0.1868, |
| "step": 16460 |
| }, |
| { |
| "epoch": 0.2745, |
| "grad_norm": 8.0, |
| "learning_rate": 1.6852867586499872e-05, |
| "loss": 0.1744, |
| "step": 16470 |
| }, |
| { |
| "epoch": 0.27466666666666667, |
| "grad_norm": 29.125, |
| "learning_rate": 1.6848975557255572e-05, |
| "loss": 0.2295, |
| "step": 16480 |
| }, |
| { |
| "epoch": 0.2748333333333333, |
| "grad_norm": 28.25, |
| "learning_rate": 1.6845081572903508e-05, |
| "loss": 0.1738, |
| "step": 16490 |
| }, |
| { |
| "epoch": 0.275, |
| "grad_norm": 11.25, |
| "learning_rate": 1.6841185634555267e-05, |
| "loss": 0.1732, |
| "step": 16500 |
| }, |
| { |
| "epoch": 0.27516666666666667, |
| "grad_norm": 17.625, |
| "learning_rate": 1.6837287743322975e-05, |
| "loss": 0.2069, |
| "step": 16510 |
| }, |
| { |
| "epoch": 0.2753333333333333, |
| "grad_norm": 26.5, |
| "learning_rate": 1.6833387900319324e-05, |
| "loss": 0.1924, |
| "step": 16520 |
| }, |
| { |
| "epoch": 0.2755, |
| "grad_norm": 49.0, |
| "learning_rate": 1.6829486106657566e-05, |
| "loss": 0.1762, |
| "step": 16530 |
| }, |
| { |
| "epoch": 0.27566666666666667, |
| "grad_norm": 26.375, |
| "learning_rate": 1.682558236345151e-05, |
| "loss": 0.183, |
| "step": 16540 |
| }, |
| { |
| "epoch": 0.2758333333333333, |
| "grad_norm": 22.75, |
| "learning_rate": 1.6821676671815508e-05, |
| "loss": 0.199, |
| "step": 16550 |
| }, |
| { |
| "epoch": 0.276, |
| "grad_norm": 56.5, |
| "learning_rate": 1.6817769032864484e-05, |
| "loss": 0.1889, |
| "step": 16560 |
| }, |
| { |
| "epoch": 0.27616666666666667, |
| "grad_norm": 81.5, |
| "learning_rate": 1.6813859447713918e-05, |
| "loss": 0.1737, |
| "step": 16570 |
| }, |
| { |
| "epoch": 0.2763333333333333, |
| "grad_norm": 23.375, |
| "learning_rate": 1.6809947917479825e-05, |
| "loss": 0.2035, |
| "step": 16580 |
| }, |
| { |
| "epoch": 0.2765, |
| "grad_norm": 10.875, |
| "learning_rate": 1.6806034443278804e-05, |
| "loss": 0.1926, |
| "step": 16590 |
| }, |
| { |
| "epoch": 0.27666666666666667, |
| "grad_norm": 11.6875, |
| "learning_rate": 1.680211902622799e-05, |
| "loss": 0.2105, |
| "step": 16600 |
| }, |
| { |
| "epoch": 0.2768333333333333, |
| "grad_norm": 18.75, |
| "learning_rate": 1.6798201667445077e-05, |
| "loss": 0.1555, |
| "step": 16610 |
| }, |
| { |
| "epoch": 0.277, |
| "grad_norm": 11.6875, |
| "learning_rate": 1.679428236804831e-05, |
| "loss": 0.1909, |
| "step": 16620 |
| }, |
| { |
| "epoch": 0.2771666666666667, |
| "grad_norm": 21.5, |
| "learning_rate": 1.67903611291565e-05, |
| "loss": 0.174, |
| "step": 16630 |
| }, |
| { |
| "epoch": 0.2773333333333333, |
| "grad_norm": 43.25, |
| "learning_rate": 1.6786437951889e-05, |
| "loss": 0.186, |
| "step": 16640 |
| }, |
| { |
| "epoch": 0.2775, |
| "grad_norm": 23.75, |
| "learning_rate": 1.6782512837365713e-05, |
| "loss": 0.1754, |
| "step": 16650 |
| }, |
| { |
| "epoch": 0.2776666666666667, |
| "grad_norm": 39.25, |
| "learning_rate": 1.677858578670711e-05, |
| "loss": 0.1968, |
| "step": 16660 |
| }, |
| { |
| "epoch": 0.2778333333333333, |
| "grad_norm": 11.0625, |
| "learning_rate": 1.6774656801034207e-05, |
| "loss": 0.1841, |
| "step": 16670 |
| }, |
| { |
| "epoch": 0.278, |
| "grad_norm": 29.375, |
| "learning_rate": 1.6770725881468567e-05, |
| "loss": 0.1867, |
| "step": 16680 |
| }, |
| { |
| "epoch": 0.2781666666666667, |
| "grad_norm": 70.5, |
| "learning_rate": 1.6766793029132307e-05, |
| "loss": 0.1642, |
| "step": 16690 |
| }, |
| { |
| "epoch": 0.2783333333333333, |
| "grad_norm": 30.5, |
| "learning_rate": 1.676285824514811e-05, |
| "loss": 0.1719, |
| "step": 16700 |
| }, |
| { |
| "epoch": 0.2785, |
| "grad_norm": 11.8125, |
| "learning_rate": 1.6758921530639186e-05, |
| "loss": 0.1484, |
| "step": 16710 |
| }, |
| { |
| "epoch": 0.2786666666666667, |
| "grad_norm": 12.5625, |
| "learning_rate": 1.6754982886729318e-05, |
| "loss": 0.1725, |
| "step": 16720 |
| }, |
| { |
| "epoch": 0.2788333333333333, |
| "grad_norm": 12.75, |
| "learning_rate": 1.6751042314542826e-05, |
| "loss": 0.1678, |
| "step": 16730 |
| }, |
| { |
| "epoch": 0.279, |
| "grad_norm": 20.875, |
| "learning_rate": 1.674709981520459e-05, |
| "loss": 0.1815, |
| "step": 16740 |
| }, |
| { |
| "epoch": 0.2791666666666667, |
| "grad_norm": 14.125, |
| "learning_rate": 1.6743155389840032e-05, |
| "loss": 0.1628, |
| "step": 16750 |
| }, |
| { |
| "epoch": 0.2793333333333333, |
| "grad_norm": 14.5, |
| "learning_rate": 1.673920903957513e-05, |
| "loss": 0.1758, |
| "step": 16760 |
| }, |
| { |
| "epoch": 0.2795, |
| "grad_norm": 27.625, |
| "learning_rate": 1.67352607655364e-05, |
| "loss": 0.2037, |
| "step": 16770 |
| }, |
| { |
| "epoch": 0.2796666666666667, |
| "grad_norm": 17.75, |
| "learning_rate": 1.673131056885093e-05, |
| "loss": 0.2179, |
| "step": 16780 |
| }, |
| { |
| "epoch": 0.2798333333333333, |
| "grad_norm": 15.25, |
| "learning_rate": 1.672735845064633e-05, |
| "loss": 0.1738, |
| "step": 16790 |
| }, |
| { |
| "epoch": 0.28, |
| "grad_norm": 38.0, |
| "learning_rate": 1.6723404412050776e-05, |
| "loss": 0.1826, |
| "step": 16800 |
| }, |
| { |
| "epoch": 0.2801666666666667, |
| "grad_norm": 11.875, |
| "learning_rate": 1.671944845419299e-05, |
| "loss": 0.1797, |
| "step": 16810 |
| }, |
| { |
| "epoch": 0.2803333333333333, |
| "grad_norm": 19.625, |
| "learning_rate": 1.6715490578202236e-05, |
| "loss": 0.2055, |
| "step": 16820 |
| }, |
| { |
| "epoch": 0.2805, |
| "grad_norm": 31.875, |
| "learning_rate": 1.6711530785208327e-05, |
| "loss": 0.171, |
| "step": 16830 |
| }, |
| { |
| "epoch": 0.2806666666666667, |
| "grad_norm": 7.5625, |
| "learning_rate": 1.670756907634163e-05, |
| "loss": 0.16, |
| "step": 16840 |
| }, |
| { |
| "epoch": 0.2808333333333333, |
| "grad_norm": 22.0, |
| "learning_rate": 1.6703605452733053e-05, |
| "loss": 0.1757, |
| "step": 16850 |
| }, |
| { |
| "epoch": 0.281, |
| "grad_norm": 10.375, |
| "learning_rate": 1.669963991551405e-05, |
| "loss": 0.1787, |
| "step": 16860 |
| }, |
| { |
| "epoch": 0.2811666666666667, |
| "grad_norm": 16.625, |
| "learning_rate": 1.669567246581662e-05, |
| "loss": 0.1799, |
| "step": 16870 |
| }, |
| { |
| "epoch": 0.2813333333333333, |
| "grad_norm": 16.875, |
| "learning_rate": 1.6691703104773317e-05, |
| "loss": 0.1844, |
| "step": 16880 |
| }, |
| { |
| "epoch": 0.2815, |
| "grad_norm": 31.25, |
| "learning_rate": 1.668773183351723e-05, |
| "loss": 0.2069, |
| "step": 16890 |
| }, |
| { |
| "epoch": 0.2816666666666667, |
| "grad_norm": 22.625, |
| "learning_rate": 1.6683758653182e-05, |
| "loss": 0.1754, |
| "step": 16900 |
| }, |
| { |
| "epoch": 0.2818333333333333, |
| "grad_norm": 18.875, |
| "learning_rate": 1.6679783564901806e-05, |
| "loss": 0.2008, |
| "step": 16910 |
| }, |
| { |
| "epoch": 0.282, |
| "grad_norm": 22.375, |
| "learning_rate": 1.6675806569811383e-05, |
| "loss": 0.2099, |
| "step": 16920 |
| }, |
| { |
| "epoch": 0.2821666666666667, |
| "grad_norm": 31.375, |
| "learning_rate": 1.6671827669045998e-05, |
| "loss": 0.1864, |
| "step": 16930 |
| }, |
| { |
| "epoch": 0.2823333333333333, |
| "grad_norm": 23.375, |
| "learning_rate": 1.666784686374147e-05, |
| "loss": 0.186, |
| "step": 16940 |
| }, |
| { |
| "epoch": 0.2825, |
| "grad_norm": 18.0, |
| "learning_rate": 1.666386415503416e-05, |
| "loss": 0.1998, |
| "step": 16950 |
| }, |
| { |
| "epoch": 0.2826666666666667, |
| "grad_norm": 33.0, |
| "learning_rate": 1.6659879544060967e-05, |
| "loss": 0.1868, |
| "step": 16960 |
| }, |
| { |
| "epoch": 0.2828333333333333, |
| "grad_norm": 26.125, |
| "learning_rate": 1.6655893031959344e-05, |
| "loss": 0.1794, |
| "step": 16970 |
| }, |
| { |
| "epoch": 0.283, |
| "grad_norm": 12.3125, |
| "learning_rate": 1.6651904619867276e-05, |
| "loss": 0.167, |
| "step": 16980 |
| }, |
| { |
| "epoch": 0.2831666666666667, |
| "grad_norm": 19.5, |
| "learning_rate": 1.6647914308923296e-05, |
| "loss": 0.1822, |
| "step": 16990 |
| }, |
| { |
| "epoch": 0.2833333333333333, |
| "grad_norm": 16.25, |
| "learning_rate": 1.664392210026648e-05, |
| "loss": 0.191, |
| "step": 17000 |
| }, |
| { |
| "epoch": 0.2835, |
| "grad_norm": 9.0, |
| "learning_rate": 1.6639927995036437e-05, |
| "loss": 0.1889, |
| "step": 17010 |
| }, |
| { |
| "epoch": 0.2836666666666667, |
| "grad_norm": 1.734375, |
| "learning_rate": 1.663593199437333e-05, |
| "loss": 0.1756, |
| "step": 17020 |
| }, |
| { |
| "epoch": 0.2838333333333333, |
| "grad_norm": 6.4375, |
| "learning_rate": 1.6631934099417855e-05, |
| "loss": 0.1896, |
| "step": 17030 |
| }, |
| { |
| "epoch": 0.284, |
| "grad_norm": 31.375, |
| "learning_rate": 1.662793431131125e-05, |
| "loss": 0.1808, |
| "step": 17040 |
| }, |
| { |
| "epoch": 0.2841666666666667, |
| "grad_norm": 25.75, |
| "learning_rate": 1.6623932631195294e-05, |
| "loss": 0.194, |
| "step": 17050 |
| }, |
| { |
| "epoch": 0.2843333333333333, |
| "grad_norm": 24.375, |
| "learning_rate": 1.661992906021231e-05, |
| "loss": 0.2064, |
| "step": 17060 |
| }, |
| { |
| "epoch": 0.2845, |
| "grad_norm": 21.875, |
| "learning_rate": 1.6615923599505147e-05, |
| "loss": 0.1667, |
| "step": 17070 |
| }, |
| { |
| "epoch": 0.2846666666666667, |
| "grad_norm": 2.125, |
| "learning_rate": 1.6611916250217212e-05, |
| "loss": 0.1833, |
| "step": 17080 |
| }, |
| { |
| "epoch": 0.2848333333333333, |
| "grad_norm": 21.5, |
| "learning_rate": 1.6607907013492442e-05, |
| "loss": 0.1701, |
| "step": 17090 |
| }, |
| { |
| "epoch": 0.285, |
| "grad_norm": 27.375, |
| "learning_rate": 1.660389589047531e-05, |
| "loss": 0.179, |
| "step": 17100 |
| }, |
| { |
| "epoch": 0.2851666666666667, |
| "grad_norm": 20.5, |
| "learning_rate": 1.6599882882310834e-05, |
| "loss": 0.1976, |
| "step": 17110 |
| }, |
| { |
| "epoch": 0.2853333333333333, |
| "grad_norm": 33.5, |
| "learning_rate": 1.6595867990144562e-05, |
| "loss": 0.1721, |
| "step": 17120 |
| }, |
| { |
| "epoch": 0.2855, |
| "grad_norm": 37.75, |
| "learning_rate": 1.659185121512259e-05, |
| "loss": 0.1717, |
| "step": 17130 |
| }, |
| { |
| "epoch": 0.2856666666666667, |
| "grad_norm": 29.625, |
| "learning_rate": 1.658783255839154e-05, |
| "loss": 0.1686, |
| "step": 17140 |
| }, |
| { |
| "epoch": 0.28583333333333333, |
| "grad_norm": 17.5, |
| "learning_rate": 1.6583812021098586e-05, |
| "loss": 0.1765, |
| "step": 17150 |
| }, |
| { |
| "epoch": 0.286, |
| "grad_norm": 16.875, |
| "learning_rate": 1.657978960439142e-05, |
| "loss": 0.1757, |
| "step": 17160 |
| }, |
| { |
| "epoch": 0.2861666666666667, |
| "grad_norm": 11.6875, |
| "learning_rate": 1.657576530941829e-05, |
| "loss": 0.1931, |
| "step": 17170 |
| }, |
| { |
| "epoch": 0.28633333333333333, |
| "grad_norm": 14.4375, |
| "learning_rate": 1.657173913732797e-05, |
| "loss": 0.1785, |
| "step": 17180 |
| }, |
| { |
| "epoch": 0.2865, |
| "grad_norm": 15.375, |
| "learning_rate": 1.656771108926976e-05, |
| "loss": 0.1531, |
| "step": 17190 |
| }, |
| { |
| "epoch": 0.2866666666666667, |
| "grad_norm": 30.5, |
| "learning_rate": 1.6563681166393514e-05, |
| "loss": 0.1578, |
| "step": 17200 |
| }, |
| { |
| "epoch": 0.28683333333333333, |
| "grad_norm": 14.0, |
| "learning_rate": 1.6559649369849615e-05, |
| "loss": 0.1771, |
| "step": 17210 |
| }, |
| { |
| "epoch": 0.287, |
| "grad_norm": 36.25, |
| "learning_rate": 1.6555615700788977e-05, |
| "loss": 0.1357, |
| "step": 17220 |
| }, |
| { |
| "epoch": 0.2871666666666667, |
| "grad_norm": 1.7421875, |
| "learning_rate": 1.6551580160363047e-05, |
| "loss": 0.2093, |
| "step": 17230 |
| }, |
| { |
| "epoch": 0.28733333333333333, |
| "grad_norm": 15.3125, |
| "learning_rate": 1.654754274972382e-05, |
| "loss": 0.1838, |
| "step": 17240 |
| }, |
| { |
| "epoch": 0.2875, |
| "grad_norm": 1.703125, |
| "learning_rate": 1.6543503470023803e-05, |
| "loss": 0.1711, |
| "step": 17250 |
| }, |
| { |
| "epoch": 0.2876666666666667, |
| "grad_norm": 46.25, |
| "learning_rate": 1.653946232241605e-05, |
| "loss": 0.1913, |
| "step": 17260 |
| }, |
| { |
| "epoch": 0.28783333333333333, |
| "grad_norm": 17.875, |
| "learning_rate": 1.6535419308054156e-05, |
| "loss": 0.1827, |
| "step": 17270 |
| }, |
| { |
| "epoch": 0.288, |
| "grad_norm": 15.3125, |
| "learning_rate": 1.653137442809223e-05, |
| "loss": 0.1691, |
| "step": 17280 |
| }, |
| { |
| "epoch": 0.2881666666666667, |
| "grad_norm": 27.875, |
| "learning_rate": 1.652732768368493e-05, |
| "loss": 0.1726, |
| "step": 17290 |
| }, |
| { |
| "epoch": 0.28833333333333333, |
| "grad_norm": 15.125, |
| "learning_rate": 1.652327907598743e-05, |
| "loss": 0.2114, |
| "step": 17300 |
| }, |
| { |
| "epoch": 0.2885, |
| "grad_norm": 29.875, |
| "learning_rate": 1.6519228606155455e-05, |
| "loss": 0.2015, |
| "step": 17310 |
| }, |
| { |
| "epoch": 0.2886666666666667, |
| "grad_norm": 40.75, |
| "learning_rate": 1.651517627534525e-05, |
| "loss": 0.163, |
| "step": 17320 |
| }, |
| { |
| "epoch": 0.28883333333333333, |
| "grad_norm": 23.875, |
| "learning_rate": 1.6511122084713583e-05, |
| "loss": 0.1721, |
| "step": 17330 |
| }, |
| { |
| "epoch": 0.289, |
| "grad_norm": 65.5, |
| "learning_rate": 1.6507066035417775e-05, |
| "loss": 0.1895, |
| "step": 17340 |
| }, |
| { |
| "epoch": 0.2891666666666667, |
| "grad_norm": 14.5, |
| "learning_rate": 1.6503008128615657e-05, |
| "loss": 0.1683, |
| "step": 17350 |
| }, |
| { |
| "epoch": 0.28933333333333333, |
| "grad_norm": 8.125, |
| "learning_rate": 1.6498948365465603e-05, |
| "loss": 0.188, |
| "step": 17360 |
| }, |
| { |
| "epoch": 0.2895, |
| "grad_norm": 70.0, |
| "learning_rate": 1.649488674712651e-05, |
| "loss": 0.1838, |
| "step": 17370 |
| }, |
| { |
| "epoch": 0.2896666666666667, |
| "grad_norm": 28.625, |
| "learning_rate": 1.649082327475781e-05, |
| "loss": 0.1752, |
| "step": 17380 |
| }, |
| { |
| "epoch": 0.28983333333333333, |
| "grad_norm": 36.0, |
| "learning_rate": 1.648675794951946e-05, |
| "loss": 0.1872, |
| "step": 17390 |
| }, |
| { |
| "epoch": 0.29, |
| "grad_norm": 17.375, |
| "learning_rate": 1.6482690772571944e-05, |
| "loss": 0.1621, |
| "step": 17400 |
| }, |
| { |
| "epoch": 0.2901666666666667, |
| "grad_norm": 52.0, |
| "learning_rate": 1.6478621745076285e-05, |
| "loss": 0.1883, |
| "step": 17410 |
| }, |
| { |
| "epoch": 0.29033333333333333, |
| "grad_norm": 6.8125, |
| "learning_rate": 1.6474550868194022e-05, |
| "loss": 0.1895, |
| "step": 17420 |
| }, |
| { |
| "epoch": 0.2905, |
| "grad_norm": 30.375, |
| "learning_rate": 1.6470478143087227e-05, |
| "loss": 0.182, |
| "step": 17430 |
| }, |
| { |
| "epoch": 0.2906666666666667, |
| "grad_norm": 22.125, |
| "learning_rate": 1.6466403570918503e-05, |
| "loss": 0.1952, |
| "step": 17440 |
| }, |
| { |
| "epoch": 0.29083333333333333, |
| "grad_norm": 23.625, |
| "learning_rate": 1.646232715285097e-05, |
| "loss": 0.167, |
| "step": 17450 |
| }, |
| { |
| "epoch": 0.291, |
| "grad_norm": 1.140625, |
| "learning_rate": 1.6458248890048288e-05, |
| "loss": 0.1763, |
| "step": 17460 |
| }, |
| { |
| "epoch": 0.2911666666666667, |
| "grad_norm": 26.75, |
| "learning_rate": 1.6454168783674637e-05, |
| "loss": 0.1685, |
| "step": 17470 |
| }, |
| { |
| "epoch": 0.29133333333333333, |
| "grad_norm": 70.0, |
| "learning_rate": 1.6450086834894727e-05, |
| "loss": 0.1596, |
| "step": 17480 |
| }, |
| { |
| "epoch": 0.2915, |
| "grad_norm": 41.25, |
| "learning_rate": 1.6446003044873776e-05, |
| "loss": 0.1873, |
| "step": 17490 |
| }, |
| { |
| "epoch": 0.2916666666666667, |
| "grad_norm": 23.0, |
| "learning_rate": 1.644191741477756e-05, |
| "loss": 0.1943, |
| "step": 17500 |
| }, |
| { |
| "epoch": 0.29183333333333333, |
| "grad_norm": 11.1875, |
| "learning_rate": 1.6437829945772354e-05, |
| "loss": 0.1824, |
| "step": 17510 |
| }, |
| { |
| "epoch": 0.292, |
| "grad_norm": 26.5, |
| "learning_rate": 1.6433740639024963e-05, |
| "loss": 0.1992, |
| "step": 17520 |
| }, |
| { |
| "epoch": 0.2921666666666667, |
| "grad_norm": 43.5, |
| "learning_rate": 1.6429649495702726e-05, |
| "loss": 0.1624, |
| "step": 17530 |
| }, |
| { |
| "epoch": 0.29233333333333333, |
| "grad_norm": 14.375, |
| "learning_rate": 1.6425556516973502e-05, |
| "loss": 0.1857, |
| "step": 17540 |
| }, |
| { |
| "epoch": 0.2925, |
| "grad_norm": 16.125, |
| "learning_rate": 1.6421461704005666e-05, |
| "loss": 0.1771, |
| "step": 17550 |
| }, |
| { |
| "epoch": 0.2926666666666667, |
| "grad_norm": 15.1875, |
| "learning_rate": 1.6417365057968123e-05, |
| "loss": 0.1806, |
| "step": 17560 |
| }, |
| { |
| "epoch": 0.29283333333333333, |
| "grad_norm": 16.625, |
| "learning_rate": 1.6413266580030308e-05, |
| "loss": 0.1676, |
| "step": 17570 |
| }, |
| { |
| "epoch": 0.293, |
| "grad_norm": 7.21875, |
| "learning_rate": 1.6409166271362166e-05, |
| "loss": 0.1711, |
| "step": 17580 |
| }, |
| { |
| "epoch": 0.2931666666666667, |
| "grad_norm": 20.875, |
| "learning_rate": 1.6405064133134173e-05, |
| "loss": 0.1711, |
| "step": 17590 |
| }, |
| { |
| "epoch": 0.29333333333333333, |
| "grad_norm": 17.75, |
| "learning_rate": 1.6400960166517324e-05, |
| "loss": 0.1828, |
| "step": 17600 |
| }, |
| { |
| "epoch": 0.2935, |
| "grad_norm": 7.0625, |
| "learning_rate": 1.6396854372683136e-05, |
| "loss": 0.1863, |
| "step": 17610 |
| }, |
| { |
| "epoch": 0.2936666666666667, |
| "grad_norm": 9.5, |
| "learning_rate": 1.639274675280365e-05, |
| "loss": 0.1708, |
| "step": 17620 |
| }, |
| { |
| "epoch": 0.29383333333333334, |
| "grad_norm": 18.5, |
| "learning_rate": 1.6388637308051428e-05, |
| "loss": 0.1884, |
| "step": 17630 |
| }, |
| { |
| "epoch": 0.294, |
| "grad_norm": 35.0, |
| "learning_rate": 1.6384526039599546e-05, |
| "loss": 0.2226, |
| "step": 17640 |
| }, |
| { |
| "epoch": 0.2941666666666667, |
| "grad_norm": 20.375, |
| "learning_rate": 1.6380412948621616e-05, |
| "loss": 0.2067, |
| "step": 17650 |
| }, |
| { |
| "epoch": 0.29433333333333334, |
| "grad_norm": 30.875, |
| "learning_rate": 1.637629803629175e-05, |
| "loss": 0.2108, |
| "step": 17660 |
| }, |
| { |
| "epoch": 0.2945, |
| "grad_norm": 8.75, |
| "learning_rate": 1.6372181303784596e-05, |
| "loss": 0.192, |
| "step": 17670 |
| }, |
| { |
| "epoch": 0.2946666666666667, |
| "grad_norm": 42.5, |
| "learning_rate": 1.6368062752275317e-05, |
| "loss": 0.1755, |
| "step": 17680 |
| }, |
| { |
| "epoch": 0.29483333333333334, |
| "grad_norm": 45.0, |
| "learning_rate": 1.636394238293959e-05, |
| "loss": 0.1801, |
| "step": 17690 |
| }, |
| { |
| "epoch": 0.295, |
| "grad_norm": 7.21875, |
| "learning_rate": 1.6359820196953612e-05, |
| "loss": 0.1768, |
| "step": 17700 |
| }, |
| { |
| "epoch": 0.2951666666666667, |
| "grad_norm": 63.0, |
| "learning_rate": 1.6355696195494116e-05, |
| "loss": 0.1749, |
| "step": 17710 |
| }, |
| { |
| "epoch": 0.29533333333333334, |
| "grad_norm": 32.75, |
| "learning_rate": 1.6351570379738327e-05, |
| "loss": 0.2062, |
| "step": 17720 |
| }, |
| { |
| "epoch": 0.2955, |
| "grad_norm": 56.0, |
| "learning_rate": 1.6347442750864e-05, |
| "loss": 0.1692, |
| "step": 17730 |
| }, |
| { |
| "epoch": 0.2956666666666667, |
| "grad_norm": 45.25, |
| "learning_rate": 1.6343313310049413e-05, |
| "loss": 0.1706, |
| "step": 17740 |
| }, |
| { |
| "epoch": 0.29583333333333334, |
| "grad_norm": 32.25, |
| "learning_rate": 1.633918205847335e-05, |
| "loss": 0.1821, |
| "step": 17750 |
| }, |
| { |
| "epoch": 0.296, |
| "grad_norm": 47.25, |
| "learning_rate": 1.6335048997315125e-05, |
| "loss": 0.1792, |
| "step": 17760 |
| }, |
| { |
| "epoch": 0.2961666666666667, |
| "grad_norm": 15.75, |
| "learning_rate": 1.6330914127754552e-05, |
| "loss": 0.2021, |
| "step": 17770 |
| }, |
| { |
| "epoch": 0.29633333333333334, |
| "grad_norm": 10.5625, |
| "learning_rate": 1.632677745097198e-05, |
| "loss": 0.1762, |
| "step": 17780 |
| }, |
| { |
| "epoch": 0.2965, |
| "grad_norm": 9.0, |
| "learning_rate": 1.6322638968148256e-05, |
| "loss": 0.177, |
| "step": 17790 |
| }, |
| { |
| "epoch": 0.2966666666666667, |
| "grad_norm": 21.875, |
| "learning_rate": 1.6318498680464753e-05, |
| "loss": 0.1661, |
| "step": 17800 |
| }, |
| { |
| "epoch": 0.29683333333333334, |
| "grad_norm": 2.359375, |
| "learning_rate": 1.6314356589103362e-05, |
| "loss": 0.1812, |
| "step": 17810 |
| }, |
| { |
| "epoch": 0.297, |
| "grad_norm": 42.0, |
| "learning_rate": 1.6310212695246477e-05, |
| "loss": 0.1523, |
| "step": 17820 |
| }, |
| { |
| "epoch": 0.2971666666666667, |
| "grad_norm": 11.0, |
| "learning_rate": 1.630606700007702e-05, |
| "loss": 0.1648, |
| "step": 17830 |
| }, |
| { |
| "epoch": 0.29733333333333334, |
| "grad_norm": 9.5, |
| "learning_rate": 1.6301919504778415e-05, |
| "loss": 0.1816, |
| "step": 17840 |
| }, |
| { |
| "epoch": 0.2975, |
| "grad_norm": 26.625, |
| "learning_rate": 1.6297770210534606e-05, |
| "loss": 0.1875, |
| "step": 17850 |
| }, |
| { |
| "epoch": 0.2976666666666667, |
| "grad_norm": 29.25, |
| "learning_rate": 1.6293619118530055e-05, |
| "loss": 0.1879, |
| "step": 17860 |
| }, |
| { |
| "epoch": 0.29783333333333334, |
| "grad_norm": 34.75, |
| "learning_rate": 1.6289466229949727e-05, |
| "loss": 0.1885, |
| "step": 17870 |
| }, |
| { |
| "epoch": 0.298, |
| "grad_norm": 12.5625, |
| "learning_rate": 1.628531154597911e-05, |
| "loss": 0.1975, |
| "step": 17880 |
| }, |
| { |
| "epoch": 0.2981666666666667, |
| "grad_norm": 41.25, |
| "learning_rate": 1.6281155067804194e-05, |
| "loss": 0.2025, |
| "step": 17890 |
| }, |
| { |
| "epoch": 0.29833333333333334, |
| "grad_norm": 12.0625, |
| "learning_rate": 1.627699679661149e-05, |
| "loss": 0.1939, |
| "step": 17900 |
| }, |
| { |
| "epoch": 0.2985, |
| "grad_norm": 30.75, |
| "learning_rate": 1.627283673358802e-05, |
| "loss": 0.1572, |
| "step": 17910 |
| }, |
| { |
| "epoch": 0.2986666666666667, |
| "grad_norm": 36.25, |
| "learning_rate": 1.6268674879921307e-05, |
| "loss": 0.1897, |
| "step": 17920 |
| }, |
| { |
| "epoch": 0.29883333333333334, |
| "grad_norm": 40.5, |
| "learning_rate": 1.62645112367994e-05, |
| "loss": 0.212, |
| "step": 17930 |
| }, |
| { |
| "epoch": 0.299, |
| "grad_norm": 16.25, |
| "learning_rate": 1.6260345805410853e-05, |
| "loss": 0.1799, |
| "step": 17940 |
| }, |
| { |
| "epoch": 0.2991666666666667, |
| "grad_norm": 8.375, |
| "learning_rate": 1.6256178586944727e-05, |
| "loss": 0.1905, |
| "step": 17950 |
| }, |
| { |
| "epoch": 0.29933333333333334, |
| "grad_norm": 33.75, |
| "learning_rate": 1.6252009582590594e-05, |
| "loss": 0.171, |
| "step": 17960 |
| }, |
| { |
| "epoch": 0.2995, |
| "grad_norm": 20.5, |
| "learning_rate": 1.624783879353854e-05, |
| "loss": 0.1803, |
| "step": 17970 |
| }, |
| { |
| "epoch": 0.2996666666666667, |
| "grad_norm": 20.875, |
| "learning_rate": 1.6243666220979158e-05, |
| "loss": 0.1786, |
| "step": 17980 |
| }, |
| { |
| "epoch": 0.29983333333333334, |
| "grad_norm": 30.625, |
| "learning_rate": 1.6239491866103546e-05, |
| "loss": 0.1745, |
| "step": 17990 |
| }, |
| { |
| "epoch": 0.3, |
| "grad_norm": 31.875, |
| "learning_rate": 1.623531573010332e-05, |
| "loss": 0.2006, |
| "step": 18000 |
| }, |
| { |
| "epoch": 0.3001666666666667, |
| "grad_norm": 13.0625, |
| "learning_rate": 1.62311378141706e-05, |
| "loss": 0.2189, |
| "step": 18010 |
| }, |
| { |
| "epoch": 0.30033333333333334, |
| "grad_norm": 5.3125, |
| "learning_rate": 1.6226958119498006e-05, |
| "loss": 0.1869, |
| "step": 18020 |
| }, |
| { |
| "epoch": 0.3005, |
| "grad_norm": 9.8125, |
| "learning_rate": 1.6222776647278683e-05, |
| "loss": 0.1771, |
| "step": 18030 |
| }, |
| { |
| "epoch": 0.3006666666666667, |
| "grad_norm": 14.375, |
| "learning_rate": 1.6218593398706267e-05, |
| "loss": 0.1814, |
| "step": 18040 |
| }, |
| { |
| "epoch": 0.30083333333333334, |
| "grad_norm": 35.0, |
| "learning_rate": 1.621440837497491e-05, |
| "loss": 0.1951, |
| "step": 18050 |
| }, |
| { |
| "epoch": 0.301, |
| "grad_norm": 2.171875, |
| "learning_rate": 1.6210221577279263e-05, |
| "loss": 0.1761, |
| "step": 18060 |
| }, |
| { |
| "epoch": 0.3011666666666667, |
| "grad_norm": 49.75, |
| "learning_rate": 1.6206033006814496e-05, |
| "loss": 0.1834, |
| "step": 18070 |
| }, |
| { |
| "epoch": 0.30133333333333334, |
| "grad_norm": 46.5, |
| "learning_rate": 1.6201842664776278e-05, |
| "loss": 0.1732, |
| "step": 18080 |
| }, |
| { |
| "epoch": 0.3015, |
| "grad_norm": 2.109375, |
| "learning_rate": 1.619765055236078e-05, |
| "loss": 0.1671, |
| "step": 18090 |
| }, |
| { |
| "epoch": 0.3016666666666667, |
| "grad_norm": 28.875, |
| "learning_rate": 1.619345667076468e-05, |
| "loss": 0.173, |
| "step": 18100 |
| }, |
| { |
| "epoch": 0.30183333333333334, |
| "grad_norm": 27.0, |
| "learning_rate": 1.6189261021185166e-05, |
| "loss": 0.1899, |
| "step": 18110 |
| }, |
| { |
| "epoch": 0.302, |
| "grad_norm": 23.625, |
| "learning_rate": 1.618506360481993e-05, |
| "loss": 0.1992, |
| "step": 18120 |
| }, |
| { |
| "epoch": 0.30216666666666664, |
| "grad_norm": 10.6875, |
| "learning_rate": 1.6180864422867163e-05, |
| "loss": 0.1702, |
| "step": 18130 |
| }, |
| { |
| "epoch": 0.30233333333333334, |
| "grad_norm": 11.5, |
| "learning_rate": 1.617666347652556e-05, |
| "loss": 0.1884, |
| "step": 18140 |
| }, |
| { |
| "epoch": 0.3025, |
| "grad_norm": 36.25, |
| "learning_rate": 1.617246076699433e-05, |
| "loss": 0.1769, |
| "step": 18150 |
| }, |
| { |
| "epoch": 0.30266666666666664, |
| "grad_norm": 2.015625, |
| "learning_rate": 1.616825629547317e-05, |
| "loss": 0.1837, |
| "step": 18160 |
| }, |
| { |
| "epoch": 0.30283333333333334, |
| "grad_norm": 33.5, |
| "learning_rate": 1.6164050063162295e-05, |
| "loss": 0.1788, |
| "step": 18170 |
| }, |
| { |
| "epoch": 0.303, |
| "grad_norm": 11.75, |
| "learning_rate": 1.615984207126241e-05, |
| "loss": 0.1762, |
| "step": 18180 |
| }, |
| { |
| "epoch": 0.30316666666666664, |
| "grad_norm": 18.5, |
| "learning_rate": 1.615563232097473e-05, |
| "loss": 0.2016, |
| "step": 18190 |
| }, |
| { |
| "epoch": 0.30333333333333334, |
| "grad_norm": 3.734375, |
| "learning_rate": 1.615142081350097e-05, |
| "loss": 0.1571, |
| "step": 18200 |
| }, |
| { |
| "epoch": 0.3035, |
| "grad_norm": 13.0, |
| "learning_rate": 1.6147207550043348e-05, |
| "loss": 0.1906, |
| "step": 18210 |
| }, |
| { |
| "epoch": 0.30366666666666664, |
| "grad_norm": 31.5, |
| "learning_rate": 1.614299253180458e-05, |
| "loss": 0.1846, |
| "step": 18220 |
| }, |
| { |
| "epoch": 0.30383333333333334, |
| "grad_norm": 20.875, |
| "learning_rate": 1.6138775759987885e-05, |
| "loss": 0.1747, |
| "step": 18230 |
| }, |
| { |
| "epoch": 0.304, |
| "grad_norm": 11.3125, |
| "learning_rate": 1.6134557235796983e-05, |
| "loss": 0.1963, |
| "step": 18240 |
| }, |
| { |
| "epoch": 0.30416666666666664, |
| "grad_norm": 36.0, |
| "learning_rate": 1.613033696043609e-05, |
| "loss": 0.1829, |
| "step": 18250 |
| }, |
| { |
| "epoch": 0.30433333333333334, |
| "grad_norm": 27.75, |
| "learning_rate": 1.612611493510993e-05, |
| "loss": 0.1967, |
| "step": 18260 |
| }, |
| { |
| "epoch": 0.3045, |
| "grad_norm": 15.5, |
| "learning_rate": 1.612189116102372e-05, |
| "loss": 0.172, |
| "step": 18270 |
| }, |
| { |
| "epoch": 0.30466666666666664, |
| "grad_norm": 3.890625, |
| "learning_rate": 1.6117665639383173e-05, |
| "loss": 0.1601, |
| "step": 18280 |
| }, |
| { |
| "epoch": 0.30483333333333335, |
| "grad_norm": 15.3125, |
| "learning_rate": 1.6113438371394513e-05, |
| "loss": 0.1635, |
| "step": 18290 |
| }, |
| { |
| "epoch": 0.305, |
| "grad_norm": 17.5, |
| "learning_rate": 1.6109209358264457e-05, |
| "loss": 0.1654, |
| "step": 18300 |
| }, |
| { |
| "epoch": 0.30516666666666664, |
| "grad_norm": 24.0, |
| "learning_rate": 1.6104978601200207e-05, |
| "loss": 0.1932, |
| "step": 18310 |
| }, |
| { |
| "epoch": 0.30533333333333335, |
| "grad_norm": 17.25, |
| "learning_rate": 1.6100746101409487e-05, |
| "loss": 0.1579, |
| "step": 18320 |
| }, |
| { |
| "epoch": 0.3055, |
| "grad_norm": 23.0, |
| "learning_rate": 1.60965118601005e-05, |
| "loss": 0.1926, |
| "step": 18330 |
| }, |
| { |
| "epoch": 0.30566666666666664, |
| "grad_norm": 36.5, |
| "learning_rate": 1.6092275878481952e-05, |
| "loss": 0.1932, |
| "step": 18340 |
| }, |
| { |
| "epoch": 0.30583333333333335, |
| "grad_norm": 23.125, |
| "learning_rate": 1.6088038157763047e-05, |
| "loss": 0.1751, |
| "step": 18350 |
| }, |
| { |
| "epoch": 0.306, |
| "grad_norm": 26.25, |
| "learning_rate": 1.6083798699153485e-05, |
| "loss": 0.1827, |
| "step": 18360 |
| }, |
| { |
| "epoch": 0.30616666666666664, |
| "grad_norm": 27.5, |
| "learning_rate": 1.607955750386346e-05, |
| "loss": 0.1907, |
| "step": 18370 |
| }, |
| { |
| "epoch": 0.30633333333333335, |
| "grad_norm": 9.1875, |
| "learning_rate": 1.6075314573103664e-05, |
| "loss": 0.1692, |
| "step": 18380 |
| }, |
| { |
| "epoch": 0.3065, |
| "grad_norm": 6.40625, |
| "learning_rate": 1.6071069908085284e-05, |
| "loss": 0.1951, |
| "step": 18390 |
| }, |
| { |
| "epoch": 0.30666666666666664, |
| "grad_norm": 51.25, |
| "learning_rate": 1.6066823510019998e-05, |
| "loss": 0.1859, |
| "step": 18400 |
| }, |
| { |
| "epoch": 0.30683333333333335, |
| "grad_norm": 34.25, |
| "learning_rate": 1.6062575380119983e-05, |
| "loss": 0.1901, |
| "step": 18410 |
| }, |
| { |
| "epoch": 0.307, |
| "grad_norm": 18.75, |
| "learning_rate": 1.6058325519597918e-05, |
| "loss": 0.1877, |
| "step": 18420 |
| }, |
| { |
| "epoch": 0.30716666666666664, |
| "grad_norm": 24.875, |
| "learning_rate": 1.6054073929666956e-05, |
| "loss": 0.1788, |
| "step": 18430 |
| }, |
| { |
| "epoch": 0.30733333333333335, |
| "grad_norm": 20.0, |
| "learning_rate": 1.6049820611540764e-05, |
| "loss": 0.2004, |
| "step": 18440 |
| }, |
| { |
| "epoch": 0.3075, |
| "grad_norm": 37.5, |
| "learning_rate": 1.604556556643349e-05, |
| "loss": 0.176, |
| "step": 18450 |
| }, |
| { |
| "epoch": 0.30766666666666664, |
| "grad_norm": 51.0, |
| "learning_rate": 1.6041308795559775e-05, |
| "loss": 0.1673, |
| "step": 18460 |
| }, |
| { |
| "epoch": 0.30783333333333335, |
| "grad_norm": 25.125, |
| "learning_rate": 1.6037050300134764e-05, |
| "loss": 0.1981, |
| "step": 18470 |
| }, |
| { |
| "epoch": 0.308, |
| "grad_norm": 31.25, |
| "learning_rate": 1.603279008137408e-05, |
| "loss": 0.1867, |
| "step": 18480 |
| }, |
| { |
| "epoch": 0.30816666666666664, |
| "grad_norm": 4.0625, |
| "learning_rate": 1.602852814049385e-05, |
| "loss": 0.1931, |
| "step": 18490 |
| }, |
| { |
| "epoch": 0.30833333333333335, |
| "grad_norm": 62.75, |
| "learning_rate": 1.6024264478710682e-05, |
| "loss": 0.1903, |
| "step": 18500 |
| }, |
| { |
| "epoch": 0.3085, |
| "grad_norm": 28.625, |
| "learning_rate": 1.6019999097241683e-05, |
| "loss": 0.1995, |
| "step": 18510 |
| }, |
| { |
| "epoch": 0.30866666666666664, |
| "grad_norm": 31.875, |
| "learning_rate": 1.601573199730445e-05, |
| "loss": 0.1508, |
| "step": 18520 |
| }, |
| { |
| "epoch": 0.30883333333333335, |
| "grad_norm": 40.0, |
| "learning_rate": 1.6011463180117067e-05, |
| "loss": 0.1836, |
| "step": 18530 |
| }, |
| { |
| "epoch": 0.309, |
| "grad_norm": 12.9375, |
| "learning_rate": 1.600719264689811e-05, |
| "loss": 0.1814, |
| "step": 18540 |
| }, |
| { |
| "epoch": 0.30916666666666665, |
| "grad_norm": 11.6875, |
| "learning_rate": 1.6002920398866643e-05, |
| "loss": 0.1597, |
| "step": 18550 |
| }, |
| { |
| "epoch": 0.30933333333333335, |
| "grad_norm": 55.5, |
| "learning_rate": 1.5998646437242228e-05, |
| "loss": 0.1928, |
| "step": 18560 |
| }, |
| { |
| "epoch": 0.3095, |
| "grad_norm": 13.5625, |
| "learning_rate": 1.59943707632449e-05, |
| "loss": 0.171, |
| "step": 18570 |
| }, |
| { |
| "epoch": 0.30966666666666665, |
| "grad_norm": 4.71875, |
| "learning_rate": 1.5990093378095198e-05, |
| "loss": 0.1978, |
| "step": 18580 |
| }, |
| { |
| "epoch": 0.30983333333333335, |
| "grad_norm": 44.25, |
| "learning_rate": 1.5985814283014145e-05, |
| "loss": 0.1764, |
| "step": 18590 |
| }, |
| { |
| "epoch": 0.31, |
| "grad_norm": 11.9375, |
| "learning_rate": 1.5981533479223252e-05, |
| "loss": 0.1861, |
| "step": 18600 |
| }, |
| { |
| "epoch": 0.31016666666666665, |
| "grad_norm": 22.75, |
| "learning_rate": 1.597725096794451e-05, |
| "loss": 0.1675, |
| "step": 18610 |
| }, |
| { |
| "epoch": 0.31033333333333335, |
| "grad_norm": 24.5, |
| "learning_rate": 1.5972966750400408e-05, |
| "loss": 0.1826, |
| "step": 18620 |
| }, |
| { |
| "epoch": 0.3105, |
| "grad_norm": 59.25, |
| "learning_rate": 1.596868082781392e-05, |
| "loss": 0.1723, |
| "step": 18630 |
| }, |
| { |
| "epoch": 0.31066666666666665, |
| "grad_norm": 2.09375, |
| "learning_rate": 1.5964393201408504e-05, |
| "loss": 0.1809, |
| "step": 18640 |
| }, |
| { |
| "epoch": 0.31083333333333335, |
| "grad_norm": 24.5, |
| "learning_rate": 1.59601038724081e-05, |
| "loss": 0.1844, |
| "step": 18650 |
| }, |
| { |
| "epoch": 0.311, |
| "grad_norm": 7.9375, |
| "learning_rate": 1.595581284203715e-05, |
| "loss": 0.1797, |
| "step": 18660 |
| }, |
| { |
| "epoch": 0.31116666666666665, |
| "grad_norm": 15.1875, |
| "learning_rate": 1.5951520111520564e-05, |
| "loss": 0.1729, |
| "step": 18670 |
| }, |
| { |
| "epoch": 0.31133333333333335, |
| "grad_norm": 29.875, |
| "learning_rate": 1.5947225682083744e-05, |
| "loss": 0.1796, |
| "step": 18680 |
| }, |
| { |
| "epoch": 0.3115, |
| "grad_norm": 34.75, |
| "learning_rate": 1.5942929554952577e-05, |
| "loss": 0.177, |
| "step": 18690 |
| }, |
| { |
| "epoch": 0.31166666666666665, |
| "grad_norm": 16.375, |
| "learning_rate": 1.5938631731353442e-05, |
| "loss": 0.1773, |
| "step": 18700 |
| }, |
| { |
| "epoch": 0.31183333333333335, |
| "grad_norm": 18.5, |
| "learning_rate": 1.5934332212513186e-05, |
| "loss": 0.1495, |
| "step": 18710 |
| }, |
| { |
| "epoch": 0.312, |
| "grad_norm": 24.625, |
| "learning_rate": 1.593003099965915e-05, |
| "loss": 0.2007, |
| "step": 18720 |
| }, |
| { |
| "epoch": 0.31216666666666665, |
| "grad_norm": 26.625, |
| "learning_rate": 1.592572809401917e-05, |
| "loss": 0.1909, |
| "step": 18730 |
| }, |
| { |
| "epoch": 0.31233333333333335, |
| "grad_norm": 5.75, |
| "learning_rate": 1.5921423496821537e-05, |
| "loss": 0.1866, |
| "step": 18740 |
| }, |
| { |
| "epoch": 0.3125, |
| "grad_norm": 50.5, |
| "learning_rate": 1.591711720929505e-05, |
| "loss": 0.1967, |
| "step": 18750 |
| }, |
| { |
| "epoch": 0.31266666666666665, |
| "grad_norm": 28.5, |
| "learning_rate": 1.5912809232668976e-05, |
| "loss": 0.1734, |
| "step": 18760 |
| }, |
| { |
| "epoch": 0.31283333333333335, |
| "grad_norm": 18.875, |
| "learning_rate": 1.590849956817307e-05, |
| "loss": 0.1966, |
| "step": 18770 |
| }, |
| { |
| "epoch": 0.313, |
| "grad_norm": 30.0, |
| "learning_rate": 1.5904188217037576e-05, |
| "loss": 0.1818, |
| "step": 18780 |
| }, |
| { |
| "epoch": 0.31316666666666665, |
| "grad_norm": 25.5, |
| "learning_rate": 1.589987518049321e-05, |
| "loss": 0.1626, |
| "step": 18790 |
| }, |
| { |
| "epoch": 0.31333333333333335, |
| "grad_norm": 25.125, |
| "learning_rate": 1.589556045977116e-05, |
| "loss": 0.1781, |
| "step": 18800 |
| }, |
| { |
| "epoch": 0.3135, |
| "grad_norm": 18.0, |
| "learning_rate": 1.5891244056103117e-05, |
| "loss": 0.1749, |
| "step": 18810 |
| }, |
| { |
| "epoch": 0.31366666666666665, |
| "grad_norm": 16.875, |
| "learning_rate": 1.5886925970721235e-05, |
| "loss": 0.1962, |
| "step": 18820 |
| }, |
| { |
| "epoch": 0.31383333333333335, |
| "grad_norm": 22.875, |
| "learning_rate": 1.5882606204858156e-05, |
| "loss": 0.1681, |
| "step": 18830 |
| }, |
| { |
| "epoch": 0.314, |
| "grad_norm": 27.5, |
| "learning_rate": 1.5878284759747e-05, |
| "loss": 0.1772, |
| "step": 18840 |
| }, |
| { |
| "epoch": 0.31416666666666665, |
| "grad_norm": 13.25, |
| "learning_rate": 1.587396163662137e-05, |
| "loss": 0.1917, |
| "step": 18850 |
| }, |
| { |
| "epoch": 0.31433333333333335, |
| "grad_norm": 9.0625, |
| "learning_rate": 1.5869636836715337e-05, |
| "loss": 0.2008, |
| "step": 18860 |
| }, |
| { |
| "epoch": 0.3145, |
| "grad_norm": 9.5, |
| "learning_rate": 1.5865310361263465e-05, |
| "loss": 0.1885, |
| "step": 18870 |
| }, |
| { |
| "epoch": 0.31466666666666665, |
| "grad_norm": 25.125, |
| "learning_rate": 1.5860982211500783e-05, |
| "loss": 0.1819, |
| "step": 18880 |
| }, |
| { |
| "epoch": 0.31483333333333335, |
| "grad_norm": 13.6875, |
| "learning_rate": 1.5856652388662808e-05, |
| "loss": 0.1717, |
| "step": 18890 |
| }, |
| { |
| "epoch": 0.315, |
| "grad_norm": 18.375, |
| "learning_rate": 1.5852320893985527e-05, |
| "loss": 0.1524, |
| "step": 18900 |
| }, |
| { |
| "epoch": 0.31516666666666665, |
| "grad_norm": 13.75, |
| "learning_rate": 1.5847987728705415e-05, |
| "loss": 0.1861, |
| "step": 18910 |
| }, |
| { |
| "epoch": 0.31533333333333335, |
| "grad_norm": 17.125, |
| "learning_rate": 1.5843652894059408e-05, |
| "loss": 0.1602, |
| "step": 18920 |
| }, |
| { |
| "epoch": 0.3155, |
| "grad_norm": 9.6875, |
| "learning_rate": 1.5839316391284935e-05, |
| "loss": 0.2053, |
| "step": 18930 |
| }, |
| { |
| "epoch": 0.31566666666666665, |
| "grad_norm": 12.0625, |
| "learning_rate": 1.583497822161989e-05, |
| "loss": 0.1574, |
| "step": 18940 |
| }, |
| { |
| "epoch": 0.31583333333333335, |
| "grad_norm": 38.0, |
| "learning_rate": 1.583063838630264e-05, |
| "loss": 0.1856, |
| "step": 18950 |
| }, |
| { |
| "epoch": 0.316, |
| "grad_norm": 11.8125, |
| "learning_rate": 1.5826296886572046e-05, |
| "loss": 0.1745, |
| "step": 18960 |
| }, |
| { |
| "epoch": 0.31616666666666665, |
| "grad_norm": 28.5, |
| "learning_rate": 1.5821953723667427e-05, |
| "loss": 0.156, |
| "step": 18970 |
| }, |
| { |
| "epoch": 0.31633333333333336, |
| "grad_norm": 40.5, |
| "learning_rate": 1.581760889882858e-05, |
| "loss": 0.161, |
| "step": 18980 |
| }, |
| { |
| "epoch": 0.3165, |
| "grad_norm": 21.875, |
| "learning_rate": 1.581326241329578e-05, |
| "loss": 0.17, |
| "step": 18990 |
| }, |
| { |
| "epoch": 0.31666666666666665, |
| "grad_norm": 22.25, |
| "learning_rate": 1.5808914268309774e-05, |
| "loss": 0.2003, |
| "step": 19000 |
| }, |
| { |
| "epoch": 0.31683333333333336, |
| "grad_norm": 25.75, |
| "learning_rate": 1.580456446511178e-05, |
| "loss": 0.1726, |
| "step": 19010 |
| }, |
| { |
| "epoch": 0.317, |
| "grad_norm": 22.25, |
| "learning_rate": 1.5800213004943498e-05, |
| "loss": 0.1802, |
| "step": 19020 |
| }, |
| { |
| "epoch": 0.31716666666666665, |
| "grad_norm": 82.0, |
| "learning_rate": 1.5795859889047093e-05, |
| "loss": 0.1793, |
| "step": 19030 |
| }, |
| { |
| "epoch": 0.31733333333333336, |
| "grad_norm": 38.75, |
| "learning_rate": 1.5791505118665203e-05, |
| "loss": 0.1944, |
| "step": 19040 |
| }, |
| { |
| "epoch": 0.3175, |
| "grad_norm": 13.375, |
| "learning_rate": 1.578714869504094e-05, |
| "loss": 0.182, |
| "step": 19050 |
| }, |
| { |
| "epoch": 0.31766666666666665, |
| "grad_norm": 16.625, |
| "learning_rate": 1.5782790619417895e-05, |
| "loss": 0.1714, |
| "step": 19060 |
| }, |
| { |
| "epoch": 0.31783333333333336, |
| "grad_norm": 34.75, |
| "learning_rate": 1.5778430893040114e-05, |
| "loss": 0.2006, |
| "step": 19070 |
| }, |
| { |
| "epoch": 0.318, |
| "grad_norm": 7.84375, |
| "learning_rate": 1.5774069517152128e-05, |
| "loss": 0.1596, |
| "step": 19080 |
| }, |
| { |
| "epoch": 0.31816666666666665, |
| "grad_norm": 39.75, |
| "learning_rate": 1.5769706492998934e-05, |
| "loss": 0.1729, |
| "step": 19090 |
| }, |
| { |
| "epoch": 0.31833333333333336, |
| "grad_norm": 50.5, |
| "learning_rate": 1.5765341821826008e-05, |
| "loss": 0.1992, |
| "step": 19100 |
| }, |
| { |
| "epoch": 0.3185, |
| "grad_norm": 16.625, |
| "learning_rate": 1.5760975504879276e-05, |
| "loss": 0.166, |
| "step": 19110 |
| }, |
| { |
| "epoch": 0.31866666666666665, |
| "grad_norm": 20.25, |
| "learning_rate": 1.5756607543405154e-05, |
| "loss": 0.206, |
| "step": 19120 |
| }, |
| { |
| "epoch": 0.31883333333333336, |
| "grad_norm": 33.75, |
| "learning_rate": 1.5752237938650517e-05, |
| "loss": 0.1898, |
| "step": 19130 |
| }, |
| { |
| "epoch": 0.319, |
| "grad_norm": 15.3125, |
| "learning_rate": 1.5747866691862717e-05, |
| "loss": 0.1776, |
| "step": 19140 |
| }, |
| { |
| "epoch": 0.31916666666666665, |
| "grad_norm": 22.125, |
| "learning_rate": 1.574349380428956e-05, |
| "loss": 0.1643, |
| "step": 19150 |
| }, |
| { |
| "epoch": 0.31933333333333336, |
| "grad_norm": 7.34375, |
| "learning_rate": 1.5739119277179343e-05, |
| "loss": 0.1902, |
| "step": 19160 |
| }, |
| { |
| "epoch": 0.3195, |
| "grad_norm": 10.0625, |
| "learning_rate": 1.5734743111780808e-05, |
| "loss": 0.1767, |
| "step": 19170 |
| }, |
| { |
| "epoch": 0.31966666666666665, |
| "grad_norm": 15.1875, |
| "learning_rate": 1.5730365309343177e-05, |
| "loss": 0.2014, |
| "step": 19180 |
| }, |
| { |
| "epoch": 0.31983333333333336, |
| "grad_norm": 11.3125, |
| "learning_rate": 1.5725985871116137e-05, |
| "loss": 0.1853, |
| "step": 19190 |
| }, |
| { |
| "epoch": 0.32, |
| "grad_norm": 11.375, |
| "learning_rate": 1.572160479834984e-05, |
| "loss": 0.1525, |
| "step": 19200 |
| }, |
| { |
| "epoch": 0.32016666666666665, |
| "grad_norm": 33.0, |
| "learning_rate": 1.5717222092294915e-05, |
| "loss": 0.1962, |
| "step": 19210 |
| }, |
| { |
| "epoch": 0.32033333333333336, |
| "grad_norm": 35.75, |
| "learning_rate": 1.5712837754202433e-05, |
| "loss": 0.1812, |
| "step": 19220 |
| }, |
| { |
| "epoch": 0.3205, |
| "grad_norm": 14.375, |
| "learning_rate": 1.5708451785323964e-05, |
| "loss": 0.2117, |
| "step": 19230 |
| }, |
| { |
| "epoch": 0.32066666666666666, |
| "grad_norm": 6.53125, |
| "learning_rate": 1.5704064186911517e-05, |
| "loss": 0.1746, |
| "step": 19240 |
| }, |
| { |
| "epoch": 0.32083333333333336, |
| "grad_norm": 12.0, |
| "learning_rate": 1.5699674960217576e-05, |
| "loss": 0.1691, |
| "step": 19250 |
| }, |
| { |
| "epoch": 0.321, |
| "grad_norm": 29.125, |
| "learning_rate": 1.569528410649509e-05, |
| "loss": 0.1721, |
| "step": 19260 |
| }, |
| { |
| "epoch": 0.32116666666666666, |
| "grad_norm": 53.25, |
| "learning_rate": 1.569089162699747e-05, |
| "loss": 0.175, |
| "step": 19270 |
| }, |
| { |
| "epoch": 0.32133333333333336, |
| "grad_norm": 14.875, |
| "learning_rate": 1.5686497522978594e-05, |
| "loss": 0.2082, |
| "step": 19280 |
| }, |
| { |
| "epoch": 0.3215, |
| "grad_norm": 36.5, |
| "learning_rate": 1.5682101795692803e-05, |
| "loss": 0.1843, |
| "step": 19290 |
| }, |
| { |
| "epoch": 0.32166666666666666, |
| "grad_norm": 24.125, |
| "learning_rate": 1.5677704446394903e-05, |
| "loss": 0.1995, |
| "step": 19300 |
| }, |
| { |
| "epoch": 0.32183333333333336, |
| "grad_norm": 46.5, |
| "learning_rate": 1.5673305476340153e-05, |
| "loss": 0.2057, |
| "step": 19310 |
| }, |
| { |
| "epoch": 0.322, |
| "grad_norm": 22.875, |
| "learning_rate": 1.5668904886784287e-05, |
| "loss": 0.1821, |
| "step": 19320 |
| }, |
| { |
| "epoch": 0.32216666666666666, |
| "grad_norm": 23.125, |
| "learning_rate": 1.5664502678983502e-05, |
| "loss": 0.1653, |
| "step": 19330 |
| }, |
| { |
| "epoch": 0.32233333333333336, |
| "grad_norm": 13.8125, |
| "learning_rate": 1.5660098854194445e-05, |
| "loss": 0.1655, |
| "step": 19340 |
| }, |
| { |
| "epoch": 0.3225, |
| "grad_norm": 11.875, |
| "learning_rate": 1.5655693413674236e-05, |
| "loss": 0.1849, |
| "step": 19350 |
| }, |
| { |
| "epoch": 0.32266666666666666, |
| "grad_norm": 8.5625, |
| "learning_rate": 1.5651286358680444e-05, |
| "loss": 0.1979, |
| "step": 19360 |
| }, |
| { |
| "epoch": 0.32283333333333336, |
| "grad_norm": 1.4375, |
| "learning_rate": 1.5646877690471116e-05, |
| "loss": 0.1695, |
| "step": 19370 |
| }, |
| { |
| "epoch": 0.323, |
| "grad_norm": 39.75, |
| "learning_rate": 1.5642467410304743e-05, |
| "loss": 0.1773, |
| "step": 19380 |
| }, |
| { |
| "epoch": 0.32316666666666666, |
| "grad_norm": 36.5, |
| "learning_rate": 1.5638055519440284e-05, |
| "loss": 0.1618, |
| "step": 19390 |
| }, |
| { |
| "epoch": 0.3233333333333333, |
| "grad_norm": 16.875, |
| "learning_rate": 1.563364201913716e-05, |
| "loss": 0.176, |
| "step": 19400 |
| }, |
| { |
| "epoch": 0.3235, |
| "grad_norm": 19.375, |
| "learning_rate": 1.5629226910655242e-05, |
| "loss": 0.1757, |
| "step": 19410 |
| }, |
| { |
| "epoch": 0.32366666666666666, |
| "grad_norm": 18.625, |
| "learning_rate": 1.5624810195254874e-05, |
| "loss": 0.1896, |
| "step": 19420 |
| }, |
| { |
| "epoch": 0.3238333333333333, |
| "grad_norm": 22.125, |
| "learning_rate": 1.5620391874196853e-05, |
| "loss": 0.1921, |
| "step": 19430 |
| }, |
| { |
| "epoch": 0.324, |
| "grad_norm": 21.125, |
| "learning_rate": 1.5615971948742422e-05, |
| "loss": 0.1708, |
| "step": 19440 |
| }, |
| { |
| "epoch": 0.32416666666666666, |
| "grad_norm": 14.6875, |
| "learning_rate": 1.56115504201533e-05, |
| "loss": 0.1697, |
| "step": 19450 |
| }, |
| { |
| "epoch": 0.3243333333333333, |
| "grad_norm": 2.46875, |
| "learning_rate": 1.560712728969165e-05, |
| "loss": 0.1802, |
| "step": 19460 |
| }, |
| { |
| "epoch": 0.3245, |
| "grad_norm": 30.625, |
| "learning_rate": 1.5602702558620103e-05, |
| "loss": 0.16, |
| "step": 19470 |
| }, |
| { |
| "epoch": 0.32466666666666666, |
| "grad_norm": 31.375, |
| "learning_rate": 1.5598276228201742e-05, |
| "loss": 0.1792, |
| "step": 19480 |
| }, |
| { |
| "epoch": 0.3248333333333333, |
| "grad_norm": 8.375, |
| "learning_rate": 1.559384829970011e-05, |
| "loss": 0.1843, |
| "step": 19490 |
| }, |
| { |
| "epoch": 0.325, |
| "grad_norm": 29.5, |
| "learning_rate": 1.5589418774379194e-05, |
| "loss": 0.1715, |
| "step": 19500 |
| }, |
| { |
| "epoch": 0.32516666666666666, |
| "grad_norm": 14.8125, |
| "learning_rate": 1.558498765350345e-05, |
| "loss": 0.1724, |
| "step": 19510 |
| }, |
| { |
| "epoch": 0.3253333333333333, |
| "grad_norm": 14.5, |
| "learning_rate": 1.5580554938337785e-05, |
| "loss": 0.1761, |
| "step": 19520 |
| }, |
| { |
| "epoch": 0.3255, |
| "grad_norm": 62.25, |
| "learning_rate": 1.5576120630147565e-05, |
| "loss": 0.1875, |
| "step": 19530 |
| }, |
| { |
| "epoch": 0.32566666666666666, |
| "grad_norm": 27.25, |
| "learning_rate": 1.5571684730198608e-05, |
| "loss": 0.1962, |
| "step": 19540 |
| }, |
| { |
| "epoch": 0.3258333333333333, |
| "grad_norm": 19.375, |
| "learning_rate": 1.5567247239757176e-05, |
| "loss": 0.1785, |
| "step": 19550 |
| }, |
| { |
| "epoch": 0.326, |
| "grad_norm": 14.75, |
| "learning_rate": 1.556280816009e-05, |
| "loss": 0.1719, |
| "step": 19560 |
| }, |
| { |
| "epoch": 0.32616666666666666, |
| "grad_norm": 12.375, |
| "learning_rate": 1.555836749246426e-05, |
| "loss": 0.1666, |
| "step": 19570 |
| }, |
| { |
| "epoch": 0.3263333333333333, |
| "grad_norm": 6.25, |
| "learning_rate": 1.555392523814759e-05, |
| "loss": 0.1917, |
| "step": 19580 |
| }, |
| { |
| "epoch": 0.3265, |
| "grad_norm": 18.5, |
| "learning_rate": 1.554948139840807e-05, |
| "loss": 0.1732, |
| "step": 19590 |
| }, |
| { |
| "epoch": 0.32666666666666666, |
| "grad_norm": 28.0, |
| "learning_rate": 1.554503597451425e-05, |
| "loss": 0.1849, |
| "step": 19600 |
| }, |
| { |
| "epoch": 0.3268333333333333, |
| "grad_norm": 35.75, |
| "learning_rate": 1.55405889677351e-05, |
| "loss": 0.1814, |
| "step": 19610 |
| }, |
| { |
| "epoch": 0.327, |
| "grad_norm": 22.125, |
| "learning_rate": 1.553614037934008e-05, |
| "loss": 0.1648, |
| "step": 19620 |
| }, |
| { |
| "epoch": 0.32716666666666666, |
| "grad_norm": 3.9375, |
| "learning_rate": 1.5531690210599077e-05, |
| "loss": 0.1948, |
| "step": 19630 |
| }, |
| { |
| "epoch": 0.3273333333333333, |
| "grad_norm": 46.5, |
| "learning_rate": 1.5527238462782434e-05, |
| "loss": 0.195, |
| "step": 19640 |
| }, |
| { |
| "epoch": 0.3275, |
| "grad_norm": 49.5, |
| "learning_rate": 1.5522785137160952e-05, |
| "loss": 0.1532, |
| "step": 19650 |
| }, |
| { |
| "epoch": 0.32766666666666666, |
| "grad_norm": 7.90625, |
| "learning_rate": 1.5518330235005868e-05, |
| "loss": 0.1702, |
| "step": 19660 |
| }, |
| { |
| "epoch": 0.3278333333333333, |
| "grad_norm": 24.625, |
| "learning_rate": 1.5513873757588887e-05, |
| "loss": 0.1749, |
| "step": 19670 |
| }, |
| { |
| "epoch": 0.328, |
| "grad_norm": 3.09375, |
| "learning_rate": 1.5509415706182148e-05, |
| "loss": 0.2006, |
| "step": 19680 |
| }, |
| { |
| "epoch": 0.32816666666666666, |
| "grad_norm": 23.0, |
| "learning_rate": 1.5504956082058246e-05, |
| "loss": 0.1823, |
| "step": 19690 |
| }, |
| { |
| "epoch": 0.3283333333333333, |
| "grad_norm": 11.5, |
| "learning_rate": 1.5500494886490227e-05, |
| "loss": 0.1969, |
| "step": 19700 |
| }, |
| { |
| "epoch": 0.3285, |
| "grad_norm": 3.640625, |
| "learning_rate": 1.5496032120751587e-05, |
| "loss": 0.1914, |
| "step": 19710 |
| }, |
| { |
| "epoch": 0.32866666666666666, |
| "grad_norm": 14.9375, |
| "learning_rate": 1.549156778611626e-05, |
| "loss": 0.1703, |
| "step": 19720 |
| }, |
| { |
| "epoch": 0.3288333333333333, |
| "grad_norm": 29.0, |
| "learning_rate": 1.548710188385864e-05, |
| "loss": 0.1791, |
| "step": 19730 |
| }, |
| { |
| "epoch": 0.329, |
| "grad_norm": 15.0, |
| "learning_rate": 1.5482634415253558e-05, |
| "loss": 0.2032, |
| "step": 19740 |
| }, |
| { |
| "epoch": 0.32916666666666666, |
| "grad_norm": 23.75, |
| "learning_rate": 1.54781653815763e-05, |
| "loss": 0.2091, |
| "step": 19750 |
| }, |
| { |
| "epoch": 0.3293333333333333, |
| "grad_norm": 39.0, |
| "learning_rate": 1.5473694784102595e-05, |
| "loss": 0.1799, |
| "step": 19760 |
| }, |
| { |
| "epoch": 0.3295, |
| "grad_norm": 17.375, |
| "learning_rate": 1.546922262410862e-05, |
| "loss": 0.184, |
| "step": 19770 |
| }, |
| { |
| "epoch": 0.32966666666666666, |
| "grad_norm": 25.25, |
| "learning_rate": 1.5464748902870995e-05, |
| "loss": 0.194, |
| "step": 19780 |
| }, |
| { |
| "epoch": 0.3298333333333333, |
| "grad_norm": 34.0, |
| "learning_rate": 1.546027362166679e-05, |
| "loss": 0.1905, |
| "step": 19790 |
| }, |
| { |
| "epoch": 0.33, |
| "grad_norm": 30.625, |
| "learning_rate": 1.545579678177352e-05, |
| "loss": 0.1972, |
| "step": 19800 |
| }, |
| { |
| "epoch": 0.33016666666666666, |
| "grad_norm": 53.75, |
| "learning_rate": 1.5451318384469137e-05, |
| "loss": 0.1798, |
| "step": 19810 |
| }, |
| { |
| "epoch": 0.3303333333333333, |
| "grad_norm": 19.5, |
| "learning_rate": 1.544683843103205e-05, |
| "loss": 0.1954, |
| "step": 19820 |
| }, |
| { |
| "epoch": 0.3305, |
| "grad_norm": 16.75, |
| "learning_rate": 1.54423569227411e-05, |
| "loss": 0.1532, |
| "step": 19830 |
| }, |
| { |
| "epoch": 0.33066666666666666, |
| "grad_norm": 19.875, |
| "learning_rate": 1.5437873860875586e-05, |
| "loss": 0.1608, |
| "step": 19840 |
| }, |
| { |
| "epoch": 0.3308333333333333, |
| "grad_norm": 25.875, |
| "learning_rate": 1.543338924671524e-05, |
| "loss": 0.1902, |
| "step": 19850 |
| }, |
| { |
| "epoch": 0.331, |
| "grad_norm": 24.0, |
| "learning_rate": 1.5428903081540232e-05, |
| "loss": 0.1977, |
| "step": 19860 |
| }, |
| { |
| "epoch": 0.33116666666666666, |
| "grad_norm": 13.9375, |
| "learning_rate": 1.542441536663119e-05, |
| "loss": 0.1984, |
| "step": 19870 |
| }, |
| { |
| "epoch": 0.3313333333333333, |
| "grad_norm": 20.5, |
| "learning_rate": 1.5419926103269175e-05, |
| "loss": 0.1646, |
| "step": 19880 |
| }, |
| { |
| "epoch": 0.3315, |
| "grad_norm": 13.75, |
| "learning_rate": 1.5415435292735685e-05, |
| "loss": 0.1568, |
| "step": 19890 |
| }, |
| { |
| "epoch": 0.33166666666666667, |
| "grad_norm": 14.0625, |
| "learning_rate": 1.541094293631268e-05, |
| "loss": 0.1856, |
| "step": 19900 |
| }, |
| { |
| "epoch": 0.3318333333333333, |
| "grad_norm": 54.25, |
| "learning_rate": 1.5406449035282537e-05, |
| "loss": 0.172, |
| "step": 19910 |
| }, |
| { |
| "epoch": 0.332, |
| "grad_norm": 53.0, |
| "learning_rate": 1.540195359092808e-05, |
| "loss": 0.1625, |
| "step": 19920 |
| }, |
| { |
| "epoch": 0.33216666666666667, |
| "grad_norm": 25.375, |
| "learning_rate": 1.5397456604532594e-05, |
| "loss": 0.1901, |
| "step": 19930 |
| }, |
| { |
| "epoch": 0.3323333333333333, |
| "grad_norm": 8.8125, |
| "learning_rate": 1.5392958077379775e-05, |
| "loss": 0.1756, |
| "step": 19940 |
| }, |
| { |
| "epoch": 0.3325, |
| "grad_norm": 32.5, |
| "learning_rate": 1.5388458010753776e-05, |
| "loss": 0.1768, |
| "step": 19950 |
| }, |
| { |
| "epoch": 0.33266666666666667, |
| "grad_norm": 7.75, |
| "learning_rate": 1.5383956405939188e-05, |
| "loss": 0.1856, |
| "step": 19960 |
| }, |
| { |
| "epoch": 0.3328333333333333, |
| "grad_norm": 1.890625, |
| "learning_rate": 1.5379453264221034e-05, |
| "loss": 0.1791, |
| "step": 19970 |
| }, |
| { |
| "epoch": 0.333, |
| "grad_norm": 9.5, |
| "learning_rate": 1.5374948586884784e-05, |
| "loss": 0.2031, |
| "step": 19980 |
| }, |
| { |
| "epoch": 0.33316666666666667, |
| "grad_norm": 17.75, |
| "learning_rate": 1.537044237521634e-05, |
| "loss": 0.1654, |
| "step": 19990 |
| }, |
| { |
| "epoch": 0.3333333333333333, |
| "grad_norm": 28.375, |
| "learning_rate": 1.5365934630502043e-05, |
| "loss": 0.1872, |
| "step": 20000 |
| } |
| ], |
| "logging_steps": 10, |
| "max_steps": 60000, |
| "num_input_tokens_seen": 0, |
| "num_train_epochs": 1, |
| "save_steps": 10000, |
| "stateful_callbacks": { |
| "TrainerControl": { |
| "args": { |
| "should_epoch_stop": false, |
| "should_evaluate": false, |
| "should_log": false, |
| "should_save": true, |
| "should_training_stop": false |
| }, |
| "attributes": {} |
| } |
| }, |
| "total_flos": 1.339457760395264e+18, |
| "train_batch_size": 1, |
| "trial_name": null, |
| "trial_params": null |
| } |
|
|