| { |
| "best_global_step": null, |
| "best_metric": null, |
| "best_model_checkpoint": null, |
| "epoch": 0.16666666666666666, |
| "eval_steps": 500, |
| "global_step": 10000, |
| "is_hyper_param_search": false, |
| "is_local_process_zero": true, |
| "is_world_process_zero": true, |
| "log_history": [ |
| { |
| "epoch": 0.00016666666666666666, |
| "grad_norm": 79.5, |
| "learning_rate": 1.5000000000000002e-07, |
| "loss": 1.1354, |
| "step": 10 |
| }, |
| { |
| "epoch": 0.0003333333333333333, |
| "grad_norm": 87.5, |
| "learning_rate": 3.166666666666667e-07, |
| "loss": 1.0748, |
| "step": 20 |
| }, |
| { |
| "epoch": 0.0005, |
| "grad_norm": 50.75, |
| "learning_rate": 4.833333333333334e-07, |
| "loss": 1.0198, |
| "step": 30 |
| }, |
| { |
| "epoch": 0.0006666666666666666, |
| "grad_norm": 3.046875, |
| "learning_rate": 6.5e-07, |
| "loss": 1.0176, |
| "step": 40 |
| }, |
| { |
| "epoch": 0.0008333333333333334, |
| "grad_norm": 88.0, |
| "learning_rate": 8.166666666666668e-07, |
| "loss": 1.0176, |
| "step": 50 |
| }, |
| { |
| "epoch": 0.001, |
| "grad_norm": 166.0, |
| "learning_rate": 9.833333333333334e-07, |
| "loss": 0.8996, |
| "step": 60 |
| }, |
| { |
| "epoch": 0.0011666666666666668, |
| "grad_norm": 14.6875, |
| "learning_rate": 1.1500000000000002e-06, |
| "loss": 0.947, |
| "step": 70 |
| }, |
| { |
| "epoch": 0.0013333333333333333, |
| "grad_norm": 62.25, |
| "learning_rate": 1.3166666666666666e-06, |
| "loss": 1.0563, |
| "step": 80 |
| }, |
| { |
| "epoch": 0.0015, |
| "grad_norm": 61.0, |
| "learning_rate": 1.4833333333333337e-06, |
| "loss": 1.0299, |
| "step": 90 |
| }, |
| { |
| "epoch": 0.0016666666666666668, |
| "grad_norm": 55.25, |
| "learning_rate": 1.6500000000000003e-06, |
| "loss": 1.0612, |
| "step": 100 |
| }, |
| { |
| "epoch": 0.0018333333333333333, |
| "grad_norm": 53.25, |
| "learning_rate": 1.816666666666667e-06, |
| "loss": 0.9366, |
| "step": 110 |
| }, |
| { |
| "epoch": 0.002, |
| "grad_norm": 63.0, |
| "learning_rate": 1.9833333333333335e-06, |
| "loss": 0.8814, |
| "step": 120 |
| }, |
| { |
| "epoch": 0.0021666666666666666, |
| "grad_norm": 112.5, |
| "learning_rate": 2.15e-06, |
| "loss": 1.0538, |
| "step": 130 |
| }, |
| { |
| "epoch": 0.0023333333333333335, |
| "grad_norm": 2.390625, |
| "learning_rate": 2.316666666666667e-06, |
| "loss": 0.847, |
| "step": 140 |
| }, |
| { |
| "epoch": 0.0025, |
| "grad_norm": 116.0, |
| "learning_rate": 2.4833333333333334e-06, |
| "loss": 1.0457, |
| "step": 150 |
| }, |
| { |
| "epoch": 0.0026666666666666666, |
| "grad_norm": 57.75, |
| "learning_rate": 2.6500000000000005e-06, |
| "loss": 1.0219, |
| "step": 160 |
| }, |
| { |
| "epoch": 0.0028333333333333335, |
| "grad_norm": 77.0, |
| "learning_rate": 2.816666666666667e-06, |
| "loss": 0.9572, |
| "step": 170 |
| }, |
| { |
| "epoch": 0.003, |
| "grad_norm": 125.5, |
| "learning_rate": 2.9833333333333337e-06, |
| "loss": 0.9517, |
| "step": 180 |
| }, |
| { |
| "epoch": 0.0031666666666666666, |
| "grad_norm": 73.5, |
| "learning_rate": 3.1500000000000003e-06, |
| "loss": 0.9598, |
| "step": 190 |
| }, |
| { |
| "epoch": 0.0033333333333333335, |
| "grad_norm": 77.0, |
| "learning_rate": 3.316666666666667e-06, |
| "loss": 1.0487, |
| "step": 200 |
| }, |
| { |
| "epoch": 0.0035, |
| "grad_norm": 2.96875, |
| "learning_rate": 3.4833333333333336e-06, |
| "loss": 1.0143, |
| "step": 210 |
| }, |
| { |
| "epoch": 0.0036666666666666666, |
| "grad_norm": 76.5, |
| "learning_rate": 3.65e-06, |
| "loss": 0.8985, |
| "step": 220 |
| }, |
| { |
| "epoch": 0.003833333333333333, |
| "grad_norm": 125.0, |
| "learning_rate": 3.816666666666667e-06, |
| "loss": 1.0495, |
| "step": 230 |
| }, |
| { |
| "epoch": 0.004, |
| "grad_norm": 106.5, |
| "learning_rate": 3.983333333333334e-06, |
| "loss": 0.916, |
| "step": 240 |
| }, |
| { |
| "epoch": 0.004166666666666667, |
| "grad_norm": 100.5, |
| "learning_rate": 4.15e-06, |
| "loss": 0.9878, |
| "step": 250 |
| }, |
| { |
| "epoch": 0.004333333333333333, |
| "grad_norm": 110.5, |
| "learning_rate": 4.316666666666667e-06, |
| "loss": 1.0127, |
| "step": 260 |
| }, |
| { |
| "epoch": 0.0045, |
| "grad_norm": 46.75, |
| "learning_rate": 4.483333333333333e-06, |
| "loss": 1.0361, |
| "step": 270 |
| }, |
| { |
| "epoch": 0.004666666666666667, |
| "grad_norm": 100.5, |
| "learning_rate": 4.65e-06, |
| "loss": 1.0867, |
| "step": 280 |
| }, |
| { |
| "epoch": 0.004833333333333334, |
| "grad_norm": 71.0, |
| "learning_rate": 4.816666666666667e-06, |
| "loss": 0.9834, |
| "step": 290 |
| }, |
| { |
| "epoch": 0.005, |
| "grad_norm": 123.0, |
| "learning_rate": 4.983333333333334e-06, |
| "loss": 0.9392, |
| "step": 300 |
| }, |
| { |
| "epoch": 0.005166666666666667, |
| "grad_norm": 112.0, |
| "learning_rate": 5.150000000000001e-06, |
| "loss": 0.9409, |
| "step": 310 |
| }, |
| { |
| "epoch": 0.005333333333333333, |
| "grad_norm": 14.6875, |
| "learning_rate": 5.316666666666667e-06, |
| "loss": 0.8603, |
| "step": 320 |
| }, |
| { |
| "epoch": 0.0055, |
| "grad_norm": 43.25, |
| "learning_rate": 5.483333333333334e-06, |
| "loss": 0.9863, |
| "step": 330 |
| }, |
| { |
| "epoch": 0.005666666666666667, |
| "grad_norm": 75.5, |
| "learning_rate": 5.65e-06, |
| "loss": 0.9377, |
| "step": 340 |
| }, |
| { |
| "epoch": 0.005833333333333334, |
| "grad_norm": 87.5, |
| "learning_rate": 5.816666666666667e-06, |
| "loss": 1.0604, |
| "step": 350 |
| }, |
| { |
| "epoch": 0.006, |
| "grad_norm": 94.0, |
| "learning_rate": 5.983333333333334e-06, |
| "loss": 0.886, |
| "step": 360 |
| }, |
| { |
| "epoch": 0.006166666666666667, |
| "grad_norm": 99.0, |
| "learning_rate": 6.15e-06, |
| "loss": 0.9562, |
| "step": 370 |
| }, |
| { |
| "epoch": 0.006333333333333333, |
| "grad_norm": 88.0, |
| "learning_rate": 6.3166666666666675e-06, |
| "loss": 0.963, |
| "step": 380 |
| }, |
| { |
| "epoch": 0.0065, |
| "grad_norm": 90.0, |
| "learning_rate": 6.483333333333334e-06, |
| "loss": 1.0392, |
| "step": 390 |
| }, |
| { |
| "epoch": 0.006666666666666667, |
| "grad_norm": 54.0, |
| "learning_rate": 6.650000000000001e-06, |
| "loss": 0.9961, |
| "step": 400 |
| }, |
| { |
| "epoch": 0.006833333333333334, |
| "grad_norm": 141.0, |
| "learning_rate": 6.816666666666667e-06, |
| "loss": 0.8653, |
| "step": 410 |
| }, |
| { |
| "epoch": 0.007, |
| "grad_norm": 56.0, |
| "learning_rate": 6.983333333333334e-06, |
| "loss": 0.8547, |
| "step": 420 |
| }, |
| { |
| "epoch": 0.007166666666666667, |
| "grad_norm": 33.25, |
| "learning_rate": 7.15e-06, |
| "loss": 0.7588, |
| "step": 430 |
| }, |
| { |
| "epoch": 0.007333333333333333, |
| "grad_norm": 68.0, |
| "learning_rate": 7.316666666666667e-06, |
| "loss": 0.6727, |
| "step": 440 |
| }, |
| { |
| "epoch": 0.0075, |
| "grad_norm": 64.5, |
| "learning_rate": 7.483333333333333e-06, |
| "loss": 0.5759, |
| "step": 450 |
| }, |
| { |
| "epoch": 0.007666666666666666, |
| "grad_norm": 46.25, |
| "learning_rate": 7.650000000000001e-06, |
| "loss": 0.5781, |
| "step": 460 |
| }, |
| { |
| "epoch": 0.007833333333333333, |
| "grad_norm": 103.5, |
| "learning_rate": 7.816666666666667e-06, |
| "loss": 0.445, |
| "step": 470 |
| }, |
| { |
| "epoch": 0.008, |
| "grad_norm": 3.1875, |
| "learning_rate": 7.983333333333334e-06, |
| "loss": 0.5985, |
| "step": 480 |
| }, |
| { |
| "epoch": 0.008166666666666666, |
| "grad_norm": 27.375, |
| "learning_rate": 8.15e-06, |
| "loss": 0.4831, |
| "step": 490 |
| }, |
| { |
| "epoch": 0.008333333333333333, |
| "grad_norm": 31.5, |
| "learning_rate": 8.316666666666668e-06, |
| "loss": 0.5219, |
| "step": 500 |
| }, |
| { |
| "epoch": 0.0085, |
| "grad_norm": 39.5, |
| "learning_rate": 8.483333333333334e-06, |
| "loss": 0.5079, |
| "step": 510 |
| }, |
| { |
| "epoch": 0.008666666666666666, |
| "grad_norm": 28.75, |
| "learning_rate": 8.65e-06, |
| "loss": 0.4834, |
| "step": 520 |
| }, |
| { |
| "epoch": 0.008833333333333334, |
| "grad_norm": 46.5, |
| "learning_rate": 8.816666666666668e-06, |
| "loss": 0.4476, |
| "step": 530 |
| }, |
| { |
| "epoch": 0.009, |
| "grad_norm": 29.625, |
| "learning_rate": 8.983333333333334e-06, |
| "loss": 0.4902, |
| "step": 540 |
| }, |
| { |
| "epoch": 0.009166666666666667, |
| "grad_norm": 16.75, |
| "learning_rate": 9.15e-06, |
| "loss": 0.4329, |
| "step": 550 |
| }, |
| { |
| "epoch": 0.009333333333333334, |
| "grad_norm": 15.1875, |
| "learning_rate": 9.316666666666667e-06, |
| "loss": 0.4649, |
| "step": 560 |
| }, |
| { |
| "epoch": 0.0095, |
| "grad_norm": 14.25, |
| "learning_rate": 9.483333333333335e-06, |
| "loss": 0.4534, |
| "step": 570 |
| }, |
| { |
| "epoch": 0.009666666666666667, |
| "grad_norm": 37.0, |
| "learning_rate": 9.65e-06, |
| "loss": 0.4543, |
| "step": 580 |
| }, |
| { |
| "epoch": 0.009833333333333333, |
| "grad_norm": 55.25, |
| "learning_rate": 9.816666666666667e-06, |
| "loss": 0.4099, |
| "step": 590 |
| }, |
| { |
| "epoch": 0.01, |
| "grad_norm": 15.75, |
| "learning_rate": 9.983333333333333e-06, |
| "loss": 0.3763, |
| "step": 600 |
| }, |
| { |
| "epoch": 0.010166666666666666, |
| "grad_norm": 2.921875, |
| "learning_rate": 1.015e-05, |
| "loss": 0.4143, |
| "step": 610 |
| }, |
| { |
| "epoch": 0.010333333333333333, |
| "grad_norm": 44.5, |
| "learning_rate": 1.0316666666666669e-05, |
| "loss": 0.4402, |
| "step": 620 |
| }, |
| { |
| "epoch": 0.0105, |
| "grad_norm": 3.484375, |
| "learning_rate": 1.0483333333333333e-05, |
| "loss": 0.4119, |
| "step": 630 |
| }, |
| { |
| "epoch": 0.010666666666666666, |
| "grad_norm": 22.875, |
| "learning_rate": 1.065e-05, |
| "loss": 0.4015, |
| "step": 640 |
| }, |
| { |
| "epoch": 0.010833333333333334, |
| "grad_norm": 65.5, |
| "learning_rate": 1.081666666666667e-05, |
| "loss": 0.4166, |
| "step": 650 |
| }, |
| { |
| "epoch": 0.011, |
| "grad_norm": 8.0, |
| "learning_rate": 1.0983333333333335e-05, |
| "loss": 0.346, |
| "step": 660 |
| }, |
| { |
| "epoch": 0.011166666666666667, |
| "grad_norm": 28.0, |
| "learning_rate": 1.1150000000000002e-05, |
| "loss": 0.4028, |
| "step": 670 |
| }, |
| { |
| "epoch": 0.011333333333333334, |
| "grad_norm": 31.125, |
| "learning_rate": 1.1316666666666666e-05, |
| "loss": 0.4282, |
| "step": 680 |
| }, |
| { |
| "epoch": 0.0115, |
| "grad_norm": 20.25, |
| "learning_rate": 1.1483333333333336e-05, |
| "loss": 0.4033, |
| "step": 690 |
| }, |
| { |
| "epoch": 0.011666666666666667, |
| "grad_norm": 34.0, |
| "learning_rate": 1.1650000000000002e-05, |
| "loss": 0.4188, |
| "step": 700 |
| }, |
| { |
| "epoch": 0.011833333333333333, |
| "grad_norm": 57.5, |
| "learning_rate": 1.1816666666666668e-05, |
| "loss": 0.3575, |
| "step": 710 |
| }, |
| { |
| "epoch": 0.012, |
| "grad_norm": 115.5, |
| "learning_rate": 1.1983333333333333e-05, |
| "loss": 0.3676, |
| "step": 720 |
| }, |
| { |
| "epoch": 0.012166666666666666, |
| "grad_norm": 33.0, |
| "learning_rate": 1.2150000000000002e-05, |
| "loss": 0.3607, |
| "step": 730 |
| }, |
| { |
| "epoch": 0.012333333333333333, |
| "grad_norm": 24.125, |
| "learning_rate": 1.2316666666666668e-05, |
| "loss": 0.4099, |
| "step": 740 |
| }, |
| { |
| "epoch": 0.0125, |
| "grad_norm": 52.25, |
| "learning_rate": 1.2483333333333335e-05, |
| "loss": 0.338, |
| "step": 750 |
| }, |
| { |
| "epoch": 0.012666666666666666, |
| "grad_norm": 57.75, |
| "learning_rate": 1.2650000000000001e-05, |
| "loss": 0.3399, |
| "step": 760 |
| }, |
| { |
| "epoch": 0.012833333333333334, |
| "grad_norm": 167.0, |
| "learning_rate": 1.2816666666666669e-05, |
| "loss": 0.3174, |
| "step": 770 |
| }, |
| { |
| "epoch": 0.013, |
| "grad_norm": 39.0, |
| "learning_rate": 1.2983333333333335e-05, |
| "loss": 0.3727, |
| "step": 780 |
| }, |
| { |
| "epoch": 0.013166666666666667, |
| "grad_norm": 36.5, |
| "learning_rate": 1.3150000000000001e-05, |
| "loss": 0.3114, |
| "step": 790 |
| }, |
| { |
| "epoch": 0.013333333333333334, |
| "grad_norm": 95.0, |
| "learning_rate": 1.3316666666666669e-05, |
| "loss": 0.3539, |
| "step": 800 |
| }, |
| { |
| "epoch": 0.0135, |
| "grad_norm": 87.5, |
| "learning_rate": 1.3483333333333335e-05, |
| "loss": 0.4237, |
| "step": 810 |
| }, |
| { |
| "epoch": 0.013666666666666667, |
| "grad_norm": 51.25, |
| "learning_rate": 1.3650000000000001e-05, |
| "loss": 0.3553, |
| "step": 820 |
| }, |
| { |
| "epoch": 0.013833333333333333, |
| "grad_norm": 34.75, |
| "learning_rate": 1.3816666666666668e-05, |
| "loss": 0.3784, |
| "step": 830 |
| }, |
| { |
| "epoch": 0.014, |
| "grad_norm": 105.5, |
| "learning_rate": 1.3983333333333336e-05, |
| "loss": 0.3686, |
| "step": 840 |
| }, |
| { |
| "epoch": 0.014166666666666666, |
| "grad_norm": 105.5, |
| "learning_rate": 1.4150000000000002e-05, |
| "loss": 0.3587, |
| "step": 850 |
| }, |
| { |
| "epoch": 0.014333333333333333, |
| "grad_norm": 74.5, |
| "learning_rate": 1.4316666666666668e-05, |
| "loss": 0.3027, |
| "step": 860 |
| }, |
| { |
| "epoch": 0.0145, |
| "grad_norm": 83.5, |
| "learning_rate": 1.4483333333333334e-05, |
| "loss": 0.3758, |
| "step": 870 |
| }, |
| { |
| "epoch": 0.014666666666666666, |
| "grad_norm": 8.0625, |
| "learning_rate": 1.4650000000000002e-05, |
| "loss": 0.3392, |
| "step": 880 |
| }, |
| { |
| "epoch": 0.014833333333333334, |
| "grad_norm": 51.75, |
| "learning_rate": 1.4816666666666668e-05, |
| "loss": 0.3166, |
| "step": 890 |
| }, |
| { |
| "epoch": 0.015, |
| "grad_norm": 72.0, |
| "learning_rate": 1.4983333333333334e-05, |
| "loss": 0.2983, |
| "step": 900 |
| }, |
| { |
| "epoch": 0.015166666666666667, |
| "grad_norm": 77.5, |
| "learning_rate": 1.515e-05, |
| "loss": 0.2809, |
| "step": 910 |
| }, |
| { |
| "epoch": 0.015333333333333332, |
| "grad_norm": 78.0, |
| "learning_rate": 1.531666666666667e-05, |
| "loss": 0.2963, |
| "step": 920 |
| }, |
| { |
| "epoch": 0.0155, |
| "grad_norm": 47.5, |
| "learning_rate": 1.5483333333333335e-05, |
| "loss": 0.311, |
| "step": 930 |
| }, |
| { |
| "epoch": 0.015666666666666666, |
| "grad_norm": 48.5, |
| "learning_rate": 1.565e-05, |
| "loss": 0.3413, |
| "step": 940 |
| }, |
| { |
| "epoch": 0.015833333333333335, |
| "grad_norm": 40.25, |
| "learning_rate": 1.581666666666667e-05, |
| "loss": 0.3136, |
| "step": 950 |
| }, |
| { |
| "epoch": 0.016, |
| "grad_norm": 31.5, |
| "learning_rate": 1.5983333333333337e-05, |
| "loss": 0.2863, |
| "step": 960 |
| }, |
| { |
| "epoch": 0.016166666666666666, |
| "grad_norm": 21.625, |
| "learning_rate": 1.6150000000000003e-05, |
| "loss": 0.308, |
| "step": 970 |
| }, |
| { |
| "epoch": 0.01633333333333333, |
| "grad_norm": 16.625, |
| "learning_rate": 1.6316666666666666e-05, |
| "loss": 0.2777, |
| "step": 980 |
| }, |
| { |
| "epoch": 0.0165, |
| "grad_norm": 44.25, |
| "learning_rate": 1.6483333333333335e-05, |
| "loss": 0.2823, |
| "step": 990 |
| }, |
| { |
| "epoch": 0.016666666666666666, |
| "grad_norm": 11.25, |
| "learning_rate": 1.665e-05, |
| "loss": 0.2544, |
| "step": 1000 |
| }, |
| { |
| "epoch": 0.016833333333333332, |
| "grad_norm": 34.5, |
| "learning_rate": 1.6816666666666668e-05, |
| "loss": 0.2924, |
| "step": 1010 |
| }, |
| { |
| "epoch": 0.017, |
| "grad_norm": 36.75, |
| "learning_rate": 1.6983333333333334e-05, |
| "loss": 0.2411, |
| "step": 1020 |
| }, |
| { |
| "epoch": 0.017166666666666667, |
| "grad_norm": 43.75, |
| "learning_rate": 1.7150000000000004e-05, |
| "loss": 0.2562, |
| "step": 1030 |
| }, |
| { |
| "epoch": 0.017333333333333333, |
| "grad_norm": 26.25, |
| "learning_rate": 1.731666666666667e-05, |
| "loss": 0.2763, |
| "step": 1040 |
| }, |
| { |
| "epoch": 0.0175, |
| "grad_norm": 91.5, |
| "learning_rate": 1.7483333333333336e-05, |
| "loss": 0.2806, |
| "step": 1050 |
| }, |
| { |
| "epoch": 0.017666666666666667, |
| "grad_norm": 21.375, |
| "learning_rate": 1.7650000000000002e-05, |
| "loss": 0.2518, |
| "step": 1060 |
| }, |
| { |
| "epoch": 0.017833333333333333, |
| "grad_norm": 61.75, |
| "learning_rate": 1.781666666666667e-05, |
| "loss": 0.2292, |
| "step": 1070 |
| }, |
| { |
| "epoch": 0.018, |
| "grad_norm": 37.5, |
| "learning_rate": 1.7983333333333335e-05, |
| "loss": 0.2457, |
| "step": 1080 |
| }, |
| { |
| "epoch": 0.018166666666666668, |
| "grad_norm": 12.25, |
| "learning_rate": 1.815e-05, |
| "loss": 0.2422, |
| "step": 1090 |
| }, |
| { |
| "epoch": 0.018333333333333333, |
| "grad_norm": 27.75, |
| "learning_rate": 1.831666666666667e-05, |
| "loss": 0.2784, |
| "step": 1100 |
| }, |
| { |
| "epoch": 0.0185, |
| "grad_norm": 56.25, |
| "learning_rate": 1.8483333333333337e-05, |
| "loss": 0.2425, |
| "step": 1110 |
| }, |
| { |
| "epoch": 0.018666666666666668, |
| "grad_norm": 187.0, |
| "learning_rate": 1.8650000000000003e-05, |
| "loss": 0.2542, |
| "step": 1120 |
| }, |
| { |
| "epoch": 0.018833333333333334, |
| "grad_norm": 95.5, |
| "learning_rate": 1.881666666666667e-05, |
| "loss": 0.262, |
| "step": 1130 |
| }, |
| { |
| "epoch": 0.019, |
| "grad_norm": 3.53125, |
| "learning_rate": 1.8983333333333335e-05, |
| "loss": 0.2445, |
| "step": 1140 |
| }, |
| { |
| "epoch": 0.019166666666666665, |
| "grad_norm": 75.5, |
| "learning_rate": 1.915e-05, |
| "loss": 0.2553, |
| "step": 1150 |
| }, |
| { |
| "epoch": 0.019333333333333334, |
| "grad_norm": 66.5, |
| "learning_rate": 1.9316666666666668e-05, |
| "loss": 0.221, |
| "step": 1160 |
| }, |
| { |
| "epoch": 0.0195, |
| "grad_norm": 90.0, |
| "learning_rate": 1.9483333333333334e-05, |
| "loss": 0.209, |
| "step": 1170 |
| }, |
| { |
| "epoch": 0.019666666666666666, |
| "grad_norm": 37.5, |
| "learning_rate": 1.9650000000000003e-05, |
| "loss": 0.2169, |
| "step": 1180 |
| }, |
| { |
| "epoch": 0.019833333333333335, |
| "grad_norm": 39.75, |
| "learning_rate": 1.981666666666667e-05, |
| "loss": 0.2422, |
| "step": 1190 |
| }, |
| { |
| "epoch": 0.02, |
| "grad_norm": 25.0, |
| "learning_rate": 1.9983333333333336e-05, |
| "loss": 0.2205, |
| "step": 1200 |
| }, |
| { |
| "epoch": 0.020166666666666666, |
| "grad_norm": 45.5, |
| "learning_rate": 1.9999998843887473e-05, |
| "loss": 0.2016, |
| "step": 1210 |
| }, |
| { |
| "epoch": 0.02033333333333333, |
| "grad_norm": 61.0, |
| "learning_rate": 1.999999484744944e-05, |
| "loss": 0.2072, |
| "step": 1220 |
| }, |
| { |
| "epoch": 0.0205, |
| "grad_norm": 39.0, |
| "learning_rate": 1.9999987996414054e-05, |
| "loss": 0.2187, |
| "step": 1230 |
| }, |
| { |
| "epoch": 0.020666666666666667, |
| "grad_norm": 56.0, |
| "learning_rate": 1.9999978290783265e-05, |
| "loss": 0.211, |
| "step": 1240 |
| }, |
| { |
| "epoch": 0.020833333333333332, |
| "grad_norm": 25.125, |
| "learning_rate": 1.9999965730559848e-05, |
| "loss": 0.2078, |
| "step": 1250 |
| }, |
| { |
| "epoch": 0.021, |
| "grad_norm": 1.9765625, |
| "learning_rate": 1.9999950315747386e-05, |
| "loss": 0.1906, |
| "step": 1260 |
| }, |
| { |
| "epoch": 0.021166666666666667, |
| "grad_norm": 58.5, |
| "learning_rate": 1.9999932046350286e-05, |
| "loss": 0.2151, |
| "step": 1270 |
| }, |
| { |
| "epoch": 0.021333333333333333, |
| "grad_norm": 46.75, |
| "learning_rate": 1.9999910922373752e-05, |
| "loss": 0.198, |
| "step": 1280 |
| }, |
| { |
| "epoch": 0.0215, |
| "grad_norm": 106.5, |
| "learning_rate": 1.9999886943823822e-05, |
| "loss": 0.212, |
| "step": 1290 |
| }, |
| { |
| "epoch": 0.021666666666666667, |
| "grad_norm": 42.75, |
| "learning_rate": 1.999986011070734e-05, |
| "loss": 0.1838, |
| "step": 1300 |
| }, |
| { |
| "epoch": 0.021833333333333333, |
| "grad_norm": 11.8125, |
| "learning_rate": 1.999983042303196e-05, |
| "loss": 0.1846, |
| "step": 1310 |
| }, |
| { |
| "epoch": 0.022, |
| "grad_norm": 42.75, |
| "learning_rate": 1.9999797880806163e-05, |
| "loss": 0.1882, |
| "step": 1320 |
| }, |
| { |
| "epoch": 0.022166666666666668, |
| "grad_norm": 34.5, |
| "learning_rate": 1.9999762484039238e-05, |
| "loss": 0.2055, |
| "step": 1330 |
| }, |
| { |
| "epoch": 0.022333333333333334, |
| "grad_norm": 78.5, |
| "learning_rate": 1.999972423274129e-05, |
| "loss": 0.1959, |
| "step": 1340 |
| }, |
| { |
| "epoch": 0.0225, |
| "grad_norm": 56.75, |
| "learning_rate": 1.999968312692323e-05, |
| "loss": 0.1896, |
| "step": 1350 |
| }, |
| { |
| "epoch": 0.02266666666666667, |
| "grad_norm": 31.0, |
| "learning_rate": 1.99996391665968e-05, |
| "loss": 0.203, |
| "step": 1360 |
| }, |
| { |
| "epoch": 0.022833333333333334, |
| "grad_norm": 40.75, |
| "learning_rate": 1.999959235177455e-05, |
| "loss": 0.196, |
| "step": 1370 |
| }, |
| { |
| "epoch": 0.023, |
| "grad_norm": 63.25, |
| "learning_rate": 1.999954268246984e-05, |
| "loss": 0.191, |
| "step": 1380 |
| }, |
| { |
| "epoch": 0.023166666666666665, |
| "grad_norm": 89.5, |
| "learning_rate": 1.9999490158696847e-05, |
| "loss": 0.1696, |
| "step": 1390 |
| }, |
| { |
| "epoch": 0.023333333333333334, |
| "grad_norm": 83.0, |
| "learning_rate": 1.9999434780470567e-05, |
| "loss": 0.1765, |
| "step": 1400 |
| }, |
| { |
| "epoch": 0.0235, |
| "grad_norm": 2.65625, |
| "learning_rate": 1.999937654780681e-05, |
| "loss": 0.1824, |
| "step": 1410 |
| }, |
| { |
| "epoch": 0.023666666666666666, |
| "grad_norm": 36.25, |
| "learning_rate": 1.9999315460722197e-05, |
| "loss": 0.1689, |
| "step": 1420 |
| }, |
| { |
| "epoch": 0.023833333333333335, |
| "grad_norm": 27.875, |
| "learning_rate": 1.9999251519234167e-05, |
| "loss": 0.178, |
| "step": 1430 |
| }, |
| { |
| "epoch": 0.024, |
| "grad_norm": 43.75, |
| "learning_rate": 1.9999184723360973e-05, |
| "loss": 0.1705, |
| "step": 1440 |
| }, |
| { |
| "epoch": 0.024166666666666666, |
| "grad_norm": 47.25, |
| "learning_rate": 1.9999115073121675e-05, |
| "loss": 0.1723, |
| "step": 1450 |
| }, |
| { |
| "epoch": 0.024333333333333332, |
| "grad_norm": 34.75, |
| "learning_rate": 1.9999042568536166e-05, |
| "loss": 0.1653, |
| "step": 1460 |
| }, |
| { |
| "epoch": 0.0245, |
| "grad_norm": 46.0, |
| "learning_rate": 1.999896720962514e-05, |
| "loss": 0.1736, |
| "step": 1470 |
| }, |
| { |
| "epoch": 0.024666666666666667, |
| "grad_norm": 42.0, |
| "learning_rate": 1.9998888996410107e-05, |
| "loss": 0.1619, |
| "step": 1480 |
| }, |
| { |
| "epoch": 0.024833333333333332, |
| "grad_norm": 2.796875, |
| "learning_rate": 1.9998807928913394e-05, |
| "loss": 0.1646, |
| "step": 1490 |
| }, |
| { |
| "epoch": 0.025, |
| "grad_norm": 22.625, |
| "learning_rate": 1.9998724007158144e-05, |
| "loss": 0.1974, |
| "step": 1500 |
| }, |
| { |
| "epoch": 0.025166666666666667, |
| "grad_norm": 6.125, |
| "learning_rate": 1.999863723116831e-05, |
| "loss": 0.1706, |
| "step": 1510 |
| }, |
| { |
| "epoch": 0.025333333333333333, |
| "grad_norm": 19.75, |
| "learning_rate": 1.9998547600968667e-05, |
| "loss": 0.1588, |
| "step": 1520 |
| }, |
| { |
| "epoch": 0.0255, |
| "grad_norm": 22.875, |
| "learning_rate": 1.9998455116584797e-05, |
| "loss": 0.1608, |
| "step": 1530 |
| }, |
| { |
| "epoch": 0.025666666666666667, |
| "grad_norm": 19.875, |
| "learning_rate": 1.999835977804311e-05, |
| "loss": 0.1581, |
| "step": 1540 |
| }, |
| { |
| "epoch": 0.025833333333333333, |
| "grad_norm": 59.25, |
| "learning_rate": 1.9998261585370807e-05, |
| "loss": 0.1603, |
| "step": 1550 |
| }, |
| { |
| "epoch": 0.026, |
| "grad_norm": 12.6875, |
| "learning_rate": 1.9998160538595927e-05, |
| "loss": 0.152, |
| "step": 1560 |
| }, |
| { |
| "epoch": 0.026166666666666668, |
| "grad_norm": 37.75, |
| "learning_rate": 1.9998056637747315e-05, |
| "loss": 0.1629, |
| "step": 1570 |
| }, |
| { |
| "epoch": 0.026333333333333334, |
| "grad_norm": 53.75, |
| "learning_rate": 1.9997949882854626e-05, |
| "loss": 0.1656, |
| "step": 1580 |
| }, |
| { |
| "epoch": 0.0265, |
| "grad_norm": 71.5, |
| "learning_rate": 1.999784027394834e-05, |
| "loss": 0.1549, |
| "step": 1590 |
| }, |
| { |
| "epoch": 0.02666666666666667, |
| "grad_norm": 55.0, |
| "learning_rate": 1.999772781105974e-05, |
| "loss": 0.156, |
| "step": 1600 |
| }, |
| { |
| "epoch": 0.026833333333333334, |
| "grad_norm": 35.75, |
| "learning_rate": 1.9997612494220932e-05, |
| "loss": 0.1532, |
| "step": 1610 |
| }, |
| { |
| "epoch": 0.027, |
| "grad_norm": 39.25, |
| "learning_rate": 1.9997494323464837e-05, |
| "loss": 0.1783, |
| "step": 1620 |
| }, |
| { |
| "epoch": 0.027166666666666665, |
| "grad_norm": 32.5, |
| "learning_rate": 1.9997373298825186e-05, |
| "loss": 0.1803, |
| "step": 1630 |
| }, |
| { |
| "epoch": 0.027333333333333334, |
| "grad_norm": 59.5, |
| "learning_rate": 1.9997249420336522e-05, |
| "loss": 0.1614, |
| "step": 1640 |
| }, |
| { |
| "epoch": 0.0275, |
| "grad_norm": 21.625, |
| "learning_rate": 1.9997122688034216e-05, |
| "loss": 0.152, |
| "step": 1650 |
| }, |
| { |
| "epoch": 0.027666666666666666, |
| "grad_norm": 25.5, |
| "learning_rate": 1.9996993101954438e-05, |
| "loss": 0.1672, |
| "step": 1660 |
| }, |
| { |
| "epoch": 0.027833333333333335, |
| "grad_norm": 32.25, |
| "learning_rate": 1.9996860662134185e-05, |
| "loss": 0.164, |
| "step": 1670 |
| }, |
| { |
| "epoch": 0.028, |
| "grad_norm": 24.875, |
| "learning_rate": 1.999672536861126e-05, |
| "loss": 0.1553, |
| "step": 1680 |
| }, |
| { |
| "epoch": 0.028166666666666666, |
| "grad_norm": 36.0, |
| "learning_rate": 1.9996587221424284e-05, |
| "loss": 0.1532, |
| "step": 1690 |
| }, |
| { |
| "epoch": 0.028333333333333332, |
| "grad_norm": 24.125, |
| "learning_rate": 1.9996446220612692e-05, |
| "loss": 0.1561, |
| "step": 1700 |
| }, |
| { |
| "epoch": 0.0285, |
| "grad_norm": 2.796875, |
| "learning_rate": 1.9996302366216737e-05, |
| "loss": 0.1445, |
| "step": 1710 |
| }, |
| { |
| "epoch": 0.028666666666666667, |
| "grad_norm": 32.0, |
| "learning_rate": 1.999615565827748e-05, |
| "loss": 0.16, |
| "step": 1720 |
| }, |
| { |
| "epoch": 0.028833333333333332, |
| "grad_norm": 38.0, |
| "learning_rate": 1.99960060968368e-05, |
| "loss": 0.1552, |
| "step": 1730 |
| }, |
| { |
| "epoch": 0.029, |
| "grad_norm": 24.25, |
| "learning_rate": 1.9995853681937397e-05, |
| "loss": 0.1615, |
| "step": 1740 |
| }, |
| { |
| "epoch": 0.029166666666666667, |
| "grad_norm": 4.125, |
| "learning_rate": 1.9995698413622777e-05, |
| "loss": 0.1546, |
| "step": 1750 |
| }, |
| { |
| "epoch": 0.029333333333333333, |
| "grad_norm": 27.75, |
| "learning_rate": 1.9995540291937255e-05, |
| "loss": 0.1507, |
| "step": 1760 |
| }, |
| { |
| "epoch": 0.0295, |
| "grad_norm": 10.5625, |
| "learning_rate": 1.9995379316925977e-05, |
| "loss": 0.1426, |
| "step": 1770 |
| }, |
| { |
| "epoch": 0.029666666666666668, |
| "grad_norm": 51.25, |
| "learning_rate": 1.9995215488634892e-05, |
| "loss": 0.1493, |
| "step": 1780 |
| }, |
| { |
| "epoch": 0.029833333333333333, |
| "grad_norm": 8.25, |
| "learning_rate": 1.9995048807110765e-05, |
| "loss": 0.1726, |
| "step": 1790 |
| }, |
| { |
| "epoch": 0.03, |
| "grad_norm": 83.0, |
| "learning_rate": 1.9994879272401184e-05, |
| "loss": 0.1607, |
| "step": 1800 |
| }, |
| { |
| "epoch": 0.030166666666666668, |
| "grad_norm": 97.0, |
| "learning_rate": 1.9994706884554535e-05, |
| "loss": 0.151, |
| "step": 1810 |
| }, |
| { |
| "epoch": 0.030333333333333334, |
| "grad_norm": 24.0, |
| "learning_rate": 1.9994531643620033e-05, |
| "loss": 0.1393, |
| "step": 1820 |
| }, |
| { |
| "epoch": 0.0305, |
| "grad_norm": 23.25, |
| "learning_rate": 1.9994353549647697e-05, |
| "loss": 0.1582, |
| "step": 1830 |
| }, |
| { |
| "epoch": 0.030666666666666665, |
| "grad_norm": 37.25, |
| "learning_rate": 1.9994172602688376e-05, |
| "loss": 0.1596, |
| "step": 1840 |
| }, |
| { |
| "epoch": 0.030833333333333334, |
| "grad_norm": 95.5, |
| "learning_rate": 1.999398880279371e-05, |
| "loss": 0.1372, |
| "step": 1850 |
| }, |
| { |
| "epoch": 0.031, |
| "grad_norm": 30.375, |
| "learning_rate": 1.9993802150016176e-05, |
| "loss": 0.1523, |
| "step": 1860 |
| }, |
| { |
| "epoch": 0.031166666666666665, |
| "grad_norm": 15.875, |
| "learning_rate": 1.9993612644409053e-05, |
| "loss": 0.1383, |
| "step": 1870 |
| }, |
| { |
| "epoch": 0.03133333333333333, |
| "grad_norm": 29.0, |
| "learning_rate": 1.999342028602644e-05, |
| "loss": 0.1652, |
| "step": 1880 |
| }, |
| { |
| "epoch": 0.0315, |
| "grad_norm": 36.0, |
| "learning_rate": 1.9993225074923244e-05, |
| "loss": 0.1522, |
| "step": 1890 |
| }, |
| { |
| "epoch": 0.03166666666666667, |
| "grad_norm": 50.25, |
| "learning_rate": 1.999302701115519e-05, |
| "loss": 0.1464, |
| "step": 1900 |
| }, |
| { |
| "epoch": 0.03183333333333333, |
| "grad_norm": 21.875, |
| "learning_rate": 1.9992826094778817e-05, |
| "loss": 0.1454, |
| "step": 1910 |
| }, |
| { |
| "epoch": 0.032, |
| "grad_norm": 47.5, |
| "learning_rate": 1.999262232585148e-05, |
| "loss": 0.1389, |
| "step": 1920 |
| }, |
| { |
| "epoch": 0.03216666666666667, |
| "grad_norm": 20.75, |
| "learning_rate": 1.9992415704431352e-05, |
| "loss": 0.1515, |
| "step": 1930 |
| }, |
| { |
| "epoch": 0.03233333333333333, |
| "grad_norm": 180.0, |
| "learning_rate": 1.9992206230577406e-05, |
| "loss": 0.1594, |
| "step": 1940 |
| }, |
| { |
| "epoch": 0.0325, |
| "grad_norm": 21.875, |
| "learning_rate": 1.999199390434944e-05, |
| "loss": 0.1418, |
| "step": 1950 |
| }, |
| { |
| "epoch": 0.03266666666666666, |
| "grad_norm": 118.5, |
| "learning_rate": 1.999177872580807e-05, |
| "loss": 0.1497, |
| "step": 1960 |
| }, |
| { |
| "epoch": 0.03283333333333333, |
| "grad_norm": 53.0, |
| "learning_rate": 1.9991560695014715e-05, |
| "loss": 0.145, |
| "step": 1970 |
| }, |
| { |
| "epoch": 0.033, |
| "grad_norm": 16.375, |
| "learning_rate": 1.9991339812031618e-05, |
| "loss": 0.1353, |
| "step": 1980 |
| }, |
| { |
| "epoch": 0.033166666666666664, |
| "grad_norm": 3.34375, |
| "learning_rate": 1.9991116076921826e-05, |
| "loss": 0.1564, |
| "step": 1990 |
| }, |
| { |
| "epoch": 0.03333333333333333, |
| "grad_norm": 76.0, |
| "learning_rate": 1.9990889489749217e-05, |
| "loss": 0.1425, |
| "step": 2000 |
| }, |
| { |
| "epoch": 0.0335, |
| "grad_norm": 23.5, |
| "learning_rate": 1.9990660050578464e-05, |
| "loss": 0.1374, |
| "step": 2010 |
| }, |
| { |
| "epoch": 0.033666666666666664, |
| "grad_norm": 15.4375, |
| "learning_rate": 1.9990427759475068e-05, |
| "loss": 0.1251, |
| "step": 2020 |
| }, |
| { |
| "epoch": 0.03383333333333333, |
| "grad_norm": 3.078125, |
| "learning_rate": 1.9990192616505336e-05, |
| "loss": 0.1331, |
| "step": 2030 |
| }, |
| { |
| "epoch": 0.034, |
| "grad_norm": 33.0, |
| "learning_rate": 1.998995462173639e-05, |
| "loss": 0.1394, |
| "step": 2040 |
| }, |
| { |
| "epoch": 0.034166666666666665, |
| "grad_norm": 34.5, |
| "learning_rate": 1.9989713775236173e-05, |
| "loss": 0.1499, |
| "step": 2050 |
| }, |
| { |
| "epoch": 0.034333333333333334, |
| "grad_norm": 57.75, |
| "learning_rate": 1.9989470077073432e-05, |
| "loss": 0.1464, |
| "step": 2060 |
| }, |
| { |
| "epoch": 0.0345, |
| "grad_norm": 72.5, |
| "learning_rate": 1.9989223527317737e-05, |
| "loss": 0.1539, |
| "step": 2070 |
| }, |
| { |
| "epoch": 0.034666666666666665, |
| "grad_norm": 8.5625, |
| "learning_rate": 1.998897412603946e-05, |
| "loss": 0.1355, |
| "step": 2080 |
| }, |
| { |
| "epoch": 0.034833333333333334, |
| "grad_norm": 39.25, |
| "learning_rate": 1.9988721873309808e-05, |
| "loss": 0.132, |
| "step": 2090 |
| }, |
| { |
| "epoch": 0.035, |
| "grad_norm": 70.5, |
| "learning_rate": 1.9988466769200784e-05, |
| "loss": 0.1422, |
| "step": 2100 |
| }, |
| { |
| "epoch": 0.035166666666666666, |
| "grad_norm": 9.875, |
| "learning_rate": 1.9988208813785205e-05, |
| "loss": 0.1508, |
| "step": 2110 |
| }, |
| { |
| "epoch": 0.035333333333333335, |
| "grad_norm": 9.125, |
| "learning_rate": 1.9987948007136707e-05, |
| "loss": 0.1412, |
| "step": 2120 |
| }, |
| { |
| "epoch": 0.0355, |
| "grad_norm": 31.0, |
| "learning_rate": 1.9987684349329748e-05, |
| "loss": 0.129, |
| "step": 2130 |
| }, |
| { |
| "epoch": 0.035666666666666666, |
| "grad_norm": 45.0, |
| "learning_rate": 1.9987417840439583e-05, |
| "loss": 0.1358, |
| "step": 2140 |
| }, |
| { |
| "epoch": 0.035833333333333335, |
| "grad_norm": 25.125, |
| "learning_rate": 1.9987148480542298e-05, |
| "loss": 0.1452, |
| "step": 2150 |
| }, |
| { |
| "epoch": 0.036, |
| "grad_norm": 33.5, |
| "learning_rate": 1.9986876269714773e-05, |
| "loss": 0.1386, |
| "step": 2160 |
| }, |
| { |
| "epoch": 0.036166666666666666, |
| "grad_norm": 30.125, |
| "learning_rate": 1.998660120803473e-05, |
| "loss": 0.1356, |
| "step": 2170 |
| }, |
| { |
| "epoch": 0.036333333333333336, |
| "grad_norm": 18.375, |
| "learning_rate": 1.998632329558067e-05, |
| "loss": 0.1425, |
| "step": 2180 |
| }, |
| { |
| "epoch": 0.0365, |
| "grad_norm": 6.78125, |
| "learning_rate": 1.9986042532431934e-05, |
| "loss": 0.1241, |
| "step": 2190 |
| }, |
| { |
| "epoch": 0.03666666666666667, |
| "grad_norm": 17.75, |
| "learning_rate": 1.9985758918668674e-05, |
| "loss": 0.1516, |
| "step": 2200 |
| }, |
| { |
| "epoch": 0.036833333333333336, |
| "grad_norm": 2.34375, |
| "learning_rate": 1.998547245437184e-05, |
| "loss": 0.1342, |
| "step": 2210 |
| }, |
| { |
| "epoch": 0.037, |
| "grad_norm": 2.421875, |
| "learning_rate": 1.9985183139623213e-05, |
| "loss": 0.1448, |
| "step": 2220 |
| }, |
| { |
| "epoch": 0.03716666666666667, |
| "grad_norm": 53.0, |
| "learning_rate": 1.9984890974505383e-05, |
| "loss": 0.1298, |
| "step": 2230 |
| }, |
| { |
| "epoch": 0.037333333333333336, |
| "grad_norm": 28.5, |
| "learning_rate": 1.9984595959101743e-05, |
| "loss": 0.1218, |
| "step": 2240 |
| }, |
| { |
| "epoch": 0.0375, |
| "grad_norm": 23.375, |
| "learning_rate": 1.9984298093496512e-05, |
| "loss": 0.1448, |
| "step": 2250 |
| }, |
| { |
| "epoch": 0.03766666666666667, |
| "grad_norm": 53.0, |
| "learning_rate": 1.9983997377774718e-05, |
| "loss": 0.132, |
| "step": 2260 |
| }, |
| { |
| "epoch": 0.03783333333333333, |
| "grad_norm": 31.0, |
| "learning_rate": 1.9983693812022206e-05, |
| "loss": 0.1426, |
| "step": 2270 |
| }, |
| { |
| "epoch": 0.038, |
| "grad_norm": 36.25, |
| "learning_rate": 1.9983387396325632e-05, |
| "loss": 0.1359, |
| "step": 2280 |
| }, |
| { |
| "epoch": 0.03816666666666667, |
| "grad_norm": 12.25, |
| "learning_rate": 1.9983078130772463e-05, |
| "loss": 0.1304, |
| "step": 2290 |
| }, |
| { |
| "epoch": 0.03833333333333333, |
| "grad_norm": 32.75, |
| "learning_rate": 1.9982766015450977e-05, |
| "loss": 0.1397, |
| "step": 2300 |
| }, |
| { |
| "epoch": 0.0385, |
| "grad_norm": 23.625, |
| "learning_rate": 1.998245105045028e-05, |
| "loss": 0.1439, |
| "step": 2310 |
| }, |
| { |
| "epoch": 0.03866666666666667, |
| "grad_norm": 26.0, |
| "learning_rate": 1.9982133235860278e-05, |
| "loss": 0.134, |
| "step": 2320 |
| }, |
| { |
| "epoch": 0.03883333333333333, |
| "grad_norm": 35.0, |
| "learning_rate": 1.9981812571771693e-05, |
| "loss": 0.1456, |
| "step": 2330 |
| }, |
| { |
| "epoch": 0.039, |
| "grad_norm": 19.75, |
| "learning_rate": 1.9981489058276065e-05, |
| "loss": 0.1345, |
| "step": 2340 |
| }, |
| { |
| "epoch": 0.03916666666666667, |
| "grad_norm": 107.0, |
| "learning_rate": 1.998116269546574e-05, |
| "loss": 0.1479, |
| "step": 2350 |
| }, |
| { |
| "epoch": 0.03933333333333333, |
| "grad_norm": 16.5, |
| "learning_rate": 1.9980833483433884e-05, |
| "loss": 0.1306, |
| "step": 2360 |
| }, |
| { |
| "epoch": 0.0395, |
| "grad_norm": 48.75, |
| "learning_rate": 1.9980501422274475e-05, |
| "loss": 0.1392, |
| "step": 2370 |
| }, |
| { |
| "epoch": 0.03966666666666667, |
| "grad_norm": 98.5, |
| "learning_rate": 1.99801665120823e-05, |
| "loss": 0.1287, |
| "step": 2380 |
| }, |
| { |
| "epoch": 0.03983333333333333, |
| "grad_norm": 9.1875, |
| "learning_rate": 1.997982875295296e-05, |
| "loss": 0.1401, |
| "step": 2390 |
| }, |
| { |
| "epoch": 0.04, |
| "grad_norm": 3.703125, |
| "learning_rate": 1.9979488144982877e-05, |
| "loss": 0.1214, |
| "step": 2400 |
| }, |
| { |
| "epoch": 0.04016666666666667, |
| "grad_norm": 25.0, |
| "learning_rate": 1.9979144688269283e-05, |
| "loss": 0.1537, |
| "step": 2410 |
| }, |
| { |
| "epoch": 0.04033333333333333, |
| "grad_norm": 36.25, |
| "learning_rate": 1.9978798382910213e-05, |
| "loss": 0.1276, |
| "step": 2420 |
| }, |
| { |
| "epoch": 0.0405, |
| "grad_norm": 25.375, |
| "learning_rate": 1.997844922900453e-05, |
| "loss": 0.1369, |
| "step": 2430 |
| }, |
| { |
| "epoch": 0.04066666666666666, |
| "grad_norm": 26.75, |
| "learning_rate": 1.99780972266519e-05, |
| "loss": 0.1345, |
| "step": 2440 |
| }, |
| { |
| "epoch": 0.04083333333333333, |
| "grad_norm": 40.5, |
| "learning_rate": 1.9977742375952807e-05, |
| "loss": 0.1304, |
| "step": 2450 |
| }, |
| { |
| "epoch": 0.041, |
| "grad_norm": 23.75, |
| "learning_rate": 1.9977384677008548e-05, |
| "loss": 0.1449, |
| "step": 2460 |
| }, |
| { |
| "epoch": 0.041166666666666664, |
| "grad_norm": 15.8125, |
| "learning_rate": 1.997702412992123e-05, |
| "loss": 0.125, |
| "step": 2470 |
| }, |
| { |
| "epoch": 0.04133333333333333, |
| "grad_norm": 30.125, |
| "learning_rate": 1.9976660734793772e-05, |
| "loss": 0.1387, |
| "step": 2480 |
| }, |
| { |
| "epoch": 0.0415, |
| "grad_norm": 45.75, |
| "learning_rate": 1.9976294491729915e-05, |
| "loss": 0.1299, |
| "step": 2490 |
| }, |
| { |
| "epoch": 0.041666666666666664, |
| "grad_norm": 122.5, |
| "learning_rate": 1.9975925400834203e-05, |
| "loss": 0.1456, |
| "step": 2500 |
| }, |
| { |
| "epoch": 0.041833333333333333, |
| "grad_norm": 35.25, |
| "learning_rate": 1.9975553462211995e-05, |
| "loss": 0.1326, |
| "step": 2510 |
| }, |
| { |
| "epoch": 0.042, |
| "grad_norm": 29.25, |
| "learning_rate": 1.9975178675969468e-05, |
| "loss": 0.1496, |
| "step": 2520 |
| }, |
| { |
| "epoch": 0.042166666666666665, |
| "grad_norm": 73.0, |
| "learning_rate": 1.9974801042213605e-05, |
| "loss": 0.1376, |
| "step": 2530 |
| }, |
| { |
| "epoch": 0.042333333333333334, |
| "grad_norm": 10.125, |
| "learning_rate": 1.9974420561052206e-05, |
| "loss": 0.14, |
| "step": 2540 |
| }, |
| { |
| "epoch": 0.0425, |
| "grad_norm": 18.625, |
| "learning_rate": 1.997403723259389e-05, |
| "loss": 0.1365, |
| "step": 2550 |
| }, |
| { |
| "epoch": 0.042666666666666665, |
| "grad_norm": 41.25, |
| "learning_rate": 1.997365105694807e-05, |
| "loss": 0.1329, |
| "step": 2560 |
| }, |
| { |
| "epoch": 0.042833333333333334, |
| "grad_norm": 53.0, |
| "learning_rate": 1.9973262034224993e-05, |
| "loss": 0.1388, |
| "step": 2570 |
| }, |
| { |
| "epoch": 0.043, |
| "grad_norm": 60.0, |
| "learning_rate": 1.9972870164535704e-05, |
| "loss": 0.135, |
| "step": 2580 |
| }, |
| { |
| "epoch": 0.043166666666666666, |
| "grad_norm": 53.0, |
| "learning_rate": 1.997247544799207e-05, |
| "loss": 0.1421, |
| "step": 2590 |
| }, |
| { |
| "epoch": 0.043333333333333335, |
| "grad_norm": 44.5, |
| "learning_rate": 1.9972077884706766e-05, |
| "loss": 0.1486, |
| "step": 2600 |
| }, |
| { |
| "epoch": 0.0435, |
| "grad_norm": 29.125, |
| "learning_rate": 1.9971677474793278e-05, |
| "loss": 0.1319, |
| "step": 2610 |
| }, |
| { |
| "epoch": 0.043666666666666666, |
| "grad_norm": 27.875, |
| "learning_rate": 1.9971274218365906e-05, |
| "loss": 0.1417, |
| "step": 2620 |
| }, |
| { |
| "epoch": 0.043833333333333335, |
| "grad_norm": 30.875, |
| "learning_rate": 1.9970868115539768e-05, |
| "loss": 0.1366, |
| "step": 2630 |
| }, |
| { |
| "epoch": 0.044, |
| "grad_norm": 24.0, |
| "learning_rate": 1.997045916643079e-05, |
| "loss": 0.1318, |
| "step": 2640 |
| }, |
| { |
| "epoch": 0.04416666666666667, |
| "grad_norm": 80.5, |
| "learning_rate": 1.9970047371155704e-05, |
| "loss": 0.1341, |
| "step": 2650 |
| }, |
| { |
| "epoch": 0.044333333333333336, |
| "grad_norm": 16.125, |
| "learning_rate": 1.9969632729832068e-05, |
| "loss": 0.1438, |
| "step": 2660 |
| }, |
| { |
| "epoch": 0.0445, |
| "grad_norm": 28.5, |
| "learning_rate": 1.9969215242578245e-05, |
| "loss": 0.1346, |
| "step": 2670 |
| }, |
| { |
| "epoch": 0.04466666666666667, |
| "grad_norm": 2.703125, |
| "learning_rate": 1.9968794909513406e-05, |
| "loss": 0.1395, |
| "step": 2680 |
| }, |
| { |
| "epoch": 0.044833333333333336, |
| "grad_norm": 2.5625, |
| "learning_rate": 1.996837173075754e-05, |
| "loss": 0.1295, |
| "step": 2690 |
| }, |
| { |
| "epoch": 0.045, |
| "grad_norm": 77.5, |
| "learning_rate": 1.9967945706431453e-05, |
| "loss": 0.1407, |
| "step": 2700 |
| }, |
| { |
| "epoch": 0.04516666666666667, |
| "grad_norm": 22.75, |
| "learning_rate": 1.9967516836656755e-05, |
| "loss": 0.1431, |
| "step": 2710 |
| }, |
| { |
| "epoch": 0.04533333333333334, |
| "grad_norm": 50.25, |
| "learning_rate": 1.9967085121555868e-05, |
| "loss": 0.1362, |
| "step": 2720 |
| }, |
| { |
| "epoch": 0.0455, |
| "grad_norm": 41.0, |
| "learning_rate": 1.9966650561252033e-05, |
| "loss": 0.133, |
| "step": 2730 |
| }, |
| { |
| "epoch": 0.04566666666666667, |
| "grad_norm": 18.75, |
| "learning_rate": 1.9966213155869303e-05, |
| "loss": 0.1305, |
| "step": 2740 |
| }, |
| { |
| "epoch": 0.04583333333333333, |
| "grad_norm": 53.75, |
| "learning_rate": 1.996577290553253e-05, |
| "loss": 0.1223, |
| "step": 2750 |
| }, |
| { |
| "epoch": 0.046, |
| "grad_norm": 46.75, |
| "learning_rate": 1.9965329810367394e-05, |
| "loss": 0.1302, |
| "step": 2760 |
| }, |
| { |
| "epoch": 0.04616666666666667, |
| "grad_norm": 139.0, |
| "learning_rate": 1.996488387050038e-05, |
| "loss": 0.149, |
| "step": 2770 |
| }, |
| { |
| "epoch": 0.04633333333333333, |
| "grad_norm": 42.75, |
| "learning_rate": 1.9964435086058785e-05, |
| "loss": 0.1319, |
| "step": 2780 |
| }, |
| { |
| "epoch": 0.0465, |
| "grad_norm": 23.875, |
| "learning_rate": 1.996398345717072e-05, |
| "loss": 0.1243, |
| "step": 2790 |
| }, |
| { |
| "epoch": 0.04666666666666667, |
| "grad_norm": 87.5, |
| "learning_rate": 1.996352898396511e-05, |
| "loss": 0.1388, |
| "step": 2800 |
| }, |
| { |
| "epoch": 0.04683333333333333, |
| "grad_norm": 36.5, |
| "learning_rate": 1.9963071666571683e-05, |
| "loss": 0.1317, |
| "step": 2810 |
| }, |
| { |
| "epoch": 0.047, |
| "grad_norm": 75.5, |
| "learning_rate": 1.9962611505120984e-05, |
| "loss": 0.1267, |
| "step": 2820 |
| }, |
| { |
| "epoch": 0.04716666666666667, |
| "grad_norm": 20.625, |
| "learning_rate": 1.996214849974438e-05, |
| "loss": 0.1249, |
| "step": 2830 |
| }, |
| { |
| "epoch": 0.04733333333333333, |
| "grad_norm": 2.671875, |
| "learning_rate": 1.9961682650574033e-05, |
| "loss": 0.1244, |
| "step": 2840 |
| }, |
| { |
| "epoch": 0.0475, |
| "grad_norm": 16.25, |
| "learning_rate": 1.9961213957742925e-05, |
| "loss": 0.1259, |
| "step": 2850 |
| }, |
| { |
| "epoch": 0.04766666666666667, |
| "grad_norm": 26.25, |
| "learning_rate": 1.9960742421384846e-05, |
| "loss": 0.1491, |
| "step": 2860 |
| }, |
| { |
| "epoch": 0.04783333333333333, |
| "grad_norm": 25.875, |
| "learning_rate": 1.996026804163441e-05, |
| "loss": 0.1303, |
| "step": 2870 |
| }, |
| { |
| "epoch": 0.048, |
| "grad_norm": 28.625, |
| "learning_rate": 1.9959790818627024e-05, |
| "loss": 0.1275, |
| "step": 2880 |
| }, |
| { |
| "epoch": 0.04816666666666667, |
| "grad_norm": 25.875, |
| "learning_rate": 1.995931075249892e-05, |
| "loss": 0.1258, |
| "step": 2890 |
| }, |
| { |
| "epoch": 0.04833333333333333, |
| "grad_norm": 49.25, |
| "learning_rate": 1.995882784338714e-05, |
| "loss": 0.1442, |
| "step": 2900 |
| }, |
| { |
| "epoch": 0.0485, |
| "grad_norm": 56.75, |
| "learning_rate": 1.9958342091429532e-05, |
| "loss": 0.15, |
| "step": 2910 |
| }, |
| { |
| "epoch": 0.048666666666666664, |
| "grad_norm": 27.375, |
| "learning_rate": 1.9957853496764758e-05, |
| "loss": 0.1352, |
| "step": 2920 |
| }, |
| { |
| "epoch": 0.04883333333333333, |
| "grad_norm": 71.5, |
| "learning_rate": 1.9957362059532294e-05, |
| "loss": 0.1526, |
| "step": 2930 |
| }, |
| { |
| "epoch": 0.049, |
| "grad_norm": 13.0, |
| "learning_rate": 1.9956867779872425e-05, |
| "loss": 0.1388, |
| "step": 2940 |
| }, |
| { |
| "epoch": 0.049166666666666664, |
| "grad_norm": 43.75, |
| "learning_rate": 1.9956370657926247e-05, |
| "loss": 0.1404, |
| "step": 2950 |
| }, |
| { |
| "epoch": 0.04933333333333333, |
| "grad_norm": 36.75, |
| "learning_rate": 1.995587069383567e-05, |
| "loss": 0.1359, |
| "step": 2960 |
| }, |
| { |
| "epoch": 0.0495, |
| "grad_norm": 12.3125, |
| "learning_rate": 1.9955367887743416e-05, |
| "loss": 0.1263, |
| "step": 2970 |
| }, |
| { |
| "epoch": 0.049666666666666665, |
| "grad_norm": 10.625, |
| "learning_rate": 1.9954862239793012e-05, |
| "loss": 0.124, |
| "step": 2980 |
| }, |
| { |
| "epoch": 0.049833333333333334, |
| "grad_norm": 47.5, |
| "learning_rate": 1.9954353750128798e-05, |
| "loss": 0.1199, |
| "step": 2990 |
| }, |
| { |
| "epoch": 0.05, |
| "grad_norm": 24.25, |
| "learning_rate": 1.9953842418895936e-05, |
| "loss": 0.1367, |
| "step": 3000 |
| }, |
| { |
| "epoch": 0.050166666666666665, |
| "grad_norm": 29.5, |
| "learning_rate": 1.995332824624038e-05, |
| "loss": 0.1343, |
| "step": 3010 |
| }, |
| { |
| "epoch": 0.050333333333333334, |
| "grad_norm": 55.0, |
| "learning_rate": 1.9952811232308913e-05, |
| "loss": 0.1345, |
| "step": 3020 |
| }, |
| { |
| "epoch": 0.0505, |
| "grad_norm": 61.0, |
| "learning_rate": 1.995229137724912e-05, |
| "loss": 0.1341, |
| "step": 3030 |
| }, |
| { |
| "epoch": 0.050666666666666665, |
| "grad_norm": 70.0, |
| "learning_rate": 1.99517686812094e-05, |
| "loss": 0.1356, |
| "step": 3040 |
| }, |
| { |
| "epoch": 0.050833333333333335, |
| "grad_norm": 23.25, |
| "learning_rate": 1.9951243144338955e-05, |
| "loss": 0.1376, |
| "step": 3050 |
| }, |
| { |
| "epoch": 0.051, |
| "grad_norm": 20.25, |
| "learning_rate": 1.9950714766787814e-05, |
| "loss": 0.1457, |
| "step": 3060 |
| }, |
| { |
| "epoch": 0.051166666666666666, |
| "grad_norm": 44.25, |
| "learning_rate": 1.9950183548706806e-05, |
| "loss": 0.1496, |
| "step": 3070 |
| }, |
| { |
| "epoch": 0.051333333333333335, |
| "grad_norm": 27.875, |
| "learning_rate": 1.9949649490247566e-05, |
| "loss": 0.1285, |
| "step": 3080 |
| }, |
| { |
| "epoch": 0.0515, |
| "grad_norm": 26.5, |
| "learning_rate": 1.994911259156255e-05, |
| "loss": 0.1217, |
| "step": 3090 |
| }, |
| { |
| "epoch": 0.051666666666666666, |
| "grad_norm": 23.875, |
| "learning_rate": 1.9948572852805024e-05, |
| "loss": 0.1284, |
| "step": 3100 |
| }, |
| { |
| "epoch": 0.051833333333333335, |
| "grad_norm": 38.5, |
| "learning_rate": 1.9948030274129055e-05, |
| "loss": 0.1325, |
| "step": 3110 |
| }, |
| { |
| "epoch": 0.052, |
| "grad_norm": 42.0, |
| "learning_rate": 1.9947484855689537e-05, |
| "loss": 0.1365, |
| "step": 3120 |
| }, |
| { |
| "epoch": 0.05216666666666667, |
| "grad_norm": 16.25, |
| "learning_rate": 1.9946936597642154e-05, |
| "loss": 0.1211, |
| "step": 3130 |
| }, |
| { |
| "epoch": 0.052333333333333336, |
| "grad_norm": 10.75, |
| "learning_rate": 1.994638550014342e-05, |
| "loss": 0.1293, |
| "step": 3140 |
| }, |
| { |
| "epoch": 0.0525, |
| "grad_norm": 21.375, |
| "learning_rate": 1.9945831563350652e-05, |
| "loss": 0.1199, |
| "step": 3150 |
| }, |
| { |
| "epoch": 0.05266666666666667, |
| "grad_norm": 85.5, |
| "learning_rate": 1.9945274787421966e-05, |
| "loss": 0.1338, |
| "step": 3160 |
| }, |
| { |
| "epoch": 0.052833333333333336, |
| "grad_norm": 9.875, |
| "learning_rate": 1.9944715172516308e-05, |
| "loss": 0.128, |
| "step": 3170 |
| }, |
| { |
| "epoch": 0.053, |
| "grad_norm": 80.0, |
| "learning_rate": 1.994415271879343e-05, |
| "loss": 0.1421, |
| "step": 3180 |
| }, |
| { |
| "epoch": 0.05316666666666667, |
| "grad_norm": 20.125, |
| "learning_rate": 1.9943587426413876e-05, |
| "loss": 0.1295, |
| "step": 3190 |
| }, |
| { |
| "epoch": 0.05333333333333334, |
| "grad_norm": 23.875, |
| "learning_rate": 1.9943019295539025e-05, |
| "loss": 0.1346, |
| "step": 3200 |
| }, |
| { |
| "epoch": 0.0535, |
| "grad_norm": 30.875, |
| "learning_rate": 1.9942448326331053e-05, |
| "loss": 0.1347, |
| "step": 3210 |
| }, |
| { |
| "epoch": 0.05366666666666667, |
| "grad_norm": 33.0, |
| "learning_rate": 1.994187451895295e-05, |
| "loss": 0.1292, |
| "step": 3220 |
| }, |
| { |
| "epoch": 0.05383333333333333, |
| "grad_norm": 38.5, |
| "learning_rate": 1.9941297873568514e-05, |
| "loss": 0.1122, |
| "step": 3230 |
| }, |
| { |
| "epoch": 0.054, |
| "grad_norm": 15.3125, |
| "learning_rate": 1.9940718390342357e-05, |
| "loss": 0.117, |
| "step": 3240 |
| }, |
| { |
| "epoch": 0.05416666666666667, |
| "grad_norm": 40.0, |
| "learning_rate": 1.9940136069439887e-05, |
| "loss": 0.1221, |
| "step": 3250 |
| }, |
| { |
| "epoch": 0.05433333333333333, |
| "grad_norm": 9.0625, |
| "learning_rate": 1.9939550911027345e-05, |
| "loss": 0.1239, |
| "step": 3260 |
| }, |
| { |
| "epoch": 0.0545, |
| "grad_norm": 54.25, |
| "learning_rate": 1.9938962915271767e-05, |
| "loss": 0.1254, |
| "step": 3270 |
| }, |
| { |
| "epoch": 0.05466666666666667, |
| "grad_norm": 20.875, |
| "learning_rate": 1.9938372082341e-05, |
| "loss": 0.1372, |
| "step": 3280 |
| }, |
| { |
| "epoch": 0.05483333333333333, |
| "grad_norm": 3.453125, |
| "learning_rate": 1.9937778412403707e-05, |
| "loss": 0.1286, |
| "step": 3290 |
| }, |
| { |
| "epoch": 0.055, |
| "grad_norm": 2.4375, |
| "learning_rate": 1.9937181905629352e-05, |
| "loss": 0.1215, |
| "step": 3300 |
| }, |
| { |
| "epoch": 0.05516666666666667, |
| "grad_norm": 32.25, |
| "learning_rate": 1.9936582562188217e-05, |
| "loss": 0.1375, |
| "step": 3310 |
| }, |
| { |
| "epoch": 0.05533333333333333, |
| "grad_norm": 50.5, |
| "learning_rate": 1.9935980382251392e-05, |
| "loss": 0.1297, |
| "step": 3320 |
| }, |
| { |
| "epoch": 0.0555, |
| "grad_norm": 36.5, |
| "learning_rate": 1.9935375365990774e-05, |
| "loss": 0.1293, |
| "step": 3330 |
| }, |
| { |
| "epoch": 0.05566666666666667, |
| "grad_norm": 15.75, |
| "learning_rate": 1.9934767513579065e-05, |
| "loss": 0.1293, |
| "step": 3340 |
| }, |
| { |
| "epoch": 0.05583333333333333, |
| "grad_norm": 32.25, |
| "learning_rate": 1.9934156825189793e-05, |
| "loss": 0.1447, |
| "step": 3350 |
| }, |
| { |
| "epoch": 0.056, |
| "grad_norm": 8.1875, |
| "learning_rate": 1.9933543300997277e-05, |
| "loss": 0.1236, |
| "step": 3360 |
| }, |
| { |
| "epoch": 0.05616666666666666, |
| "grad_norm": 9.6875, |
| "learning_rate": 1.9932926941176656e-05, |
| "loss": 0.1296, |
| "step": 3370 |
| }, |
| { |
| "epoch": 0.05633333333333333, |
| "grad_norm": 9.75, |
| "learning_rate": 1.9932307745903876e-05, |
| "loss": 0.1431, |
| "step": 3380 |
| }, |
| { |
| "epoch": 0.0565, |
| "grad_norm": 79.5, |
| "learning_rate": 1.9931685715355692e-05, |
| "loss": 0.1346, |
| "step": 3390 |
| }, |
| { |
| "epoch": 0.056666666666666664, |
| "grad_norm": 20.75, |
| "learning_rate": 1.993106084970967e-05, |
| "loss": 0.1233, |
| "step": 3400 |
| }, |
| { |
| "epoch": 0.05683333333333333, |
| "grad_norm": 24.625, |
| "learning_rate": 1.9930433149144184e-05, |
| "loss": 0.1294, |
| "step": 3410 |
| }, |
| { |
| "epoch": 0.057, |
| "grad_norm": 22.0, |
| "learning_rate": 1.9929802613838416e-05, |
| "loss": 0.1352, |
| "step": 3420 |
| }, |
| { |
| "epoch": 0.057166666666666664, |
| "grad_norm": 46.25, |
| "learning_rate": 1.992916924397236e-05, |
| "loss": 0.1266, |
| "step": 3430 |
| }, |
| { |
| "epoch": 0.05733333333333333, |
| "grad_norm": 26.375, |
| "learning_rate": 1.9928533039726815e-05, |
| "loss": 0.1252, |
| "step": 3440 |
| }, |
| { |
| "epoch": 0.0575, |
| "grad_norm": 37.0, |
| "learning_rate": 1.9927894001283397e-05, |
| "loss": 0.1389, |
| "step": 3450 |
| }, |
| { |
| "epoch": 0.057666666666666665, |
| "grad_norm": 68.5, |
| "learning_rate": 1.992725212882452e-05, |
| "loss": 0.1273, |
| "step": 3460 |
| }, |
| { |
| "epoch": 0.057833333333333334, |
| "grad_norm": 34.5, |
| "learning_rate": 1.9926607422533416e-05, |
| "loss": 0.1329, |
| "step": 3470 |
| }, |
| { |
| "epoch": 0.058, |
| "grad_norm": 17.875, |
| "learning_rate": 1.992595988259412e-05, |
| "loss": 0.1218, |
| "step": 3480 |
| }, |
| { |
| "epoch": 0.058166666666666665, |
| "grad_norm": 3.46875, |
| "learning_rate": 1.9925309509191483e-05, |
| "loss": 0.1408, |
| "step": 3490 |
| }, |
| { |
| "epoch": 0.058333333333333334, |
| "grad_norm": 5.5, |
| "learning_rate": 1.992465630251116e-05, |
| "loss": 0.1448, |
| "step": 3500 |
| }, |
| { |
| "epoch": 0.0585, |
| "grad_norm": 46.25, |
| "learning_rate": 1.9924000262739613e-05, |
| "loss": 0.133, |
| "step": 3510 |
| }, |
| { |
| "epoch": 0.058666666666666666, |
| "grad_norm": 13.6875, |
| "learning_rate": 1.9923341390064115e-05, |
| "loss": 0.132, |
| "step": 3520 |
| }, |
| { |
| "epoch": 0.058833333333333335, |
| "grad_norm": 78.0, |
| "learning_rate": 1.9922679684672744e-05, |
| "loss": 0.1236, |
| "step": 3530 |
| }, |
| { |
| "epoch": 0.059, |
| "grad_norm": 2.203125, |
| "learning_rate": 1.9922015146754402e-05, |
| "loss": 0.1318, |
| "step": 3540 |
| }, |
| { |
| "epoch": 0.059166666666666666, |
| "grad_norm": 30.5, |
| "learning_rate": 1.9921347776498776e-05, |
| "loss": 0.1374, |
| "step": 3550 |
| }, |
| { |
| "epoch": 0.059333333333333335, |
| "grad_norm": 86.0, |
| "learning_rate": 1.992067757409638e-05, |
| "loss": 0.1206, |
| "step": 3560 |
| }, |
| { |
| "epoch": 0.0595, |
| "grad_norm": 43.75, |
| "learning_rate": 1.992000453973853e-05, |
| "loss": 0.1204, |
| "step": 3570 |
| }, |
| { |
| "epoch": 0.059666666666666666, |
| "grad_norm": 1.953125, |
| "learning_rate": 1.9919328673617345e-05, |
| "loss": 0.1301, |
| "step": 3580 |
| }, |
| { |
| "epoch": 0.059833333333333336, |
| "grad_norm": 29.875, |
| "learning_rate": 1.991864997592576e-05, |
| "loss": 0.1262, |
| "step": 3590 |
| }, |
| { |
| "epoch": 0.06, |
| "grad_norm": 18.25, |
| "learning_rate": 1.991796844685752e-05, |
| "loss": 0.1097, |
| "step": 3600 |
| }, |
| { |
| "epoch": 0.06016666666666667, |
| "grad_norm": 20.625, |
| "learning_rate": 1.991728408660717e-05, |
| "loss": 0.1208, |
| "step": 3610 |
| }, |
| { |
| "epoch": 0.060333333333333336, |
| "grad_norm": 30.75, |
| "learning_rate": 1.991659689537007e-05, |
| "loss": 0.1327, |
| "step": 3620 |
| }, |
| { |
| "epoch": 0.0605, |
| "grad_norm": 35.25, |
| "learning_rate": 1.991590687334238e-05, |
| "loss": 0.1468, |
| "step": 3630 |
| }, |
| { |
| "epoch": 0.06066666666666667, |
| "grad_norm": 20.0, |
| "learning_rate": 1.9915214020721082e-05, |
| "loss": 0.1274, |
| "step": 3640 |
| }, |
| { |
| "epoch": 0.060833333333333336, |
| "grad_norm": 24.25, |
| "learning_rate": 1.9914518337703952e-05, |
| "loss": 0.1189, |
| "step": 3650 |
| }, |
| { |
| "epoch": 0.061, |
| "grad_norm": 31.75, |
| "learning_rate": 1.991381982448958e-05, |
| "loss": 0.1369, |
| "step": 3660 |
| }, |
| { |
| "epoch": 0.06116666666666667, |
| "grad_norm": 18.25, |
| "learning_rate": 1.991311848127736e-05, |
| "loss": 0.1391, |
| "step": 3670 |
| }, |
| { |
| "epoch": 0.06133333333333333, |
| "grad_norm": 130.0, |
| "learning_rate": 1.9912414308267508e-05, |
| "loss": 0.1352, |
| "step": 3680 |
| }, |
| { |
| "epoch": 0.0615, |
| "grad_norm": 59.75, |
| "learning_rate": 1.991170730566103e-05, |
| "loss": 0.128, |
| "step": 3690 |
| }, |
| { |
| "epoch": 0.06166666666666667, |
| "grad_norm": 17.375, |
| "learning_rate": 1.991099747365975e-05, |
| "loss": 0.1245, |
| "step": 3700 |
| }, |
| { |
| "epoch": 0.06183333333333333, |
| "grad_norm": 1.9140625, |
| "learning_rate": 1.991028481246629e-05, |
| "loss": 0.1249, |
| "step": 3710 |
| }, |
| { |
| "epoch": 0.062, |
| "grad_norm": 72.5, |
| "learning_rate": 1.9909569322284095e-05, |
| "loss": 0.1317, |
| "step": 3720 |
| }, |
| { |
| "epoch": 0.06216666666666667, |
| "grad_norm": 35.75, |
| "learning_rate": 1.99088510033174e-05, |
| "loss": 0.1177, |
| "step": 3730 |
| }, |
| { |
| "epoch": 0.06233333333333333, |
| "grad_norm": 43.75, |
| "learning_rate": 1.9908129855771264e-05, |
| "loss": 0.1189, |
| "step": 3740 |
| }, |
| { |
| "epoch": 0.0625, |
| "grad_norm": 13.1875, |
| "learning_rate": 1.990740587985154e-05, |
| "loss": 0.1386, |
| "step": 3750 |
| }, |
| { |
| "epoch": 0.06266666666666666, |
| "grad_norm": 76.0, |
| "learning_rate": 1.9906679075764894e-05, |
| "loss": 0.1332, |
| "step": 3760 |
| }, |
| { |
| "epoch": 0.06283333333333334, |
| "grad_norm": 20.625, |
| "learning_rate": 1.9905949443718805e-05, |
| "loss": 0.13, |
| "step": 3770 |
| }, |
| { |
| "epoch": 0.063, |
| "grad_norm": 35.25, |
| "learning_rate": 1.9905216983921546e-05, |
| "loss": 0.1301, |
| "step": 3780 |
| }, |
| { |
| "epoch": 0.06316666666666666, |
| "grad_norm": 19.375, |
| "learning_rate": 1.9904481696582217e-05, |
| "loss": 0.1303, |
| "step": 3790 |
| }, |
| { |
| "epoch": 0.06333333333333334, |
| "grad_norm": 11.3125, |
| "learning_rate": 1.9903743581910698e-05, |
| "loss": 0.1224, |
| "step": 3800 |
| }, |
| { |
| "epoch": 0.0635, |
| "grad_norm": 22.25, |
| "learning_rate": 1.9903002640117704e-05, |
| "loss": 0.1262, |
| "step": 3810 |
| }, |
| { |
| "epoch": 0.06366666666666666, |
| "grad_norm": 105.0, |
| "learning_rate": 1.9902258871414736e-05, |
| "loss": 0.12, |
| "step": 3820 |
| }, |
| { |
| "epoch": 0.06383333333333334, |
| "grad_norm": 42.25, |
| "learning_rate": 1.990151227601411e-05, |
| "loss": 0.1358, |
| "step": 3830 |
| }, |
| { |
| "epoch": 0.064, |
| "grad_norm": 7.875, |
| "learning_rate": 1.9900762854128956e-05, |
| "loss": 0.1301, |
| "step": 3840 |
| }, |
| { |
| "epoch": 0.06416666666666666, |
| "grad_norm": 27.375, |
| "learning_rate": 1.9900010605973198e-05, |
| "loss": 0.1282, |
| "step": 3850 |
| }, |
| { |
| "epoch": 0.06433333333333334, |
| "grad_norm": 30.375, |
| "learning_rate": 1.9899255531761573e-05, |
| "loss": 0.1142, |
| "step": 3860 |
| }, |
| { |
| "epoch": 0.0645, |
| "grad_norm": 34.5, |
| "learning_rate": 1.9898497631709628e-05, |
| "loss": 0.1274, |
| "step": 3870 |
| }, |
| { |
| "epoch": 0.06466666666666666, |
| "grad_norm": 15.5, |
| "learning_rate": 1.989773690603371e-05, |
| "loss": 0.1336, |
| "step": 3880 |
| }, |
| { |
| "epoch": 0.06483333333333334, |
| "grad_norm": 21.25, |
| "learning_rate": 1.9896973354950978e-05, |
| "loss": 0.1191, |
| "step": 3890 |
| }, |
| { |
| "epoch": 0.065, |
| "grad_norm": 37.5, |
| "learning_rate": 1.989620697867939e-05, |
| "loss": 0.1381, |
| "step": 3900 |
| }, |
| { |
| "epoch": 0.06516666666666666, |
| "grad_norm": 26.25, |
| "learning_rate": 1.989543777743772e-05, |
| "loss": 0.1198, |
| "step": 3910 |
| }, |
| { |
| "epoch": 0.06533333333333333, |
| "grad_norm": 39.25, |
| "learning_rate": 1.9894665751445546e-05, |
| "loss": 0.1241, |
| "step": 3920 |
| }, |
| { |
| "epoch": 0.0655, |
| "grad_norm": 14.9375, |
| "learning_rate": 1.9893890900923245e-05, |
| "loss": 0.1395, |
| "step": 3930 |
| }, |
| { |
| "epoch": 0.06566666666666666, |
| "grad_norm": 27.125, |
| "learning_rate": 1.9893113226092013e-05, |
| "loss": 0.1349, |
| "step": 3940 |
| }, |
| { |
| "epoch": 0.06583333333333333, |
| "grad_norm": 7.4375, |
| "learning_rate": 1.9892332727173835e-05, |
| "loss": 0.1374, |
| "step": 3950 |
| }, |
| { |
| "epoch": 0.066, |
| "grad_norm": 18.125, |
| "learning_rate": 1.989154940439152e-05, |
| "loss": 0.128, |
| "step": 3960 |
| }, |
| { |
| "epoch": 0.06616666666666667, |
| "grad_norm": 28.125, |
| "learning_rate": 1.9890763257968673e-05, |
| "loss": 0.1247, |
| "step": 3970 |
| }, |
| { |
| "epoch": 0.06633333333333333, |
| "grad_norm": 11.75, |
| "learning_rate": 1.988997428812971e-05, |
| "loss": 0.1264, |
| "step": 3980 |
| }, |
| { |
| "epoch": 0.0665, |
| "grad_norm": 93.0, |
| "learning_rate": 1.9889182495099845e-05, |
| "loss": 0.1231, |
| "step": 3990 |
| }, |
| { |
| "epoch": 0.06666666666666667, |
| "grad_norm": 10.6875, |
| "learning_rate": 1.9888387879105103e-05, |
| "loss": 0.1136, |
| "step": 4000 |
| }, |
| { |
| "epoch": 0.06683333333333333, |
| "grad_norm": 3.03125, |
| "learning_rate": 1.988759044037232e-05, |
| "loss": 0.1153, |
| "step": 4010 |
| }, |
| { |
| "epoch": 0.067, |
| "grad_norm": 24.375, |
| "learning_rate": 1.988679017912913e-05, |
| "loss": 0.1279, |
| "step": 4020 |
| }, |
| { |
| "epoch": 0.06716666666666667, |
| "grad_norm": 9.0, |
| "learning_rate": 1.9885987095603975e-05, |
| "loss": 0.1323, |
| "step": 4030 |
| }, |
| { |
| "epoch": 0.06733333333333333, |
| "grad_norm": 20.75, |
| "learning_rate": 1.9885181190026108e-05, |
| "loss": 0.1284, |
| "step": 4040 |
| }, |
| { |
| "epoch": 0.0675, |
| "grad_norm": 26.75, |
| "learning_rate": 1.9884372462625573e-05, |
| "loss": 0.1295, |
| "step": 4050 |
| }, |
| { |
| "epoch": 0.06766666666666667, |
| "grad_norm": 18.875, |
| "learning_rate": 1.9883560913633238e-05, |
| "loss": 0.1244, |
| "step": 4060 |
| }, |
| { |
| "epoch": 0.06783333333333333, |
| "grad_norm": 42.25, |
| "learning_rate": 1.9882746543280764e-05, |
| "loss": 0.124, |
| "step": 4070 |
| }, |
| { |
| "epoch": 0.068, |
| "grad_norm": 6.84375, |
| "learning_rate": 1.9881929351800623e-05, |
| "loss": 0.1218, |
| "step": 4080 |
| }, |
| { |
| "epoch": 0.06816666666666667, |
| "grad_norm": 3.390625, |
| "learning_rate": 1.9881109339426085e-05, |
| "loss": 0.1409, |
| "step": 4090 |
| }, |
| { |
| "epoch": 0.06833333333333333, |
| "grad_norm": 28.875, |
| "learning_rate": 1.9880286506391236e-05, |
| "loss": 0.1266, |
| "step": 4100 |
| }, |
| { |
| "epoch": 0.0685, |
| "grad_norm": 1.625, |
| "learning_rate": 1.9879460852930962e-05, |
| "loss": 0.1299, |
| "step": 4110 |
| }, |
| { |
| "epoch": 0.06866666666666667, |
| "grad_norm": 38.25, |
| "learning_rate": 1.987863237928095e-05, |
| "loss": 0.1212, |
| "step": 4120 |
| }, |
| { |
| "epoch": 0.06883333333333333, |
| "grad_norm": 9.5, |
| "learning_rate": 1.9877801085677705e-05, |
| "loss": 0.1333, |
| "step": 4130 |
| }, |
| { |
| "epoch": 0.069, |
| "grad_norm": 30.375, |
| "learning_rate": 1.9876966972358516e-05, |
| "loss": 0.13, |
| "step": 4140 |
| }, |
| { |
| "epoch": 0.06916666666666667, |
| "grad_norm": 43.5, |
| "learning_rate": 1.9876130039561493e-05, |
| "loss": 0.1189, |
| "step": 4150 |
| }, |
| { |
| "epoch": 0.06933333333333333, |
| "grad_norm": 2.046875, |
| "learning_rate": 1.987529028752555e-05, |
| "loss": 0.1215, |
| "step": 4160 |
| }, |
| { |
| "epoch": 0.0695, |
| "grad_norm": 33.0, |
| "learning_rate": 1.98744477164904e-05, |
| "loss": 0.1338, |
| "step": 4170 |
| }, |
| { |
| "epoch": 0.06966666666666667, |
| "grad_norm": 16.5, |
| "learning_rate": 1.9873602326696563e-05, |
| "loss": 0.126, |
| "step": 4180 |
| }, |
| { |
| "epoch": 0.06983333333333333, |
| "grad_norm": 103.5, |
| "learning_rate": 1.9872754118385368e-05, |
| "loss": 0.1173, |
| "step": 4190 |
| }, |
| { |
| "epoch": 0.07, |
| "grad_norm": 42.5, |
| "learning_rate": 1.9871903091798937e-05, |
| "loss": 0.1122, |
| "step": 4200 |
| }, |
| { |
| "epoch": 0.07016666666666667, |
| "grad_norm": 21.75, |
| "learning_rate": 1.987104924718021e-05, |
| "loss": 0.1409, |
| "step": 4210 |
| }, |
| { |
| "epoch": 0.07033333333333333, |
| "grad_norm": 21.5, |
| "learning_rate": 1.9870192584772922e-05, |
| "loss": 0.1174, |
| "step": 4220 |
| }, |
| { |
| "epoch": 0.0705, |
| "grad_norm": 81.5, |
| "learning_rate": 1.986933310482162e-05, |
| "loss": 0.1212, |
| "step": 4230 |
| }, |
| { |
| "epoch": 0.07066666666666667, |
| "grad_norm": 2.171875, |
| "learning_rate": 1.9868470807571647e-05, |
| "loss": 0.1222, |
| "step": 4240 |
| }, |
| { |
| "epoch": 0.07083333333333333, |
| "grad_norm": 63.25, |
| "learning_rate": 1.9867605693269155e-05, |
| "loss": 0.1247, |
| "step": 4250 |
| }, |
| { |
| "epoch": 0.071, |
| "grad_norm": 30.0, |
| "learning_rate": 1.98667377621611e-05, |
| "loss": 0.1276, |
| "step": 4260 |
| }, |
| { |
| "epoch": 0.07116666666666667, |
| "grad_norm": 23.0, |
| "learning_rate": 1.986586701449524e-05, |
| "loss": 0.1152, |
| "step": 4270 |
| }, |
| { |
| "epoch": 0.07133333333333333, |
| "grad_norm": 18.875, |
| "learning_rate": 1.986499345052014e-05, |
| "loss": 0.115, |
| "step": 4280 |
| }, |
| { |
| "epoch": 0.0715, |
| "grad_norm": 33.0, |
| "learning_rate": 1.986411707048517e-05, |
| "loss": 0.1185, |
| "step": 4290 |
| }, |
| { |
| "epoch": 0.07166666666666667, |
| "grad_norm": 68.0, |
| "learning_rate": 1.9863237874640496e-05, |
| "loss": 0.1219, |
| "step": 4300 |
| }, |
| { |
| "epoch": 0.07183333333333333, |
| "grad_norm": 45.75, |
| "learning_rate": 1.9862355863237096e-05, |
| "loss": 0.1243, |
| "step": 4310 |
| }, |
| { |
| "epoch": 0.072, |
| "grad_norm": 73.0, |
| "learning_rate": 1.986147103652675e-05, |
| "loss": 0.1297, |
| "step": 4320 |
| }, |
| { |
| "epoch": 0.07216666666666667, |
| "grad_norm": 18.0, |
| "learning_rate": 1.986058339476204e-05, |
| "loss": 0.1276, |
| "step": 4330 |
| }, |
| { |
| "epoch": 0.07233333333333333, |
| "grad_norm": 96.5, |
| "learning_rate": 1.985969293819635e-05, |
| "loss": 0.1221, |
| "step": 4340 |
| }, |
| { |
| "epoch": 0.0725, |
| "grad_norm": 60.5, |
| "learning_rate": 1.985879966708387e-05, |
| "loss": 0.1217, |
| "step": 4350 |
| }, |
| { |
| "epoch": 0.07266666666666667, |
| "grad_norm": 34.75, |
| "learning_rate": 1.9857903581679595e-05, |
| "loss": 0.1187, |
| "step": 4360 |
| }, |
| { |
| "epoch": 0.07283333333333333, |
| "grad_norm": 10.8125, |
| "learning_rate": 1.9857004682239324e-05, |
| "loss": 0.123, |
| "step": 4370 |
| }, |
| { |
| "epoch": 0.073, |
| "grad_norm": 9.75, |
| "learning_rate": 1.9856102969019647e-05, |
| "loss": 0.1219, |
| "step": 4380 |
| }, |
| { |
| "epoch": 0.07316666666666667, |
| "grad_norm": 29.125, |
| "learning_rate": 1.985519844227798e-05, |
| "loss": 0.1137, |
| "step": 4390 |
| }, |
| { |
| "epoch": 0.07333333333333333, |
| "grad_norm": 22.125, |
| "learning_rate": 1.985429110227252e-05, |
| "loss": 0.1102, |
| "step": 4400 |
| }, |
| { |
| "epoch": 0.0735, |
| "grad_norm": 41.25, |
| "learning_rate": 1.9853380949262276e-05, |
| "loss": 0.1208, |
| "step": 4410 |
| }, |
| { |
| "epoch": 0.07366666666666667, |
| "grad_norm": 94.0, |
| "learning_rate": 1.985246798350706e-05, |
| "loss": 0.1277, |
| "step": 4420 |
| }, |
| { |
| "epoch": 0.07383333333333333, |
| "grad_norm": 22.5, |
| "learning_rate": 1.9851552205267495e-05, |
| "loss": 0.12, |
| "step": 4430 |
| }, |
| { |
| "epoch": 0.074, |
| "grad_norm": 27.75, |
| "learning_rate": 1.9850633614804993e-05, |
| "loss": 0.126, |
| "step": 4440 |
| }, |
| { |
| "epoch": 0.07416666666666667, |
| "grad_norm": 58.25, |
| "learning_rate": 1.9849712212381775e-05, |
| "loss": 0.1294, |
| "step": 4450 |
| }, |
| { |
| "epoch": 0.07433333333333333, |
| "grad_norm": 6.25, |
| "learning_rate": 1.9848787998260864e-05, |
| "loss": 0.1181, |
| "step": 4460 |
| }, |
| { |
| "epoch": 0.0745, |
| "grad_norm": 103.5, |
| "learning_rate": 1.9847860972706088e-05, |
| "loss": 0.1294, |
| "step": 4470 |
| }, |
| { |
| "epoch": 0.07466666666666667, |
| "grad_norm": 8.0625, |
| "learning_rate": 1.9846931135982073e-05, |
| "loss": 0.141, |
| "step": 4480 |
| }, |
| { |
| "epoch": 0.07483333333333334, |
| "grad_norm": 4.59375, |
| "learning_rate": 1.984599848835425e-05, |
| "loss": 0.1216, |
| "step": 4490 |
| }, |
| { |
| "epoch": 0.075, |
| "grad_norm": 36.0, |
| "learning_rate": 1.984506303008886e-05, |
| "loss": 0.1353, |
| "step": 4500 |
| }, |
| { |
| "epoch": 0.07516666666666667, |
| "grad_norm": 31.75, |
| "learning_rate": 1.9844124761452927e-05, |
| "loss": 0.1229, |
| "step": 4510 |
| }, |
| { |
| "epoch": 0.07533333333333334, |
| "grad_norm": 9.875, |
| "learning_rate": 1.98431836827143e-05, |
| "loss": 0.1221, |
| "step": 4520 |
| }, |
| { |
| "epoch": 0.0755, |
| "grad_norm": 34.25, |
| "learning_rate": 1.9842239794141606e-05, |
| "loss": 0.1364, |
| "step": 4530 |
| }, |
| { |
| "epoch": 0.07566666666666666, |
| "grad_norm": 14.8125, |
| "learning_rate": 1.98412930960043e-05, |
| "loss": 0.1258, |
| "step": 4540 |
| }, |
| { |
| "epoch": 0.07583333333333334, |
| "grad_norm": 13.5, |
| "learning_rate": 1.9840343588572625e-05, |
| "loss": 0.1193, |
| "step": 4550 |
| }, |
| { |
| "epoch": 0.076, |
| "grad_norm": 32.5, |
| "learning_rate": 1.9839391272117622e-05, |
| "loss": 0.1211, |
| "step": 4560 |
| }, |
| { |
| "epoch": 0.07616666666666666, |
| "grad_norm": 22.25, |
| "learning_rate": 1.983843614691114e-05, |
| "loss": 0.1184, |
| "step": 4570 |
| }, |
| { |
| "epoch": 0.07633333333333334, |
| "grad_norm": 13.0625, |
| "learning_rate": 1.983747821322583e-05, |
| "loss": 0.1105, |
| "step": 4580 |
| }, |
| { |
| "epoch": 0.0765, |
| "grad_norm": 18.0, |
| "learning_rate": 1.9836517471335148e-05, |
| "loss": 0.1172, |
| "step": 4590 |
| }, |
| { |
| "epoch": 0.07666666666666666, |
| "grad_norm": 57.25, |
| "learning_rate": 1.983555392151334e-05, |
| "loss": 0.1196, |
| "step": 4600 |
| }, |
| { |
| "epoch": 0.07683333333333334, |
| "grad_norm": 9.25, |
| "learning_rate": 1.9834587564035464e-05, |
| "loss": 0.1173, |
| "step": 4610 |
| }, |
| { |
| "epoch": 0.077, |
| "grad_norm": 2.265625, |
| "learning_rate": 1.9833618399177373e-05, |
| "loss": 0.1129, |
| "step": 4620 |
| }, |
| { |
| "epoch": 0.07716666666666666, |
| "grad_norm": 54.0, |
| "learning_rate": 1.983264642721573e-05, |
| "loss": 0.1145, |
| "step": 4630 |
| }, |
| { |
| "epoch": 0.07733333333333334, |
| "grad_norm": 17.25, |
| "learning_rate": 1.9831671648427996e-05, |
| "loss": 0.1241, |
| "step": 4640 |
| }, |
| { |
| "epoch": 0.0775, |
| "grad_norm": 20.0, |
| "learning_rate": 1.9830694063092425e-05, |
| "loss": 0.1133, |
| "step": 4650 |
| }, |
| { |
| "epoch": 0.07766666666666666, |
| "grad_norm": 4.5, |
| "learning_rate": 1.9829713671488076e-05, |
| "loss": 0.1283, |
| "step": 4660 |
| }, |
| { |
| "epoch": 0.07783333333333334, |
| "grad_norm": 26.625, |
| "learning_rate": 1.982873047389482e-05, |
| "loss": 0.1191, |
| "step": 4670 |
| }, |
| { |
| "epoch": 0.078, |
| "grad_norm": 36.75, |
| "learning_rate": 1.9827744470593315e-05, |
| "loss": 0.1361, |
| "step": 4680 |
| }, |
| { |
| "epoch": 0.07816666666666666, |
| "grad_norm": 75.5, |
| "learning_rate": 1.9826755661865028e-05, |
| "loss": 0.1331, |
| "step": 4690 |
| }, |
| { |
| "epoch": 0.07833333333333334, |
| "grad_norm": 22.125, |
| "learning_rate": 1.9825764047992223e-05, |
| "loss": 0.115, |
| "step": 4700 |
| }, |
| { |
| "epoch": 0.0785, |
| "grad_norm": 12.625, |
| "learning_rate": 1.9824769629257963e-05, |
| "loss": 0.1163, |
| "step": 4710 |
| }, |
| { |
| "epoch": 0.07866666666666666, |
| "grad_norm": 25.0, |
| "learning_rate": 1.982377240594612e-05, |
| "loss": 0.1182, |
| "step": 4720 |
| }, |
| { |
| "epoch": 0.07883333333333334, |
| "grad_norm": 28.875, |
| "learning_rate": 1.982277237834136e-05, |
| "loss": 0.1167, |
| "step": 4730 |
| }, |
| { |
| "epoch": 0.079, |
| "grad_norm": 60.5, |
| "learning_rate": 1.982176954672915e-05, |
| "loss": 0.1332, |
| "step": 4740 |
| }, |
| { |
| "epoch": 0.07916666666666666, |
| "grad_norm": 25.0, |
| "learning_rate": 1.9820763911395756e-05, |
| "loss": 0.1169, |
| "step": 4750 |
| }, |
| { |
| "epoch": 0.07933333333333334, |
| "grad_norm": 10.3125, |
| "learning_rate": 1.9819755472628247e-05, |
| "loss": 0.1176, |
| "step": 4760 |
| }, |
| { |
| "epoch": 0.0795, |
| "grad_norm": 37.25, |
| "learning_rate": 1.9818744230714496e-05, |
| "loss": 0.1437, |
| "step": 4770 |
| }, |
| { |
| "epoch": 0.07966666666666666, |
| "grad_norm": 38.25, |
| "learning_rate": 1.981773018594317e-05, |
| "loss": 0.1264, |
| "step": 4780 |
| }, |
| { |
| "epoch": 0.07983333333333334, |
| "grad_norm": 22.625, |
| "learning_rate": 1.9816713338603737e-05, |
| "loss": 0.1186, |
| "step": 4790 |
| }, |
| { |
| "epoch": 0.08, |
| "grad_norm": 24.75, |
| "learning_rate": 1.9815693688986464e-05, |
| "loss": 0.1186, |
| "step": 4800 |
| }, |
| { |
| "epoch": 0.08016666666666666, |
| "grad_norm": 29.125, |
| "learning_rate": 1.9814671237382423e-05, |
| "loss": 0.1371, |
| "step": 4810 |
| }, |
| { |
| "epoch": 0.08033333333333334, |
| "grad_norm": 18.375, |
| "learning_rate": 1.9813645984083484e-05, |
| "loss": 0.117, |
| "step": 4820 |
| }, |
| { |
| "epoch": 0.0805, |
| "grad_norm": 20.75, |
| "learning_rate": 1.9812617929382314e-05, |
| "loss": 0.1283, |
| "step": 4830 |
| }, |
| { |
| "epoch": 0.08066666666666666, |
| "grad_norm": 31.25, |
| "learning_rate": 1.981158707357238e-05, |
| "loss": 0.1291, |
| "step": 4840 |
| }, |
| { |
| "epoch": 0.08083333333333333, |
| "grad_norm": 1.796875, |
| "learning_rate": 1.9810553416947954e-05, |
| "loss": 0.1132, |
| "step": 4850 |
| }, |
| { |
| "epoch": 0.081, |
| "grad_norm": 58.5, |
| "learning_rate": 1.98095169598041e-05, |
| "loss": 0.1269, |
| "step": 4860 |
| }, |
| { |
| "epoch": 0.08116666666666666, |
| "grad_norm": 16.5, |
| "learning_rate": 1.9808477702436684e-05, |
| "loss": 0.1248, |
| "step": 4870 |
| }, |
| { |
| "epoch": 0.08133333333333333, |
| "grad_norm": 21.75, |
| "learning_rate": 1.9807435645142375e-05, |
| "loss": 0.1339, |
| "step": 4880 |
| }, |
| { |
| "epoch": 0.0815, |
| "grad_norm": 19.25, |
| "learning_rate": 1.980639078821864e-05, |
| "loss": 0.1274, |
| "step": 4890 |
| }, |
| { |
| "epoch": 0.08166666666666667, |
| "grad_norm": 18.5, |
| "learning_rate": 1.9805343131963738e-05, |
| "loss": 0.1216, |
| "step": 4900 |
| }, |
| { |
| "epoch": 0.08183333333333333, |
| "grad_norm": 23.75, |
| "learning_rate": 1.980429267667674e-05, |
| "loss": 0.1206, |
| "step": 4910 |
| }, |
| { |
| "epoch": 0.082, |
| "grad_norm": 87.5, |
| "learning_rate": 1.9803239422657505e-05, |
| "loss": 0.1203, |
| "step": 4920 |
| }, |
| { |
| "epoch": 0.08216666666666667, |
| "grad_norm": 6.75, |
| "learning_rate": 1.980218337020669e-05, |
| "loss": 0.1416, |
| "step": 4930 |
| }, |
| { |
| "epoch": 0.08233333333333333, |
| "grad_norm": 6.6875, |
| "learning_rate": 1.9801124519625766e-05, |
| "loss": 0.1261, |
| "step": 4940 |
| }, |
| { |
| "epoch": 0.0825, |
| "grad_norm": 8.0, |
| "learning_rate": 1.980006287121698e-05, |
| "loss": 0.1169, |
| "step": 4950 |
| }, |
| { |
| "epoch": 0.08266666666666667, |
| "grad_norm": 20.0, |
| "learning_rate": 1.9798998425283404e-05, |
| "loss": 0.1218, |
| "step": 4960 |
| }, |
| { |
| "epoch": 0.08283333333333333, |
| "grad_norm": 23.375, |
| "learning_rate": 1.9797931182128886e-05, |
| "loss": 0.125, |
| "step": 4970 |
| }, |
| { |
| "epoch": 0.083, |
| "grad_norm": 29.625, |
| "learning_rate": 1.979686114205808e-05, |
| "loss": 0.1218, |
| "step": 4980 |
| }, |
| { |
| "epoch": 0.08316666666666667, |
| "grad_norm": 8.0, |
| "learning_rate": 1.9795788305376443e-05, |
| "loss": 0.1122, |
| "step": 4990 |
| }, |
| { |
| "epoch": 0.08333333333333333, |
| "grad_norm": 18.25, |
| "learning_rate": 1.979471267239023e-05, |
| "loss": 0.1337, |
| "step": 5000 |
| }, |
| { |
| "epoch": 0.0835, |
| "grad_norm": 63.25, |
| "learning_rate": 1.9793634243406484e-05, |
| "loss": 0.1214, |
| "step": 5010 |
| }, |
| { |
| "epoch": 0.08366666666666667, |
| "grad_norm": 47.25, |
| "learning_rate": 1.9792553018733054e-05, |
| "loss": 0.1259, |
| "step": 5020 |
| }, |
| { |
| "epoch": 0.08383333333333333, |
| "grad_norm": 33.5, |
| "learning_rate": 1.9791468998678592e-05, |
| "loss": 0.1238, |
| "step": 5030 |
| }, |
| { |
| "epoch": 0.084, |
| "grad_norm": 13.5625, |
| "learning_rate": 1.9790382183552538e-05, |
| "loss": 0.1174, |
| "step": 5040 |
| }, |
| { |
| "epoch": 0.08416666666666667, |
| "grad_norm": 17.875, |
| "learning_rate": 1.9789292573665134e-05, |
| "loss": 0.1289, |
| "step": 5050 |
| }, |
| { |
| "epoch": 0.08433333333333333, |
| "grad_norm": 7.28125, |
| "learning_rate": 1.9788200169327417e-05, |
| "loss": 0.122, |
| "step": 5060 |
| }, |
| { |
| "epoch": 0.0845, |
| "grad_norm": 17.125, |
| "learning_rate": 1.9787104970851234e-05, |
| "loss": 0.1146, |
| "step": 5070 |
| }, |
| { |
| "epoch": 0.08466666666666667, |
| "grad_norm": 9.0625, |
| "learning_rate": 1.9786006978549215e-05, |
| "loss": 0.1047, |
| "step": 5080 |
| }, |
| { |
| "epoch": 0.08483333333333333, |
| "grad_norm": 37.0, |
| "learning_rate": 1.9784906192734792e-05, |
| "loss": 0.1136, |
| "step": 5090 |
| }, |
| { |
| "epoch": 0.085, |
| "grad_norm": 148.0, |
| "learning_rate": 1.978380261372219e-05, |
| "loss": 0.1326, |
| "step": 5100 |
| }, |
| { |
| "epoch": 0.08516666666666667, |
| "grad_norm": 25.625, |
| "learning_rate": 1.9782696241826448e-05, |
| "loss": 0.1119, |
| "step": 5110 |
| }, |
| { |
| "epoch": 0.08533333333333333, |
| "grad_norm": 21.375, |
| "learning_rate": 1.9781587077363383e-05, |
| "loss": 0.1134, |
| "step": 5120 |
| }, |
| { |
| "epoch": 0.0855, |
| "grad_norm": 23.0, |
| "learning_rate": 1.978047512064962e-05, |
| "loss": 0.1104, |
| "step": 5130 |
| }, |
| { |
| "epoch": 0.08566666666666667, |
| "grad_norm": 70.5, |
| "learning_rate": 1.9779360372002576e-05, |
| "loss": 0.1181, |
| "step": 5140 |
| }, |
| { |
| "epoch": 0.08583333333333333, |
| "grad_norm": 78.5, |
| "learning_rate": 1.977824283174047e-05, |
| "loss": 0.1389, |
| "step": 5150 |
| }, |
| { |
| "epoch": 0.086, |
| "grad_norm": 101.0, |
| "learning_rate": 1.9777122500182308e-05, |
| "loss": 0.1329, |
| "step": 5160 |
| }, |
| { |
| "epoch": 0.08616666666666667, |
| "grad_norm": 13.0, |
| "learning_rate": 1.977599937764791e-05, |
| "loss": 0.1153, |
| "step": 5170 |
| }, |
| { |
| "epoch": 0.08633333333333333, |
| "grad_norm": 5.625, |
| "learning_rate": 1.9774873464457874e-05, |
| "loss": 0.1208, |
| "step": 5180 |
| }, |
| { |
| "epoch": 0.0865, |
| "grad_norm": 32.5, |
| "learning_rate": 1.9773744760933607e-05, |
| "loss": 0.1205, |
| "step": 5190 |
| }, |
| { |
| "epoch": 0.08666666666666667, |
| "grad_norm": 36.5, |
| "learning_rate": 1.9772613267397304e-05, |
| "loss": 0.1299, |
| "step": 5200 |
| }, |
| { |
| "epoch": 0.08683333333333333, |
| "grad_norm": 49.5, |
| "learning_rate": 1.9771478984171968e-05, |
| "loss": 0.1293, |
| "step": 5210 |
| }, |
| { |
| "epoch": 0.087, |
| "grad_norm": 2.96875, |
| "learning_rate": 1.977034191158139e-05, |
| "loss": 0.1153, |
| "step": 5220 |
| }, |
| { |
| "epoch": 0.08716666666666667, |
| "grad_norm": 16.875, |
| "learning_rate": 1.9769202049950152e-05, |
| "loss": 0.1285, |
| "step": 5230 |
| }, |
| { |
| "epoch": 0.08733333333333333, |
| "grad_norm": 30.25, |
| "learning_rate": 1.9768059399603645e-05, |
| "loss": 0.1231, |
| "step": 5240 |
| }, |
| { |
| "epoch": 0.0875, |
| "grad_norm": 49.25, |
| "learning_rate": 1.976691396086805e-05, |
| "loss": 0.1229, |
| "step": 5250 |
| }, |
| { |
| "epoch": 0.08766666666666667, |
| "grad_norm": 39.25, |
| "learning_rate": 1.976576573407034e-05, |
| "loss": 0.123, |
| "step": 5260 |
| }, |
| { |
| "epoch": 0.08783333333333333, |
| "grad_norm": 12.375, |
| "learning_rate": 1.9764614719538292e-05, |
| "loss": 0.1282, |
| "step": 5270 |
| }, |
| { |
| "epoch": 0.088, |
| "grad_norm": 10.3125, |
| "learning_rate": 1.9763460917600467e-05, |
| "loss": 0.1068, |
| "step": 5280 |
| }, |
| { |
| "epoch": 0.08816666666666667, |
| "grad_norm": 19.125, |
| "learning_rate": 1.976230432858624e-05, |
| "loss": 0.1274, |
| "step": 5290 |
| }, |
| { |
| "epoch": 0.08833333333333333, |
| "grad_norm": 37.5, |
| "learning_rate": 1.9761144952825763e-05, |
| "loss": 0.1257, |
| "step": 5300 |
| }, |
| { |
| "epoch": 0.0885, |
| "grad_norm": 2.78125, |
| "learning_rate": 1.9759982790649994e-05, |
| "loss": 0.12, |
| "step": 5310 |
| }, |
| { |
| "epoch": 0.08866666666666667, |
| "grad_norm": 16.5, |
| "learning_rate": 1.9758817842390683e-05, |
| "loss": 0.1147, |
| "step": 5320 |
| }, |
| { |
| "epoch": 0.08883333333333333, |
| "grad_norm": 2.109375, |
| "learning_rate": 1.975765010838037e-05, |
| "loss": 0.1169, |
| "step": 5330 |
| }, |
| { |
| "epoch": 0.089, |
| "grad_norm": 8.625, |
| "learning_rate": 1.9756479588952412e-05, |
| "loss": 0.1163, |
| "step": 5340 |
| }, |
| { |
| "epoch": 0.08916666666666667, |
| "grad_norm": 7.96875, |
| "learning_rate": 1.9755306284440928e-05, |
| "loss": 0.1169, |
| "step": 5350 |
| }, |
| { |
| "epoch": 0.08933333333333333, |
| "grad_norm": 11.4375, |
| "learning_rate": 1.975413019518086e-05, |
| "loss": 0.1158, |
| "step": 5360 |
| }, |
| { |
| "epoch": 0.0895, |
| "grad_norm": 2.3125, |
| "learning_rate": 1.9752951321507935e-05, |
| "loss": 0.1182, |
| "step": 5370 |
| }, |
| { |
| "epoch": 0.08966666666666667, |
| "grad_norm": 2.53125, |
| "learning_rate": 1.9751769663758665e-05, |
| "loss": 0.1232, |
| "step": 5380 |
| }, |
| { |
| "epoch": 0.08983333333333333, |
| "grad_norm": 137.0, |
| "learning_rate": 1.9750585222270372e-05, |
| "loss": 0.1226, |
| "step": 5390 |
| }, |
| { |
| "epoch": 0.09, |
| "grad_norm": 65.5, |
| "learning_rate": 1.974939799738117e-05, |
| "loss": 0.1226, |
| "step": 5400 |
| }, |
| { |
| "epoch": 0.09016666666666667, |
| "grad_norm": 10.4375, |
| "learning_rate": 1.9748207989429954e-05, |
| "loss": 0.1256, |
| "step": 5410 |
| }, |
| { |
| "epoch": 0.09033333333333333, |
| "grad_norm": 10.625, |
| "learning_rate": 1.974701519875643e-05, |
| "loss": 0.1277, |
| "step": 5420 |
| }, |
| { |
| "epoch": 0.0905, |
| "grad_norm": 3.265625, |
| "learning_rate": 1.9745819625701095e-05, |
| "loss": 0.1247, |
| "step": 5430 |
| }, |
| { |
| "epoch": 0.09066666666666667, |
| "grad_norm": 29.75, |
| "learning_rate": 1.9744621270605232e-05, |
| "loss": 0.1146, |
| "step": 5440 |
| }, |
| { |
| "epoch": 0.09083333333333334, |
| "grad_norm": 86.5, |
| "learning_rate": 1.9743420133810924e-05, |
| "loss": 0.12, |
| "step": 5450 |
| }, |
| { |
| "epoch": 0.091, |
| "grad_norm": 20.5, |
| "learning_rate": 1.974221621566105e-05, |
| "loss": 0.1153, |
| "step": 5460 |
| }, |
| { |
| "epoch": 0.09116666666666666, |
| "grad_norm": 35.0, |
| "learning_rate": 1.9741009516499276e-05, |
| "loss": 0.115, |
| "step": 5470 |
| }, |
| { |
| "epoch": 0.09133333333333334, |
| "grad_norm": 21.125, |
| "learning_rate": 1.973980003667007e-05, |
| "loss": 0.1231, |
| "step": 5480 |
| }, |
| { |
| "epoch": 0.0915, |
| "grad_norm": 38.0, |
| "learning_rate": 1.9738587776518686e-05, |
| "loss": 0.1277, |
| "step": 5490 |
| }, |
| { |
| "epoch": 0.09166666666666666, |
| "grad_norm": 42.5, |
| "learning_rate": 1.973737273639118e-05, |
| "loss": 0.1182, |
| "step": 5500 |
| }, |
| { |
| "epoch": 0.09183333333333334, |
| "grad_norm": 88.5, |
| "learning_rate": 1.9736154916634397e-05, |
| "loss": 0.1189, |
| "step": 5510 |
| }, |
| { |
| "epoch": 0.092, |
| "grad_norm": 62.0, |
| "learning_rate": 1.9734934317595975e-05, |
| "loss": 0.1156, |
| "step": 5520 |
| }, |
| { |
| "epoch": 0.09216666666666666, |
| "grad_norm": 36.0, |
| "learning_rate": 1.9733710939624343e-05, |
| "loss": 0.1206, |
| "step": 5530 |
| }, |
| { |
| "epoch": 0.09233333333333334, |
| "grad_norm": 39.75, |
| "learning_rate": 1.973248478306873e-05, |
| "loss": 0.1247, |
| "step": 5540 |
| }, |
| { |
| "epoch": 0.0925, |
| "grad_norm": 9.875, |
| "learning_rate": 1.973125584827915e-05, |
| "loss": 0.1232, |
| "step": 5550 |
| }, |
| { |
| "epoch": 0.09266666666666666, |
| "grad_norm": 36.75, |
| "learning_rate": 1.973002413560642e-05, |
| "loss": 0.1188, |
| "step": 5560 |
| }, |
| { |
| "epoch": 0.09283333333333334, |
| "grad_norm": 26.625, |
| "learning_rate": 1.972878964540214e-05, |
| "loss": 0.1086, |
| "step": 5570 |
| }, |
| { |
| "epoch": 0.093, |
| "grad_norm": 98.5, |
| "learning_rate": 1.972755237801871e-05, |
| "loss": 0.1191, |
| "step": 5580 |
| }, |
| { |
| "epoch": 0.09316666666666666, |
| "grad_norm": 23.125, |
| "learning_rate": 1.9726312333809322e-05, |
| "loss": 0.1223, |
| "step": 5590 |
| }, |
| { |
| "epoch": 0.09333333333333334, |
| "grad_norm": 50.5, |
| "learning_rate": 1.9725069513127955e-05, |
| "loss": 0.121, |
| "step": 5600 |
| }, |
| { |
| "epoch": 0.0935, |
| "grad_norm": 38.75, |
| "learning_rate": 1.972382391632939e-05, |
| "loss": 0.127, |
| "step": 5610 |
| }, |
| { |
| "epoch": 0.09366666666666666, |
| "grad_norm": 56.0, |
| "learning_rate": 1.9722575543769187e-05, |
| "loss": 0.1239, |
| "step": 5620 |
| }, |
| { |
| "epoch": 0.09383333333333334, |
| "grad_norm": 54.75, |
| "learning_rate": 1.972132439580371e-05, |
| "loss": 0.1104, |
| "step": 5630 |
| }, |
| { |
| "epoch": 0.094, |
| "grad_norm": 2.375, |
| "learning_rate": 1.972007047279011e-05, |
| "loss": 0.1322, |
| "step": 5640 |
| }, |
| { |
| "epoch": 0.09416666666666666, |
| "grad_norm": 19.875, |
| "learning_rate": 1.9718813775086342e-05, |
| "loss": 0.124, |
| "step": 5650 |
| }, |
| { |
| "epoch": 0.09433333333333334, |
| "grad_norm": 32.25, |
| "learning_rate": 1.9717554303051126e-05, |
| "loss": 0.115, |
| "step": 5660 |
| }, |
| { |
| "epoch": 0.0945, |
| "grad_norm": 27.5, |
| "learning_rate": 1.9716292057044004e-05, |
| "loss": 0.121, |
| "step": 5670 |
| }, |
| { |
| "epoch": 0.09466666666666666, |
| "grad_norm": 24.25, |
| "learning_rate": 1.971502703742529e-05, |
| "loss": 0.1152, |
| "step": 5680 |
| }, |
| { |
| "epoch": 0.09483333333333334, |
| "grad_norm": 15.0, |
| "learning_rate": 1.9713759244556097e-05, |
| "loss": 0.1135, |
| "step": 5690 |
| }, |
| { |
| "epoch": 0.095, |
| "grad_norm": 39.0, |
| "learning_rate": 1.971248867879833e-05, |
| "loss": 0.1209, |
| "step": 5700 |
| }, |
| { |
| "epoch": 0.09516666666666666, |
| "grad_norm": 37.75, |
| "learning_rate": 1.9711215340514688e-05, |
| "loss": 0.128, |
| "step": 5710 |
| }, |
| { |
| "epoch": 0.09533333333333334, |
| "grad_norm": 19.25, |
| "learning_rate": 1.9709939230068652e-05, |
| "loss": 0.1193, |
| "step": 5720 |
| }, |
| { |
| "epoch": 0.0955, |
| "grad_norm": 13.6875, |
| "learning_rate": 1.9708660347824502e-05, |
| "loss": 0.1113, |
| "step": 5730 |
| }, |
| { |
| "epoch": 0.09566666666666666, |
| "grad_norm": 52.5, |
| "learning_rate": 1.970737869414731e-05, |
| "loss": 0.125, |
| "step": 5740 |
| }, |
| { |
| "epoch": 0.09583333333333334, |
| "grad_norm": 42.25, |
| "learning_rate": 1.9706094269402936e-05, |
| "loss": 0.1259, |
| "step": 5750 |
| }, |
| { |
| "epoch": 0.096, |
| "grad_norm": 44.25, |
| "learning_rate": 1.970480707395803e-05, |
| "loss": 0.1325, |
| "step": 5760 |
| }, |
| { |
| "epoch": 0.09616666666666666, |
| "grad_norm": 27.75, |
| "learning_rate": 1.970351710818003e-05, |
| "loss": 0.1084, |
| "step": 5770 |
| }, |
| { |
| "epoch": 0.09633333333333334, |
| "grad_norm": 22.75, |
| "learning_rate": 1.9702224372437183e-05, |
| "loss": 0.1147, |
| "step": 5780 |
| }, |
| { |
| "epoch": 0.0965, |
| "grad_norm": 19.25, |
| "learning_rate": 1.9700928867098503e-05, |
| "loss": 0.1152, |
| "step": 5790 |
| }, |
| { |
| "epoch": 0.09666666666666666, |
| "grad_norm": 30.5, |
| "learning_rate": 1.969963059253381e-05, |
| "loss": 0.1244, |
| "step": 5800 |
| }, |
| { |
| "epoch": 0.09683333333333333, |
| "grad_norm": 44.5, |
| "learning_rate": 1.9698329549113703e-05, |
| "loss": 0.1166, |
| "step": 5810 |
| }, |
| { |
| "epoch": 0.097, |
| "grad_norm": 13.625, |
| "learning_rate": 1.9697025737209582e-05, |
| "loss": 0.1185, |
| "step": 5820 |
| }, |
| { |
| "epoch": 0.09716666666666667, |
| "grad_norm": 21.5, |
| "learning_rate": 1.969571915719363e-05, |
| "loss": 0.1267, |
| "step": 5830 |
| }, |
| { |
| "epoch": 0.09733333333333333, |
| "grad_norm": 77.5, |
| "learning_rate": 1.9694409809438827e-05, |
| "loss": 0.1204, |
| "step": 5840 |
| }, |
| { |
| "epoch": 0.0975, |
| "grad_norm": 17.25, |
| "learning_rate": 1.969309769431894e-05, |
| "loss": 0.1213, |
| "step": 5850 |
| }, |
| { |
| "epoch": 0.09766666666666667, |
| "grad_norm": 1.6171875, |
| "learning_rate": 1.969178281220852e-05, |
| "loss": 0.1161, |
| "step": 5860 |
| }, |
| { |
| "epoch": 0.09783333333333333, |
| "grad_norm": 156.0, |
| "learning_rate": 1.9690465163482914e-05, |
| "loss": 0.12, |
| "step": 5870 |
| }, |
| { |
| "epoch": 0.098, |
| "grad_norm": 50.25, |
| "learning_rate": 1.9689144748518263e-05, |
| "loss": 0.1291, |
| "step": 5880 |
| }, |
| { |
| "epoch": 0.09816666666666667, |
| "grad_norm": 23.75, |
| "learning_rate": 1.968782156769149e-05, |
| "loss": 0.1046, |
| "step": 5890 |
| }, |
| { |
| "epoch": 0.09833333333333333, |
| "grad_norm": 96.0, |
| "learning_rate": 1.9686495621380306e-05, |
| "loss": 0.1262, |
| "step": 5900 |
| }, |
| { |
| "epoch": 0.0985, |
| "grad_norm": 13.6875, |
| "learning_rate": 1.968516690996322e-05, |
| "loss": 0.1138, |
| "step": 5910 |
| }, |
| { |
| "epoch": 0.09866666666666667, |
| "grad_norm": 1.640625, |
| "learning_rate": 1.9683835433819523e-05, |
| "loss": 0.1155, |
| "step": 5920 |
| }, |
| { |
| "epoch": 0.09883333333333333, |
| "grad_norm": 19.75, |
| "learning_rate": 1.9682501193329303e-05, |
| "loss": 0.1186, |
| "step": 5930 |
| }, |
| { |
| "epoch": 0.099, |
| "grad_norm": 3.234375, |
| "learning_rate": 1.9681164188873425e-05, |
| "loss": 0.1307, |
| "step": 5940 |
| }, |
| { |
| "epoch": 0.09916666666666667, |
| "grad_norm": 59.75, |
| "learning_rate": 1.9679824420833558e-05, |
| "loss": 0.1414, |
| "step": 5950 |
| }, |
| { |
| "epoch": 0.09933333333333333, |
| "grad_norm": 40.5, |
| "learning_rate": 1.9678481889592144e-05, |
| "loss": 0.1189, |
| "step": 5960 |
| }, |
| { |
| "epoch": 0.0995, |
| "grad_norm": 3.0, |
| "learning_rate": 1.9677136595532426e-05, |
| "loss": 0.1162, |
| "step": 5970 |
| }, |
| { |
| "epoch": 0.09966666666666667, |
| "grad_norm": 16.875, |
| "learning_rate": 1.9675788539038435e-05, |
| "loss": 0.1266, |
| "step": 5980 |
| }, |
| { |
| "epoch": 0.09983333333333333, |
| "grad_norm": 55.0, |
| "learning_rate": 1.967443772049498e-05, |
| "loss": 0.1144, |
| "step": 5990 |
| }, |
| { |
| "epoch": 0.1, |
| "grad_norm": 21.125, |
| "learning_rate": 1.967308414028767e-05, |
| "loss": 0.1161, |
| "step": 6000 |
| }, |
| { |
| "epoch": 0.10016666666666667, |
| "grad_norm": 28.75, |
| "learning_rate": 1.9671727798802895e-05, |
| "loss": 0.1277, |
| "step": 6010 |
| }, |
| { |
| "epoch": 0.10033333333333333, |
| "grad_norm": 4.0625, |
| "learning_rate": 1.967036869642784e-05, |
| "loss": 0.1225, |
| "step": 6020 |
| }, |
| { |
| "epoch": 0.1005, |
| "grad_norm": 35.5, |
| "learning_rate": 1.9669006833550467e-05, |
| "loss": 0.1233, |
| "step": 6030 |
| }, |
| { |
| "epoch": 0.10066666666666667, |
| "grad_norm": 73.5, |
| "learning_rate": 1.9667642210559546e-05, |
| "loss": 0.1154, |
| "step": 6040 |
| }, |
| { |
| "epoch": 0.10083333333333333, |
| "grad_norm": 48.0, |
| "learning_rate": 1.966627482784461e-05, |
| "loss": 0.1302, |
| "step": 6050 |
| }, |
| { |
| "epoch": 0.101, |
| "grad_norm": 76.5, |
| "learning_rate": 1.9664904685795994e-05, |
| "loss": 0.1254, |
| "step": 6060 |
| }, |
| { |
| "epoch": 0.10116666666666667, |
| "grad_norm": 49.5, |
| "learning_rate": 1.9663531784804822e-05, |
| "loss": 0.1293, |
| "step": 6070 |
| }, |
| { |
| "epoch": 0.10133333333333333, |
| "grad_norm": 49.75, |
| "learning_rate": 1.9662156125263002e-05, |
| "loss": 0.1261, |
| "step": 6080 |
| }, |
| { |
| "epoch": 0.1015, |
| "grad_norm": 11.6875, |
| "learning_rate": 1.9660777707563227e-05, |
| "loss": 0.1059, |
| "step": 6090 |
| }, |
| { |
| "epoch": 0.10166666666666667, |
| "grad_norm": 37.5, |
| "learning_rate": 1.965939653209898e-05, |
| "loss": 0.1426, |
| "step": 6100 |
| }, |
| { |
| "epoch": 0.10183333333333333, |
| "grad_norm": 81.5, |
| "learning_rate": 1.9658012599264538e-05, |
| "loss": 0.1231, |
| "step": 6110 |
| }, |
| { |
| "epoch": 0.102, |
| "grad_norm": 40.0, |
| "learning_rate": 1.9656625909454948e-05, |
| "loss": 0.1313, |
| "step": 6120 |
| }, |
| { |
| "epoch": 0.10216666666666667, |
| "grad_norm": 46.25, |
| "learning_rate": 1.965523646306606e-05, |
| "loss": 0.1208, |
| "step": 6130 |
| }, |
| { |
| "epoch": 0.10233333333333333, |
| "grad_norm": 19.75, |
| "learning_rate": 1.965384426049451e-05, |
| "loss": 0.119, |
| "step": 6140 |
| }, |
| { |
| "epoch": 0.1025, |
| "grad_norm": 33.75, |
| "learning_rate": 1.9652449302137705e-05, |
| "loss": 0.1196, |
| "step": 6150 |
| }, |
| { |
| "epoch": 0.10266666666666667, |
| "grad_norm": 41.75, |
| "learning_rate": 1.965105158839385e-05, |
| "loss": 0.1288, |
| "step": 6160 |
| }, |
| { |
| "epoch": 0.10283333333333333, |
| "grad_norm": 39.5, |
| "learning_rate": 1.964965111966195e-05, |
| "loss": 0.1196, |
| "step": 6170 |
| }, |
| { |
| "epoch": 0.103, |
| "grad_norm": 19.875, |
| "learning_rate": 1.964824789634177e-05, |
| "loss": 0.1137, |
| "step": 6180 |
| }, |
| { |
| "epoch": 0.10316666666666667, |
| "grad_norm": 70.0, |
| "learning_rate": 1.964684191883388e-05, |
| "loss": 0.1128, |
| "step": 6190 |
| }, |
| { |
| "epoch": 0.10333333333333333, |
| "grad_norm": 30.5, |
| "learning_rate": 1.9645433187539624e-05, |
| "loss": 0.1235, |
| "step": 6200 |
| }, |
| { |
| "epoch": 0.1035, |
| "grad_norm": 1.78125, |
| "learning_rate": 1.9644021702861148e-05, |
| "loss": 0.1149, |
| "step": 6210 |
| }, |
| { |
| "epoch": 0.10366666666666667, |
| "grad_norm": 49.5, |
| "learning_rate": 1.9642607465201364e-05, |
| "loss": 0.126, |
| "step": 6220 |
| }, |
| { |
| "epoch": 0.10383333333333333, |
| "grad_norm": 92.5, |
| "learning_rate": 1.9641190474963988e-05, |
| "loss": 0.1153, |
| "step": 6230 |
| }, |
| { |
| "epoch": 0.104, |
| "grad_norm": 25.25, |
| "learning_rate": 1.9639770732553506e-05, |
| "loss": 0.1171, |
| "step": 6240 |
| }, |
| { |
| "epoch": 0.10416666666666667, |
| "grad_norm": 105.0, |
| "learning_rate": 1.9638348238375203e-05, |
| "loss": 0.1159, |
| "step": 6250 |
| }, |
| { |
| "epoch": 0.10433333333333333, |
| "grad_norm": 29.25, |
| "learning_rate": 1.9636922992835146e-05, |
| "loss": 0.1139, |
| "step": 6260 |
| }, |
| { |
| "epoch": 0.1045, |
| "grad_norm": 2.390625, |
| "learning_rate": 1.9635494996340182e-05, |
| "loss": 0.1204, |
| "step": 6270 |
| }, |
| { |
| "epoch": 0.10466666666666667, |
| "grad_norm": 61.75, |
| "learning_rate": 1.9634064249297945e-05, |
| "loss": 0.1292, |
| "step": 6280 |
| }, |
| { |
| "epoch": 0.10483333333333333, |
| "grad_norm": 11.8125, |
| "learning_rate": 1.963263075211686e-05, |
| "loss": 0.1221, |
| "step": 6290 |
| }, |
| { |
| "epoch": 0.105, |
| "grad_norm": 34.0, |
| "learning_rate": 1.9631194505206133e-05, |
| "loss": 0.1119, |
| "step": 6300 |
| }, |
| { |
| "epoch": 0.10516666666666667, |
| "grad_norm": 29.875, |
| "learning_rate": 1.962975550897575e-05, |
| "loss": 0.1137, |
| "step": 6310 |
| }, |
| { |
| "epoch": 0.10533333333333333, |
| "grad_norm": 16.5, |
| "learning_rate": 1.962831376383649e-05, |
| "loss": 0.1209, |
| "step": 6320 |
| }, |
| { |
| "epoch": 0.1055, |
| "grad_norm": 40.25, |
| "learning_rate": 1.962686927019991e-05, |
| "loss": 0.1219, |
| "step": 6330 |
| }, |
| { |
| "epoch": 0.10566666666666667, |
| "grad_norm": 32.75, |
| "learning_rate": 1.962542202847836e-05, |
| "loss": 0.1161, |
| "step": 6340 |
| }, |
| { |
| "epoch": 0.10583333333333333, |
| "grad_norm": 41.0, |
| "learning_rate": 1.962397203908497e-05, |
| "loss": 0.1254, |
| "step": 6350 |
| }, |
| { |
| "epoch": 0.106, |
| "grad_norm": 21.125, |
| "learning_rate": 1.962251930243365e-05, |
| "loss": 0.1189, |
| "step": 6360 |
| }, |
| { |
| "epoch": 0.10616666666666667, |
| "grad_norm": 30.25, |
| "learning_rate": 1.96210638189391e-05, |
| "loss": 0.1231, |
| "step": 6370 |
| }, |
| { |
| "epoch": 0.10633333333333334, |
| "grad_norm": 6.59375, |
| "learning_rate": 1.9619605589016796e-05, |
| "loss": 0.1318, |
| "step": 6380 |
| }, |
| { |
| "epoch": 0.1065, |
| "grad_norm": 42.75, |
| "learning_rate": 1.9618144613083015e-05, |
| "loss": 0.1367, |
| "step": 6390 |
| }, |
| { |
| "epoch": 0.10666666666666667, |
| "grad_norm": 52.75, |
| "learning_rate": 1.96166808915548e-05, |
| "loss": 0.1222, |
| "step": 6400 |
| }, |
| { |
| "epoch": 0.10683333333333334, |
| "grad_norm": 2.0, |
| "learning_rate": 1.9615214424849988e-05, |
| "loss": 0.1324, |
| "step": 6410 |
| }, |
| { |
| "epoch": 0.107, |
| "grad_norm": 1.953125, |
| "learning_rate": 1.961374521338719e-05, |
| "loss": 0.1151, |
| "step": 6420 |
| }, |
| { |
| "epoch": 0.10716666666666666, |
| "grad_norm": 66.0, |
| "learning_rate": 1.9612273257585817e-05, |
| "loss": 0.1252, |
| "step": 6430 |
| }, |
| { |
| "epoch": 0.10733333333333334, |
| "grad_norm": 31.75, |
| "learning_rate": 1.9610798557866043e-05, |
| "loss": 0.104, |
| "step": 6440 |
| }, |
| { |
| "epoch": 0.1075, |
| "grad_norm": 28.125, |
| "learning_rate": 1.9609321114648846e-05, |
| "loss": 0.1158, |
| "step": 6450 |
| }, |
| { |
| "epoch": 0.10766666666666666, |
| "grad_norm": 16.125, |
| "learning_rate": 1.960784092835597e-05, |
| "loss": 0.1195, |
| "step": 6460 |
| }, |
| { |
| "epoch": 0.10783333333333334, |
| "grad_norm": 64.0, |
| "learning_rate": 1.9606357999409948e-05, |
| "loss": 0.1238, |
| "step": 6470 |
| }, |
| { |
| "epoch": 0.108, |
| "grad_norm": 36.75, |
| "learning_rate": 1.9604872328234096e-05, |
| "loss": 0.122, |
| "step": 6480 |
| }, |
| { |
| "epoch": 0.10816666666666666, |
| "grad_norm": 47.5, |
| "learning_rate": 1.9603383915252523e-05, |
| "loss": 0.1211, |
| "step": 6490 |
| }, |
| { |
| "epoch": 0.10833333333333334, |
| "grad_norm": 10.3125, |
| "learning_rate": 1.96018927608901e-05, |
| "loss": 0.1131, |
| "step": 6500 |
| }, |
| { |
| "epoch": 0.1085, |
| "grad_norm": 29.625, |
| "learning_rate": 1.96003988655725e-05, |
| "loss": 0.1167, |
| "step": 6510 |
| }, |
| { |
| "epoch": 0.10866666666666666, |
| "grad_norm": 20.125, |
| "learning_rate": 1.9598902229726166e-05, |
| "loss": 0.1162, |
| "step": 6520 |
| }, |
| { |
| "epoch": 0.10883333333333334, |
| "grad_norm": 14.4375, |
| "learning_rate": 1.9597402853778323e-05, |
| "loss": 0.1258, |
| "step": 6530 |
| }, |
| { |
| "epoch": 0.109, |
| "grad_norm": 52.0, |
| "learning_rate": 1.9595900738156996e-05, |
| "loss": 0.1176, |
| "step": 6540 |
| }, |
| { |
| "epoch": 0.10916666666666666, |
| "grad_norm": 2.40625, |
| "learning_rate": 1.9594395883290965e-05, |
| "loss": 0.1123, |
| "step": 6550 |
| }, |
| { |
| "epoch": 0.10933333333333334, |
| "grad_norm": 19.125, |
| "learning_rate": 1.959288828960981e-05, |
| "loss": 0.117, |
| "step": 6560 |
| }, |
| { |
| "epoch": 0.1095, |
| "grad_norm": 15.375, |
| "learning_rate": 1.9591377957543893e-05, |
| "loss": 0.1157, |
| "step": 6570 |
| }, |
| { |
| "epoch": 0.10966666666666666, |
| "grad_norm": 9.875, |
| "learning_rate": 1.958986488752435e-05, |
| "loss": 0.1225, |
| "step": 6580 |
| }, |
| { |
| "epoch": 0.10983333333333334, |
| "grad_norm": 60.25, |
| "learning_rate": 1.95883490799831e-05, |
| "loss": 0.1192, |
| "step": 6590 |
| }, |
| { |
| "epoch": 0.11, |
| "grad_norm": 15.0, |
| "learning_rate": 1.9586830535352845e-05, |
| "loss": 0.1139, |
| "step": 6600 |
| }, |
| { |
| "epoch": 0.11016666666666666, |
| "grad_norm": 22.125, |
| "learning_rate": 1.9585309254067077e-05, |
| "loss": 0.1244, |
| "step": 6610 |
| }, |
| { |
| "epoch": 0.11033333333333334, |
| "grad_norm": 14.375, |
| "learning_rate": 1.9583785236560045e-05, |
| "loss": 0.109, |
| "step": 6620 |
| }, |
| { |
| "epoch": 0.1105, |
| "grad_norm": 29.25, |
| "learning_rate": 1.958225848326681e-05, |
| "loss": 0.1174, |
| "step": 6630 |
| }, |
| { |
| "epoch": 0.11066666666666666, |
| "grad_norm": 29.25, |
| "learning_rate": 1.9580728994623194e-05, |
| "loss": 0.113, |
| "step": 6640 |
| }, |
| { |
| "epoch": 0.11083333333333334, |
| "grad_norm": 22.375, |
| "learning_rate": 1.9579196771065804e-05, |
| "loss": 0.1119, |
| "step": 6650 |
| }, |
| { |
| "epoch": 0.111, |
| "grad_norm": 48.75, |
| "learning_rate": 1.9577661813032022e-05, |
| "loss": 0.1188, |
| "step": 6660 |
| }, |
| { |
| "epoch": 0.11116666666666666, |
| "grad_norm": 23.125, |
| "learning_rate": 1.9576124120960028e-05, |
| "loss": 0.1086, |
| "step": 6670 |
| }, |
| { |
| "epoch": 0.11133333333333334, |
| "grad_norm": 44.75, |
| "learning_rate": 1.9574583695288764e-05, |
| "loss": 0.1226, |
| "step": 6680 |
| }, |
| { |
| "epoch": 0.1115, |
| "grad_norm": 72.0, |
| "learning_rate": 1.9573040536457963e-05, |
| "loss": 0.1143, |
| "step": 6690 |
| }, |
| { |
| "epoch": 0.11166666666666666, |
| "grad_norm": 38.75, |
| "learning_rate": 1.9571494644908132e-05, |
| "loss": 0.128, |
| "step": 6700 |
| }, |
| { |
| "epoch": 0.11183333333333334, |
| "grad_norm": 70.0, |
| "learning_rate": 1.956994602108057e-05, |
| "loss": 0.1154, |
| "step": 6710 |
| }, |
| { |
| "epoch": 0.112, |
| "grad_norm": 29.375, |
| "learning_rate": 1.956839466541733e-05, |
| "loss": 0.1288, |
| "step": 6720 |
| }, |
| { |
| "epoch": 0.11216666666666666, |
| "grad_norm": 17.25, |
| "learning_rate": 1.956684057836128e-05, |
| "loss": 0.1193, |
| "step": 6730 |
| }, |
| { |
| "epoch": 0.11233333333333333, |
| "grad_norm": 8.4375, |
| "learning_rate": 1.9565283760356036e-05, |
| "loss": 0.1105, |
| "step": 6740 |
| }, |
| { |
| "epoch": 0.1125, |
| "grad_norm": 14.5625, |
| "learning_rate": 1.9563724211846016e-05, |
| "loss": 0.1292, |
| "step": 6750 |
| }, |
| { |
| "epoch": 0.11266666666666666, |
| "grad_norm": 14.6875, |
| "learning_rate": 1.9562161933276402e-05, |
| "loss": 0.1077, |
| "step": 6760 |
| }, |
| { |
| "epoch": 0.11283333333333333, |
| "grad_norm": 17.5, |
| "learning_rate": 1.9560596925093165e-05, |
| "loss": 0.1153, |
| "step": 6770 |
| }, |
| { |
| "epoch": 0.113, |
| "grad_norm": 33.0, |
| "learning_rate": 1.9559029187743053e-05, |
| "loss": 0.1209, |
| "step": 6780 |
| }, |
| { |
| "epoch": 0.11316666666666667, |
| "grad_norm": 25.0, |
| "learning_rate": 1.955745872167359e-05, |
| "loss": 0.1149, |
| "step": 6790 |
| }, |
| { |
| "epoch": 0.11333333333333333, |
| "grad_norm": 81.0, |
| "learning_rate": 1.9555885527333083e-05, |
| "loss": 0.1243, |
| "step": 6800 |
| }, |
| { |
| "epoch": 0.1135, |
| "grad_norm": 59.75, |
| "learning_rate": 1.9554309605170615e-05, |
| "loss": 0.1312, |
| "step": 6810 |
| }, |
| { |
| "epoch": 0.11366666666666667, |
| "grad_norm": 2.28125, |
| "learning_rate": 1.9552730955636048e-05, |
| "loss": 0.1153, |
| "step": 6820 |
| }, |
| { |
| "epoch": 0.11383333333333333, |
| "grad_norm": 103.0, |
| "learning_rate": 1.9551149579180025e-05, |
| "loss": 0.1213, |
| "step": 6830 |
| }, |
| { |
| "epoch": 0.114, |
| "grad_norm": 21.875, |
| "learning_rate": 1.954956547625396e-05, |
| "loss": 0.1275, |
| "step": 6840 |
| }, |
| { |
| "epoch": 0.11416666666666667, |
| "grad_norm": 11.625, |
| "learning_rate": 1.954797864731006e-05, |
| "loss": 0.1164, |
| "step": 6850 |
| }, |
| { |
| "epoch": 0.11433333333333333, |
| "grad_norm": 11.5, |
| "learning_rate": 1.9546389092801292e-05, |
| "loss": 0.1134, |
| "step": 6860 |
| }, |
| { |
| "epoch": 0.1145, |
| "grad_norm": 18.75, |
| "learning_rate": 1.9544796813181416e-05, |
| "loss": 0.1207, |
| "step": 6870 |
| }, |
| { |
| "epoch": 0.11466666666666667, |
| "grad_norm": 18.25, |
| "learning_rate": 1.954320180890496e-05, |
| "loss": 0.1261, |
| "step": 6880 |
| }, |
| { |
| "epoch": 0.11483333333333333, |
| "grad_norm": 37.0, |
| "learning_rate": 1.9541604080427236e-05, |
| "loss": 0.1256, |
| "step": 6890 |
| }, |
| { |
| "epoch": 0.115, |
| "grad_norm": 18.625, |
| "learning_rate": 1.9540003628204334e-05, |
| "loss": 0.1145, |
| "step": 6900 |
| }, |
| { |
| "epoch": 0.11516666666666667, |
| "grad_norm": 34.75, |
| "learning_rate": 1.9538400452693112e-05, |
| "loss": 0.1295, |
| "step": 6910 |
| }, |
| { |
| "epoch": 0.11533333333333333, |
| "grad_norm": 12.75, |
| "learning_rate": 1.9536794554351218e-05, |
| "loss": 0.1279, |
| "step": 6920 |
| }, |
| { |
| "epoch": 0.1155, |
| "grad_norm": 4.15625, |
| "learning_rate": 1.953518593363707e-05, |
| "loss": 0.1319, |
| "step": 6930 |
| }, |
| { |
| "epoch": 0.11566666666666667, |
| "grad_norm": 11.1875, |
| "learning_rate": 1.9533574591009864e-05, |
| "loss": 0.1286, |
| "step": 6940 |
| }, |
| { |
| "epoch": 0.11583333333333333, |
| "grad_norm": 19.625, |
| "learning_rate": 1.9531960526929573e-05, |
| "loss": 0.1309, |
| "step": 6950 |
| }, |
| { |
| "epoch": 0.116, |
| "grad_norm": 46.25, |
| "learning_rate": 1.9530343741856954e-05, |
| "loss": 0.1138, |
| "step": 6960 |
| }, |
| { |
| "epoch": 0.11616666666666667, |
| "grad_norm": 20.75, |
| "learning_rate": 1.9528724236253526e-05, |
| "loss": 0.1195, |
| "step": 6970 |
| }, |
| { |
| "epoch": 0.11633333333333333, |
| "grad_norm": 17.25, |
| "learning_rate": 1.952710201058159e-05, |
| "loss": 0.1185, |
| "step": 6980 |
| }, |
| { |
| "epoch": 0.1165, |
| "grad_norm": 16.375, |
| "learning_rate": 1.9525477065304236e-05, |
| "loss": 0.1182, |
| "step": 6990 |
| }, |
| { |
| "epoch": 0.11666666666666667, |
| "grad_norm": 3.265625, |
| "learning_rate": 1.952384940088532e-05, |
| "loss": 0.1235, |
| "step": 7000 |
| }, |
| { |
| "epoch": 0.11683333333333333, |
| "grad_norm": 11.0625, |
| "learning_rate": 1.952221901778947e-05, |
| "loss": 0.1131, |
| "step": 7010 |
| }, |
| { |
| "epoch": 0.117, |
| "grad_norm": 2.484375, |
| "learning_rate": 1.9520585916482097e-05, |
| "loss": 0.1177, |
| "step": 7020 |
| }, |
| { |
| "epoch": 0.11716666666666667, |
| "grad_norm": 35.0, |
| "learning_rate": 1.9518950097429383e-05, |
| "loss": 0.115, |
| "step": 7030 |
| }, |
| { |
| "epoch": 0.11733333333333333, |
| "grad_norm": 15.4375, |
| "learning_rate": 1.9517311561098294e-05, |
| "loss": 0.1112, |
| "step": 7040 |
| }, |
| { |
| "epoch": 0.1175, |
| "grad_norm": 100.0, |
| "learning_rate": 1.9515670307956563e-05, |
| "loss": 0.1148, |
| "step": 7050 |
| }, |
| { |
| "epoch": 0.11766666666666667, |
| "grad_norm": 17.125, |
| "learning_rate": 1.9514026338472703e-05, |
| "loss": 0.1159, |
| "step": 7060 |
| }, |
| { |
| "epoch": 0.11783333333333333, |
| "grad_norm": 2.1875, |
| "learning_rate": 1.9512379653116e-05, |
| "loss": 0.1165, |
| "step": 7070 |
| }, |
| { |
| "epoch": 0.118, |
| "grad_norm": 58.5, |
| "learning_rate": 1.9510730252356517e-05, |
| "loss": 0.1204, |
| "step": 7080 |
| }, |
| { |
| "epoch": 0.11816666666666667, |
| "grad_norm": 13.0, |
| "learning_rate": 1.9509078136665092e-05, |
| "loss": 0.1175, |
| "step": 7090 |
| }, |
| { |
| "epoch": 0.11833333333333333, |
| "grad_norm": 60.5, |
| "learning_rate": 1.950742330651334e-05, |
| "loss": 0.1185, |
| "step": 7100 |
| }, |
| { |
| "epoch": 0.1185, |
| "grad_norm": 31.0, |
| "learning_rate": 1.950576576237365e-05, |
| "loss": 0.1296, |
| "step": 7110 |
| }, |
| { |
| "epoch": 0.11866666666666667, |
| "grad_norm": 34.0, |
| "learning_rate": 1.9504105504719177e-05, |
| "loss": 0.1174, |
| "step": 7120 |
| }, |
| { |
| "epoch": 0.11883333333333333, |
| "grad_norm": 94.5, |
| "learning_rate": 1.950244253402386e-05, |
| "loss": 0.1158, |
| "step": 7130 |
| }, |
| { |
| "epoch": 0.119, |
| "grad_norm": 59.75, |
| "learning_rate": 1.9500776850762415e-05, |
| "loss": 0.1181, |
| "step": 7140 |
| }, |
| { |
| "epoch": 0.11916666666666667, |
| "grad_norm": 30.5, |
| "learning_rate": 1.9499108455410327e-05, |
| "loss": 0.1286, |
| "step": 7150 |
| }, |
| { |
| "epoch": 0.11933333333333333, |
| "grad_norm": 32.75, |
| "learning_rate": 1.9497437348443854e-05, |
| "loss": 0.116, |
| "step": 7160 |
| }, |
| { |
| "epoch": 0.1195, |
| "grad_norm": 11.75, |
| "learning_rate": 1.9495763530340026e-05, |
| "loss": 0.1079, |
| "step": 7170 |
| }, |
| { |
| "epoch": 0.11966666666666667, |
| "grad_norm": 12.8125, |
| "learning_rate": 1.949408700157666e-05, |
| "loss": 0.1023, |
| "step": 7180 |
| }, |
| { |
| "epoch": 0.11983333333333333, |
| "grad_norm": 60.0, |
| "learning_rate": 1.9492407762632327e-05, |
| "loss": 0.1157, |
| "step": 7190 |
| }, |
| { |
| "epoch": 0.12, |
| "grad_norm": 53.25, |
| "learning_rate": 1.9490725813986392e-05, |
| "loss": 0.1258, |
| "step": 7200 |
| }, |
| { |
| "epoch": 0.12016666666666667, |
| "grad_norm": 13.0625, |
| "learning_rate": 1.948904115611898e-05, |
| "loss": 0.1139, |
| "step": 7210 |
| }, |
| { |
| "epoch": 0.12033333333333333, |
| "grad_norm": 40.25, |
| "learning_rate": 1.948735378951099e-05, |
| "loss": 0.1158, |
| "step": 7220 |
| }, |
| { |
| "epoch": 0.1205, |
| "grad_norm": 26.375, |
| "learning_rate": 1.9485663714644104e-05, |
| "loss": 0.1095, |
| "step": 7230 |
| }, |
| { |
| "epoch": 0.12066666666666667, |
| "grad_norm": 30.25, |
| "learning_rate": 1.9483970932000767e-05, |
| "loss": 0.1227, |
| "step": 7240 |
| }, |
| { |
| "epoch": 0.12083333333333333, |
| "grad_norm": 1.765625, |
| "learning_rate": 1.94822754420642e-05, |
| "loss": 0.1082, |
| "step": 7250 |
| }, |
| { |
| "epoch": 0.121, |
| "grad_norm": 23.75, |
| "learning_rate": 1.94805772453184e-05, |
| "loss": 0.0974, |
| "step": 7260 |
| }, |
| { |
| "epoch": 0.12116666666666667, |
| "grad_norm": 44.25, |
| "learning_rate": 1.947887634224813e-05, |
| "loss": 0.1192, |
| "step": 7270 |
| }, |
| { |
| "epoch": 0.12133333333333333, |
| "grad_norm": 82.0, |
| "learning_rate": 1.9477172733338934e-05, |
| "loss": 0.1136, |
| "step": 7280 |
| }, |
| { |
| "epoch": 0.1215, |
| "grad_norm": 30.25, |
| "learning_rate": 1.947546641907712e-05, |
| "loss": 0.1216, |
| "step": 7290 |
| }, |
| { |
| "epoch": 0.12166666666666667, |
| "grad_norm": 2.5625, |
| "learning_rate": 1.9473757399949773e-05, |
| "loss": 0.1162, |
| "step": 7300 |
| }, |
| { |
| "epoch": 0.12183333333333334, |
| "grad_norm": 25.125, |
| "learning_rate": 1.9472045676444753e-05, |
| "loss": 0.1221, |
| "step": 7310 |
| }, |
| { |
| "epoch": 0.122, |
| "grad_norm": 65.5, |
| "learning_rate": 1.9470331249050686e-05, |
| "loss": 0.122, |
| "step": 7320 |
| }, |
| { |
| "epoch": 0.12216666666666667, |
| "grad_norm": 12.625, |
| "learning_rate": 1.946861411825697e-05, |
| "loss": 0.1094, |
| "step": 7330 |
| }, |
| { |
| "epoch": 0.12233333333333334, |
| "grad_norm": 31.375, |
| "learning_rate": 1.9466894284553778e-05, |
| "loss": 0.1221, |
| "step": 7340 |
| }, |
| { |
| "epoch": 0.1225, |
| "grad_norm": 32.0, |
| "learning_rate": 1.9465171748432056e-05, |
| "loss": 0.1209, |
| "step": 7350 |
| }, |
| { |
| "epoch": 0.12266666666666666, |
| "grad_norm": 37.0, |
| "learning_rate": 1.9463446510383517e-05, |
| "loss": 0.1301, |
| "step": 7360 |
| }, |
| { |
| "epoch": 0.12283333333333334, |
| "grad_norm": 2.234375, |
| "learning_rate": 1.946171857090065e-05, |
| "loss": 0.1188, |
| "step": 7370 |
| }, |
| { |
| "epoch": 0.123, |
| "grad_norm": 38.5, |
| "learning_rate": 1.945998793047671e-05, |
| "loss": 0.1195, |
| "step": 7380 |
| }, |
| { |
| "epoch": 0.12316666666666666, |
| "grad_norm": 19.25, |
| "learning_rate": 1.9458254589605723e-05, |
| "loss": 0.1069, |
| "step": 7390 |
| }, |
| { |
| "epoch": 0.12333333333333334, |
| "grad_norm": 144.0, |
| "learning_rate": 1.9456518548782494e-05, |
| "loss": 0.1242, |
| "step": 7400 |
| }, |
| { |
| "epoch": 0.1235, |
| "grad_norm": 42.0, |
| "learning_rate": 1.945477980850259e-05, |
| "loss": 0.119, |
| "step": 7410 |
| }, |
| { |
| "epoch": 0.12366666666666666, |
| "grad_norm": 17.125, |
| "learning_rate": 1.945303836926235e-05, |
| "loss": 0.1081, |
| "step": 7420 |
| }, |
| { |
| "epoch": 0.12383333333333334, |
| "grad_norm": 20.25, |
| "learning_rate": 1.9451294231558884e-05, |
| "loss": 0.1222, |
| "step": 7430 |
| }, |
| { |
| "epoch": 0.124, |
| "grad_norm": 33.5, |
| "learning_rate": 1.9449547395890077e-05, |
| "loss": 0.1273, |
| "step": 7440 |
| }, |
| { |
| "epoch": 0.12416666666666666, |
| "grad_norm": 7.4375, |
| "learning_rate": 1.944779786275458e-05, |
| "loss": 0.1177, |
| "step": 7450 |
| }, |
| { |
| "epoch": 0.12433333333333334, |
| "grad_norm": 38.25, |
| "learning_rate": 1.9446045632651815e-05, |
| "loss": 0.1191, |
| "step": 7460 |
| }, |
| { |
| "epoch": 0.1245, |
| "grad_norm": 20.75, |
| "learning_rate": 1.944429070608197e-05, |
| "loss": 0.124, |
| "step": 7470 |
| }, |
| { |
| "epoch": 0.12466666666666666, |
| "grad_norm": 24.375, |
| "learning_rate": 1.944253308354601e-05, |
| "loss": 0.1205, |
| "step": 7480 |
| }, |
| { |
| "epoch": 0.12483333333333334, |
| "grad_norm": 20.625, |
| "learning_rate": 1.9440772765545666e-05, |
| "loss": 0.1255, |
| "step": 7490 |
| }, |
| { |
| "epoch": 0.125, |
| "grad_norm": 28.75, |
| "learning_rate": 1.9439009752583437e-05, |
| "loss": 0.1094, |
| "step": 7500 |
| }, |
| { |
| "epoch": 0.12516666666666668, |
| "grad_norm": 48.5, |
| "learning_rate": 1.943724404516259e-05, |
| "loss": 0.1096, |
| "step": 7510 |
| }, |
| { |
| "epoch": 0.12533333333333332, |
| "grad_norm": 48.0, |
| "learning_rate": 1.9435475643787163e-05, |
| "loss": 0.1186, |
| "step": 7520 |
| }, |
| { |
| "epoch": 0.1255, |
| "grad_norm": 24.25, |
| "learning_rate": 1.9433704548961966e-05, |
| "loss": 0.1223, |
| "step": 7530 |
| }, |
| { |
| "epoch": 0.12566666666666668, |
| "grad_norm": 77.5, |
| "learning_rate": 1.943193076119258e-05, |
| "loss": 0.1137, |
| "step": 7540 |
| }, |
| { |
| "epoch": 0.12583333333333332, |
| "grad_norm": 21.25, |
| "learning_rate": 1.943015428098534e-05, |
| "loss": 0.1184, |
| "step": 7550 |
| }, |
| { |
| "epoch": 0.126, |
| "grad_norm": 11.1875, |
| "learning_rate": 1.9428375108847373e-05, |
| "loss": 0.123, |
| "step": 7560 |
| }, |
| { |
| "epoch": 0.12616666666666668, |
| "grad_norm": 22.125, |
| "learning_rate": 1.9426593245286547e-05, |
| "loss": 0.1198, |
| "step": 7570 |
| }, |
| { |
| "epoch": 0.12633333333333333, |
| "grad_norm": 2.203125, |
| "learning_rate": 1.9424808690811523e-05, |
| "loss": 0.1151, |
| "step": 7580 |
| }, |
| { |
| "epoch": 0.1265, |
| "grad_norm": 19.875, |
| "learning_rate": 1.9423021445931714e-05, |
| "loss": 0.1241, |
| "step": 7590 |
| }, |
| { |
| "epoch": 0.12666666666666668, |
| "grad_norm": 26.375, |
| "learning_rate": 1.9421231511157314e-05, |
| "loss": 0.1103, |
| "step": 7600 |
| }, |
| { |
| "epoch": 0.12683333333333333, |
| "grad_norm": 18.75, |
| "learning_rate": 1.9419438886999268e-05, |
| "loss": 0.1112, |
| "step": 7610 |
| }, |
| { |
| "epoch": 0.127, |
| "grad_norm": 2.375, |
| "learning_rate": 1.9417643573969304e-05, |
| "loss": 0.124, |
| "step": 7620 |
| }, |
| { |
| "epoch": 0.12716666666666668, |
| "grad_norm": 77.0, |
| "learning_rate": 1.941584557257991e-05, |
| "loss": 0.1043, |
| "step": 7630 |
| }, |
| { |
| "epoch": 0.12733333333333333, |
| "grad_norm": 51.0, |
| "learning_rate": 1.9414044883344346e-05, |
| "loss": 0.1508, |
| "step": 7640 |
| }, |
| { |
| "epoch": 0.1275, |
| "grad_norm": 3.78125, |
| "learning_rate": 1.9412241506776633e-05, |
| "loss": 0.1124, |
| "step": 7650 |
| }, |
| { |
| "epoch": 0.12766666666666668, |
| "grad_norm": 32.75, |
| "learning_rate": 1.9410435443391565e-05, |
| "loss": 0.1094, |
| "step": 7660 |
| }, |
| { |
| "epoch": 0.12783333333333333, |
| "grad_norm": 13.75, |
| "learning_rate": 1.94086266937047e-05, |
| "loss": 0.1117, |
| "step": 7670 |
| }, |
| { |
| "epoch": 0.128, |
| "grad_norm": 46.5, |
| "learning_rate": 1.940681525823236e-05, |
| "loss": 0.1111, |
| "step": 7680 |
| }, |
| { |
| "epoch": 0.12816666666666668, |
| "grad_norm": 37.5, |
| "learning_rate": 1.9405001137491642e-05, |
| "loss": 0.1079, |
| "step": 7690 |
| }, |
| { |
| "epoch": 0.12833333333333333, |
| "grad_norm": 85.0, |
| "learning_rate": 1.9403184332000405e-05, |
| "loss": 0.1305, |
| "step": 7700 |
| }, |
| { |
| "epoch": 0.1285, |
| "grad_norm": 30.25, |
| "learning_rate": 1.940136484227727e-05, |
| "loss": 0.1148, |
| "step": 7710 |
| }, |
| { |
| "epoch": 0.12866666666666668, |
| "grad_norm": 33.0, |
| "learning_rate": 1.939954266884163e-05, |
| "loss": 0.1225, |
| "step": 7720 |
| }, |
| { |
| "epoch": 0.12883333333333333, |
| "grad_norm": 10.5, |
| "learning_rate": 1.9397717812213644e-05, |
| "loss": 0.1193, |
| "step": 7730 |
| }, |
| { |
| "epoch": 0.129, |
| "grad_norm": 3.671875, |
| "learning_rate": 1.9395890272914237e-05, |
| "loss": 0.1127, |
| "step": 7740 |
| }, |
| { |
| "epoch": 0.12916666666666668, |
| "grad_norm": 26.625, |
| "learning_rate": 1.939406005146509e-05, |
| "loss": 0.1099, |
| "step": 7750 |
| }, |
| { |
| "epoch": 0.12933333333333333, |
| "grad_norm": 6.125, |
| "learning_rate": 1.9392227148388667e-05, |
| "loss": 0.1145, |
| "step": 7760 |
| }, |
| { |
| "epoch": 0.1295, |
| "grad_norm": 15.125, |
| "learning_rate": 1.9390391564208184e-05, |
| "loss": 0.117, |
| "step": 7770 |
| }, |
| { |
| "epoch": 0.12966666666666668, |
| "grad_norm": 11.375, |
| "learning_rate": 1.9388553299447625e-05, |
| "loss": 0.1149, |
| "step": 7780 |
| }, |
| { |
| "epoch": 0.12983333333333333, |
| "grad_norm": 19.25, |
| "learning_rate": 1.9386712354631748e-05, |
| "loss": 0.1124, |
| "step": 7790 |
| }, |
| { |
| "epoch": 0.13, |
| "grad_norm": 18.75, |
| "learning_rate": 1.9384868730286058e-05, |
| "loss": 0.1146, |
| "step": 7800 |
| }, |
| { |
| "epoch": 0.13016666666666668, |
| "grad_norm": 88.0, |
| "learning_rate": 1.9383022426936848e-05, |
| "loss": 0.1165, |
| "step": 7810 |
| }, |
| { |
| "epoch": 0.13033333333333333, |
| "grad_norm": 63.0, |
| "learning_rate": 1.938117344511115e-05, |
| "loss": 0.1245, |
| "step": 7820 |
| }, |
| { |
| "epoch": 0.1305, |
| "grad_norm": 16.0, |
| "learning_rate": 1.9379321785336785e-05, |
| "loss": 0.1243, |
| "step": 7830 |
| }, |
| { |
| "epoch": 0.13066666666666665, |
| "grad_norm": 13.5, |
| "learning_rate": 1.9377467448142325e-05, |
| "loss": 0.1142, |
| "step": 7840 |
| }, |
| { |
| "epoch": 0.13083333333333333, |
| "grad_norm": 47.75, |
| "learning_rate": 1.9375610434057103e-05, |
| "loss": 0.1212, |
| "step": 7850 |
| }, |
| { |
| "epoch": 0.131, |
| "grad_norm": 18.0, |
| "learning_rate": 1.937375074361123e-05, |
| "loss": 0.1259, |
| "step": 7860 |
| }, |
| { |
| "epoch": 0.13116666666666665, |
| "grad_norm": 15.8125, |
| "learning_rate": 1.9371888377335574e-05, |
| "loss": 0.1319, |
| "step": 7870 |
| }, |
| { |
| "epoch": 0.13133333333333333, |
| "grad_norm": 19.625, |
| "learning_rate": 1.9370023335761755e-05, |
| "loss": 0.113, |
| "step": 7880 |
| }, |
| { |
| "epoch": 0.1315, |
| "grad_norm": 57.75, |
| "learning_rate": 1.936815561942218e-05, |
| "loss": 0.1302, |
| "step": 7890 |
| }, |
| { |
| "epoch": 0.13166666666666665, |
| "grad_norm": 19.75, |
| "learning_rate": 1.9366285228849996e-05, |
| "loss": 0.121, |
| "step": 7900 |
| }, |
| { |
| "epoch": 0.13183333333333333, |
| "grad_norm": 22.25, |
| "learning_rate": 1.9364412164579135e-05, |
| "loss": 0.1374, |
| "step": 7910 |
| }, |
| { |
| "epoch": 0.132, |
| "grad_norm": 2.875, |
| "learning_rate": 1.9362536427144273e-05, |
| "loss": 0.1263, |
| "step": 7920 |
| }, |
| { |
| "epoch": 0.13216666666666665, |
| "grad_norm": 101.5, |
| "learning_rate": 1.936065801708086e-05, |
| "loss": 0.1227, |
| "step": 7930 |
| }, |
| { |
| "epoch": 0.13233333333333333, |
| "grad_norm": 31.75, |
| "learning_rate": 1.935877693492511e-05, |
| "loss": 0.1242, |
| "step": 7940 |
| }, |
| { |
| "epoch": 0.1325, |
| "grad_norm": 2.546875, |
| "learning_rate": 1.9356893181213997e-05, |
| "loss": 0.1169, |
| "step": 7950 |
| }, |
| { |
| "epoch": 0.13266666666666665, |
| "grad_norm": 92.0, |
| "learning_rate": 1.935500675648525e-05, |
| "loss": 0.1153, |
| "step": 7960 |
| }, |
| { |
| "epoch": 0.13283333333333333, |
| "grad_norm": 51.0, |
| "learning_rate": 1.9353117661277374e-05, |
| "loss": 0.1162, |
| "step": 7970 |
| }, |
| { |
| "epoch": 0.133, |
| "grad_norm": 47.5, |
| "learning_rate": 1.9351225896129627e-05, |
| "loss": 0.1114, |
| "step": 7980 |
| }, |
| { |
| "epoch": 0.13316666666666666, |
| "grad_norm": 26.5, |
| "learning_rate": 1.934933146158204e-05, |
| "loss": 0.1241, |
| "step": 7990 |
| }, |
| { |
| "epoch": 0.13333333333333333, |
| "grad_norm": 39.0, |
| "learning_rate": 1.9347434358175383e-05, |
| "loss": 0.1192, |
| "step": 8000 |
| }, |
| { |
| "epoch": 0.1335, |
| "grad_norm": 33.5, |
| "learning_rate": 1.9345534586451212e-05, |
| "loss": 0.1214, |
| "step": 8010 |
| }, |
| { |
| "epoch": 0.13366666666666666, |
| "grad_norm": 43.25, |
| "learning_rate": 1.9343632146951837e-05, |
| "loss": 0.1276, |
| "step": 8020 |
| }, |
| { |
| "epoch": 0.13383333333333333, |
| "grad_norm": 107.5, |
| "learning_rate": 1.9341727040220325e-05, |
| "loss": 0.1091, |
| "step": 8030 |
| }, |
| { |
| "epoch": 0.134, |
| "grad_norm": 24.0, |
| "learning_rate": 1.9339819266800514e-05, |
| "loss": 0.1236, |
| "step": 8040 |
| }, |
| { |
| "epoch": 0.13416666666666666, |
| "grad_norm": 43.5, |
| "learning_rate": 1.9337908827236983e-05, |
| "loss": 0.1099, |
| "step": 8050 |
| }, |
| { |
| "epoch": 0.13433333333333333, |
| "grad_norm": 3.09375, |
| "learning_rate": 1.93359957220751e-05, |
| "loss": 0.1196, |
| "step": 8060 |
| }, |
| { |
| "epoch": 0.1345, |
| "grad_norm": 24.875, |
| "learning_rate": 1.933407995186097e-05, |
| "loss": 0.1208, |
| "step": 8070 |
| }, |
| { |
| "epoch": 0.13466666666666666, |
| "grad_norm": 65.0, |
| "learning_rate": 1.9332161517141476e-05, |
| "loss": 0.1069, |
| "step": 8080 |
| }, |
| { |
| "epoch": 0.13483333333333333, |
| "grad_norm": 10.0, |
| "learning_rate": 1.9330240418464247e-05, |
| "loss": 0.1101, |
| "step": 8090 |
| }, |
| { |
| "epoch": 0.135, |
| "grad_norm": 1.59375, |
| "learning_rate": 1.9328316656377682e-05, |
| "loss": 0.1145, |
| "step": 8100 |
| }, |
| { |
| "epoch": 0.13516666666666666, |
| "grad_norm": 10.4375, |
| "learning_rate": 1.9326390231430944e-05, |
| "loss": 0.1113, |
| "step": 8110 |
| }, |
| { |
| "epoch": 0.13533333333333333, |
| "grad_norm": 11.4375, |
| "learning_rate": 1.932446114417394e-05, |
| "loss": 0.109, |
| "step": 8120 |
| }, |
| { |
| "epoch": 0.1355, |
| "grad_norm": 2.75, |
| "learning_rate": 1.9322529395157356e-05, |
| "loss": 0.1123, |
| "step": 8130 |
| }, |
| { |
| "epoch": 0.13566666666666666, |
| "grad_norm": 33.75, |
| "learning_rate": 1.9320594984932625e-05, |
| "loss": 0.1132, |
| "step": 8140 |
| }, |
| { |
| "epoch": 0.13583333333333333, |
| "grad_norm": 121.5, |
| "learning_rate": 1.931865791405194e-05, |
| "loss": 0.1246, |
| "step": 8150 |
| }, |
| { |
| "epoch": 0.136, |
| "grad_norm": 54.25, |
| "learning_rate": 1.9316718183068265e-05, |
| "loss": 0.125, |
| "step": 8160 |
| }, |
| { |
| "epoch": 0.13616666666666666, |
| "grad_norm": 13.5, |
| "learning_rate": 1.9314775792535307e-05, |
| "loss": 0.118, |
| "step": 8170 |
| }, |
| { |
| "epoch": 0.13633333333333333, |
| "grad_norm": 47.0, |
| "learning_rate": 1.9312830743007548e-05, |
| "loss": 0.1164, |
| "step": 8180 |
| }, |
| { |
| "epoch": 0.1365, |
| "grad_norm": 16.25, |
| "learning_rate": 1.9310883035040217e-05, |
| "loss": 0.1243, |
| "step": 8190 |
| }, |
| { |
| "epoch": 0.13666666666666666, |
| "grad_norm": 37.25, |
| "learning_rate": 1.9308932669189305e-05, |
| "loss": 0.1075, |
| "step": 8200 |
| }, |
| { |
| "epoch": 0.13683333333333333, |
| "grad_norm": 21.375, |
| "learning_rate": 1.9306979646011567e-05, |
| "loss": 0.1036, |
| "step": 8210 |
| }, |
| { |
| "epoch": 0.137, |
| "grad_norm": 2.640625, |
| "learning_rate": 1.930502396606451e-05, |
| "loss": 0.1229, |
| "step": 8220 |
| }, |
| { |
| "epoch": 0.13716666666666666, |
| "grad_norm": 41.5, |
| "learning_rate": 1.9303065629906408e-05, |
| "loss": 0.1187, |
| "step": 8230 |
| }, |
| { |
| "epoch": 0.13733333333333334, |
| "grad_norm": 47.25, |
| "learning_rate": 1.930110463809628e-05, |
| "loss": 0.1082, |
| "step": 8240 |
| }, |
| { |
| "epoch": 0.1375, |
| "grad_norm": 23.25, |
| "learning_rate": 1.9299140991193912e-05, |
| "loss": 0.1198, |
| "step": 8250 |
| }, |
| { |
| "epoch": 0.13766666666666666, |
| "grad_norm": 2.9375, |
| "learning_rate": 1.9297174689759852e-05, |
| "loss": 0.1161, |
| "step": 8260 |
| }, |
| { |
| "epoch": 0.13783333333333334, |
| "grad_norm": 1.859375, |
| "learning_rate": 1.9295205734355395e-05, |
| "loss": 0.1072, |
| "step": 8270 |
| }, |
| { |
| "epoch": 0.138, |
| "grad_norm": 7.0625, |
| "learning_rate": 1.92932341255426e-05, |
| "loss": 0.1223, |
| "step": 8280 |
| }, |
| { |
| "epoch": 0.13816666666666666, |
| "grad_norm": 29.625, |
| "learning_rate": 1.929125986388428e-05, |
| "loss": 0.117, |
| "step": 8290 |
| }, |
| { |
| "epoch": 0.13833333333333334, |
| "grad_norm": 14.125, |
| "learning_rate": 1.928928294994401e-05, |
| "loss": 0.1195, |
| "step": 8300 |
| }, |
| { |
| "epoch": 0.1385, |
| "grad_norm": 42.5, |
| "learning_rate": 1.928730338428612e-05, |
| "loss": 0.1103, |
| "step": 8310 |
| }, |
| { |
| "epoch": 0.13866666666666666, |
| "grad_norm": 58.5, |
| "learning_rate": 1.92853211674757e-05, |
| "loss": 0.105, |
| "step": 8320 |
| }, |
| { |
| "epoch": 0.13883333333333334, |
| "grad_norm": 22.5, |
| "learning_rate": 1.9283336300078583e-05, |
| "loss": 0.1142, |
| "step": 8330 |
| }, |
| { |
| "epoch": 0.139, |
| "grad_norm": 19.25, |
| "learning_rate": 1.928134878266138e-05, |
| "loss": 0.1225, |
| "step": 8340 |
| }, |
| { |
| "epoch": 0.13916666666666666, |
| "grad_norm": 74.5, |
| "learning_rate": 1.927935861579144e-05, |
| "loss": 0.1131, |
| "step": 8350 |
| }, |
| { |
| "epoch": 0.13933333333333334, |
| "grad_norm": 21.875, |
| "learning_rate": 1.927736580003688e-05, |
| "loss": 0.115, |
| "step": 8360 |
| }, |
| { |
| "epoch": 0.1395, |
| "grad_norm": 28.625, |
| "learning_rate": 1.927537033596657e-05, |
| "loss": 0.1206, |
| "step": 8370 |
| }, |
| { |
| "epoch": 0.13966666666666666, |
| "grad_norm": 43.5, |
| "learning_rate": 1.9273372224150126e-05, |
| "loss": 0.1131, |
| "step": 8380 |
| }, |
| { |
| "epoch": 0.13983333333333334, |
| "grad_norm": 30.625, |
| "learning_rate": 1.927137146515794e-05, |
| "loss": 0.1264, |
| "step": 8390 |
| }, |
| { |
| "epoch": 0.14, |
| "grad_norm": 15.0, |
| "learning_rate": 1.926936805956114e-05, |
| "loss": 0.116, |
| "step": 8400 |
| }, |
| { |
| "epoch": 0.14016666666666666, |
| "grad_norm": 6.71875, |
| "learning_rate": 1.9267362007931624e-05, |
| "loss": 0.1125, |
| "step": 8410 |
| }, |
| { |
| "epoch": 0.14033333333333334, |
| "grad_norm": 67.5, |
| "learning_rate": 1.9265353310842035e-05, |
| "loss": 0.1062, |
| "step": 8420 |
| }, |
| { |
| "epoch": 0.1405, |
| "grad_norm": 38.0, |
| "learning_rate": 1.926334196886578e-05, |
| "loss": 0.1185, |
| "step": 8430 |
| }, |
| { |
| "epoch": 0.14066666666666666, |
| "grad_norm": 31.5, |
| "learning_rate": 1.9261327982577015e-05, |
| "loss": 0.1299, |
| "step": 8440 |
| }, |
| { |
| "epoch": 0.14083333333333334, |
| "grad_norm": 8.0625, |
| "learning_rate": 1.9259311352550648e-05, |
| "loss": 0.1146, |
| "step": 8450 |
| }, |
| { |
| "epoch": 0.141, |
| "grad_norm": 36.75, |
| "learning_rate": 1.925729207936235e-05, |
| "loss": 0.1143, |
| "step": 8460 |
| }, |
| { |
| "epoch": 0.14116666666666666, |
| "grad_norm": 26.75, |
| "learning_rate": 1.9255270163588543e-05, |
| "loss": 0.1179, |
| "step": 8470 |
| }, |
| { |
| "epoch": 0.14133333333333334, |
| "grad_norm": 47.75, |
| "learning_rate": 1.9253245605806397e-05, |
| "loss": 0.1043, |
| "step": 8480 |
| }, |
| { |
| "epoch": 0.1415, |
| "grad_norm": 3.734375, |
| "learning_rate": 1.925121840659385e-05, |
| "loss": 0.1168, |
| "step": 8490 |
| }, |
| { |
| "epoch": 0.14166666666666666, |
| "grad_norm": 38.0, |
| "learning_rate": 1.924918856652958e-05, |
| "loss": 0.1033, |
| "step": 8500 |
| }, |
| { |
| "epoch": 0.14183333333333334, |
| "grad_norm": 49.25, |
| "learning_rate": 1.924715608619303e-05, |
| "loss": 0.118, |
| "step": 8510 |
| }, |
| { |
| "epoch": 0.142, |
| "grad_norm": 36.0, |
| "learning_rate": 1.9245120966164385e-05, |
| "loss": 0.1164, |
| "step": 8520 |
| }, |
| { |
| "epoch": 0.14216666666666666, |
| "grad_norm": 11.125, |
| "learning_rate": 1.92430832070246e-05, |
| "loss": 0.1009, |
| "step": 8530 |
| }, |
| { |
| "epoch": 0.14233333333333334, |
| "grad_norm": 64.0, |
| "learning_rate": 1.9241042809355362e-05, |
| "loss": 0.1131, |
| "step": 8540 |
| }, |
| { |
| "epoch": 0.1425, |
| "grad_norm": 1.8359375, |
| "learning_rate": 1.923899977373913e-05, |
| "loss": 0.11, |
| "step": 8550 |
| }, |
| { |
| "epoch": 0.14266666666666666, |
| "grad_norm": 23.5, |
| "learning_rate": 1.9236954100759106e-05, |
| "loss": 0.119, |
| "step": 8560 |
| }, |
| { |
| "epoch": 0.14283333333333334, |
| "grad_norm": 30.125, |
| "learning_rate": 1.9234905790999253e-05, |
| "loss": 0.1178, |
| "step": 8570 |
| }, |
| { |
| "epoch": 0.143, |
| "grad_norm": 22.875, |
| "learning_rate": 1.923285484504427e-05, |
| "loss": 0.1226, |
| "step": 8580 |
| }, |
| { |
| "epoch": 0.14316666666666666, |
| "grad_norm": 43.5, |
| "learning_rate": 1.923080126347963e-05, |
| "loss": 0.1249, |
| "step": 8590 |
| }, |
| { |
| "epoch": 0.14333333333333334, |
| "grad_norm": 47.75, |
| "learning_rate": 1.9228745046891545e-05, |
| "loss": 0.1329, |
| "step": 8600 |
| }, |
| { |
| "epoch": 0.1435, |
| "grad_norm": 31.375, |
| "learning_rate": 1.9226686195866982e-05, |
| "loss": 0.125, |
| "step": 8610 |
| }, |
| { |
| "epoch": 0.14366666666666666, |
| "grad_norm": 48.25, |
| "learning_rate": 1.9224624710993657e-05, |
| "loss": 0.1134, |
| "step": 8620 |
| }, |
| { |
| "epoch": 0.14383333333333334, |
| "grad_norm": 49.25, |
| "learning_rate": 1.922256059286005e-05, |
| "loss": 0.1077, |
| "step": 8630 |
| }, |
| { |
| "epoch": 0.144, |
| "grad_norm": 2.140625, |
| "learning_rate": 1.9220493842055376e-05, |
| "loss": 0.1258, |
| "step": 8640 |
| }, |
| { |
| "epoch": 0.14416666666666667, |
| "grad_norm": 2.046875, |
| "learning_rate": 1.9218424459169613e-05, |
| "loss": 0.114, |
| "step": 8650 |
| }, |
| { |
| "epoch": 0.14433333333333334, |
| "grad_norm": 2.734375, |
| "learning_rate": 1.9216352444793484e-05, |
| "loss": 0.1089, |
| "step": 8660 |
| }, |
| { |
| "epoch": 0.1445, |
| "grad_norm": 11.875, |
| "learning_rate": 1.921427779951847e-05, |
| "loss": 0.1259, |
| "step": 8670 |
| }, |
| { |
| "epoch": 0.14466666666666667, |
| "grad_norm": 8.0625, |
| "learning_rate": 1.9212200523936792e-05, |
| "loss": 0.1155, |
| "step": 8680 |
| }, |
| { |
| "epoch": 0.14483333333333334, |
| "grad_norm": 31.5, |
| "learning_rate": 1.9210120618641435e-05, |
| "loss": 0.1142, |
| "step": 8690 |
| }, |
| { |
| "epoch": 0.145, |
| "grad_norm": 33.0, |
| "learning_rate": 1.920803808422613e-05, |
| "loss": 0.1166, |
| "step": 8700 |
| }, |
| { |
| "epoch": 0.14516666666666667, |
| "grad_norm": 41.25, |
| "learning_rate": 1.9205952921285354e-05, |
| "loss": 0.1007, |
| "step": 8710 |
| }, |
| { |
| "epoch": 0.14533333333333334, |
| "grad_norm": 12.6875, |
| "learning_rate": 1.9203865130414338e-05, |
| "loss": 0.1165, |
| "step": 8720 |
| }, |
| { |
| "epoch": 0.1455, |
| "grad_norm": 42.0, |
| "learning_rate": 1.9201774712209058e-05, |
| "loss": 0.1125, |
| "step": 8730 |
| }, |
| { |
| "epoch": 0.14566666666666667, |
| "grad_norm": 17.75, |
| "learning_rate": 1.9199681667266254e-05, |
| "loss": 0.1273, |
| "step": 8740 |
| }, |
| { |
| "epoch": 0.14583333333333334, |
| "grad_norm": 25.75, |
| "learning_rate": 1.9197585996183397e-05, |
| "loss": 0.1044, |
| "step": 8750 |
| }, |
| { |
| "epoch": 0.146, |
| "grad_norm": 23.5, |
| "learning_rate": 1.919548769955872e-05, |
| "loss": 0.1098, |
| "step": 8760 |
| }, |
| { |
| "epoch": 0.14616666666666667, |
| "grad_norm": 2.0625, |
| "learning_rate": 1.9193386777991207e-05, |
| "loss": 0.1099, |
| "step": 8770 |
| }, |
| { |
| "epoch": 0.14633333333333334, |
| "grad_norm": 18.25, |
| "learning_rate": 1.919128323208058e-05, |
| "loss": 0.1267, |
| "step": 8780 |
| }, |
| { |
| "epoch": 0.1465, |
| "grad_norm": 25.75, |
| "learning_rate": 1.9189177062427324e-05, |
| "loss": 0.1053, |
| "step": 8790 |
| }, |
| { |
| "epoch": 0.14666666666666667, |
| "grad_norm": 10.625, |
| "learning_rate": 1.918706826963266e-05, |
| "loss": 0.1191, |
| "step": 8800 |
| }, |
| { |
| "epoch": 0.14683333333333334, |
| "grad_norm": 40.75, |
| "learning_rate": 1.9184956854298565e-05, |
| "loss": 0.1187, |
| "step": 8810 |
| }, |
| { |
| "epoch": 0.147, |
| "grad_norm": 67.0, |
| "learning_rate": 1.9182842817027768e-05, |
| "loss": 0.112, |
| "step": 8820 |
| }, |
| { |
| "epoch": 0.14716666666666667, |
| "grad_norm": 76.5, |
| "learning_rate": 1.9180726158423735e-05, |
| "loss": 0.1099, |
| "step": 8830 |
| }, |
| { |
| "epoch": 0.14733333333333334, |
| "grad_norm": 55.25, |
| "learning_rate": 1.917860687909069e-05, |
| "loss": 0.127, |
| "step": 8840 |
| }, |
| { |
| "epoch": 0.1475, |
| "grad_norm": 30.375, |
| "learning_rate": 1.9176484979633602e-05, |
| "loss": 0.1379, |
| "step": 8850 |
| }, |
| { |
| "epoch": 0.14766666666666667, |
| "grad_norm": 52.5, |
| "learning_rate": 1.9174360460658192e-05, |
| "loss": 0.1058, |
| "step": 8860 |
| }, |
| { |
| "epoch": 0.14783333333333334, |
| "grad_norm": 45.25, |
| "learning_rate": 1.917223332277092e-05, |
| "loss": 0.11, |
| "step": 8870 |
| }, |
| { |
| "epoch": 0.148, |
| "grad_norm": 21.875, |
| "learning_rate": 1.9170103566579003e-05, |
| "loss": 0.1112, |
| "step": 8880 |
| }, |
| { |
| "epoch": 0.14816666666666667, |
| "grad_norm": 25.25, |
| "learning_rate": 1.916797119269039e-05, |
| "loss": 0.1084, |
| "step": 8890 |
| }, |
| { |
| "epoch": 0.14833333333333334, |
| "grad_norm": 42.25, |
| "learning_rate": 1.9165836201713802e-05, |
| "loss": 0.1097, |
| "step": 8900 |
| }, |
| { |
| "epoch": 0.1485, |
| "grad_norm": 2.5, |
| "learning_rate": 1.9163698594258687e-05, |
| "loss": 0.1137, |
| "step": 8910 |
| }, |
| { |
| "epoch": 0.14866666666666667, |
| "grad_norm": 33.25, |
| "learning_rate": 1.9161558370935248e-05, |
| "loss": 0.1071, |
| "step": 8920 |
| }, |
| { |
| "epoch": 0.14883333333333335, |
| "grad_norm": 17.875, |
| "learning_rate": 1.915941553235443e-05, |
| "loss": 0.1186, |
| "step": 8930 |
| }, |
| { |
| "epoch": 0.149, |
| "grad_norm": 86.0, |
| "learning_rate": 1.915727007912793e-05, |
| "loss": 0.123, |
| "step": 8940 |
| }, |
| { |
| "epoch": 0.14916666666666667, |
| "grad_norm": 2.40625, |
| "learning_rate": 1.9155122011868188e-05, |
| "loss": 0.1137, |
| "step": 8950 |
| }, |
| { |
| "epoch": 0.14933333333333335, |
| "grad_norm": 19.875, |
| "learning_rate": 1.915297133118839e-05, |
| "loss": 0.1288, |
| "step": 8960 |
| }, |
| { |
| "epoch": 0.1495, |
| "grad_norm": 31.625, |
| "learning_rate": 1.915081803770247e-05, |
| "loss": 0.1088, |
| "step": 8970 |
| }, |
| { |
| "epoch": 0.14966666666666667, |
| "grad_norm": 22.625, |
| "learning_rate": 1.914866213202511e-05, |
| "loss": 0.112, |
| "step": 8980 |
| }, |
| { |
| "epoch": 0.14983333333333335, |
| "grad_norm": 22.875, |
| "learning_rate": 1.9146503614771728e-05, |
| "loss": 0.1121, |
| "step": 8990 |
| }, |
| { |
| "epoch": 0.15, |
| "grad_norm": 31.25, |
| "learning_rate": 1.9144342486558497e-05, |
| "loss": 0.1229, |
| "step": 9000 |
| }, |
| { |
| "epoch": 0.15016666666666667, |
| "grad_norm": 15.25, |
| "learning_rate": 1.9142178748002335e-05, |
| "loss": 0.1115, |
| "step": 9010 |
| }, |
| { |
| "epoch": 0.15033333333333335, |
| "grad_norm": 90.5, |
| "learning_rate": 1.9140012399720898e-05, |
| "loss": 0.1158, |
| "step": 9020 |
| }, |
| { |
| "epoch": 0.1505, |
| "grad_norm": 25.0, |
| "learning_rate": 1.9137843442332595e-05, |
| "loss": 0.1152, |
| "step": 9030 |
| }, |
| { |
| "epoch": 0.15066666666666667, |
| "grad_norm": 29.125, |
| "learning_rate": 1.913567187645658e-05, |
| "loss": 0.1157, |
| "step": 9040 |
| }, |
| { |
| "epoch": 0.15083333333333335, |
| "grad_norm": 19.125, |
| "learning_rate": 1.9133497702712737e-05, |
| "loss": 0.1167, |
| "step": 9050 |
| }, |
| { |
| "epoch": 0.151, |
| "grad_norm": 2.34375, |
| "learning_rate": 1.9131320921721713e-05, |
| "loss": 0.1144, |
| "step": 9060 |
| }, |
| { |
| "epoch": 0.15116666666666667, |
| "grad_norm": 7.34375, |
| "learning_rate": 1.912914153410489e-05, |
| "loss": 0.1079, |
| "step": 9070 |
| }, |
| { |
| "epoch": 0.15133333333333332, |
| "grad_norm": 20.5, |
| "learning_rate": 1.91269595404844e-05, |
| "loss": 0.1183, |
| "step": 9080 |
| }, |
| { |
| "epoch": 0.1515, |
| "grad_norm": 36.25, |
| "learning_rate": 1.912477494148311e-05, |
| "loss": 0.1103, |
| "step": 9090 |
| }, |
| { |
| "epoch": 0.15166666666666667, |
| "grad_norm": 29.5, |
| "learning_rate": 1.9122587737724633e-05, |
| "loss": 0.1318, |
| "step": 9100 |
| }, |
| { |
| "epoch": 0.15183333333333332, |
| "grad_norm": 34.5, |
| "learning_rate": 1.9120397929833334e-05, |
| "loss": 0.1132, |
| "step": 9110 |
| }, |
| { |
| "epoch": 0.152, |
| "grad_norm": 124.5, |
| "learning_rate": 1.911820551843431e-05, |
| "loss": 0.1061, |
| "step": 9120 |
| }, |
| { |
| "epoch": 0.15216666666666667, |
| "grad_norm": 58.0, |
| "learning_rate": 1.911601050415341e-05, |
| "loss": 0.0969, |
| "step": 9130 |
| }, |
| { |
| "epoch": 0.15233333333333332, |
| "grad_norm": 21.25, |
| "learning_rate": 1.911381288761722e-05, |
| "loss": 0.1065, |
| "step": 9140 |
| }, |
| { |
| "epoch": 0.1525, |
| "grad_norm": 40.5, |
| "learning_rate": 1.9111612669453074e-05, |
| "loss": 0.1237, |
| "step": 9150 |
| }, |
| { |
| "epoch": 0.15266666666666667, |
| "grad_norm": 70.0, |
| "learning_rate": 1.9109409850289045e-05, |
| "loss": 0.1156, |
| "step": 9160 |
| }, |
| { |
| "epoch": 0.15283333333333332, |
| "grad_norm": 21.875, |
| "learning_rate": 1.9107204430753947e-05, |
| "loss": 0.1123, |
| "step": 9170 |
| }, |
| { |
| "epoch": 0.153, |
| "grad_norm": 38.0, |
| "learning_rate": 1.9104996411477344e-05, |
| "loss": 0.1108, |
| "step": 9180 |
| }, |
| { |
| "epoch": 0.15316666666666667, |
| "grad_norm": 40.75, |
| "learning_rate": 1.9102785793089534e-05, |
| "loss": 0.1167, |
| "step": 9190 |
| }, |
| { |
| "epoch": 0.15333333333333332, |
| "grad_norm": 24.0, |
| "learning_rate": 1.910057257622156e-05, |
| "loss": 0.1254, |
| "step": 9200 |
| }, |
| { |
| "epoch": 0.1535, |
| "grad_norm": 35.75, |
| "learning_rate": 1.9098356761505204e-05, |
| "loss": 0.1313, |
| "step": 9210 |
| }, |
| { |
| "epoch": 0.15366666666666667, |
| "grad_norm": 54.25, |
| "learning_rate": 1.9096138349572993e-05, |
| "loss": 0.1091, |
| "step": 9220 |
| }, |
| { |
| "epoch": 0.15383333333333332, |
| "grad_norm": 30.625, |
| "learning_rate": 1.90939173410582e-05, |
| "loss": 0.1149, |
| "step": 9230 |
| }, |
| { |
| "epoch": 0.154, |
| "grad_norm": 3.421875, |
| "learning_rate": 1.909169373659483e-05, |
| "loss": 0.1143, |
| "step": 9240 |
| }, |
| { |
| "epoch": 0.15416666666666667, |
| "grad_norm": 17.0, |
| "learning_rate": 1.908946753681763e-05, |
| "loss": 0.1099, |
| "step": 9250 |
| }, |
| { |
| "epoch": 0.15433333333333332, |
| "grad_norm": 18.375, |
| "learning_rate": 1.9087238742362094e-05, |
| "loss": 0.1122, |
| "step": 9260 |
| }, |
| { |
| "epoch": 0.1545, |
| "grad_norm": 26.25, |
| "learning_rate": 1.9085007353864457e-05, |
| "loss": 0.1151, |
| "step": 9270 |
| }, |
| { |
| "epoch": 0.15466666666666667, |
| "grad_norm": 51.75, |
| "learning_rate": 1.9082773371961684e-05, |
| "loss": 0.1166, |
| "step": 9280 |
| }, |
| { |
| "epoch": 0.15483333333333332, |
| "grad_norm": 2.015625, |
| "learning_rate": 1.9080536797291493e-05, |
| "loss": 0.1113, |
| "step": 9290 |
| }, |
| { |
| "epoch": 0.155, |
| "grad_norm": 78.0, |
| "learning_rate": 1.9078297630492327e-05, |
| "loss": 0.1193, |
| "step": 9300 |
| }, |
| { |
| "epoch": 0.15516666666666667, |
| "grad_norm": 82.0, |
| "learning_rate": 1.907605587220339e-05, |
| "loss": 0.1202, |
| "step": 9310 |
| }, |
| { |
| "epoch": 0.15533333333333332, |
| "grad_norm": 61.25, |
| "learning_rate": 1.907381152306461e-05, |
| "loss": 0.1204, |
| "step": 9320 |
| }, |
| { |
| "epoch": 0.1555, |
| "grad_norm": 2.203125, |
| "learning_rate": 1.9071564583716656e-05, |
| "loss": 0.1154, |
| "step": 9330 |
| }, |
| { |
| "epoch": 0.15566666666666668, |
| "grad_norm": 3.609375, |
| "learning_rate": 1.906931505480094e-05, |
| "loss": 0.1039, |
| "step": 9340 |
| }, |
| { |
| "epoch": 0.15583333333333332, |
| "grad_norm": 66.0, |
| "learning_rate": 1.906706293695961e-05, |
| "loss": 0.1171, |
| "step": 9350 |
| }, |
| { |
| "epoch": 0.156, |
| "grad_norm": 77.5, |
| "learning_rate": 1.9064808230835566e-05, |
| "loss": 0.1043, |
| "step": 9360 |
| }, |
| { |
| "epoch": 0.15616666666666668, |
| "grad_norm": 30.75, |
| "learning_rate": 1.906255093707242e-05, |
| "loss": 0.12, |
| "step": 9370 |
| }, |
| { |
| "epoch": 0.15633333333333332, |
| "grad_norm": 18.875, |
| "learning_rate": 1.906029105631455e-05, |
| "loss": 0.1222, |
| "step": 9380 |
| }, |
| { |
| "epoch": 0.1565, |
| "grad_norm": 89.5, |
| "learning_rate": 1.905802858920706e-05, |
| "loss": 0.1363, |
| "step": 9390 |
| }, |
| { |
| "epoch": 0.15666666666666668, |
| "grad_norm": 24.625, |
| "learning_rate": 1.9055763536395794e-05, |
| "loss": 0.1215, |
| "step": 9400 |
| }, |
| { |
| "epoch": 0.15683333333333332, |
| "grad_norm": 2.21875, |
| "learning_rate": 1.905349589852733e-05, |
| "loss": 0.1192, |
| "step": 9410 |
| }, |
| { |
| "epoch": 0.157, |
| "grad_norm": 21.125, |
| "learning_rate": 1.9051225676248987e-05, |
| "loss": 0.1195, |
| "step": 9420 |
| }, |
| { |
| "epoch": 0.15716666666666668, |
| "grad_norm": 43.25, |
| "learning_rate": 1.9048952870208825e-05, |
| "loss": 0.1052, |
| "step": 9430 |
| }, |
| { |
| "epoch": 0.15733333333333333, |
| "grad_norm": 16.5, |
| "learning_rate": 1.9046677481055637e-05, |
| "loss": 0.1133, |
| "step": 9440 |
| }, |
| { |
| "epoch": 0.1575, |
| "grad_norm": 2.171875, |
| "learning_rate": 1.904439950943896e-05, |
| "loss": 0.1126, |
| "step": 9450 |
| }, |
| { |
| "epoch": 0.15766666666666668, |
| "grad_norm": 44.75, |
| "learning_rate": 1.904211895600906e-05, |
| "loss": 0.1265, |
| "step": 9460 |
| }, |
| { |
| "epoch": 0.15783333333333333, |
| "grad_norm": 26.75, |
| "learning_rate": 1.9039835821416946e-05, |
| "loss": 0.12, |
| "step": 9470 |
| }, |
| { |
| "epoch": 0.158, |
| "grad_norm": 25.25, |
| "learning_rate": 1.9037550106314356e-05, |
| "loss": 0.1067, |
| "step": 9480 |
| }, |
| { |
| "epoch": 0.15816666666666668, |
| "grad_norm": 13.0, |
| "learning_rate": 1.9035261811353775e-05, |
| "loss": 0.1153, |
| "step": 9490 |
| }, |
| { |
| "epoch": 0.15833333333333333, |
| "grad_norm": 20.125, |
| "learning_rate": 1.9032970937188417e-05, |
| "loss": 0.1072, |
| "step": 9500 |
| }, |
| { |
| "epoch": 0.1585, |
| "grad_norm": 146.0, |
| "learning_rate": 1.9030677484472235e-05, |
| "loss": 0.1197, |
| "step": 9510 |
| }, |
| { |
| "epoch": 0.15866666666666668, |
| "grad_norm": 45.25, |
| "learning_rate": 1.9028381453859918e-05, |
| "loss": 0.1178, |
| "step": 9520 |
| }, |
| { |
| "epoch": 0.15883333333333333, |
| "grad_norm": 22.875, |
| "learning_rate": 1.9026082846006894e-05, |
| "loss": 0.105, |
| "step": 9530 |
| }, |
| { |
| "epoch": 0.159, |
| "grad_norm": 66.0, |
| "learning_rate": 1.9023781661569317e-05, |
| "loss": 0.1144, |
| "step": 9540 |
| }, |
| { |
| "epoch": 0.15916666666666668, |
| "grad_norm": 29.375, |
| "learning_rate": 1.9021477901204087e-05, |
| "loss": 0.1174, |
| "step": 9550 |
| }, |
| { |
| "epoch": 0.15933333333333333, |
| "grad_norm": 53.75, |
| "learning_rate": 1.9019171565568832e-05, |
| "loss": 0.1103, |
| "step": 9560 |
| }, |
| { |
| "epoch": 0.1595, |
| "grad_norm": 2.3125, |
| "learning_rate": 1.9016862655321924e-05, |
| "loss": 0.1171, |
| "step": 9570 |
| }, |
| { |
| "epoch": 0.15966666666666668, |
| "grad_norm": 55.25, |
| "learning_rate": 1.9014551171122456e-05, |
| "loss": 0.1123, |
| "step": 9580 |
| }, |
| { |
| "epoch": 0.15983333333333333, |
| "grad_norm": 103.0, |
| "learning_rate": 1.9012237113630275e-05, |
| "loss": 0.1231, |
| "step": 9590 |
| }, |
| { |
| "epoch": 0.16, |
| "grad_norm": 16.0, |
| "learning_rate": 1.900992048350594e-05, |
| "loss": 0.1044, |
| "step": 9600 |
| }, |
| { |
| "epoch": 0.16016666666666668, |
| "grad_norm": 14.75, |
| "learning_rate": 1.9007601281410763e-05, |
| "loss": 0.1219, |
| "step": 9610 |
| }, |
| { |
| "epoch": 0.16033333333333333, |
| "grad_norm": 39.0, |
| "learning_rate": 1.9005279508006782e-05, |
| "loss": 0.116, |
| "step": 9620 |
| }, |
| { |
| "epoch": 0.1605, |
| "grad_norm": 42.0, |
| "learning_rate": 1.900295516395677e-05, |
| "loss": 0.1175, |
| "step": 9630 |
| }, |
| { |
| "epoch": 0.16066666666666668, |
| "grad_norm": 17.25, |
| "learning_rate": 1.9000628249924232e-05, |
| "loss": 0.1099, |
| "step": 9640 |
| }, |
| { |
| "epoch": 0.16083333333333333, |
| "grad_norm": 20.5, |
| "learning_rate": 1.8998298766573408e-05, |
| "loss": 0.1257, |
| "step": 9650 |
| }, |
| { |
| "epoch": 0.161, |
| "grad_norm": 6.84375, |
| "learning_rate": 1.899596671456928e-05, |
| "loss": 0.1105, |
| "step": 9660 |
| }, |
| { |
| "epoch": 0.16116666666666668, |
| "grad_norm": 64.0, |
| "learning_rate": 1.8993632094577542e-05, |
| "loss": 0.1185, |
| "step": 9670 |
| }, |
| { |
| "epoch": 0.16133333333333333, |
| "grad_norm": 56.25, |
| "learning_rate": 1.899129490726465e-05, |
| "loss": 0.1145, |
| "step": 9680 |
| }, |
| { |
| "epoch": 0.1615, |
| "grad_norm": 22.125, |
| "learning_rate": 1.8988955153297762e-05, |
| "loss": 0.1217, |
| "step": 9690 |
| }, |
| { |
| "epoch": 0.16166666666666665, |
| "grad_norm": 37.5, |
| "learning_rate": 1.898661283334479e-05, |
| "loss": 0.1139, |
| "step": 9700 |
| }, |
| { |
| "epoch": 0.16183333333333333, |
| "grad_norm": 1.8828125, |
| "learning_rate": 1.898426794807438e-05, |
| "loss": 0.126, |
| "step": 9710 |
| }, |
| { |
| "epoch": 0.162, |
| "grad_norm": 28.625, |
| "learning_rate": 1.8981920498155892e-05, |
| "loss": 0.1209, |
| "step": 9720 |
| }, |
| { |
| "epoch": 0.16216666666666665, |
| "grad_norm": 60.5, |
| "learning_rate": 1.8979570484259434e-05, |
| "loss": 0.108, |
| "step": 9730 |
| }, |
| { |
| "epoch": 0.16233333333333333, |
| "grad_norm": 12.625, |
| "learning_rate": 1.897721790705584e-05, |
| "loss": 0.1265, |
| "step": 9740 |
| }, |
| { |
| "epoch": 0.1625, |
| "grad_norm": 40.0, |
| "learning_rate": 1.8974862767216673e-05, |
| "loss": 0.1266, |
| "step": 9750 |
| }, |
| { |
| "epoch": 0.16266666666666665, |
| "grad_norm": 29.0, |
| "learning_rate": 1.8972505065414236e-05, |
| "loss": 0.1173, |
| "step": 9760 |
| }, |
| { |
| "epoch": 0.16283333333333333, |
| "grad_norm": 30.0, |
| "learning_rate": 1.8970144802321554e-05, |
| "loss": 0.1192, |
| "step": 9770 |
| }, |
| { |
| "epoch": 0.163, |
| "grad_norm": 18.625, |
| "learning_rate": 1.8967781978612393e-05, |
| "loss": 0.1155, |
| "step": 9780 |
| }, |
| { |
| "epoch": 0.16316666666666665, |
| "grad_norm": 47.25, |
| "learning_rate": 1.8965416594961238e-05, |
| "loss": 0.1112, |
| "step": 9790 |
| }, |
| { |
| "epoch": 0.16333333333333333, |
| "grad_norm": 45.5, |
| "learning_rate": 1.8963048652043316e-05, |
| "loss": 0.1145, |
| "step": 9800 |
| }, |
| { |
| "epoch": 0.1635, |
| "grad_norm": 95.5, |
| "learning_rate": 1.8960678150534576e-05, |
| "loss": 0.1079, |
| "step": 9810 |
| }, |
| { |
| "epoch": 0.16366666666666665, |
| "grad_norm": 34.5, |
| "learning_rate": 1.8958305091111703e-05, |
| "loss": 0.1124, |
| "step": 9820 |
| }, |
| { |
| "epoch": 0.16383333333333333, |
| "grad_norm": 39.0, |
| "learning_rate": 1.895592947445211e-05, |
| "loss": 0.1226, |
| "step": 9830 |
| }, |
| { |
| "epoch": 0.164, |
| "grad_norm": 58.5, |
| "learning_rate": 1.8953551301233942e-05, |
| "loss": 0.119, |
| "step": 9840 |
| }, |
| { |
| "epoch": 0.16416666666666666, |
| "grad_norm": 44.5, |
| "learning_rate": 1.895117057213607e-05, |
| "loss": 0.1053, |
| "step": 9850 |
| }, |
| { |
| "epoch": 0.16433333333333333, |
| "grad_norm": 46.25, |
| "learning_rate": 1.8948787287838094e-05, |
| "loss": 0.1115, |
| "step": 9860 |
| }, |
| { |
| "epoch": 0.1645, |
| "grad_norm": 13.0, |
| "learning_rate": 1.8946401449020353e-05, |
| "loss": 0.1083, |
| "step": 9870 |
| }, |
| { |
| "epoch": 0.16466666666666666, |
| "grad_norm": 22.125, |
| "learning_rate": 1.8944013056363902e-05, |
| "loss": 0.1127, |
| "step": 9880 |
| }, |
| { |
| "epoch": 0.16483333333333333, |
| "grad_norm": 35.75, |
| "learning_rate": 1.8941622110550534e-05, |
| "loss": 0.1315, |
| "step": 9890 |
| }, |
| { |
| "epoch": 0.165, |
| "grad_norm": 20.5, |
| "learning_rate": 1.8939228612262766e-05, |
| "loss": 0.1211, |
| "step": 9900 |
| }, |
| { |
| "epoch": 0.16516666666666666, |
| "grad_norm": 35.75, |
| "learning_rate": 1.893683256218385e-05, |
| "loss": 0.1159, |
| "step": 9910 |
| }, |
| { |
| "epoch": 0.16533333333333333, |
| "grad_norm": 6.53125, |
| "learning_rate": 1.8934433960997757e-05, |
| "loss": 0.1101, |
| "step": 9920 |
| }, |
| { |
| "epoch": 0.1655, |
| "grad_norm": 38.0, |
| "learning_rate": 1.89320328093892e-05, |
| "loss": 0.1094, |
| "step": 9930 |
| }, |
| { |
| "epoch": 0.16566666666666666, |
| "grad_norm": 29.25, |
| "learning_rate": 1.8929629108043598e-05, |
| "loss": 0.1265, |
| "step": 9940 |
| }, |
| { |
| "epoch": 0.16583333333333333, |
| "grad_norm": 25.125, |
| "learning_rate": 1.8927222857647125e-05, |
| "loss": 0.1119, |
| "step": 9950 |
| }, |
| { |
| "epoch": 0.166, |
| "grad_norm": 42.0, |
| "learning_rate": 1.892481405888666e-05, |
| "loss": 0.1153, |
| "step": 9960 |
| }, |
| { |
| "epoch": 0.16616666666666666, |
| "grad_norm": 30.25, |
| "learning_rate": 1.892240271244982e-05, |
| "loss": 0.1156, |
| "step": 9970 |
| }, |
| { |
| "epoch": 0.16633333333333333, |
| "grad_norm": 3.65625, |
| "learning_rate": 1.891998881902495e-05, |
| "loss": 0.1118, |
| "step": 9980 |
| }, |
| { |
| "epoch": 0.1665, |
| "grad_norm": 4.40625, |
| "learning_rate": 1.891757237930112e-05, |
| "loss": 0.1247, |
| "step": 9990 |
| }, |
| { |
| "epoch": 0.16666666666666666, |
| "grad_norm": 29.875, |
| "learning_rate": 1.8915153393968122e-05, |
| "loss": 0.1159, |
| "step": 10000 |
| } |
| ], |
| "logging_steps": 10, |
| "max_steps": 60000, |
| "num_input_tokens_seen": 0, |
| "num_train_epochs": 1, |
| "save_steps": 10000, |
| "stateful_callbacks": { |
| "TrainerControl": { |
| "args": { |
| "should_epoch_stop": false, |
| "should_evaluate": false, |
| "should_log": false, |
| "should_save": true, |
| "should_training_stop": false |
| }, |
| "attributes": {} |
| } |
| }, |
| "total_flos": 6.69728880197632e+17, |
| "train_batch_size": 1, |
| "trial_name": null, |
| "trial_params": null |
| } |
|
|