| { |
| "best_global_step": null, |
| "best_metric": null, |
| "best_model_checkpoint": null, |
| "epoch": 0.5, |
| "eval_steps": 500, |
| "global_step": 30000, |
| "is_hyper_param_search": false, |
| "is_local_process_zero": true, |
| "is_world_process_zero": true, |
| "log_history": [ |
| { |
| "epoch": 0.00016666666666666666, |
| "grad_norm": 167.0, |
| "learning_rate": 1.5000000000000002e-07, |
| "loss": 1.0917, |
| "step": 10 |
| }, |
| { |
| "epoch": 0.0003333333333333333, |
| "grad_norm": 186.0, |
| "learning_rate": 3.166666666666667e-07, |
| "loss": 1.0502, |
| "step": 20 |
| }, |
| { |
| "epoch": 0.0005, |
| "grad_norm": 181.0, |
| "learning_rate": 4.833333333333334e-07, |
| "loss": 0.9229, |
| "step": 30 |
| }, |
| { |
| "epoch": 0.0006666666666666666, |
| "grad_norm": 113.5, |
| "learning_rate": 6.5e-07, |
| "loss": 0.9704, |
| "step": 40 |
| }, |
| { |
| "epoch": 0.0008333333333333334, |
| "grad_norm": 169.0, |
| "learning_rate": 8.166666666666668e-07, |
| "loss": 0.9242, |
| "step": 50 |
| }, |
| { |
| "epoch": 0.001, |
| "grad_norm": 76.0, |
| "learning_rate": 9.833333333333334e-07, |
| "loss": 1.0492, |
| "step": 60 |
| }, |
| { |
| "epoch": 0.0011666666666666668, |
| "grad_norm": 94.5, |
| "learning_rate": 1.1500000000000002e-06, |
| "loss": 0.817, |
| "step": 70 |
| }, |
| { |
| "epoch": 0.0013333333333333333, |
| "grad_norm": 194.0, |
| "learning_rate": 1.3166666666666666e-06, |
| "loss": 1.0718, |
| "step": 80 |
| }, |
| { |
| "epoch": 0.0015, |
| "grad_norm": 174.0, |
| "learning_rate": 1.4833333333333337e-06, |
| "loss": 0.9335, |
| "step": 90 |
| }, |
| { |
| "epoch": 0.0016666666666666668, |
| "grad_norm": 104.0, |
| "learning_rate": 1.6500000000000003e-06, |
| "loss": 0.9195, |
| "step": 100 |
| }, |
| { |
| "epoch": 0.0018333333333333333, |
| "grad_norm": 134.0, |
| "learning_rate": 1.816666666666667e-06, |
| "loss": 0.9357, |
| "step": 110 |
| }, |
| { |
| "epoch": 0.002, |
| "grad_norm": 190.0, |
| "learning_rate": 1.9833333333333335e-06, |
| "loss": 0.9945, |
| "step": 120 |
| }, |
| { |
| "epoch": 0.0021666666666666666, |
| "grad_norm": 177.0, |
| "learning_rate": 2.15e-06, |
| "loss": 0.9135, |
| "step": 130 |
| }, |
| { |
| "epoch": 0.0023333333333333335, |
| "grad_norm": 137.0, |
| "learning_rate": 2.316666666666667e-06, |
| "loss": 1.0151, |
| "step": 140 |
| }, |
| { |
| "epoch": 0.0025, |
| "grad_norm": 44.25, |
| "learning_rate": 2.4833333333333334e-06, |
| "loss": 1.0006, |
| "step": 150 |
| }, |
| { |
| "epoch": 0.0026666666666666666, |
| "grad_norm": 114.0, |
| "learning_rate": 2.6500000000000005e-06, |
| "loss": 0.9911, |
| "step": 160 |
| }, |
| { |
| "epoch": 0.0028333333333333335, |
| "grad_norm": 84.0, |
| "learning_rate": 2.816666666666667e-06, |
| "loss": 0.9698, |
| "step": 170 |
| }, |
| { |
| "epoch": 0.003, |
| "grad_norm": 68.0, |
| "learning_rate": 2.9833333333333337e-06, |
| "loss": 1.0211, |
| "step": 180 |
| }, |
| { |
| "epoch": 0.0031666666666666666, |
| "grad_norm": 104.5, |
| "learning_rate": 3.1500000000000003e-06, |
| "loss": 1.018, |
| "step": 190 |
| }, |
| { |
| "epoch": 0.0033333333333333335, |
| "grad_norm": 2.796875, |
| "learning_rate": 3.316666666666667e-06, |
| "loss": 1.0461, |
| "step": 200 |
| }, |
| { |
| "epoch": 0.0035, |
| "grad_norm": 181.0, |
| "learning_rate": 3.4833333333333336e-06, |
| "loss": 0.8881, |
| "step": 210 |
| }, |
| { |
| "epoch": 0.0036666666666666666, |
| "grad_norm": 172.0, |
| "learning_rate": 3.65e-06, |
| "loss": 0.98, |
| "step": 220 |
| }, |
| { |
| "epoch": 0.003833333333333333, |
| "grad_norm": 184.0, |
| "learning_rate": 3.816666666666667e-06, |
| "loss": 0.9453, |
| "step": 230 |
| }, |
| { |
| "epoch": 0.004, |
| "grad_norm": 172.0, |
| "learning_rate": 3.983333333333334e-06, |
| "loss": 0.8311, |
| "step": 240 |
| }, |
| { |
| "epoch": 0.004166666666666667, |
| "grad_norm": 3.171875, |
| "learning_rate": 4.15e-06, |
| "loss": 0.9083, |
| "step": 250 |
| }, |
| { |
| "epoch": 0.004333333333333333, |
| "grad_norm": 2.3125, |
| "learning_rate": 4.316666666666667e-06, |
| "loss": 0.9044, |
| "step": 260 |
| }, |
| { |
| "epoch": 0.0045, |
| "grad_norm": 102.5, |
| "learning_rate": 4.483333333333333e-06, |
| "loss": 0.8887, |
| "step": 270 |
| }, |
| { |
| "epoch": 0.004666666666666667, |
| "grad_norm": 165.0, |
| "learning_rate": 4.65e-06, |
| "loss": 0.8652, |
| "step": 280 |
| }, |
| { |
| "epoch": 0.004833333333333334, |
| "grad_norm": 135.0, |
| "learning_rate": 4.816666666666667e-06, |
| "loss": 0.8784, |
| "step": 290 |
| }, |
| { |
| "epoch": 0.005, |
| "grad_norm": 47.75, |
| "learning_rate": 4.983333333333334e-06, |
| "loss": 0.8903, |
| "step": 300 |
| }, |
| { |
| "epoch": 0.005166666666666667, |
| "grad_norm": 136.0, |
| "learning_rate": 5.150000000000001e-06, |
| "loss": 0.8157, |
| "step": 310 |
| }, |
| { |
| "epoch": 0.005333333333333333, |
| "grad_norm": 106.0, |
| "learning_rate": 5.316666666666667e-06, |
| "loss": 0.8433, |
| "step": 320 |
| }, |
| { |
| "epoch": 0.0055, |
| "grad_norm": 165.0, |
| "learning_rate": 5.483333333333334e-06, |
| "loss": 0.7585, |
| "step": 330 |
| }, |
| { |
| "epoch": 0.005666666666666667, |
| "grad_norm": 75.0, |
| "learning_rate": 5.65e-06, |
| "loss": 0.6061, |
| "step": 340 |
| }, |
| { |
| "epoch": 0.005833333333333334, |
| "grad_norm": 123.0, |
| "learning_rate": 5.816666666666667e-06, |
| "loss": 0.5165, |
| "step": 350 |
| }, |
| { |
| "epoch": 0.006, |
| "grad_norm": 83.0, |
| "learning_rate": 5.983333333333334e-06, |
| "loss": 0.3883, |
| "step": 360 |
| }, |
| { |
| "epoch": 0.006166666666666667, |
| "grad_norm": 108.0, |
| "learning_rate": 6.15e-06, |
| "loss": 0.2703, |
| "step": 370 |
| }, |
| { |
| "epoch": 0.006333333333333333, |
| "grad_norm": 16.375, |
| "learning_rate": 6.3166666666666675e-06, |
| "loss": 0.2472, |
| "step": 380 |
| }, |
| { |
| "epoch": 0.0065, |
| "grad_norm": 14.3125, |
| "learning_rate": 6.483333333333334e-06, |
| "loss": 0.2467, |
| "step": 390 |
| }, |
| { |
| "epoch": 0.006666666666666667, |
| "grad_norm": 7.5625, |
| "learning_rate": 6.650000000000001e-06, |
| "loss": 0.2023, |
| "step": 400 |
| }, |
| { |
| "epoch": 0.006833333333333334, |
| "grad_norm": 41.5, |
| "learning_rate": 6.816666666666667e-06, |
| "loss": 0.2376, |
| "step": 410 |
| }, |
| { |
| "epoch": 0.007, |
| "grad_norm": 3.421875, |
| "learning_rate": 6.983333333333334e-06, |
| "loss": 0.2255, |
| "step": 420 |
| }, |
| { |
| "epoch": 0.007166666666666667, |
| "grad_norm": 54.25, |
| "learning_rate": 7.15e-06, |
| "loss": 0.1868, |
| "step": 430 |
| }, |
| { |
| "epoch": 0.007333333333333333, |
| "grad_norm": 6.65625, |
| "learning_rate": 7.316666666666667e-06, |
| "loss": 0.2183, |
| "step": 440 |
| }, |
| { |
| "epoch": 0.0075, |
| "grad_norm": 72.0, |
| "learning_rate": 7.483333333333333e-06, |
| "loss": 0.1986, |
| "step": 450 |
| }, |
| { |
| "epoch": 0.007666666666666666, |
| "grad_norm": 15.8125, |
| "learning_rate": 7.650000000000001e-06, |
| "loss": 0.1793, |
| "step": 460 |
| }, |
| { |
| "epoch": 0.007833333333333333, |
| "grad_norm": 21.5, |
| "learning_rate": 7.816666666666667e-06, |
| "loss": 0.1787, |
| "step": 470 |
| }, |
| { |
| "epoch": 0.008, |
| "grad_norm": 8.0625, |
| "learning_rate": 7.983333333333334e-06, |
| "loss": 0.1764, |
| "step": 480 |
| }, |
| { |
| "epoch": 0.008166666666666666, |
| "grad_norm": 31.875, |
| "learning_rate": 8.15e-06, |
| "loss": 0.1899, |
| "step": 490 |
| }, |
| { |
| "epoch": 0.008333333333333333, |
| "grad_norm": 16.25, |
| "learning_rate": 8.316666666666668e-06, |
| "loss": 0.1495, |
| "step": 500 |
| }, |
| { |
| "epoch": 0.0085, |
| "grad_norm": 33.25, |
| "learning_rate": 8.483333333333334e-06, |
| "loss": 0.1792, |
| "step": 510 |
| }, |
| { |
| "epoch": 0.008666666666666666, |
| "grad_norm": 19.375, |
| "learning_rate": 8.65e-06, |
| "loss": 0.1599, |
| "step": 520 |
| }, |
| { |
| "epoch": 0.008833333333333334, |
| "grad_norm": 18.5, |
| "learning_rate": 8.816666666666668e-06, |
| "loss": 0.1646, |
| "step": 530 |
| }, |
| { |
| "epoch": 0.009, |
| "grad_norm": 35.0, |
| "learning_rate": 8.983333333333334e-06, |
| "loss": 0.1922, |
| "step": 540 |
| }, |
| { |
| "epoch": 0.009166666666666667, |
| "grad_norm": 31.875, |
| "learning_rate": 9.15e-06, |
| "loss": 0.1448, |
| "step": 550 |
| }, |
| { |
| "epoch": 0.009333333333333334, |
| "grad_norm": 4.625, |
| "learning_rate": 9.316666666666667e-06, |
| "loss": 0.1602, |
| "step": 560 |
| }, |
| { |
| "epoch": 0.0095, |
| "grad_norm": 3.03125, |
| "learning_rate": 9.483333333333335e-06, |
| "loss": 0.1507, |
| "step": 570 |
| }, |
| { |
| "epoch": 0.009666666666666667, |
| "grad_norm": 3.921875, |
| "learning_rate": 9.65e-06, |
| "loss": 0.1384, |
| "step": 580 |
| }, |
| { |
| "epoch": 0.009833333333333333, |
| "grad_norm": 41.0, |
| "learning_rate": 9.816666666666667e-06, |
| "loss": 0.1343, |
| "step": 590 |
| }, |
| { |
| "epoch": 0.01, |
| "grad_norm": 8.3125, |
| "learning_rate": 9.983333333333333e-06, |
| "loss": 0.1404, |
| "step": 600 |
| }, |
| { |
| "epoch": 0.010166666666666666, |
| "grad_norm": 4.34375, |
| "learning_rate": 1.015e-05, |
| "loss": 0.1505, |
| "step": 610 |
| }, |
| { |
| "epoch": 0.010333333333333333, |
| "grad_norm": 3.1875, |
| "learning_rate": 1.0316666666666669e-05, |
| "loss": 0.1399, |
| "step": 620 |
| }, |
| { |
| "epoch": 0.0105, |
| "grad_norm": 8.6875, |
| "learning_rate": 1.0483333333333333e-05, |
| "loss": 0.1503, |
| "step": 630 |
| }, |
| { |
| "epoch": 0.010666666666666666, |
| "grad_norm": 40.75, |
| "learning_rate": 1.065e-05, |
| "loss": 0.1341, |
| "step": 640 |
| }, |
| { |
| "epoch": 0.010833333333333334, |
| "grad_norm": 19.625, |
| "learning_rate": 1.081666666666667e-05, |
| "loss": 0.166, |
| "step": 650 |
| }, |
| { |
| "epoch": 0.011, |
| "grad_norm": 18.625, |
| "learning_rate": 1.0983333333333335e-05, |
| "loss": 0.1365, |
| "step": 660 |
| }, |
| { |
| "epoch": 0.011166666666666667, |
| "grad_norm": 23.75, |
| "learning_rate": 1.1150000000000002e-05, |
| "loss": 0.1343, |
| "step": 670 |
| }, |
| { |
| "epoch": 0.011333333333333334, |
| "grad_norm": 8.5, |
| "learning_rate": 1.1316666666666666e-05, |
| "loss": 0.1406, |
| "step": 680 |
| }, |
| { |
| "epoch": 0.0115, |
| "grad_norm": 3.109375, |
| "learning_rate": 1.1483333333333336e-05, |
| "loss": 0.1387, |
| "step": 690 |
| }, |
| { |
| "epoch": 0.011666666666666667, |
| "grad_norm": 14.1875, |
| "learning_rate": 1.1650000000000002e-05, |
| "loss": 0.1326, |
| "step": 700 |
| }, |
| { |
| "epoch": 0.011833333333333333, |
| "grad_norm": 3.78125, |
| "learning_rate": 1.1816666666666668e-05, |
| "loss": 0.1436, |
| "step": 710 |
| }, |
| { |
| "epoch": 0.012, |
| "grad_norm": 8.75, |
| "learning_rate": 1.1983333333333333e-05, |
| "loss": 0.1348, |
| "step": 720 |
| }, |
| { |
| "epoch": 0.012166666666666666, |
| "grad_norm": 68.5, |
| "learning_rate": 1.2150000000000002e-05, |
| "loss": 0.1386, |
| "step": 730 |
| }, |
| { |
| "epoch": 0.012333333333333333, |
| "grad_norm": 13.125, |
| "learning_rate": 1.2316666666666668e-05, |
| "loss": 0.1341, |
| "step": 740 |
| }, |
| { |
| "epoch": 0.0125, |
| "grad_norm": 9.25, |
| "learning_rate": 1.2483333333333335e-05, |
| "loss": 0.1266, |
| "step": 750 |
| }, |
| { |
| "epoch": 0.012666666666666666, |
| "grad_norm": 11.9375, |
| "learning_rate": 1.2650000000000001e-05, |
| "loss": 0.1301, |
| "step": 760 |
| }, |
| { |
| "epoch": 0.012833333333333334, |
| "grad_norm": 30.625, |
| "learning_rate": 1.2816666666666669e-05, |
| "loss": 0.1221, |
| "step": 770 |
| }, |
| { |
| "epoch": 0.013, |
| "grad_norm": 2.703125, |
| "learning_rate": 1.2983333333333335e-05, |
| "loss": 0.1126, |
| "step": 780 |
| }, |
| { |
| "epoch": 0.013166666666666667, |
| "grad_norm": 13.25, |
| "learning_rate": 1.3150000000000001e-05, |
| "loss": 0.1263, |
| "step": 790 |
| }, |
| { |
| "epoch": 0.013333333333333334, |
| "grad_norm": 15.0, |
| "learning_rate": 1.3316666666666669e-05, |
| "loss": 0.129, |
| "step": 800 |
| }, |
| { |
| "epoch": 0.0135, |
| "grad_norm": 13.625, |
| "learning_rate": 1.3483333333333335e-05, |
| "loss": 0.1209, |
| "step": 810 |
| }, |
| { |
| "epoch": 0.013666666666666667, |
| "grad_norm": 3.328125, |
| "learning_rate": 1.3650000000000001e-05, |
| "loss": 0.1082, |
| "step": 820 |
| }, |
| { |
| "epoch": 0.013833333333333333, |
| "grad_norm": 13.3125, |
| "learning_rate": 1.3816666666666668e-05, |
| "loss": 0.1243, |
| "step": 830 |
| }, |
| { |
| "epoch": 0.014, |
| "grad_norm": 9.375, |
| "learning_rate": 1.3983333333333336e-05, |
| "loss": 0.1184, |
| "step": 840 |
| }, |
| { |
| "epoch": 0.014166666666666666, |
| "grad_norm": 23.125, |
| "learning_rate": 1.4150000000000002e-05, |
| "loss": 0.1217, |
| "step": 850 |
| }, |
| { |
| "epoch": 0.014333333333333333, |
| "grad_norm": 6.59375, |
| "learning_rate": 1.4316666666666668e-05, |
| "loss": 0.1094, |
| "step": 860 |
| }, |
| { |
| "epoch": 0.0145, |
| "grad_norm": 37.75, |
| "learning_rate": 1.4483333333333334e-05, |
| "loss": 0.1014, |
| "step": 870 |
| }, |
| { |
| "epoch": 0.014666666666666666, |
| "grad_norm": 18.625, |
| "learning_rate": 1.4650000000000002e-05, |
| "loss": 0.1278, |
| "step": 880 |
| }, |
| { |
| "epoch": 0.014833333333333334, |
| "grad_norm": 14.875, |
| "learning_rate": 1.4816666666666668e-05, |
| "loss": 0.1034, |
| "step": 890 |
| }, |
| { |
| "epoch": 0.015, |
| "grad_norm": 37.5, |
| "learning_rate": 1.4983333333333334e-05, |
| "loss": 0.11, |
| "step": 900 |
| }, |
| { |
| "epoch": 0.015166666666666667, |
| "grad_norm": 14.0, |
| "learning_rate": 1.515e-05, |
| "loss": 0.1179, |
| "step": 910 |
| }, |
| { |
| "epoch": 0.015333333333333332, |
| "grad_norm": 5.5625, |
| "learning_rate": 1.531666666666667e-05, |
| "loss": 0.0942, |
| "step": 920 |
| }, |
| { |
| "epoch": 0.0155, |
| "grad_norm": 21.125, |
| "learning_rate": 1.5483333333333335e-05, |
| "loss": 0.118, |
| "step": 930 |
| }, |
| { |
| "epoch": 0.015666666666666666, |
| "grad_norm": 10.5625, |
| "learning_rate": 1.565e-05, |
| "loss": 0.1029, |
| "step": 940 |
| }, |
| { |
| "epoch": 0.015833333333333335, |
| "grad_norm": 5.46875, |
| "learning_rate": 1.581666666666667e-05, |
| "loss": 0.1125, |
| "step": 950 |
| }, |
| { |
| "epoch": 0.016, |
| "grad_norm": 10.6875, |
| "learning_rate": 1.5983333333333337e-05, |
| "loss": 0.0991, |
| "step": 960 |
| }, |
| { |
| "epoch": 0.016166666666666666, |
| "grad_norm": 100.0, |
| "learning_rate": 1.6150000000000003e-05, |
| "loss": 0.0979, |
| "step": 970 |
| }, |
| { |
| "epoch": 0.01633333333333333, |
| "grad_norm": 6.59375, |
| "learning_rate": 1.6316666666666666e-05, |
| "loss": 0.0944, |
| "step": 980 |
| }, |
| { |
| "epoch": 0.0165, |
| "grad_norm": 15.4375, |
| "learning_rate": 1.6483333333333335e-05, |
| "loss": 0.099, |
| "step": 990 |
| }, |
| { |
| "epoch": 0.016666666666666666, |
| "grad_norm": 3.8125, |
| "learning_rate": 1.665e-05, |
| "loss": 0.0995, |
| "step": 1000 |
| }, |
| { |
| "epoch": 0.016833333333333332, |
| "grad_norm": 22.75, |
| "learning_rate": 1.6816666666666668e-05, |
| "loss": 0.0903, |
| "step": 1010 |
| }, |
| { |
| "epoch": 0.017, |
| "grad_norm": 2.6875, |
| "learning_rate": 1.6983333333333334e-05, |
| "loss": 0.0935, |
| "step": 1020 |
| }, |
| { |
| "epoch": 0.017166666666666667, |
| "grad_norm": 4.53125, |
| "learning_rate": 1.7150000000000004e-05, |
| "loss": 0.0878, |
| "step": 1030 |
| }, |
| { |
| "epoch": 0.017333333333333333, |
| "grad_norm": 3.21875, |
| "learning_rate": 1.731666666666667e-05, |
| "loss": 0.1186, |
| "step": 1040 |
| }, |
| { |
| "epoch": 0.0175, |
| "grad_norm": 5.875, |
| "learning_rate": 1.7483333333333336e-05, |
| "loss": 0.0929, |
| "step": 1050 |
| }, |
| { |
| "epoch": 0.017666666666666667, |
| "grad_norm": 25.875, |
| "learning_rate": 1.7650000000000002e-05, |
| "loss": 0.0779, |
| "step": 1060 |
| }, |
| { |
| "epoch": 0.017833333333333333, |
| "grad_norm": 5.28125, |
| "learning_rate": 1.781666666666667e-05, |
| "loss": 0.1092, |
| "step": 1070 |
| }, |
| { |
| "epoch": 0.018, |
| "grad_norm": 8.6875, |
| "learning_rate": 1.7983333333333335e-05, |
| "loss": 0.0931, |
| "step": 1080 |
| }, |
| { |
| "epoch": 0.018166666666666668, |
| "grad_norm": 8.5625, |
| "learning_rate": 1.815e-05, |
| "loss": 0.0858, |
| "step": 1090 |
| }, |
| { |
| "epoch": 0.018333333333333333, |
| "grad_norm": 2.0625, |
| "learning_rate": 1.831666666666667e-05, |
| "loss": 0.1011, |
| "step": 1100 |
| }, |
| { |
| "epoch": 0.0185, |
| "grad_norm": 4.5625, |
| "learning_rate": 1.8483333333333337e-05, |
| "loss": 0.0859, |
| "step": 1110 |
| }, |
| { |
| "epoch": 0.018666666666666668, |
| "grad_norm": 52.0, |
| "learning_rate": 1.8650000000000003e-05, |
| "loss": 0.0862, |
| "step": 1120 |
| }, |
| { |
| "epoch": 0.018833333333333334, |
| "grad_norm": 3.09375, |
| "learning_rate": 1.881666666666667e-05, |
| "loss": 0.0882, |
| "step": 1130 |
| }, |
| { |
| "epoch": 0.019, |
| "grad_norm": 5.875, |
| "learning_rate": 1.8983333333333335e-05, |
| "loss": 0.0967, |
| "step": 1140 |
| }, |
| { |
| "epoch": 0.019166666666666665, |
| "grad_norm": 13.375, |
| "learning_rate": 1.915e-05, |
| "loss": 0.0896, |
| "step": 1150 |
| }, |
| { |
| "epoch": 0.019333333333333334, |
| "grad_norm": 3.65625, |
| "learning_rate": 1.9316666666666668e-05, |
| "loss": 0.0922, |
| "step": 1160 |
| }, |
| { |
| "epoch": 0.0195, |
| "grad_norm": 4.59375, |
| "learning_rate": 1.9483333333333334e-05, |
| "loss": 0.1024, |
| "step": 1170 |
| }, |
| { |
| "epoch": 0.019666666666666666, |
| "grad_norm": 41.0, |
| "learning_rate": 1.9650000000000003e-05, |
| "loss": 0.094, |
| "step": 1180 |
| }, |
| { |
| "epoch": 0.019833333333333335, |
| "grad_norm": 49.25, |
| "learning_rate": 1.981666666666667e-05, |
| "loss": 0.0854, |
| "step": 1190 |
| }, |
| { |
| "epoch": 0.02, |
| "grad_norm": 4.09375, |
| "learning_rate": 1.9983333333333336e-05, |
| "loss": 0.0914, |
| "step": 1200 |
| }, |
| { |
| "epoch": 0.020166666666666666, |
| "grad_norm": 2.25, |
| "learning_rate": 1.9999998843887473e-05, |
| "loss": 0.0863, |
| "step": 1210 |
| }, |
| { |
| "epoch": 0.02033333333333333, |
| "grad_norm": 4.75, |
| "learning_rate": 1.999999484744944e-05, |
| "loss": 0.0735, |
| "step": 1220 |
| }, |
| { |
| "epoch": 0.0205, |
| "grad_norm": 9.4375, |
| "learning_rate": 1.9999987996414054e-05, |
| "loss": 0.0862, |
| "step": 1230 |
| }, |
| { |
| "epoch": 0.020666666666666667, |
| "grad_norm": 71.5, |
| "learning_rate": 1.9999978290783265e-05, |
| "loss": 0.0951, |
| "step": 1240 |
| }, |
| { |
| "epoch": 0.020833333333333332, |
| "grad_norm": 3.53125, |
| "learning_rate": 1.9999965730559848e-05, |
| "loss": 0.0925, |
| "step": 1250 |
| }, |
| { |
| "epoch": 0.021, |
| "grad_norm": 9.0, |
| "learning_rate": 1.9999950315747386e-05, |
| "loss": 0.0989, |
| "step": 1260 |
| }, |
| { |
| "epoch": 0.021166666666666667, |
| "grad_norm": 7.53125, |
| "learning_rate": 1.9999932046350286e-05, |
| "loss": 0.0715, |
| "step": 1270 |
| }, |
| { |
| "epoch": 0.021333333333333333, |
| "grad_norm": 23.375, |
| "learning_rate": 1.9999910922373752e-05, |
| "loss": 0.0835, |
| "step": 1280 |
| }, |
| { |
| "epoch": 0.0215, |
| "grad_norm": 5.8125, |
| "learning_rate": 1.9999886943823822e-05, |
| "loss": 0.0916, |
| "step": 1290 |
| }, |
| { |
| "epoch": 0.021666666666666667, |
| "grad_norm": 74.0, |
| "learning_rate": 1.999986011070734e-05, |
| "loss": 0.0971, |
| "step": 1300 |
| }, |
| { |
| "epoch": 0.021833333333333333, |
| "grad_norm": 57.75, |
| "learning_rate": 1.999983042303196e-05, |
| "loss": 0.0905, |
| "step": 1310 |
| }, |
| { |
| "epoch": 0.022, |
| "grad_norm": 3.84375, |
| "learning_rate": 1.9999797880806163e-05, |
| "loss": 0.0752, |
| "step": 1320 |
| }, |
| { |
| "epoch": 0.022166666666666668, |
| "grad_norm": 20.125, |
| "learning_rate": 1.9999762484039238e-05, |
| "loss": 0.0832, |
| "step": 1330 |
| }, |
| { |
| "epoch": 0.022333333333333334, |
| "grad_norm": 5.46875, |
| "learning_rate": 1.999972423274129e-05, |
| "loss": 0.0737, |
| "step": 1340 |
| }, |
| { |
| "epoch": 0.0225, |
| "grad_norm": 7.0625, |
| "learning_rate": 1.999968312692323e-05, |
| "loss": 0.0615, |
| "step": 1350 |
| }, |
| { |
| "epoch": 0.02266666666666667, |
| "grad_norm": 7.15625, |
| "learning_rate": 1.99996391665968e-05, |
| "loss": 0.088, |
| "step": 1360 |
| }, |
| { |
| "epoch": 0.022833333333333334, |
| "grad_norm": 13.6875, |
| "learning_rate": 1.999959235177455e-05, |
| "loss": 0.0923, |
| "step": 1370 |
| }, |
| { |
| "epoch": 0.023, |
| "grad_norm": 4.9375, |
| "learning_rate": 1.999954268246984e-05, |
| "loss": 0.072, |
| "step": 1380 |
| }, |
| { |
| "epoch": 0.023166666666666665, |
| "grad_norm": 16.625, |
| "learning_rate": 1.9999490158696847e-05, |
| "loss": 0.0854, |
| "step": 1390 |
| }, |
| { |
| "epoch": 0.023333333333333334, |
| "grad_norm": 3.0625, |
| "learning_rate": 1.9999434780470567e-05, |
| "loss": 0.0877, |
| "step": 1400 |
| }, |
| { |
| "epoch": 0.0235, |
| "grad_norm": 14.875, |
| "learning_rate": 1.999937654780681e-05, |
| "loss": 0.0882, |
| "step": 1410 |
| }, |
| { |
| "epoch": 0.023666666666666666, |
| "grad_norm": 2.421875, |
| "learning_rate": 1.9999315460722197e-05, |
| "loss": 0.0846, |
| "step": 1420 |
| }, |
| { |
| "epoch": 0.023833333333333335, |
| "grad_norm": 40.25, |
| "learning_rate": 1.9999251519234167e-05, |
| "loss": 0.0935, |
| "step": 1430 |
| }, |
| { |
| "epoch": 0.024, |
| "grad_norm": 10.0625, |
| "learning_rate": 1.9999184723360973e-05, |
| "loss": 0.0744, |
| "step": 1440 |
| }, |
| { |
| "epoch": 0.024166666666666666, |
| "grad_norm": 17.25, |
| "learning_rate": 1.9999115073121675e-05, |
| "loss": 0.0848, |
| "step": 1450 |
| }, |
| { |
| "epoch": 0.024333333333333332, |
| "grad_norm": 4.90625, |
| "learning_rate": 1.9999042568536166e-05, |
| "loss": 0.0845, |
| "step": 1460 |
| }, |
| { |
| "epoch": 0.0245, |
| "grad_norm": 4.375, |
| "learning_rate": 1.999896720962514e-05, |
| "loss": 0.0843, |
| "step": 1470 |
| }, |
| { |
| "epoch": 0.024666666666666667, |
| "grad_norm": 37.75, |
| "learning_rate": 1.9998888996410107e-05, |
| "loss": 0.0726, |
| "step": 1480 |
| }, |
| { |
| "epoch": 0.024833333333333332, |
| "grad_norm": 13.375, |
| "learning_rate": 1.9998807928913394e-05, |
| "loss": 0.0771, |
| "step": 1490 |
| }, |
| { |
| "epoch": 0.025, |
| "grad_norm": 7.625, |
| "learning_rate": 1.9998724007158144e-05, |
| "loss": 0.0805, |
| "step": 1500 |
| }, |
| { |
| "epoch": 0.025166666666666667, |
| "grad_norm": 7.15625, |
| "learning_rate": 1.999863723116831e-05, |
| "loss": 0.077, |
| "step": 1510 |
| }, |
| { |
| "epoch": 0.025333333333333333, |
| "grad_norm": 7.96875, |
| "learning_rate": 1.9998547600968667e-05, |
| "loss": 0.0661, |
| "step": 1520 |
| }, |
| { |
| "epoch": 0.0255, |
| "grad_norm": 9.8125, |
| "learning_rate": 1.9998455116584797e-05, |
| "loss": 0.0694, |
| "step": 1530 |
| }, |
| { |
| "epoch": 0.025666666666666667, |
| "grad_norm": 3.890625, |
| "learning_rate": 1.999835977804311e-05, |
| "loss": 0.0813, |
| "step": 1540 |
| }, |
| { |
| "epoch": 0.025833333333333333, |
| "grad_norm": 13.9375, |
| "learning_rate": 1.9998261585370807e-05, |
| "loss": 0.0824, |
| "step": 1550 |
| }, |
| { |
| "epoch": 0.026, |
| "grad_norm": 46.0, |
| "learning_rate": 1.9998160538595927e-05, |
| "loss": 0.0863, |
| "step": 1560 |
| }, |
| { |
| "epoch": 0.026166666666666668, |
| "grad_norm": 12.5, |
| "learning_rate": 1.9998056637747315e-05, |
| "loss": 0.072, |
| "step": 1570 |
| }, |
| { |
| "epoch": 0.026333333333333334, |
| "grad_norm": 12.8125, |
| "learning_rate": 1.9997949882854626e-05, |
| "loss": 0.0825, |
| "step": 1580 |
| }, |
| { |
| "epoch": 0.0265, |
| "grad_norm": 18.25, |
| "learning_rate": 1.999784027394834e-05, |
| "loss": 0.086, |
| "step": 1590 |
| }, |
| { |
| "epoch": 0.02666666666666667, |
| "grad_norm": 15.125, |
| "learning_rate": 1.999772781105974e-05, |
| "loss": 0.072, |
| "step": 1600 |
| }, |
| { |
| "epoch": 0.026833333333333334, |
| "grad_norm": 6.65625, |
| "learning_rate": 1.9997612494220932e-05, |
| "loss": 0.0803, |
| "step": 1610 |
| }, |
| { |
| "epoch": 0.027, |
| "grad_norm": 30.625, |
| "learning_rate": 1.9997494323464837e-05, |
| "loss": 0.0814, |
| "step": 1620 |
| }, |
| { |
| "epoch": 0.027166666666666665, |
| "grad_norm": 43.75, |
| "learning_rate": 1.9997373298825186e-05, |
| "loss": 0.0634, |
| "step": 1630 |
| }, |
| { |
| "epoch": 0.027333333333333334, |
| "grad_norm": 13.25, |
| "learning_rate": 1.9997249420336522e-05, |
| "loss": 0.0833, |
| "step": 1640 |
| }, |
| { |
| "epoch": 0.0275, |
| "grad_norm": 16.625, |
| "learning_rate": 1.9997122688034216e-05, |
| "loss": 0.0814, |
| "step": 1650 |
| }, |
| { |
| "epoch": 0.027666666666666666, |
| "grad_norm": 2.75, |
| "learning_rate": 1.9996993101954438e-05, |
| "loss": 0.0667, |
| "step": 1660 |
| }, |
| { |
| "epoch": 0.027833333333333335, |
| "grad_norm": 18.875, |
| "learning_rate": 1.9996860662134185e-05, |
| "loss": 0.0643, |
| "step": 1670 |
| }, |
| { |
| "epoch": 0.028, |
| "grad_norm": 15.1875, |
| "learning_rate": 1.999672536861126e-05, |
| "loss": 0.0815, |
| "step": 1680 |
| }, |
| { |
| "epoch": 0.028166666666666666, |
| "grad_norm": 3.265625, |
| "learning_rate": 1.9996587221424284e-05, |
| "loss": 0.07, |
| "step": 1690 |
| }, |
| { |
| "epoch": 0.028333333333333332, |
| "grad_norm": 9.125, |
| "learning_rate": 1.9996446220612692e-05, |
| "loss": 0.0768, |
| "step": 1700 |
| }, |
| { |
| "epoch": 0.0285, |
| "grad_norm": 22.875, |
| "learning_rate": 1.9996302366216737e-05, |
| "loss": 0.0795, |
| "step": 1710 |
| }, |
| { |
| "epoch": 0.028666666666666667, |
| "grad_norm": 4.40625, |
| "learning_rate": 1.999615565827748e-05, |
| "loss": 0.0742, |
| "step": 1720 |
| }, |
| { |
| "epoch": 0.028833333333333332, |
| "grad_norm": 40.5, |
| "learning_rate": 1.99960060968368e-05, |
| "loss": 0.0761, |
| "step": 1730 |
| }, |
| { |
| "epoch": 0.029, |
| "grad_norm": 9.0, |
| "learning_rate": 1.9995853681937397e-05, |
| "loss": 0.0607, |
| "step": 1740 |
| }, |
| { |
| "epoch": 0.029166666666666667, |
| "grad_norm": 17.0, |
| "learning_rate": 1.9995698413622777e-05, |
| "loss": 0.06, |
| "step": 1750 |
| }, |
| { |
| "epoch": 0.029333333333333333, |
| "grad_norm": 14.4375, |
| "learning_rate": 1.9995540291937255e-05, |
| "loss": 0.0752, |
| "step": 1760 |
| }, |
| { |
| "epoch": 0.0295, |
| "grad_norm": 3.3125, |
| "learning_rate": 1.9995379316925977e-05, |
| "loss": 0.0733, |
| "step": 1770 |
| }, |
| { |
| "epoch": 0.029666666666666668, |
| "grad_norm": 10.4375, |
| "learning_rate": 1.9995215488634892e-05, |
| "loss": 0.0679, |
| "step": 1780 |
| }, |
| { |
| "epoch": 0.029833333333333333, |
| "grad_norm": 10.875, |
| "learning_rate": 1.9995048807110765e-05, |
| "loss": 0.0841, |
| "step": 1790 |
| }, |
| { |
| "epoch": 0.03, |
| "grad_norm": 4.34375, |
| "learning_rate": 1.9994879272401184e-05, |
| "loss": 0.0716, |
| "step": 1800 |
| }, |
| { |
| "epoch": 0.030166666666666668, |
| "grad_norm": 4.0, |
| "learning_rate": 1.9994706884554535e-05, |
| "loss": 0.0729, |
| "step": 1810 |
| }, |
| { |
| "epoch": 0.030333333333333334, |
| "grad_norm": 17.125, |
| "learning_rate": 1.9994531643620033e-05, |
| "loss": 0.0762, |
| "step": 1820 |
| }, |
| { |
| "epoch": 0.0305, |
| "grad_norm": 2.984375, |
| "learning_rate": 1.9994353549647697e-05, |
| "loss": 0.0741, |
| "step": 1830 |
| }, |
| { |
| "epoch": 0.030666666666666665, |
| "grad_norm": 3.6875, |
| "learning_rate": 1.9994172602688376e-05, |
| "loss": 0.0675, |
| "step": 1840 |
| }, |
| { |
| "epoch": 0.030833333333333334, |
| "grad_norm": 2.65625, |
| "learning_rate": 1.999398880279371e-05, |
| "loss": 0.0716, |
| "step": 1850 |
| }, |
| { |
| "epoch": 0.031, |
| "grad_norm": 4.03125, |
| "learning_rate": 1.9993802150016176e-05, |
| "loss": 0.0677, |
| "step": 1860 |
| }, |
| { |
| "epoch": 0.031166666666666665, |
| "grad_norm": 8.25, |
| "learning_rate": 1.9993612644409053e-05, |
| "loss": 0.0764, |
| "step": 1870 |
| }, |
| { |
| "epoch": 0.03133333333333333, |
| "grad_norm": 4.78125, |
| "learning_rate": 1.999342028602644e-05, |
| "loss": 0.0825, |
| "step": 1880 |
| }, |
| { |
| "epoch": 0.0315, |
| "grad_norm": 3.921875, |
| "learning_rate": 1.9993225074923244e-05, |
| "loss": 0.0812, |
| "step": 1890 |
| }, |
| { |
| "epoch": 0.03166666666666667, |
| "grad_norm": 2.40625, |
| "learning_rate": 1.999302701115519e-05, |
| "loss": 0.0643, |
| "step": 1900 |
| }, |
| { |
| "epoch": 0.03183333333333333, |
| "grad_norm": 8.875, |
| "learning_rate": 1.9992826094778817e-05, |
| "loss": 0.072, |
| "step": 1910 |
| }, |
| { |
| "epoch": 0.032, |
| "grad_norm": 4.53125, |
| "learning_rate": 1.999262232585148e-05, |
| "loss": 0.0694, |
| "step": 1920 |
| }, |
| { |
| "epoch": 0.03216666666666667, |
| "grad_norm": 28.5, |
| "learning_rate": 1.9992415704431352e-05, |
| "loss": 0.0759, |
| "step": 1930 |
| }, |
| { |
| "epoch": 0.03233333333333333, |
| "grad_norm": 10.875, |
| "learning_rate": 1.9992206230577406e-05, |
| "loss": 0.069, |
| "step": 1940 |
| }, |
| { |
| "epoch": 0.0325, |
| "grad_norm": 20.0, |
| "learning_rate": 1.999199390434944e-05, |
| "loss": 0.072, |
| "step": 1950 |
| }, |
| { |
| "epoch": 0.03266666666666666, |
| "grad_norm": 25.25, |
| "learning_rate": 1.999177872580807e-05, |
| "loss": 0.0727, |
| "step": 1960 |
| }, |
| { |
| "epoch": 0.03283333333333333, |
| "grad_norm": 23.875, |
| "learning_rate": 1.9991560695014715e-05, |
| "loss": 0.0742, |
| "step": 1970 |
| }, |
| { |
| "epoch": 0.033, |
| "grad_norm": 2.203125, |
| "learning_rate": 1.9991339812031618e-05, |
| "loss": 0.091, |
| "step": 1980 |
| }, |
| { |
| "epoch": 0.033166666666666664, |
| "grad_norm": 10.4375, |
| "learning_rate": 1.9991116076921826e-05, |
| "loss": 0.0547, |
| "step": 1990 |
| }, |
| { |
| "epoch": 0.03333333333333333, |
| "grad_norm": 53.25, |
| "learning_rate": 1.9990889489749217e-05, |
| "loss": 0.0708, |
| "step": 2000 |
| }, |
| { |
| "epoch": 0.0335, |
| "grad_norm": 30.75, |
| "learning_rate": 1.9990660050578464e-05, |
| "loss": 0.071, |
| "step": 2010 |
| }, |
| { |
| "epoch": 0.033666666666666664, |
| "grad_norm": 16.875, |
| "learning_rate": 1.9990427759475068e-05, |
| "loss": 0.0643, |
| "step": 2020 |
| }, |
| { |
| "epoch": 0.03383333333333333, |
| "grad_norm": 12.1875, |
| "learning_rate": 1.9990192616505336e-05, |
| "loss": 0.0664, |
| "step": 2030 |
| }, |
| { |
| "epoch": 0.034, |
| "grad_norm": 44.25, |
| "learning_rate": 1.998995462173639e-05, |
| "loss": 0.0618, |
| "step": 2040 |
| }, |
| { |
| "epoch": 0.034166666666666665, |
| "grad_norm": 15.1875, |
| "learning_rate": 1.9989713775236173e-05, |
| "loss": 0.0766, |
| "step": 2050 |
| }, |
| { |
| "epoch": 0.034333333333333334, |
| "grad_norm": 6.84375, |
| "learning_rate": 1.9989470077073432e-05, |
| "loss": 0.0688, |
| "step": 2060 |
| }, |
| { |
| "epoch": 0.0345, |
| "grad_norm": 8.4375, |
| "learning_rate": 1.9989223527317737e-05, |
| "loss": 0.0697, |
| "step": 2070 |
| }, |
| { |
| "epoch": 0.034666666666666665, |
| "grad_norm": 22.125, |
| "learning_rate": 1.998897412603946e-05, |
| "loss": 0.086, |
| "step": 2080 |
| }, |
| { |
| "epoch": 0.034833333333333334, |
| "grad_norm": 4.03125, |
| "learning_rate": 1.9988721873309808e-05, |
| "loss": 0.0745, |
| "step": 2090 |
| }, |
| { |
| "epoch": 0.035, |
| "grad_norm": 2.796875, |
| "learning_rate": 1.9988466769200784e-05, |
| "loss": 0.0782, |
| "step": 2100 |
| }, |
| { |
| "epoch": 0.035166666666666666, |
| "grad_norm": 3.421875, |
| "learning_rate": 1.9988208813785205e-05, |
| "loss": 0.088, |
| "step": 2110 |
| }, |
| { |
| "epoch": 0.035333333333333335, |
| "grad_norm": 13.1875, |
| "learning_rate": 1.9987948007136707e-05, |
| "loss": 0.0713, |
| "step": 2120 |
| }, |
| { |
| "epoch": 0.0355, |
| "grad_norm": 12.4375, |
| "learning_rate": 1.9987684349329748e-05, |
| "loss": 0.0632, |
| "step": 2130 |
| }, |
| { |
| "epoch": 0.035666666666666666, |
| "grad_norm": 1.734375, |
| "learning_rate": 1.9987417840439583e-05, |
| "loss": 0.0601, |
| "step": 2140 |
| }, |
| { |
| "epoch": 0.035833333333333335, |
| "grad_norm": 23.75, |
| "learning_rate": 1.9987148480542298e-05, |
| "loss": 0.0678, |
| "step": 2150 |
| }, |
| { |
| "epoch": 0.036, |
| "grad_norm": 42.25, |
| "learning_rate": 1.9986876269714773e-05, |
| "loss": 0.0629, |
| "step": 2160 |
| }, |
| { |
| "epoch": 0.036166666666666666, |
| "grad_norm": 3.015625, |
| "learning_rate": 1.998660120803473e-05, |
| "loss": 0.0723, |
| "step": 2170 |
| }, |
| { |
| "epoch": 0.036333333333333336, |
| "grad_norm": 3.28125, |
| "learning_rate": 1.998632329558067e-05, |
| "loss": 0.0571, |
| "step": 2180 |
| }, |
| { |
| "epoch": 0.0365, |
| "grad_norm": 5.8125, |
| "learning_rate": 1.9986042532431934e-05, |
| "loss": 0.0724, |
| "step": 2190 |
| }, |
| { |
| "epoch": 0.03666666666666667, |
| "grad_norm": 4.46875, |
| "learning_rate": 1.9985758918668674e-05, |
| "loss": 0.0811, |
| "step": 2200 |
| }, |
| { |
| "epoch": 0.036833333333333336, |
| "grad_norm": 2.921875, |
| "learning_rate": 1.998547245437184e-05, |
| "loss": 0.0651, |
| "step": 2210 |
| }, |
| { |
| "epoch": 0.037, |
| "grad_norm": 11.4375, |
| "learning_rate": 1.9985183139623213e-05, |
| "loss": 0.0537, |
| "step": 2220 |
| }, |
| { |
| "epoch": 0.03716666666666667, |
| "grad_norm": 8.75, |
| "learning_rate": 1.9984890974505383e-05, |
| "loss": 0.0724, |
| "step": 2230 |
| }, |
| { |
| "epoch": 0.037333333333333336, |
| "grad_norm": 2.0625, |
| "learning_rate": 1.9984595959101743e-05, |
| "loss": 0.0699, |
| "step": 2240 |
| }, |
| { |
| "epoch": 0.0375, |
| "grad_norm": 21.5, |
| "learning_rate": 1.9984298093496512e-05, |
| "loss": 0.0691, |
| "step": 2250 |
| }, |
| { |
| "epoch": 0.03766666666666667, |
| "grad_norm": 1.8984375, |
| "learning_rate": 1.9983997377774718e-05, |
| "loss": 0.06, |
| "step": 2260 |
| }, |
| { |
| "epoch": 0.03783333333333333, |
| "grad_norm": 21.25, |
| "learning_rate": 1.9983693812022206e-05, |
| "loss": 0.0824, |
| "step": 2270 |
| }, |
| { |
| "epoch": 0.038, |
| "grad_norm": 4.0, |
| "learning_rate": 1.9983387396325632e-05, |
| "loss": 0.0724, |
| "step": 2280 |
| }, |
| { |
| "epoch": 0.03816666666666667, |
| "grad_norm": 4.1875, |
| "learning_rate": 1.9983078130772463e-05, |
| "loss": 0.0596, |
| "step": 2290 |
| }, |
| { |
| "epoch": 0.03833333333333333, |
| "grad_norm": 10.0625, |
| "learning_rate": 1.9982766015450977e-05, |
| "loss": 0.0689, |
| "step": 2300 |
| }, |
| { |
| "epoch": 0.0385, |
| "grad_norm": 1.6484375, |
| "learning_rate": 1.998245105045028e-05, |
| "loss": 0.0628, |
| "step": 2310 |
| }, |
| { |
| "epoch": 0.03866666666666667, |
| "grad_norm": 19.0, |
| "learning_rate": 1.9982133235860278e-05, |
| "loss": 0.0755, |
| "step": 2320 |
| }, |
| { |
| "epoch": 0.03883333333333333, |
| "grad_norm": 3.875, |
| "learning_rate": 1.9981812571771693e-05, |
| "loss": 0.0676, |
| "step": 2330 |
| }, |
| { |
| "epoch": 0.039, |
| "grad_norm": 6.625, |
| "learning_rate": 1.9981489058276065e-05, |
| "loss": 0.0728, |
| "step": 2340 |
| }, |
| { |
| "epoch": 0.03916666666666667, |
| "grad_norm": 4.9375, |
| "learning_rate": 1.998116269546574e-05, |
| "loss": 0.0703, |
| "step": 2350 |
| }, |
| { |
| "epoch": 0.03933333333333333, |
| "grad_norm": 1.828125, |
| "learning_rate": 1.9980833483433884e-05, |
| "loss": 0.0638, |
| "step": 2360 |
| }, |
| { |
| "epoch": 0.0395, |
| "grad_norm": 2.53125, |
| "learning_rate": 1.9980501422274475e-05, |
| "loss": 0.064, |
| "step": 2370 |
| }, |
| { |
| "epoch": 0.03966666666666667, |
| "grad_norm": 8.4375, |
| "learning_rate": 1.99801665120823e-05, |
| "loss": 0.0606, |
| "step": 2380 |
| }, |
| { |
| "epoch": 0.03983333333333333, |
| "grad_norm": 5.6875, |
| "learning_rate": 1.997982875295296e-05, |
| "loss": 0.0785, |
| "step": 2390 |
| }, |
| { |
| "epoch": 0.04, |
| "grad_norm": 7.125, |
| "learning_rate": 1.9979488144982877e-05, |
| "loss": 0.0664, |
| "step": 2400 |
| }, |
| { |
| "epoch": 0.04016666666666667, |
| "grad_norm": 3.125, |
| "learning_rate": 1.9979144688269283e-05, |
| "loss": 0.0585, |
| "step": 2410 |
| }, |
| { |
| "epoch": 0.04033333333333333, |
| "grad_norm": 16.25, |
| "learning_rate": 1.9978798382910213e-05, |
| "loss": 0.0608, |
| "step": 2420 |
| }, |
| { |
| "epoch": 0.0405, |
| "grad_norm": 6.53125, |
| "learning_rate": 1.997844922900453e-05, |
| "loss": 0.0623, |
| "step": 2430 |
| }, |
| { |
| "epoch": 0.04066666666666666, |
| "grad_norm": 21.5, |
| "learning_rate": 1.99780972266519e-05, |
| "loss": 0.0644, |
| "step": 2440 |
| }, |
| { |
| "epoch": 0.04083333333333333, |
| "grad_norm": 14.3125, |
| "learning_rate": 1.9977742375952807e-05, |
| "loss": 0.0648, |
| "step": 2450 |
| }, |
| { |
| "epoch": 0.041, |
| "grad_norm": 4.5, |
| "learning_rate": 1.9977384677008548e-05, |
| "loss": 0.0588, |
| "step": 2460 |
| }, |
| { |
| "epoch": 0.041166666666666664, |
| "grad_norm": 6.21875, |
| "learning_rate": 1.997702412992123e-05, |
| "loss": 0.0752, |
| "step": 2470 |
| }, |
| { |
| "epoch": 0.04133333333333333, |
| "grad_norm": 17.25, |
| "learning_rate": 1.9976660734793772e-05, |
| "loss": 0.0736, |
| "step": 2480 |
| }, |
| { |
| "epoch": 0.0415, |
| "grad_norm": 2.609375, |
| "learning_rate": 1.9976294491729915e-05, |
| "loss": 0.0703, |
| "step": 2490 |
| }, |
| { |
| "epoch": 0.041666666666666664, |
| "grad_norm": 9.5625, |
| "learning_rate": 1.9975925400834203e-05, |
| "loss": 0.0737, |
| "step": 2500 |
| }, |
| { |
| "epoch": 0.041833333333333333, |
| "grad_norm": 8.0, |
| "learning_rate": 1.9975553462211995e-05, |
| "loss": 0.0682, |
| "step": 2510 |
| }, |
| { |
| "epoch": 0.042, |
| "grad_norm": 3.15625, |
| "learning_rate": 1.9975178675969468e-05, |
| "loss": 0.0718, |
| "step": 2520 |
| }, |
| { |
| "epoch": 0.042166666666666665, |
| "grad_norm": 49.75, |
| "learning_rate": 1.9974801042213605e-05, |
| "loss": 0.0617, |
| "step": 2530 |
| }, |
| { |
| "epoch": 0.042333333333333334, |
| "grad_norm": 4.4375, |
| "learning_rate": 1.9974420561052206e-05, |
| "loss": 0.0662, |
| "step": 2540 |
| }, |
| { |
| "epoch": 0.0425, |
| "grad_norm": 3.265625, |
| "learning_rate": 1.997403723259389e-05, |
| "loss": 0.0706, |
| "step": 2550 |
| }, |
| { |
| "epoch": 0.042666666666666665, |
| "grad_norm": 13.875, |
| "learning_rate": 1.997365105694807e-05, |
| "loss": 0.0815, |
| "step": 2560 |
| }, |
| { |
| "epoch": 0.042833333333333334, |
| "grad_norm": 9.4375, |
| "learning_rate": 1.9973262034224993e-05, |
| "loss": 0.0654, |
| "step": 2570 |
| }, |
| { |
| "epoch": 0.043, |
| "grad_norm": 4.0625, |
| "learning_rate": 1.9972870164535704e-05, |
| "loss": 0.0702, |
| "step": 2580 |
| }, |
| { |
| "epoch": 0.043166666666666666, |
| "grad_norm": 19.875, |
| "learning_rate": 1.997247544799207e-05, |
| "loss": 0.0691, |
| "step": 2590 |
| }, |
| { |
| "epoch": 0.043333333333333335, |
| "grad_norm": 5.65625, |
| "learning_rate": 1.9972077884706766e-05, |
| "loss": 0.063, |
| "step": 2600 |
| }, |
| { |
| "epoch": 0.0435, |
| "grad_norm": 7.25, |
| "learning_rate": 1.9971677474793278e-05, |
| "loss": 0.0642, |
| "step": 2610 |
| }, |
| { |
| "epoch": 0.043666666666666666, |
| "grad_norm": 4.625, |
| "learning_rate": 1.9971274218365906e-05, |
| "loss": 0.0738, |
| "step": 2620 |
| }, |
| { |
| "epoch": 0.043833333333333335, |
| "grad_norm": 7.03125, |
| "learning_rate": 1.9970868115539768e-05, |
| "loss": 0.0755, |
| "step": 2630 |
| }, |
| { |
| "epoch": 0.044, |
| "grad_norm": 21.75, |
| "learning_rate": 1.997045916643079e-05, |
| "loss": 0.0701, |
| "step": 2640 |
| }, |
| { |
| "epoch": 0.04416666666666667, |
| "grad_norm": 4.5, |
| "learning_rate": 1.9970047371155704e-05, |
| "loss": 0.0649, |
| "step": 2650 |
| }, |
| { |
| "epoch": 0.044333333333333336, |
| "grad_norm": 2.984375, |
| "learning_rate": 1.9969632729832068e-05, |
| "loss": 0.0668, |
| "step": 2660 |
| }, |
| { |
| "epoch": 0.0445, |
| "grad_norm": 2.109375, |
| "learning_rate": 1.9969215242578245e-05, |
| "loss": 0.0671, |
| "step": 2670 |
| }, |
| { |
| "epoch": 0.04466666666666667, |
| "grad_norm": 9.5, |
| "learning_rate": 1.9968794909513406e-05, |
| "loss": 0.058, |
| "step": 2680 |
| }, |
| { |
| "epoch": 0.044833333333333336, |
| "grad_norm": 7.0, |
| "learning_rate": 1.996837173075754e-05, |
| "loss": 0.0756, |
| "step": 2690 |
| }, |
| { |
| "epoch": 0.045, |
| "grad_norm": 26.0, |
| "learning_rate": 1.9967945706431453e-05, |
| "loss": 0.0685, |
| "step": 2700 |
| }, |
| { |
| "epoch": 0.04516666666666667, |
| "grad_norm": 2.515625, |
| "learning_rate": 1.9967516836656755e-05, |
| "loss": 0.0551, |
| "step": 2710 |
| }, |
| { |
| "epoch": 0.04533333333333334, |
| "grad_norm": 2.703125, |
| "learning_rate": 1.9967085121555868e-05, |
| "loss": 0.0673, |
| "step": 2720 |
| }, |
| { |
| "epoch": 0.0455, |
| "grad_norm": 11.0, |
| "learning_rate": 1.9966650561252033e-05, |
| "loss": 0.0602, |
| "step": 2730 |
| }, |
| { |
| "epoch": 0.04566666666666667, |
| "grad_norm": 4.3125, |
| "learning_rate": 1.9966213155869303e-05, |
| "loss": 0.0663, |
| "step": 2740 |
| }, |
| { |
| "epoch": 0.04583333333333333, |
| "grad_norm": 14.4375, |
| "learning_rate": 1.996577290553253e-05, |
| "loss": 0.0727, |
| "step": 2750 |
| }, |
| { |
| "epoch": 0.046, |
| "grad_norm": 24.625, |
| "learning_rate": 1.9965329810367394e-05, |
| "loss": 0.0618, |
| "step": 2760 |
| }, |
| { |
| "epoch": 0.04616666666666667, |
| "grad_norm": 7.5625, |
| "learning_rate": 1.996488387050038e-05, |
| "loss": 0.0762, |
| "step": 2770 |
| }, |
| { |
| "epoch": 0.04633333333333333, |
| "grad_norm": 3.171875, |
| "learning_rate": 1.9964435086058785e-05, |
| "loss": 0.0716, |
| "step": 2780 |
| }, |
| { |
| "epoch": 0.0465, |
| "grad_norm": 36.25, |
| "learning_rate": 1.996398345717072e-05, |
| "loss": 0.0595, |
| "step": 2790 |
| }, |
| { |
| "epoch": 0.04666666666666667, |
| "grad_norm": 4.125, |
| "learning_rate": 1.996352898396511e-05, |
| "loss": 0.0736, |
| "step": 2800 |
| }, |
| { |
| "epoch": 0.04683333333333333, |
| "grad_norm": 8.5625, |
| "learning_rate": 1.9963071666571683e-05, |
| "loss": 0.0805, |
| "step": 2810 |
| }, |
| { |
| "epoch": 0.047, |
| "grad_norm": 2.5, |
| "learning_rate": 1.9962611505120984e-05, |
| "loss": 0.0723, |
| "step": 2820 |
| }, |
| { |
| "epoch": 0.04716666666666667, |
| "grad_norm": 2.75, |
| "learning_rate": 1.996214849974438e-05, |
| "loss": 0.0721, |
| "step": 2830 |
| }, |
| { |
| "epoch": 0.04733333333333333, |
| "grad_norm": 5.15625, |
| "learning_rate": 1.9961682650574033e-05, |
| "loss": 0.0643, |
| "step": 2840 |
| }, |
| { |
| "epoch": 0.0475, |
| "grad_norm": 5.4375, |
| "learning_rate": 1.9961213957742925e-05, |
| "loss": 0.0641, |
| "step": 2850 |
| }, |
| { |
| "epoch": 0.04766666666666667, |
| "grad_norm": 8.1875, |
| "learning_rate": 1.9960742421384846e-05, |
| "loss": 0.0563, |
| "step": 2860 |
| }, |
| { |
| "epoch": 0.04783333333333333, |
| "grad_norm": 11.4375, |
| "learning_rate": 1.996026804163441e-05, |
| "loss": 0.0753, |
| "step": 2870 |
| }, |
| { |
| "epoch": 0.048, |
| "grad_norm": 10.5, |
| "learning_rate": 1.9959790818627024e-05, |
| "loss": 0.0761, |
| "step": 2880 |
| }, |
| { |
| "epoch": 0.04816666666666667, |
| "grad_norm": 17.125, |
| "learning_rate": 1.995931075249892e-05, |
| "loss": 0.0533, |
| "step": 2890 |
| }, |
| { |
| "epoch": 0.04833333333333333, |
| "grad_norm": 15.75, |
| "learning_rate": 1.995882784338714e-05, |
| "loss": 0.0546, |
| "step": 2900 |
| }, |
| { |
| "epoch": 0.0485, |
| "grad_norm": 5.125, |
| "learning_rate": 1.9958342091429532e-05, |
| "loss": 0.0559, |
| "step": 2910 |
| }, |
| { |
| "epoch": 0.048666666666666664, |
| "grad_norm": 31.0, |
| "learning_rate": 1.9957853496764758e-05, |
| "loss": 0.0593, |
| "step": 2920 |
| }, |
| { |
| "epoch": 0.04883333333333333, |
| "grad_norm": 5.3125, |
| "learning_rate": 1.9957362059532294e-05, |
| "loss": 0.0751, |
| "step": 2930 |
| }, |
| { |
| "epoch": 0.049, |
| "grad_norm": 8.25, |
| "learning_rate": 1.9956867779872425e-05, |
| "loss": 0.0734, |
| "step": 2940 |
| }, |
| { |
| "epoch": 0.049166666666666664, |
| "grad_norm": 2.171875, |
| "learning_rate": 1.9956370657926247e-05, |
| "loss": 0.0641, |
| "step": 2950 |
| }, |
| { |
| "epoch": 0.04933333333333333, |
| "grad_norm": 6.4375, |
| "learning_rate": 1.995587069383567e-05, |
| "loss": 0.0642, |
| "step": 2960 |
| }, |
| { |
| "epoch": 0.0495, |
| "grad_norm": 11.4375, |
| "learning_rate": 1.9955367887743416e-05, |
| "loss": 0.074, |
| "step": 2970 |
| }, |
| { |
| "epoch": 0.049666666666666665, |
| "grad_norm": 1.8515625, |
| "learning_rate": 1.9954862239793012e-05, |
| "loss": 0.0762, |
| "step": 2980 |
| }, |
| { |
| "epoch": 0.049833333333333334, |
| "grad_norm": 17.5, |
| "learning_rate": 1.9954353750128798e-05, |
| "loss": 0.0649, |
| "step": 2990 |
| }, |
| { |
| "epoch": 0.05, |
| "grad_norm": 16.125, |
| "learning_rate": 1.9953842418895936e-05, |
| "loss": 0.0576, |
| "step": 3000 |
| }, |
| { |
| "epoch": 0.050166666666666665, |
| "grad_norm": 21.875, |
| "learning_rate": 1.995332824624038e-05, |
| "loss": 0.0645, |
| "step": 3010 |
| }, |
| { |
| "epoch": 0.050333333333333334, |
| "grad_norm": 4.625, |
| "learning_rate": 1.9952811232308913e-05, |
| "loss": 0.0722, |
| "step": 3020 |
| }, |
| { |
| "epoch": 0.0505, |
| "grad_norm": 58.25, |
| "learning_rate": 1.995229137724912e-05, |
| "loss": 0.0593, |
| "step": 3030 |
| }, |
| { |
| "epoch": 0.050666666666666665, |
| "grad_norm": 2.03125, |
| "learning_rate": 1.99517686812094e-05, |
| "loss": 0.0589, |
| "step": 3040 |
| }, |
| { |
| "epoch": 0.050833333333333335, |
| "grad_norm": 44.0, |
| "learning_rate": 1.9951243144338955e-05, |
| "loss": 0.0726, |
| "step": 3050 |
| }, |
| { |
| "epoch": 0.051, |
| "grad_norm": 14.125, |
| "learning_rate": 1.9950714766787814e-05, |
| "loss": 0.0565, |
| "step": 3060 |
| }, |
| { |
| "epoch": 0.051166666666666666, |
| "grad_norm": 2.78125, |
| "learning_rate": 1.9950183548706806e-05, |
| "loss": 0.0596, |
| "step": 3070 |
| }, |
| { |
| "epoch": 0.051333333333333335, |
| "grad_norm": 4.59375, |
| "learning_rate": 1.9949649490247566e-05, |
| "loss": 0.0693, |
| "step": 3080 |
| }, |
| { |
| "epoch": 0.0515, |
| "grad_norm": 10.0625, |
| "learning_rate": 1.994911259156255e-05, |
| "loss": 0.0625, |
| "step": 3090 |
| }, |
| { |
| "epoch": 0.051666666666666666, |
| "grad_norm": 18.25, |
| "learning_rate": 1.9948572852805024e-05, |
| "loss": 0.0646, |
| "step": 3100 |
| }, |
| { |
| "epoch": 0.051833333333333335, |
| "grad_norm": 6.09375, |
| "learning_rate": 1.9948030274129055e-05, |
| "loss": 0.0678, |
| "step": 3110 |
| }, |
| { |
| "epoch": 0.052, |
| "grad_norm": 7.5, |
| "learning_rate": 1.9947484855689537e-05, |
| "loss": 0.0713, |
| "step": 3120 |
| }, |
| { |
| "epoch": 0.05216666666666667, |
| "grad_norm": 6.96875, |
| "learning_rate": 1.9946936597642154e-05, |
| "loss": 0.0687, |
| "step": 3130 |
| }, |
| { |
| "epoch": 0.052333333333333336, |
| "grad_norm": 21.25, |
| "learning_rate": 1.994638550014342e-05, |
| "loss": 0.0748, |
| "step": 3140 |
| }, |
| { |
| "epoch": 0.0525, |
| "grad_norm": 36.25, |
| "learning_rate": 1.9945831563350652e-05, |
| "loss": 0.0684, |
| "step": 3150 |
| }, |
| { |
| "epoch": 0.05266666666666667, |
| "grad_norm": 16.875, |
| "learning_rate": 1.9945274787421966e-05, |
| "loss": 0.0759, |
| "step": 3160 |
| }, |
| { |
| "epoch": 0.052833333333333336, |
| "grad_norm": 15.75, |
| "learning_rate": 1.9944715172516308e-05, |
| "loss": 0.0679, |
| "step": 3170 |
| }, |
| { |
| "epoch": 0.053, |
| "grad_norm": 59.0, |
| "learning_rate": 1.994415271879343e-05, |
| "loss": 0.0645, |
| "step": 3180 |
| }, |
| { |
| "epoch": 0.05316666666666667, |
| "grad_norm": 14.0625, |
| "learning_rate": 1.9943587426413876e-05, |
| "loss": 0.0594, |
| "step": 3190 |
| }, |
| { |
| "epoch": 0.05333333333333334, |
| "grad_norm": 8.5625, |
| "learning_rate": 1.9943019295539025e-05, |
| "loss": 0.0598, |
| "step": 3200 |
| }, |
| { |
| "epoch": 0.0535, |
| "grad_norm": 26.125, |
| "learning_rate": 1.9942448326331053e-05, |
| "loss": 0.0672, |
| "step": 3210 |
| }, |
| { |
| "epoch": 0.05366666666666667, |
| "grad_norm": 3.625, |
| "learning_rate": 1.994187451895295e-05, |
| "loss": 0.0627, |
| "step": 3220 |
| }, |
| { |
| "epoch": 0.05383333333333333, |
| "grad_norm": 6.5, |
| "learning_rate": 1.9941297873568514e-05, |
| "loss": 0.0702, |
| "step": 3230 |
| }, |
| { |
| "epoch": 0.054, |
| "grad_norm": 7.28125, |
| "learning_rate": 1.9940718390342357e-05, |
| "loss": 0.0635, |
| "step": 3240 |
| }, |
| { |
| "epoch": 0.05416666666666667, |
| "grad_norm": 23.375, |
| "learning_rate": 1.9940136069439887e-05, |
| "loss": 0.0605, |
| "step": 3250 |
| }, |
| { |
| "epoch": 0.05433333333333333, |
| "grad_norm": 6.625, |
| "learning_rate": 1.9939550911027345e-05, |
| "loss": 0.0585, |
| "step": 3260 |
| }, |
| { |
| "epoch": 0.0545, |
| "grad_norm": 4.28125, |
| "learning_rate": 1.9938962915271767e-05, |
| "loss": 0.0589, |
| "step": 3270 |
| }, |
| { |
| "epoch": 0.05466666666666667, |
| "grad_norm": 21.5, |
| "learning_rate": 1.9938372082341e-05, |
| "loss": 0.0558, |
| "step": 3280 |
| }, |
| { |
| "epoch": 0.05483333333333333, |
| "grad_norm": 5.59375, |
| "learning_rate": 1.9937778412403707e-05, |
| "loss": 0.0798, |
| "step": 3290 |
| }, |
| { |
| "epoch": 0.055, |
| "grad_norm": 5.53125, |
| "learning_rate": 1.9937181905629352e-05, |
| "loss": 0.062, |
| "step": 3300 |
| }, |
| { |
| "epoch": 0.05516666666666667, |
| "grad_norm": 3.34375, |
| "learning_rate": 1.9936582562188217e-05, |
| "loss": 0.0761, |
| "step": 3310 |
| }, |
| { |
| "epoch": 0.05533333333333333, |
| "grad_norm": 19.75, |
| "learning_rate": 1.9935980382251392e-05, |
| "loss": 0.0628, |
| "step": 3320 |
| }, |
| { |
| "epoch": 0.0555, |
| "grad_norm": 16.375, |
| "learning_rate": 1.9935375365990774e-05, |
| "loss": 0.0734, |
| "step": 3330 |
| }, |
| { |
| "epoch": 0.05566666666666667, |
| "grad_norm": 12.4375, |
| "learning_rate": 1.9934767513579065e-05, |
| "loss": 0.0632, |
| "step": 3340 |
| }, |
| { |
| "epoch": 0.05583333333333333, |
| "grad_norm": 10.25, |
| "learning_rate": 1.9934156825189793e-05, |
| "loss": 0.0568, |
| "step": 3350 |
| }, |
| { |
| "epoch": 0.056, |
| "grad_norm": 10.3125, |
| "learning_rate": 1.9933543300997277e-05, |
| "loss": 0.0563, |
| "step": 3360 |
| }, |
| { |
| "epoch": 0.05616666666666666, |
| "grad_norm": 10.375, |
| "learning_rate": 1.9932926941176656e-05, |
| "loss": 0.0671, |
| "step": 3370 |
| }, |
| { |
| "epoch": 0.05633333333333333, |
| "grad_norm": 9.75, |
| "learning_rate": 1.9932307745903876e-05, |
| "loss": 0.0722, |
| "step": 3380 |
| }, |
| { |
| "epoch": 0.0565, |
| "grad_norm": 2.375, |
| "learning_rate": 1.9931685715355692e-05, |
| "loss": 0.0619, |
| "step": 3390 |
| }, |
| { |
| "epoch": 0.056666666666666664, |
| "grad_norm": 2.875, |
| "learning_rate": 1.993106084970967e-05, |
| "loss": 0.061, |
| "step": 3400 |
| }, |
| { |
| "epoch": 0.05683333333333333, |
| "grad_norm": 10.6875, |
| "learning_rate": 1.9930433149144184e-05, |
| "loss": 0.0663, |
| "step": 3410 |
| }, |
| { |
| "epoch": 0.057, |
| "grad_norm": 6.1875, |
| "learning_rate": 1.9929802613838416e-05, |
| "loss": 0.0598, |
| "step": 3420 |
| }, |
| { |
| "epoch": 0.057166666666666664, |
| "grad_norm": 11.8125, |
| "learning_rate": 1.992916924397236e-05, |
| "loss": 0.0609, |
| "step": 3430 |
| }, |
| { |
| "epoch": 0.05733333333333333, |
| "grad_norm": 8.9375, |
| "learning_rate": 1.9928533039726815e-05, |
| "loss": 0.0672, |
| "step": 3440 |
| }, |
| { |
| "epoch": 0.0575, |
| "grad_norm": 8.5625, |
| "learning_rate": 1.9927894001283397e-05, |
| "loss": 0.0655, |
| "step": 3450 |
| }, |
| { |
| "epoch": 0.057666666666666665, |
| "grad_norm": 19.125, |
| "learning_rate": 1.992725212882452e-05, |
| "loss": 0.054, |
| "step": 3460 |
| }, |
| { |
| "epoch": 0.057833333333333334, |
| "grad_norm": 14.75, |
| "learning_rate": 1.9926607422533416e-05, |
| "loss": 0.0587, |
| "step": 3470 |
| }, |
| { |
| "epoch": 0.058, |
| "grad_norm": 36.5, |
| "learning_rate": 1.992595988259412e-05, |
| "loss": 0.0605, |
| "step": 3480 |
| }, |
| { |
| "epoch": 0.058166666666666665, |
| "grad_norm": 4.03125, |
| "learning_rate": 1.9925309509191483e-05, |
| "loss": 0.0708, |
| "step": 3490 |
| }, |
| { |
| "epoch": 0.058333333333333334, |
| "grad_norm": 5.0, |
| "learning_rate": 1.992465630251116e-05, |
| "loss": 0.0579, |
| "step": 3500 |
| }, |
| { |
| "epoch": 0.0585, |
| "grad_norm": 1.71875, |
| "learning_rate": 1.9924000262739613e-05, |
| "loss": 0.0663, |
| "step": 3510 |
| }, |
| { |
| "epoch": 0.058666666666666666, |
| "grad_norm": 4.3125, |
| "learning_rate": 1.9923341390064115e-05, |
| "loss": 0.0605, |
| "step": 3520 |
| }, |
| { |
| "epoch": 0.058833333333333335, |
| "grad_norm": 1.7734375, |
| "learning_rate": 1.9922679684672744e-05, |
| "loss": 0.0616, |
| "step": 3530 |
| }, |
| { |
| "epoch": 0.059, |
| "grad_norm": 5.3125, |
| "learning_rate": 1.9922015146754402e-05, |
| "loss": 0.0581, |
| "step": 3540 |
| }, |
| { |
| "epoch": 0.059166666666666666, |
| "grad_norm": 11.5, |
| "learning_rate": 1.9921347776498776e-05, |
| "loss": 0.0632, |
| "step": 3550 |
| }, |
| { |
| "epoch": 0.059333333333333335, |
| "grad_norm": 5.1875, |
| "learning_rate": 1.992067757409638e-05, |
| "loss": 0.0713, |
| "step": 3560 |
| }, |
| { |
| "epoch": 0.0595, |
| "grad_norm": 1.8984375, |
| "learning_rate": 1.992000453973853e-05, |
| "loss": 0.0719, |
| "step": 3570 |
| }, |
| { |
| "epoch": 0.059666666666666666, |
| "grad_norm": 16.75, |
| "learning_rate": 1.9919328673617345e-05, |
| "loss": 0.0626, |
| "step": 3580 |
| }, |
| { |
| "epoch": 0.059833333333333336, |
| "grad_norm": 2.890625, |
| "learning_rate": 1.991864997592576e-05, |
| "loss": 0.0815, |
| "step": 3590 |
| }, |
| { |
| "epoch": 0.06, |
| "grad_norm": 9.9375, |
| "learning_rate": 1.991796844685752e-05, |
| "loss": 0.0617, |
| "step": 3600 |
| }, |
| { |
| "epoch": 0.06016666666666667, |
| "grad_norm": 23.75, |
| "learning_rate": 1.991728408660717e-05, |
| "loss": 0.0726, |
| "step": 3610 |
| }, |
| { |
| "epoch": 0.060333333333333336, |
| "grad_norm": 17.75, |
| "learning_rate": 1.991659689537007e-05, |
| "loss": 0.0649, |
| "step": 3620 |
| }, |
| { |
| "epoch": 0.0605, |
| "grad_norm": 11.25, |
| "learning_rate": 1.991590687334238e-05, |
| "loss": 0.0644, |
| "step": 3630 |
| }, |
| { |
| "epoch": 0.06066666666666667, |
| "grad_norm": 22.25, |
| "learning_rate": 1.9915214020721082e-05, |
| "loss": 0.0599, |
| "step": 3640 |
| }, |
| { |
| "epoch": 0.060833333333333336, |
| "grad_norm": 5.03125, |
| "learning_rate": 1.9914518337703952e-05, |
| "loss": 0.077, |
| "step": 3650 |
| }, |
| { |
| "epoch": 0.061, |
| "grad_norm": 4.78125, |
| "learning_rate": 1.991381982448958e-05, |
| "loss": 0.0696, |
| "step": 3660 |
| }, |
| { |
| "epoch": 0.06116666666666667, |
| "grad_norm": 7.28125, |
| "learning_rate": 1.991311848127736e-05, |
| "loss": 0.0681, |
| "step": 3670 |
| }, |
| { |
| "epoch": 0.06133333333333333, |
| "grad_norm": 4.375, |
| "learning_rate": 1.9912414308267508e-05, |
| "loss": 0.0597, |
| "step": 3680 |
| }, |
| { |
| "epoch": 0.0615, |
| "grad_norm": 21.5, |
| "learning_rate": 1.991170730566103e-05, |
| "loss": 0.0587, |
| "step": 3690 |
| }, |
| { |
| "epoch": 0.06166666666666667, |
| "grad_norm": 28.875, |
| "learning_rate": 1.991099747365975e-05, |
| "loss": 0.0705, |
| "step": 3700 |
| }, |
| { |
| "epoch": 0.06183333333333333, |
| "grad_norm": 7.84375, |
| "learning_rate": 1.991028481246629e-05, |
| "loss": 0.0629, |
| "step": 3710 |
| }, |
| { |
| "epoch": 0.062, |
| "grad_norm": 23.375, |
| "learning_rate": 1.9909569322284095e-05, |
| "loss": 0.0775, |
| "step": 3720 |
| }, |
| { |
| "epoch": 0.06216666666666667, |
| "grad_norm": 16.25, |
| "learning_rate": 1.99088510033174e-05, |
| "loss": 0.0517, |
| "step": 3730 |
| }, |
| { |
| "epoch": 0.06233333333333333, |
| "grad_norm": 5.75, |
| "learning_rate": 1.9908129855771264e-05, |
| "loss": 0.0622, |
| "step": 3740 |
| }, |
| { |
| "epoch": 0.0625, |
| "grad_norm": 2.625, |
| "learning_rate": 1.990740587985154e-05, |
| "loss": 0.0593, |
| "step": 3750 |
| }, |
| { |
| "epoch": 0.06266666666666666, |
| "grad_norm": 26.0, |
| "learning_rate": 1.9906679075764894e-05, |
| "loss": 0.0672, |
| "step": 3760 |
| }, |
| { |
| "epoch": 0.06283333333333334, |
| "grad_norm": 10.75, |
| "learning_rate": 1.9905949443718805e-05, |
| "loss": 0.0547, |
| "step": 3770 |
| }, |
| { |
| "epoch": 0.063, |
| "grad_norm": 3.5, |
| "learning_rate": 1.9905216983921546e-05, |
| "loss": 0.0588, |
| "step": 3780 |
| }, |
| { |
| "epoch": 0.06316666666666666, |
| "grad_norm": 5.375, |
| "learning_rate": 1.9904481696582217e-05, |
| "loss": 0.0732, |
| "step": 3790 |
| }, |
| { |
| "epoch": 0.06333333333333334, |
| "grad_norm": 6.875, |
| "learning_rate": 1.9903743581910698e-05, |
| "loss": 0.0684, |
| "step": 3800 |
| }, |
| { |
| "epoch": 0.0635, |
| "grad_norm": 16.25, |
| "learning_rate": 1.9903002640117704e-05, |
| "loss": 0.0741, |
| "step": 3810 |
| }, |
| { |
| "epoch": 0.06366666666666666, |
| "grad_norm": 2.375, |
| "learning_rate": 1.9902258871414736e-05, |
| "loss": 0.0758, |
| "step": 3820 |
| }, |
| { |
| "epoch": 0.06383333333333334, |
| "grad_norm": 17.125, |
| "learning_rate": 1.990151227601411e-05, |
| "loss": 0.0562, |
| "step": 3830 |
| }, |
| { |
| "epoch": 0.064, |
| "grad_norm": 11.8125, |
| "learning_rate": 1.9900762854128956e-05, |
| "loss": 0.0771, |
| "step": 3840 |
| }, |
| { |
| "epoch": 0.06416666666666666, |
| "grad_norm": 5.78125, |
| "learning_rate": 1.9900010605973198e-05, |
| "loss": 0.0547, |
| "step": 3850 |
| }, |
| { |
| "epoch": 0.06433333333333334, |
| "grad_norm": 2.4375, |
| "learning_rate": 1.9899255531761573e-05, |
| "loss": 0.0591, |
| "step": 3860 |
| }, |
| { |
| "epoch": 0.0645, |
| "grad_norm": 6.03125, |
| "learning_rate": 1.9898497631709628e-05, |
| "loss": 0.0692, |
| "step": 3870 |
| }, |
| { |
| "epoch": 0.06466666666666666, |
| "grad_norm": 1.9765625, |
| "learning_rate": 1.989773690603371e-05, |
| "loss": 0.0715, |
| "step": 3880 |
| }, |
| { |
| "epoch": 0.06483333333333334, |
| "grad_norm": 1.9765625, |
| "learning_rate": 1.9896973354950978e-05, |
| "loss": 0.0616, |
| "step": 3890 |
| }, |
| { |
| "epoch": 0.065, |
| "grad_norm": 4.40625, |
| "learning_rate": 1.989620697867939e-05, |
| "loss": 0.0609, |
| "step": 3900 |
| }, |
| { |
| "epoch": 0.06516666666666666, |
| "grad_norm": 4.21875, |
| "learning_rate": 1.989543777743772e-05, |
| "loss": 0.0668, |
| "step": 3910 |
| }, |
| { |
| "epoch": 0.06533333333333333, |
| "grad_norm": 14.3125, |
| "learning_rate": 1.9894665751445546e-05, |
| "loss": 0.0566, |
| "step": 3920 |
| }, |
| { |
| "epoch": 0.0655, |
| "grad_norm": 12.3125, |
| "learning_rate": 1.9893890900923245e-05, |
| "loss": 0.0684, |
| "step": 3930 |
| }, |
| { |
| "epoch": 0.06566666666666666, |
| "grad_norm": 3.78125, |
| "learning_rate": 1.9893113226092013e-05, |
| "loss": 0.0642, |
| "step": 3940 |
| }, |
| { |
| "epoch": 0.06583333333333333, |
| "grad_norm": 32.75, |
| "learning_rate": 1.9892332727173835e-05, |
| "loss": 0.0645, |
| "step": 3950 |
| }, |
| { |
| "epoch": 0.066, |
| "grad_norm": 18.0, |
| "learning_rate": 1.989154940439152e-05, |
| "loss": 0.0557, |
| "step": 3960 |
| }, |
| { |
| "epoch": 0.06616666666666667, |
| "grad_norm": 28.0, |
| "learning_rate": 1.9890763257968673e-05, |
| "loss": 0.0628, |
| "step": 3970 |
| }, |
| { |
| "epoch": 0.06633333333333333, |
| "grad_norm": 34.25, |
| "learning_rate": 1.988997428812971e-05, |
| "loss": 0.0693, |
| "step": 3980 |
| }, |
| { |
| "epoch": 0.0665, |
| "grad_norm": 13.125, |
| "learning_rate": 1.9889182495099845e-05, |
| "loss": 0.0726, |
| "step": 3990 |
| }, |
| { |
| "epoch": 0.06666666666666667, |
| "grad_norm": 3.3125, |
| "learning_rate": 1.9888387879105103e-05, |
| "loss": 0.0626, |
| "step": 4000 |
| }, |
| { |
| "epoch": 0.06683333333333333, |
| "grad_norm": 20.875, |
| "learning_rate": 1.988759044037232e-05, |
| "loss": 0.0643, |
| "step": 4010 |
| }, |
| { |
| "epoch": 0.067, |
| "grad_norm": 11.0, |
| "learning_rate": 1.988679017912913e-05, |
| "loss": 0.0605, |
| "step": 4020 |
| }, |
| { |
| "epoch": 0.06716666666666667, |
| "grad_norm": 3.125, |
| "learning_rate": 1.9885987095603975e-05, |
| "loss": 0.0764, |
| "step": 4030 |
| }, |
| { |
| "epoch": 0.06733333333333333, |
| "grad_norm": 2.171875, |
| "learning_rate": 1.9885181190026108e-05, |
| "loss": 0.073, |
| "step": 4040 |
| }, |
| { |
| "epoch": 0.0675, |
| "grad_norm": 4.5625, |
| "learning_rate": 1.9884372462625573e-05, |
| "loss": 0.0578, |
| "step": 4050 |
| }, |
| { |
| "epoch": 0.06766666666666667, |
| "grad_norm": 14.4375, |
| "learning_rate": 1.9883560913633238e-05, |
| "loss": 0.0713, |
| "step": 4060 |
| }, |
| { |
| "epoch": 0.06783333333333333, |
| "grad_norm": 5.875, |
| "learning_rate": 1.9882746543280764e-05, |
| "loss": 0.0801, |
| "step": 4070 |
| }, |
| { |
| "epoch": 0.068, |
| "grad_norm": 44.25, |
| "learning_rate": 1.9881929351800623e-05, |
| "loss": 0.0638, |
| "step": 4080 |
| }, |
| { |
| "epoch": 0.06816666666666667, |
| "grad_norm": 10.25, |
| "learning_rate": 1.9881109339426085e-05, |
| "loss": 0.0618, |
| "step": 4090 |
| }, |
| { |
| "epoch": 0.06833333333333333, |
| "grad_norm": 5.1875, |
| "learning_rate": 1.9880286506391236e-05, |
| "loss": 0.062, |
| "step": 4100 |
| }, |
| { |
| "epoch": 0.0685, |
| "grad_norm": 46.5, |
| "learning_rate": 1.9879460852930962e-05, |
| "loss": 0.0591, |
| "step": 4110 |
| }, |
| { |
| "epoch": 0.06866666666666667, |
| "grad_norm": 19.25, |
| "learning_rate": 1.987863237928095e-05, |
| "loss": 0.0658, |
| "step": 4120 |
| }, |
| { |
| "epoch": 0.06883333333333333, |
| "grad_norm": 11.875, |
| "learning_rate": 1.9877801085677705e-05, |
| "loss": 0.0585, |
| "step": 4130 |
| }, |
| { |
| "epoch": 0.069, |
| "grad_norm": 5.59375, |
| "learning_rate": 1.9876966972358516e-05, |
| "loss": 0.0615, |
| "step": 4140 |
| }, |
| { |
| "epoch": 0.06916666666666667, |
| "grad_norm": 2.734375, |
| "learning_rate": 1.9876130039561493e-05, |
| "loss": 0.0669, |
| "step": 4150 |
| }, |
| { |
| "epoch": 0.06933333333333333, |
| "grad_norm": 9.0, |
| "learning_rate": 1.987529028752555e-05, |
| "loss": 0.0696, |
| "step": 4160 |
| }, |
| { |
| "epoch": 0.0695, |
| "grad_norm": 7.71875, |
| "learning_rate": 1.98744477164904e-05, |
| "loss": 0.0702, |
| "step": 4170 |
| }, |
| { |
| "epoch": 0.06966666666666667, |
| "grad_norm": 10.125, |
| "learning_rate": 1.9873602326696563e-05, |
| "loss": 0.0543, |
| "step": 4180 |
| }, |
| { |
| "epoch": 0.06983333333333333, |
| "grad_norm": 47.5, |
| "learning_rate": 1.9872754118385368e-05, |
| "loss": 0.0571, |
| "step": 4190 |
| }, |
| { |
| "epoch": 0.07, |
| "grad_norm": 4.5, |
| "learning_rate": 1.9871903091798937e-05, |
| "loss": 0.0529, |
| "step": 4200 |
| }, |
| { |
| "epoch": 0.07016666666666667, |
| "grad_norm": 13.4375, |
| "learning_rate": 1.987104924718021e-05, |
| "loss": 0.0534, |
| "step": 4210 |
| }, |
| { |
| "epoch": 0.07033333333333333, |
| "grad_norm": 1.4921875, |
| "learning_rate": 1.9870192584772922e-05, |
| "loss": 0.05, |
| "step": 4220 |
| }, |
| { |
| "epoch": 0.0705, |
| "grad_norm": 12.625, |
| "learning_rate": 1.986933310482162e-05, |
| "loss": 0.061, |
| "step": 4230 |
| }, |
| { |
| "epoch": 0.07066666666666667, |
| "grad_norm": 23.75, |
| "learning_rate": 1.9868470807571647e-05, |
| "loss": 0.0866, |
| "step": 4240 |
| }, |
| { |
| "epoch": 0.07083333333333333, |
| "grad_norm": 2.28125, |
| "learning_rate": 1.9867605693269155e-05, |
| "loss": 0.0649, |
| "step": 4250 |
| }, |
| { |
| "epoch": 0.071, |
| "grad_norm": 4.34375, |
| "learning_rate": 1.98667377621611e-05, |
| "loss": 0.0678, |
| "step": 4260 |
| }, |
| { |
| "epoch": 0.07116666666666667, |
| "grad_norm": 7.4375, |
| "learning_rate": 1.986586701449524e-05, |
| "loss": 0.0637, |
| "step": 4270 |
| }, |
| { |
| "epoch": 0.07133333333333333, |
| "grad_norm": 12.1875, |
| "learning_rate": 1.986499345052014e-05, |
| "loss": 0.067, |
| "step": 4280 |
| }, |
| { |
| "epoch": 0.0715, |
| "grad_norm": 52.0, |
| "learning_rate": 1.986411707048517e-05, |
| "loss": 0.0767, |
| "step": 4290 |
| }, |
| { |
| "epoch": 0.07166666666666667, |
| "grad_norm": 14.5, |
| "learning_rate": 1.9863237874640496e-05, |
| "loss": 0.0624, |
| "step": 4300 |
| }, |
| { |
| "epoch": 0.07183333333333333, |
| "grad_norm": 11.8125, |
| "learning_rate": 1.9862355863237096e-05, |
| "loss": 0.0623, |
| "step": 4310 |
| }, |
| { |
| "epoch": 0.072, |
| "grad_norm": 9.625, |
| "learning_rate": 1.986147103652675e-05, |
| "loss": 0.0638, |
| "step": 4320 |
| }, |
| { |
| "epoch": 0.07216666666666667, |
| "grad_norm": 6.25, |
| "learning_rate": 1.986058339476204e-05, |
| "loss": 0.0719, |
| "step": 4330 |
| }, |
| { |
| "epoch": 0.07233333333333333, |
| "grad_norm": 5.59375, |
| "learning_rate": 1.985969293819635e-05, |
| "loss": 0.0568, |
| "step": 4340 |
| }, |
| { |
| "epoch": 0.0725, |
| "grad_norm": 4.0625, |
| "learning_rate": 1.985879966708387e-05, |
| "loss": 0.0582, |
| "step": 4350 |
| }, |
| { |
| "epoch": 0.07266666666666667, |
| "grad_norm": 5.09375, |
| "learning_rate": 1.9857903581679595e-05, |
| "loss": 0.0652, |
| "step": 4360 |
| }, |
| { |
| "epoch": 0.07283333333333333, |
| "grad_norm": 22.0, |
| "learning_rate": 1.9857004682239324e-05, |
| "loss": 0.0632, |
| "step": 4370 |
| }, |
| { |
| "epoch": 0.073, |
| "grad_norm": 3.09375, |
| "learning_rate": 1.9856102969019647e-05, |
| "loss": 0.0683, |
| "step": 4380 |
| }, |
| { |
| "epoch": 0.07316666666666667, |
| "grad_norm": 2.1875, |
| "learning_rate": 1.985519844227798e-05, |
| "loss": 0.0779, |
| "step": 4390 |
| }, |
| { |
| "epoch": 0.07333333333333333, |
| "grad_norm": 2.5625, |
| "learning_rate": 1.985429110227252e-05, |
| "loss": 0.053, |
| "step": 4400 |
| }, |
| { |
| "epoch": 0.0735, |
| "grad_norm": 11.375, |
| "learning_rate": 1.9853380949262276e-05, |
| "loss": 0.0687, |
| "step": 4410 |
| }, |
| { |
| "epoch": 0.07366666666666667, |
| "grad_norm": 1.8984375, |
| "learning_rate": 1.985246798350706e-05, |
| "loss": 0.0711, |
| "step": 4420 |
| }, |
| { |
| "epoch": 0.07383333333333333, |
| "grad_norm": 9.125, |
| "learning_rate": 1.9851552205267495e-05, |
| "loss": 0.0565, |
| "step": 4430 |
| }, |
| { |
| "epoch": 0.074, |
| "grad_norm": 2.34375, |
| "learning_rate": 1.9850633614804993e-05, |
| "loss": 0.0614, |
| "step": 4440 |
| }, |
| { |
| "epoch": 0.07416666666666667, |
| "grad_norm": 5.71875, |
| "learning_rate": 1.9849712212381775e-05, |
| "loss": 0.0554, |
| "step": 4450 |
| }, |
| { |
| "epoch": 0.07433333333333333, |
| "grad_norm": 5.375, |
| "learning_rate": 1.9848787998260864e-05, |
| "loss": 0.0557, |
| "step": 4460 |
| }, |
| { |
| "epoch": 0.0745, |
| "grad_norm": 5.5, |
| "learning_rate": 1.9847860972706088e-05, |
| "loss": 0.0509, |
| "step": 4470 |
| }, |
| { |
| "epoch": 0.07466666666666667, |
| "grad_norm": 9.625, |
| "learning_rate": 1.9846931135982073e-05, |
| "loss": 0.0639, |
| "step": 4480 |
| }, |
| { |
| "epoch": 0.07483333333333334, |
| "grad_norm": 9.75, |
| "learning_rate": 1.984599848835425e-05, |
| "loss": 0.0652, |
| "step": 4490 |
| }, |
| { |
| "epoch": 0.075, |
| "grad_norm": 26.5, |
| "learning_rate": 1.984506303008886e-05, |
| "loss": 0.0664, |
| "step": 4500 |
| }, |
| { |
| "epoch": 0.07516666666666667, |
| "grad_norm": 18.625, |
| "learning_rate": 1.9844124761452927e-05, |
| "loss": 0.0555, |
| "step": 4510 |
| }, |
| { |
| "epoch": 0.07533333333333334, |
| "grad_norm": 18.625, |
| "learning_rate": 1.98431836827143e-05, |
| "loss": 0.0566, |
| "step": 4520 |
| }, |
| { |
| "epoch": 0.0755, |
| "grad_norm": 10.875, |
| "learning_rate": 1.9842239794141606e-05, |
| "loss": 0.0641, |
| "step": 4530 |
| }, |
| { |
| "epoch": 0.07566666666666666, |
| "grad_norm": 7.375, |
| "learning_rate": 1.98412930960043e-05, |
| "loss": 0.0656, |
| "step": 4540 |
| }, |
| { |
| "epoch": 0.07583333333333334, |
| "grad_norm": 2.1875, |
| "learning_rate": 1.9840343588572625e-05, |
| "loss": 0.0663, |
| "step": 4550 |
| }, |
| { |
| "epoch": 0.076, |
| "grad_norm": 6.9375, |
| "learning_rate": 1.9839391272117622e-05, |
| "loss": 0.0605, |
| "step": 4560 |
| }, |
| { |
| "epoch": 0.07616666666666666, |
| "grad_norm": 30.75, |
| "learning_rate": 1.983843614691114e-05, |
| "loss": 0.0599, |
| "step": 4570 |
| }, |
| { |
| "epoch": 0.07633333333333334, |
| "grad_norm": 4.53125, |
| "learning_rate": 1.983747821322583e-05, |
| "loss": 0.059, |
| "step": 4580 |
| }, |
| { |
| "epoch": 0.0765, |
| "grad_norm": 7.65625, |
| "learning_rate": 1.9836517471335148e-05, |
| "loss": 0.0536, |
| "step": 4590 |
| }, |
| { |
| "epoch": 0.07666666666666666, |
| "grad_norm": 6.09375, |
| "learning_rate": 1.983555392151334e-05, |
| "loss": 0.0597, |
| "step": 4600 |
| }, |
| { |
| "epoch": 0.07683333333333334, |
| "grad_norm": 2.203125, |
| "learning_rate": 1.9834587564035464e-05, |
| "loss": 0.0604, |
| "step": 4610 |
| }, |
| { |
| "epoch": 0.077, |
| "grad_norm": 4.5625, |
| "learning_rate": 1.9833618399177373e-05, |
| "loss": 0.0591, |
| "step": 4620 |
| }, |
| { |
| "epoch": 0.07716666666666666, |
| "grad_norm": 14.0, |
| "learning_rate": 1.983264642721573e-05, |
| "loss": 0.0705, |
| "step": 4630 |
| }, |
| { |
| "epoch": 0.07733333333333334, |
| "grad_norm": 7.46875, |
| "learning_rate": 1.9831671648427996e-05, |
| "loss": 0.0624, |
| "step": 4640 |
| }, |
| { |
| "epoch": 0.0775, |
| "grad_norm": 7.46875, |
| "learning_rate": 1.9830694063092425e-05, |
| "loss": 0.0698, |
| "step": 4650 |
| }, |
| { |
| "epoch": 0.07766666666666666, |
| "grad_norm": 12.375, |
| "learning_rate": 1.9829713671488076e-05, |
| "loss": 0.0651, |
| "step": 4660 |
| }, |
| { |
| "epoch": 0.07783333333333334, |
| "grad_norm": 16.25, |
| "learning_rate": 1.982873047389482e-05, |
| "loss": 0.0646, |
| "step": 4670 |
| }, |
| { |
| "epoch": 0.078, |
| "grad_norm": 20.0, |
| "learning_rate": 1.9827744470593315e-05, |
| "loss": 0.0689, |
| "step": 4680 |
| }, |
| { |
| "epoch": 0.07816666666666666, |
| "grad_norm": 21.75, |
| "learning_rate": 1.9826755661865028e-05, |
| "loss": 0.0619, |
| "step": 4690 |
| }, |
| { |
| "epoch": 0.07833333333333334, |
| "grad_norm": 44.5, |
| "learning_rate": 1.9825764047992223e-05, |
| "loss": 0.0631, |
| "step": 4700 |
| }, |
| { |
| "epoch": 0.0785, |
| "grad_norm": 25.375, |
| "learning_rate": 1.9824769629257963e-05, |
| "loss": 0.068, |
| "step": 4710 |
| }, |
| { |
| "epoch": 0.07866666666666666, |
| "grad_norm": 14.5, |
| "learning_rate": 1.982377240594612e-05, |
| "loss": 0.0639, |
| "step": 4720 |
| }, |
| { |
| "epoch": 0.07883333333333334, |
| "grad_norm": 6.46875, |
| "learning_rate": 1.982277237834136e-05, |
| "loss": 0.0672, |
| "step": 4730 |
| }, |
| { |
| "epoch": 0.079, |
| "grad_norm": 18.5, |
| "learning_rate": 1.982176954672915e-05, |
| "loss": 0.0907, |
| "step": 4740 |
| }, |
| { |
| "epoch": 0.07916666666666666, |
| "grad_norm": 6.4375, |
| "learning_rate": 1.9820763911395756e-05, |
| "loss": 0.0501, |
| "step": 4750 |
| }, |
| { |
| "epoch": 0.07933333333333334, |
| "grad_norm": 5.96875, |
| "learning_rate": 1.9819755472628247e-05, |
| "loss": 0.0772, |
| "step": 4760 |
| }, |
| { |
| "epoch": 0.0795, |
| "grad_norm": 2.328125, |
| "learning_rate": 1.9818744230714496e-05, |
| "loss": 0.0595, |
| "step": 4770 |
| }, |
| { |
| "epoch": 0.07966666666666666, |
| "grad_norm": 2.609375, |
| "learning_rate": 1.981773018594317e-05, |
| "loss": 0.0674, |
| "step": 4780 |
| }, |
| { |
| "epoch": 0.07983333333333334, |
| "grad_norm": 8.4375, |
| "learning_rate": 1.9816713338603737e-05, |
| "loss": 0.0661, |
| "step": 4790 |
| }, |
| { |
| "epoch": 0.08, |
| "grad_norm": 22.125, |
| "learning_rate": 1.9815693688986464e-05, |
| "loss": 0.07, |
| "step": 4800 |
| }, |
| { |
| "epoch": 0.08016666666666666, |
| "grad_norm": 5.125, |
| "learning_rate": 1.9814671237382423e-05, |
| "loss": 0.0597, |
| "step": 4810 |
| }, |
| { |
| "epoch": 0.08033333333333334, |
| "grad_norm": 13.9375, |
| "learning_rate": 1.9813645984083484e-05, |
| "loss": 0.0654, |
| "step": 4820 |
| }, |
| { |
| "epoch": 0.0805, |
| "grad_norm": 5.21875, |
| "learning_rate": 1.9812617929382314e-05, |
| "loss": 0.0612, |
| "step": 4830 |
| }, |
| { |
| "epoch": 0.08066666666666666, |
| "grad_norm": 24.875, |
| "learning_rate": 1.981158707357238e-05, |
| "loss": 0.0601, |
| "step": 4840 |
| }, |
| { |
| "epoch": 0.08083333333333333, |
| "grad_norm": 5.1875, |
| "learning_rate": 1.9810553416947954e-05, |
| "loss": 0.0716, |
| "step": 4850 |
| }, |
| { |
| "epoch": 0.081, |
| "grad_norm": 18.0, |
| "learning_rate": 1.98095169598041e-05, |
| "loss": 0.0714, |
| "step": 4860 |
| }, |
| { |
| "epoch": 0.08116666666666666, |
| "grad_norm": 9.875, |
| "learning_rate": 1.9808477702436684e-05, |
| "loss": 0.0713, |
| "step": 4870 |
| }, |
| { |
| "epoch": 0.08133333333333333, |
| "grad_norm": 2.5, |
| "learning_rate": 1.9807435645142375e-05, |
| "loss": 0.0668, |
| "step": 4880 |
| }, |
| { |
| "epoch": 0.0815, |
| "grad_norm": 13.8125, |
| "learning_rate": 1.980639078821864e-05, |
| "loss": 0.071, |
| "step": 4890 |
| }, |
| { |
| "epoch": 0.08166666666666667, |
| "grad_norm": 4.4375, |
| "learning_rate": 1.9805343131963738e-05, |
| "loss": 0.0599, |
| "step": 4900 |
| }, |
| { |
| "epoch": 0.08183333333333333, |
| "grad_norm": 5.84375, |
| "learning_rate": 1.980429267667674e-05, |
| "loss": 0.0617, |
| "step": 4910 |
| }, |
| { |
| "epoch": 0.082, |
| "grad_norm": 6.1875, |
| "learning_rate": 1.9803239422657505e-05, |
| "loss": 0.0608, |
| "step": 4920 |
| }, |
| { |
| "epoch": 0.08216666666666667, |
| "grad_norm": 2.0625, |
| "learning_rate": 1.980218337020669e-05, |
| "loss": 0.0628, |
| "step": 4930 |
| }, |
| { |
| "epoch": 0.08233333333333333, |
| "grad_norm": 3.59375, |
| "learning_rate": 1.9801124519625766e-05, |
| "loss": 0.0644, |
| "step": 4940 |
| }, |
| { |
| "epoch": 0.0825, |
| "grad_norm": 10.875, |
| "learning_rate": 1.980006287121698e-05, |
| "loss": 0.0515, |
| "step": 4950 |
| }, |
| { |
| "epoch": 0.08266666666666667, |
| "grad_norm": 4.875, |
| "learning_rate": 1.9798998425283404e-05, |
| "loss": 0.0566, |
| "step": 4960 |
| }, |
| { |
| "epoch": 0.08283333333333333, |
| "grad_norm": 7.15625, |
| "learning_rate": 1.9797931182128886e-05, |
| "loss": 0.0506, |
| "step": 4970 |
| }, |
| { |
| "epoch": 0.083, |
| "grad_norm": 1.671875, |
| "learning_rate": 1.979686114205808e-05, |
| "loss": 0.0542, |
| "step": 4980 |
| }, |
| { |
| "epoch": 0.08316666666666667, |
| "grad_norm": 2.859375, |
| "learning_rate": 1.9795788305376443e-05, |
| "loss": 0.0651, |
| "step": 4990 |
| }, |
| { |
| "epoch": 0.08333333333333333, |
| "grad_norm": 21.75, |
| "learning_rate": 1.979471267239023e-05, |
| "loss": 0.0684, |
| "step": 5000 |
| }, |
| { |
| "epoch": 0.0835, |
| "grad_norm": 7.6875, |
| "learning_rate": 1.9793634243406484e-05, |
| "loss": 0.0689, |
| "step": 5010 |
| }, |
| { |
| "epoch": 0.08366666666666667, |
| "grad_norm": 8.8125, |
| "learning_rate": 1.9792553018733054e-05, |
| "loss": 0.0594, |
| "step": 5020 |
| }, |
| { |
| "epoch": 0.08383333333333333, |
| "grad_norm": 25.25, |
| "learning_rate": 1.9791468998678592e-05, |
| "loss": 0.0688, |
| "step": 5030 |
| }, |
| { |
| "epoch": 0.084, |
| "grad_norm": 14.3125, |
| "learning_rate": 1.9790382183552538e-05, |
| "loss": 0.0604, |
| "step": 5040 |
| }, |
| { |
| "epoch": 0.08416666666666667, |
| "grad_norm": 16.75, |
| "learning_rate": 1.9789292573665134e-05, |
| "loss": 0.0714, |
| "step": 5050 |
| }, |
| { |
| "epoch": 0.08433333333333333, |
| "grad_norm": 5.40625, |
| "learning_rate": 1.9788200169327417e-05, |
| "loss": 0.0502, |
| "step": 5060 |
| }, |
| { |
| "epoch": 0.0845, |
| "grad_norm": 64.5, |
| "learning_rate": 1.9787104970851234e-05, |
| "loss": 0.0606, |
| "step": 5070 |
| }, |
| { |
| "epoch": 0.08466666666666667, |
| "grad_norm": 32.5, |
| "learning_rate": 1.9786006978549215e-05, |
| "loss": 0.0647, |
| "step": 5080 |
| }, |
| { |
| "epoch": 0.08483333333333333, |
| "grad_norm": 4.65625, |
| "learning_rate": 1.9784906192734792e-05, |
| "loss": 0.0665, |
| "step": 5090 |
| }, |
| { |
| "epoch": 0.085, |
| "grad_norm": 6.46875, |
| "learning_rate": 1.978380261372219e-05, |
| "loss": 0.0619, |
| "step": 5100 |
| }, |
| { |
| "epoch": 0.08516666666666667, |
| "grad_norm": 2.1875, |
| "learning_rate": 1.9782696241826448e-05, |
| "loss": 0.0727, |
| "step": 5110 |
| }, |
| { |
| "epoch": 0.08533333333333333, |
| "grad_norm": 6.65625, |
| "learning_rate": 1.9781587077363383e-05, |
| "loss": 0.072, |
| "step": 5120 |
| }, |
| { |
| "epoch": 0.0855, |
| "grad_norm": 5.5625, |
| "learning_rate": 1.978047512064962e-05, |
| "loss": 0.0694, |
| "step": 5130 |
| }, |
| { |
| "epoch": 0.08566666666666667, |
| "grad_norm": 2.3125, |
| "learning_rate": 1.9779360372002576e-05, |
| "loss": 0.064, |
| "step": 5140 |
| }, |
| { |
| "epoch": 0.08583333333333333, |
| "grad_norm": 2.84375, |
| "learning_rate": 1.977824283174047e-05, |
| "loss": 0.0658, |
| "step": 5150 |
| }, |
| { |
| "epoch": 0.086, |
| "grad_norm": 6.90625, |
| "learning_rate": 1.9777122500182308e-05, |
| "loss": 0.064, |
| "step": 5160 |
| }, |
| { |
| "epoch": 0.08616666666666667, |
| "grad_norm": 25.375, |
| "learning_rate": 1.977599937764791e-05, |
| "loss": 0.0568, |
| "step": 5170 |
| }, |
| { |
| "epoch": 0.08633333333333333, |
| "grad_norm": 2.484375, |
| "learning_rate": 1.9774873464457874e-05, |
| "loss": 0.0634, |
| "step": 5180 |
| }, |
| { |
| "epoch": 0.0865, |
| "grad_norm": 12.1875, |
| "learning_rate": 1.9773744760933607e-05, |
| "loss": 0.0541, |
| "step": 5190 |
| }, |
| { |
| "epoch": 0.08666666666666667, |
| "grad_norm": 40.5, |
| "learning_rate": 1.9772613267397304e-05, |
| "loss": 0.0629, |
| "step": 5200 |
| }, |
| { |
| "epoch": 0.08683333333333333, |
| "grad_norm": 6.65625, |
| "learning_rate": 1.9771478984171968e-05, |
| "loss": 0.0527, |
| "step": 5210 |
| }, |
| { |
| "epoch": 0.087, |
| "grad_norm": 16.0, |
| "learning_rate": 1.977034191158139e-05, |
| "loss": 0.0531, |
| "step": 5220 |
| }, |
| { |
| "epoch": 0.08716666666666667, |
| "grad_norm": 16.375, |
| "learning_rate": 1.9769202049950152e-05, |
| "loss": 0.0541, |
| "step": 5230 |
| }, |
| { |
| "epoch": 0.08733333333333333, |
| "grad_norm": 10.8125, |
| "learning_rate": 1.9768059399603645e-05, |
| "loss": 0.0571, |
| "step": 5240 |
| }, |
| { |
| "epoch": 0.0875, |
| "grad_norm": 5.15625, |
| "learning_rate": 1.976691396086805e-05, |
| "loss": 0.0602, |
| "step": 5250 |
| }, |
| { |
| "epoch": 0.08766666666666667, |
| "grad_norm": 2.53125, |
| "learning_rate": 1.976576573407034e-05, |
| "loss": 0.0638, |
| "step": 5260 |
| }, |
| { |
| "epoch": 0.08783333333333333, |
| "grad_norm": 10.4375, |
| "learning_rate": 1.9764614719538292e-05, |
| "loss": 0.0698, |
| "step": 5270 |
| }, |
| { |
| "epoch": 0.088, |
| "grad_norm": 3.140625, |
| "learning_rate": 1.9763460917600467e-05, |
| "loss": 0.0685, |
| "step": 5280 |
| }, |
| { |
| "epoch": 0.08816666666666667, |
| "grad_norm": 6.40625, |
| "learning_rate": 1.976230432858624e-05, |
| "loss": 0.0552, |
| "step": 5290 |
| }, |
| { |
| "epoch": 0.08833333333333333, |
| "grad_norm": 8.5625, |
| "learning_rate": 1.9761144952825763e-05, |
| "loss": 0.0506, |
| "step": 5300 |
| }, |
| { |
| "epoch": 0.0885, |
| "grad_norm": 8.125, |
| "learning_rate": 1.9759982790649994e-05, |
| "loss": 0.0622, |
| "step": 5310 |
| }, |
| { |
| "epoch": 0.08866666666666667, |
| "grad_norm": 2.859375, |
| "learning_rate": 1.9758817842390683e-05, |
| "loss": 0.064, |
| "step": 5320 |
| }, |
| { |
| "epoch": 0.08883333333333333, |
| "grad_norm": 4.53125, |
| "learning_rate": 1.975765010838037e-05, |
| "loss": 0.0545, |
| "step": 5330 |
| }, |
| { |
| "epoch": 0.089, |
| "grad_norm": 14.875, |
| "learning_rate": 1.9756479588952412e-05, |
| "loss": 0.0587, |
| "step": 5340 |
| }, |
| { |
| "epoch": 0.08916666666666667, |
| "grad_norm": 17.75, |
| "learning_rate": 1.9755306284440928e-05, |
| "loss": 0.0723, |
| "step": 5350 |
| }, |
| { |
| "epoch": 0.08933333333333333, |
| "grad_norm": 2.796875, |
| "learning_rate": 1.975413019518086e-05, |
| "loss": 0.0638, |
| "step": 5360 |
| }, |
| { |
| "epoch": 0.0895, |
| "grad_norm": 17.875, |
| "learning_rate": 1.9752951321507935e-05, |
| "loss": 0.0552, |
| "step": 5370 |
| }, |
| { |
| "epoch": 0.08966666666666667, |
| "grad_norm": 4.5625, |
| "learning_rate": 1.9751769663758665e-05, |
| "loss": 0.061, |
| "step": 5380 |
| }, |
| { |
| "epoch": 0.08983333333333333, |
| "grad_norm": 4.84375, |
| "learning_rate": 1.9750585222270372e-05, |
| "loss": 0.0543, |
| "step": 5390 |
| }, |
| { |
| "epoch": 0.09, |
| "grad_norm": 7.4375, |
| "learning_rate": 1.974939799738117e-05, |
| "loss": 0.0587, |
| "step": 5400 |
| }, |
| { |
| "epoch": 0.09016666666666667, |
| "grad_norm": 14.5, |
| "learning_rate": 1.9748207989429954e-05, |
| "loss": 0.0615, |
| "step": 5410 |
| }, |
| { |
| "epoch": 0.09033333333333333, |
| "grad_norm": 12.0625, |
| "learning_rate": 1.974701519875643e-05, |
| "loss": 0.0576, |
| "step": 5420 |
| }, |
| { |
| "epoch": 0.0905, |
| "grad_norm": 28.375, |
| "learning_rate": 1.9745819625701095e-05, |
| "loss": 0.0696, |
| "step": 5430 |
| }, |
| { |
| "epoch": 0.09066666666666667, |
| "grad_norm": 2.0, |
| "learning_rate": 1.9744621270605232e-05, |
| "loss": 0.0505, |
| "step": 5440 |
| }, |
| { |
| "epoch": 0.09083333333333334, |
| "grad_norm": 6.9375, |
| "learning_rate": 1.9743420133810924e-05, |
| "loss": 0.0684, |
| "step": 5450 |
| }, |
| { |
| "epoch": 0.091, |
| "grad_norm": 17.875, |
| "learning_rate": 1.974221621566105e-05, |
| "loss": 0.0486, |
| "step": 5460 |
| }, |
| { |
| "epoch": 0.09116666666666666, |
| "grad_norm": 16.75, |
| "learning_rate": 1.9741009516499276e-05, |
| "loss": 0.0638, |
| "step": 5470 |
| }, |
| { |
| "epoch": 0.09133333333333334, |
| "grad_norm": 19.875, |
| "learning_rate": 1.973980003667007e-05, |
| "loss": 0.0665, |
| "step": 5480 |
| }, |
| { |
| "epoch": 0.0915, |
| "grad_norm": 25.25, |
| "learning_rate": 1.9738587776518686e-05, |
| "loss": 0.0529, |
| "step": 5490 |
| }, |
| { |
| "epoch": 0.09166666666666666, |
| "grad_norm": 6.21875, |
| "learning_rate": 1.973737273639118e-05, |
| "loss": 0.0684, |
| "step": 5500 |
| }, |
| { |
| "epoch": 0.09183333333333334, |
| "grad_norm": 2.0, |
| "learning_rate": 1.9736154916634397e-05, |
| "loss": 0.0834, |
| "step": 5510 |
| }, |
| { |
| "epoch": 0.092, |
| "grad_norm": 43.5, |
| "learning_rate": 1.9734934317595975e-05, |
| "loss": 0.0665, |
| "step": 5520 |
| }, |
| { |
| "epoch": 0.09216666666666666, |
| "grad_norm": 5.8125, |
| "learning_rate": 1.9733710939624343e-05, |
| "loss": 0.0604, |
| "step": 5530 |
| }, |
| { |
| "epoch": 0.09233333333333334, |
| "grad_norm": 17.625, |
| "learning_rate": 1.973248478306873e-05, |
| "loss": 0.0613, |
| "step": 5540 |
| }, |
| { |
| "epoch": 0.0925, |
| "grad_norm": 4.90625, |
| "learning_rate": 1.973125584827915e-05, |
| "loss": 0.0698, |
| "step": 5550 |
| }, |
| { |
| "epoch": 0.09266666666666666, |
| "grad_norm": 14.75, |
| "learning_rate": 1.973002413560642e-05, |
| "loss": 0.0522, |
| "step": 5560 |
| }, |
| { |
| "epoch": 0.09283333333333334, |
| "grad_norm": 10.625, |
| "learning_rate": 1.972878964540214e-05, |
| "loss": 0.0746, |
| "step": 5570 |
| }, |
| { |
| "epoch": 0.093, |
| "grad_norm": 10.625, |
| "learning_rate": 1.972755237801871e-05, |
| "loss": 0.0578, |
| "step": 5580 |
| }, |
| { |
| "epoch": 0.09316666666666666, |
| "grad_norm": 11.625, |
| "learning_rate": 1.9726312333809322e-05, |
| "loss": 0.0727, |
| "step": 5590 |
| }, |
| { |
| "epoch": 0.09333333333333334, |
| "grad_norm": 2.59375, |
| "learning_rate": 1.9725069513127955e-05, |
| "loss": 0.0601, |
| "step": 5600 |
| }, |
| { |
| "epoch": 0.0935, |
| "grad_norm": 4.625, |
| "learning_rate": 1.972382391632939e-05, |
| "loss": 0.067, |
| "step": 5610 |
| }, |
| { |
| "epoch": 0.09366666666666666, |
| "grad_norm": 5.5625, |
| "learning_rate": 1.9722575543769187e-05, |
| "loss": 0.0568, |
| "step": 5620 |
| }, |
| { |
| "epoch": 0.09383333333333334, |
| "grad_norm": 15.25, |
| "learning_rate": 1.972132439580371e-05, |
| "loss": 0.053, |
| "step": 5630 |
| }, |
| { |
| "epoch": 0.094, |
| "grad_norm": 10.625, |
| "learning_rate": 1.972007047279011e-05, |
| "loss": 0.0633, |
| "step": 5640 |
| }, |
| { |
| "epoch": 0.09416666666666666, |
| "grad_norm": 72.5, |
| "learning_rate": 1.9718813775086342e-05, |
| "loss": 0.0621, |
| "step": 5650 |
| }, |
| { |
| "epoch": 0.09433333333333334, |
| "grad_norm": 20.375, |
| "learning_rate": 1.9717554303051126e-05, |
| "loss": 0.0527, |
| "step": 5660 |
| }, |
| { |
| "epoch": 0.0945, |
| "grad_norm": 4.34375, |
| "learning_rate": 1.9716292057044004e-05, |
| "loss": 0.0534, |
| "step": 5670 |
| }, |
| { |
| "epoch": 0.09466666666666666, |
| "grad_norm": 10.4375, |
| "learning_rate": 1.971502703742529e-05, |
| "loss": 0.0589, |
| "step": 5680 |
| }, |
| { |
| "epoch": 0.09483333333333334, |
| "grad_norm": 2.78125, |
| "learning_rate": 1.9713759244556097e-05, |
| "loss": 0.0855, |
| "step": 5690 |
| }, |
| { |
| "epoch": 0.095, |
| "grad_norm": 15.5, |
| "learning_rate": 1.971248867879833e-05, |
| "loss": 0.0431, |
| "step": 5700 |
| }, |
| { |
| "epoch": 0.09516666666666666, |
| "grad_norm": 24.375, |
| "learning_rate": 1.9711215340514688e-05, |
| "loss": 0.0634, |
| "step": 5710 |
| }, |
| { |
| "epoch": 0.09533333333333334, |
| "grad_norm": 25.125, |
| "learning_rate": 1.9709939230068652e-05, |
| "loss": 0.0551, |
| "step": 5720 |
| }, |
| { |
| "epoch": 0.0955, |
| "grad_norm": 18.25, |
| "learning_rate": 1.9708660347824502e-05, |
| "loss": 0.0674, |
| "step": 5730 |
| }, |
| { |
| "epoch": 0.09566666666666666, |
| "grad_norm": 9.75, |
| "learning_rate": 1.970737869414731e-05, |
| "loss": 0.0696, |
| "step": 5740 |
| }, |
| { |
| "epoch": 0.09583333333333334, |
| "grad_norm": 2.140625, |
| "learning_rate": 1.9706094269402936e-05, |
| "loss": 0.0523, |
| "step": 5750 |
| }, |
| { |
| "epoch": 0.096, |
| "grad_norm": 3.578125, |
| "learning_rate": 1.970480707395803e-05, |
| "loss": 0.06, |
| "step": 5760 |
| }, |
| { |
| "epoch": 0.09616666666666666, |
| "grad_norm": 10.6875, |
| "learning_rate": 1.970351710818003e-05, |
| "loss": 0.0629, |
| "step": 5770 |
| }, |
| { |
| "epoch": 0.09633333333333334, |
| "grad_norm": 26.125, |
| "learning_rate": 1.9702224372437183e-05, |
| "loss": 0.0563, |
| "step": 5780 |
| }, |
| { |
| "epoch": 0.0965, |
| "grad_norm": 2.046875, |
| "learning_rate": 1.9700928867098503e-05, |
| "loss": 0.0695, |
| "step": 5790 |
| }, |
| { |
| "epoch": 0.09666666666666666, |
| "grad_norm": 3.1875, |
| "learning_rate": 1.969963059253381e-05, |
| "loss": 0.0712, |
| "step": 5800 |
| }, |
| { |
| "epoch": 0.09683333333333333, |
| "grad_norm": 25.25, |
| "learning_rate": 1.9698329549113703e-05, |
| "loss": 0.0664, |
| "step": 5810 |
| }, |
| { |
| "epoch": 0.097, |
| "grad_norm": 16.25, |
| "learning_rate": 1.9697025737209582e-05, |
| "loss": 0.0585, |
| "step": 5820 |
| }, |
| { |
| "epoch": 0.09716666666666667, |
| "grad_norm": 2.328125, |
| "learning_rate": 1.969571915719363e-05, |
| "loss": 0.0638, |
| "step": 5830 |
| }, |
| { |
| "epoch": 0.09733333333333333, |
| "grad_norm": 6.6875, |
| "learning_rate": 1.9694409809438827e-05, |
| "loss": 0.0827, |
| "step": 5840 |
| }, |
| { |
| "epoch": 0.0975, |
| "grad_norm": 20.5, |
| "learning_rate": 1.969309769431894e-05, |
| "loss": 0.0676, |
| "step": 5850 |
| }, |
| { |
| "epoch": 0.09766666666666667, |
| "grad_norm": 13.5625, |
| "learning_rate": 1.969178281220852e-05, |
| "loss": 0.0639, |
| "step": 5860 |
| }, |
| { |
| "epoch": 0.09783333333333333, |
| "grad_norm": 6.6875, |
| "learning_rate": 1.9690465163482914e-05, |
| "loss": 0.0585, |
| "step": 5870 |
| }, |
| { |
| "epoch": 0.098, |
| "grad_norm": 4.28125, |
| "learning_rate": 1.9689144748518263e-05, |
| "loss": 0.07, |
| "step": 5880 |
| }, |
| { |
| "epoch": 0.09816666666666667, |
| "grad_norm": 9.0625, |
| "learning_rate": 1.968782156769149e-05, |
| "loss": 0.0503, |
| "step": 5890 |
| }, |
| { |
| "epoch": 0.09833333333333333, |
| "grad_norm": 12.75, |
| "learning_rate": 1.9686495621380306e-05, |
| "loss": 0.0639, |
| "step": 5900 |
| }, |
| { |
| "epoch": 0.0985, |
| "grad_norm": 7.96875, |
| "learning_rate": 1.968516690996322e-05, |
| "loss": 0.0665, |
| "step": 5910 |
| }, |
| { |
| "epoch": 0.09866666666666667, |
| "grad_norm": 1.9296875, |
| "learning_rate": 1.9683835433819523e-05, |
| "loss": 0.0733, |
| "step": 5920 |
| }, |
| { |
| "epoch": 0.09883333333333333, |
| "grad_norm": 8.5, |
| "learning_rate": 1.9682501193329303e-05, |
| "loss": 0.0567, |
| "step": 5930 |
| }, |
| { |
| "epoch": 0.099, |
| "grad_norm": 5.125, |
| "learning_rate": 1.9681164188873425e-05, |
| "loss": 0.0746, |
| "step": 5940 |
| }, |
| { |
| "epoch": 0.09916666666666667, |
| "grad_norm": 5.6875, |
| "learning_rate": 1.9679824420833558e-05, |
| "loss": 0.0613, |
| "step": 5950 |
| }, |
| { |
| "epoch": 0.09933333333333333, |
| "grad_norm": 3.234375, |
| "learning_rate": 1.9678481889592144e-05, |
| "loss": 0.0547, |
| "step": 5960 |
| }, |
| { |
| "epoch": 0.0995, |
| "grad_norm": 2.859375, |
| "learning_rate": 1.9677136595532426e-05, |
| "loss": 0.0533, |
| "step": 5970 |
| }, |
| { |
| "epoch": 0.09966666666666667, |
| "grad_norm": 5.53125, |
| "learning_rate": 1.9675788539038435e-05, |
| "loss": 0.0674, |
| "step": 5980 |
| }, |
| { |
| "epoch": 0.09983333333333333, |
| "grad_norm": 8.875, |
| "learning_rate": 1.967443772049498e-05, |
| "loss": 0.0606, |
| "step": 5990 |
| }, |
| { |
| "epoch": 0.1, |
| "grad_norm": 10.0625, |
| "learning_rate": 1.967308414028767e-05, |
| "loss": 0.0584, |
| "step": 6000 |
| }, |
| { |
| "epoch": 0.10016666666666667, |
| "grad_norm": 5.65625, |
| "learning_rate": 1.9671727798802895e-05, |
| "loss": 0.0626, |
| "step": 6010 |
| }, |
| { |
| "epoch": 0.10033333333333333, |
| "grad_norm": 4.15625, |
| "learning_rate": 1.967036869642784e-05, |
| "loss": 0.0626, |
| "step": 6020 |
| }, |
| { |
| "epoch": 0.1005, |
| "grad_norm": 2.25, |
| "learning_rate": 1.9669006833550467e-05, |
| "loss": 0.063, |
| "step": 6030 |
| }, |
| { |
| "epoch": 0.10066666666666667, |
| "grad_norm": 23.75, |
| "learning_rate": 1.9667642210559546e-05, |
| "loss": 0.0585, |
| "step": 6040 |
| }, |
| { |
| "epoch": 0.10083333333333333, |
| "grad_norm": 14.0625, |
| "learning_rate": 1.966627482784461e-05, |
| "loss": 0.0584, |
| "step": 6050 |
| }, |
| { |
| "epoch": 0.101, |
| "grad_norm": 4.28125, |
| "learning_rate": 1.9664904685795994e-05, |
| "loss": 0.0649, |
| "step": 6060 |
| }, |
| { |
| "epoch": 0.10116666666666667, |
| "grad_norm": 23.125, |
| "learning_rate": 1.9663531784804822e-05, |
| "loss": 0.0717, |
| "step": 6070 |
| }, |
| { |
| "epoch": 0.10133333333333333, |
| "grad_norm": 4.09375, |
| "learning_rate": 1.9662156125263002e-05, |
| "loss": 0.0627, |
| "step": 6080 |
| }, |
| { |
| "epoch": 0.1015, |
| "grad_norm": 2.515625, |
| "learning_rate": 1.9660777707563227e-05, |
| "loss": 0.0687, |
| "step": 6090 |
| }, |
| { |
| "epoch": 0.10166666666666667, |
| "grad_norm": 4.53125, |
| "learning_rate": 1.965939653209898e-05, |
| "loss": 0.0563, |
| "step": 6100 |
| }, |
| { |
| "epoch": 0.10183333333333333, |
| "grad_norm": 7.625, |
| "learning_rate": 1.9658012599264538e-05, |
| "loss": 0.0606, |
| "step": 6110 |
| }, |
| { |
| "epoch": 0.102, |
| "grad_norm": 2.828125, |
| "learning_rate": 1.9656625909454948e-05, |
| "loss": 0.0679, |
| "step": 6120 |
| }, |
| { |
| "epoch": 0.10216666666666667, |
| "grad_norm": 3.109375, |
| "learning_rate": 1.965523646306606e-05, |
| "loss": 0.0544, |
| "step": 6130 |
| }, |
| { |
| "epoch": 0.10233333333333333, |
| "grad_norm": 26.75, |
| "learning_rate": 1.965384426049451e-05, |
| "loss": 0.0564, |
| "step": 6140 |
| }, |
| { |
| "epoch": 0.1025, |
| "grad_norm": 5.0625, |
| "learning_rate": 1.9652449302137705e-05, |
| "loss": 0.0661, |
| "step": 6150 |
| }, |
| { |
| "epoch": 0.10266666666666667, |
| "grad_norm": 7.9375, |
| "learning_rate": 1.965105158839385e-05, |
| "loss": 0.0559, |
| "step": 6160 |
| }, |
| { |
| "epoch": 0.10283333333333333, |
| "grad_norm": 8.75, |
| "learning_rate": 1.964965111966195e-05, |
| "loss": 0.0541, |
| "step": 6170 |
| }, |
| { |
| "epoch": 0.103, |
| "grad_norm": 4.90625, |
| "learning_rate": 1.964824789634177e-05, |
| "loss": 0.0633, |
| "step": 6180 |
| }, |
| { |
| "epoch": 0.10316666666666667, |
| "grad_norm": 19.375, |
| "learning_rate": 1.964684191883388e-05, |
| "loss": 0.057, |
| "step": 6190 |
| }, |
| { |
| "epoch": 0.10333333333333333, |
| "grad_norm": 2.09375, |
| "learning_rate": 1.9645433187539624e-05, |
| "loss": 0.0589, |
| "step": 6200 |
| }, |
| { |
| "epoch": 0.1035, |
| "grad_norm": 6.4375, |
| "learning_rate": 1.9644021702861148e-05, |
| "loss": 0.0713, |
| "step": 6210 |
| }, |
| { |
| "epoch": 0.10366666666666667, |
| "grad_norm": 5.8125, |
| "learning_rate": 1.9642607465201364e-05, |
| "loss": 0.0617, |
| "step": 6220 |
| }, |
| { |
| "epoch": 0.10383333333333333, |
| "grad_norm": 27.875, |
| "learning_rate": 1.9641190474963988e-05, |
| "loss": 0.0659, |
| "step": 6230 |
| }, |
| { |
| "epoch": 0.104, |
| "grad_norm": 4.5, |
| "learning_rate": 1.9639770732553506e-05, |
| "loss": 0.0657, |
| "step": 6240 |
| }, |
| { |
| "epoch": 0.10416666666666667, |
| "grad_norm": 21.125, |
| "learning_rate": 1.9638348238375203e-05, |
| "loss": 0.0638, |
| "step": 6250 |
| }, |
| { |
| "epoch": 0.10433333333333333, |
| "grad_norm": 16.125, |
| "learning_rate": 1.9636922992835146e-05, |
| "loss": 0.0674, |
| "step": 6260 |
| }, |
| { |
| "epoch": 0.1045, |
| "grad_norm": 12.6875, |
| "learning_rate": 1.9635494996340182e-05, |
| "loss": 0.0619, |
| "step": 6270 |
| }, |
| { |
| "epoch": 0.10466666666666667, |
| "grad_norm": 8.0625, |
| "learning_rate": 1.9634064249297945e-05, |
| "loss": 0.0616, |
| "step": 6280 |
| }, |
| { |
| "epoch": 0.10483333333333333, |
| "grad_norm": 23.375, |
| "learning_rate": 1.963263075211686e-05, |
| "loss": 0.0573, |
| "step": 6290 |
| }, |
| { |
| "epoch": 0.105, |
| "grad_norm": 10.1875, |
| "learning_rate": 1.9631194505206133e-05, |
| "loss": 0.0611, |
| "step": 6300 |
| }, |
| { |
| "epoch": 0.10516666666666667, |
| "grad_norm": 22.5, |
| "learning_rate": 1.962975550897575e-05, |
| "loss": 0.0632, |
| "step": 6310 |
| }, |
| { |
| "epoch": 0.10533333333333333, |
| "grad_norm": 3.71875, |
| "learning_rate": 1.962831376383649e-05, |
| "loss": 0.0676, |
| "step": 6320 |
| }, |
| { |
| "epoch": 0.1055, |
| "grad_norm": 7.03125, |
| "learning_rate": 1.962686927019991e-05, |
| "loss": 0.0602, |
| "step": 6330 |
| }, |
| { |
| "epoch": 0.10566666666666667, |
| "grad_norm": 2.921875, |
| "learning_rate": 1.962542202847836e-05, |
| "loss": 0.0492, |
| "step": 6340 |
| }, |
| { |
| "epoch": 0.10583333333333333, |
| "grad_norm": 3.78125, |
| "learning_rate": 1.962397203908497e-05, |
| "loss": 0.0598, |
| "step": 6350 |
| }, |
| { |
| "epoch": 0.106, |
| "grad_norm": 2.171875, |
| "learning_rate": 1.962251930243365e-05, |
| "loss": 0.0664, |
| "step": 6360 |
| }, |
| { |
| "epoch": 0.10616666666666667, |
| "grad_norm": 4.9375, |
| "learning_rate": 1.96210638189391e-05, |
| "loss": 0.0535, |
| "step": 6370 |
| }, |
| { |
| "epoch": 0.10633333333333334, |
| "grad_norm": 15.5625, |
| "learning_rate": 1.9619605589016796e-05, |
| "loss": 0.0592, |
| "step": 6380 |
| }, |
| { |
| "epoch": 0.1065, |
| "grad_norm": 12.375, |
| "learning_rate": 1.9618144613083015e-05, |
| "loss": 0.0548, |
| "step": 6390 |
| }, |
| { |
| "epoch": 0.10666666666666667, |
| "grad_norm": 2.65625, |
| "learning_rate": 1.96166808915548e-05, |
| "loss": 0.0685, |
| "step": 6400 |
| }, |
| { |
| "epoch": 0.10683333333333334, |
| "grad_norm": 7.0625, |
| "learning_rate": 1.9615214424849988e-05, |
| "loss": 0.0582, |
| "step": 6410 |
| }, |
| { |
| "epoch": 0.107, |
| "grad_norm": 5.3125, |
| "learning_rate": 1.961374521338719e-05, |
| "loss": 0.072, |
| "step": 6420 |
| }, |
| { |
| "epoch": 0.10716666666666666, |
| "grad_norm": 12.0, |
| "learning_rate": 1.9612273257585817e-05, |
| "loss": 0.0601, |
| "step": 6430 |
| }, |
| { |
| "epoch": 0.10733333333333334, |
| "grad_norm": 10.875, |
| "learning_rate": 1.9610798557866043e-05, |
| "loss": 0.0587, |
| "step": 6440 |
| }, |
| { |
| "epoch": 0.1075, |
| "grad_norm": 10.1875, |
| "learning_rate": 1.9609321114648846e-05, |
| "loss": 0.0634, |
| "step": 6450 |
| }, |
| { |
| "epoch": 0.10766666666666666, |
| "grad_norm": 20.0, |
| "learning_rate": 1.960784092835597e-05, |
| "loss": 0.0629, |
| "step": 6460 |
| }, |
| { |
| "epoch": 0.10783333333333334, |
| "grad_norm": 7.21875, |
| "learning_rate": 1.9606357999409948e-05, |
| "loss": 0.0604, |
| "step": 6470 |
| }, |
| { |
| "epoch": 0.108, |
| "grad_norm": 4.0625, |
| "learning_rate": 1.9604872328234096e-05, |
| "loss": 0.0482, |
| "step": 6480 |
| }, |
| { |
| "epoch": 0.10816666666666666, |
| "grad_norm": 7.5625, |
| "learning_rate": 1.9603383915252523e-05, |
| "loss": 0.0669, |
| "step": 6490 |
| }, |
| { |
| "epoch": 0.10833333333333334, |
| "grad_norm": 9.625, |
| "learning_rate": 1.96018927608901e-05, |
| "loss": 0.0726, |
| "step": 6500 |
| }, |
| { |
| "epoch": 0.1085, |
| "grad_norm": 15.5, |
| "learning_rate": 1.96003988655725e-05, |
| "loss": 0.0627, |
| "step": 6510 |
| }, |
| { |
| "epoch": 0.10866666666666666, |
| "grad_norm": 16.75, |
| "learning_rate": 1.9598902229726166e-05, |
| "loss": 0.0658, |
| "step": 6520 |
| }, |
| { |
| "epoch": 0.10883333333333334, |
| "grad_norm": 12.9375, |
| "learning_rate": 1.9597402853778323e-05, |
| "loss": 0.0591, |
| "step": 6530 |
| }, |
| { |
| "epoch": 0.109, |
| "grad_norm": 17.25, |
| "learning_rate": 1.9595900738156996e-05, |
| "loss": 0.0602, |
| "step": 6540 |
| }, |
| { |
| "epoch": 0.10916666666666666, |
| "grad_norm": 5.53125, |
| "learning_rate": 1.9594395883290965e-05, |
| "loss": 0.0604, |
| "step": 6550 |
| }, |
| { |
| "epoch": 0.10933333333333334, |
| "grad_norm": 12.1875, |
| "learning_rate": 1.959288828960981e-05, |
| "loss": 0.0649, |
| "step": 6560 |
| }, |
| { |
| "epoch": 0.1095, |
| "grad_norm": 12.25, |
| "learning_rate": 1.9591377957543893e-05, |
| "loss": 0.0684, |
| "step": 6570 |
| }, |
| { |
| "epoch": 0.10966666666666666, |
| "grad_norm": 3.953125, |
| "learning_rate": 1.958986488752435e-05, |
| "loss": 0.0581, |
| "step": 6580 |
| }, |
| { |
| "epoch": 0.10983333333333334, |
| "grad_norm": 4.0, |
| "learning_rate": 1.95883490799831e-05, |
| "loss": 0.0436, |
| "step": 6590 |
| }, |
| { |
| "epoch": 0.11, |
| "grad_norm": 14.25, |
| "learning_rate": 1.9586830535352845e-05, |
| "loss": 0.0505, |
| "step": 6600 |
| }, |
| { |
| "epoch": 0.11016666666666666, |
| "grad_norm": 21.125, |
| "learning_rate": 1.9585309254067077e-05, |
| "loss": 0.0624, |
| "step": 6610 |
| }, |
| { |
| "epoch": 0.11033333333333334, |
| "grad_norm": 4.5, |
| "learning_rate": 1.9583785236560045e-05, |
| "loss": 0.0711, |
| "step": 6620 |
| }, |
| { |
| "epoch": 0.1105, |
| "grad_norm": 16.5, |
| "learning_rate": 1.958225848326681e-05, |
| "loss": 0.075, |
| "step": 6630 |
| }, |
| { |
| "epoch": 0.11066666666666666, |
| "grad_norm": 2.015625, |
| "learning_rate": 1.9580728994623194e-05, |
| "loss": 0.0576, |
| "step": 6640 |
| }, |
| { |
| "epoch": 0.11083333333333334, |
| "grad_norm": 19.25, |
| "learning_rate": 1.9579196771065804e-05, |
| "loss": 0.0723, |
| "step": 6650 |
| }, |
| { |
| "epoch": 0.111, |
| "grad_norm": 2.234375, |
| "learning_rate": 1.9577661813032022e-05, |
| "loss": 0.0644, |
| "step": 6660 |
| }, |
| { |
| "epoch": 0.11116666666666666, |
| "grad_norm": 9.625, |
| "learning_rate": 1.9576124120960028e-05, |
| "loss": 0.0667, |
| "step": 6670 |
| }, |
| { |
| "epoch": 0.11133333333333334, |
| "grad_norm": 8.8125, |
| "learning_rate": 1.9574583695288764e-05, |
| "loss": 0.0625, |
| "step": 6680 |
| }, |
| { |
| "epoch": 0.1115, |
| "grad_norm": 9.3125, |
| "learning_rate": 1.9573040536457963e-05, |
| "loss": 0.051, |
| "step": 6690 |
| }, |
| { |
| "epoch": 0.11166666666666666, |
| "grad_norm": 9.3125, |
| "learning_rate": 1.9571494644908132e-05, |
| "loss": 0.0557, |
| "step": 6700 |
| }, |
| { |
| "epoch": 0.11183333333333334, |
| "grad_norm": 2.578125, |
| "learning_rate": 1.956994602108057e-05, |
| "loss": 0.0723, |
| "step": 6710 |
| }, |
| { |
| "epoch": 0.112, |
| "grad_norm": 3.703125, |
| "learning_rate": 1.956839466541733e-05, |
| "loss": 0.0616, |
| "step": 6720 |
| }, |
| { |
| "epoch": 0.11216666666666666, |
| "grad_norm": 14.5625, |
| "learning_rate": 1.956684057836128e-05, |
| "loss": 0.0603, |
| "step": 6730 |
| }, |
| { |
| "epoch": 0.11233333333333333, |
| "grad_norm": 9.875, |
| "learning_rate": 1.9565283760356036e-05, |
| "loss": 0.0569, |
| "step": 6740 |
| }, |
| { |
| "epoch": 0.1125, |
| "grad_norm": 7.59375, |
| "learning_rate": 1.9563724211846016e-05, |
| "loss": 0.051, |
| "step": 6750 |
| }, |
| { |
| "epoch": 0.11266666666666666, |
| "grad_norm": 6.8125, |
| "learning_rate": 1.9562161933276402e-05, |
| "loss": 0.0503, |
| "step": 6760 |
| }, |
| { |
| "epoch": 0.11283333333333333, |
| "grad_norm": 2.03125, |
| "learning_rate": 1.9560596925093165e-05, |
| "loss": 0.0664, |
| "step": 6770 |
| }, |
| { |
| "epoch": 0.113, |
| "grad_norm": 6.6875, |
| "learning_rate": 1.9559029187743053e-05, |
| "loss": 0.0604, |
| "step": 6780 |
| }, |
| { |
| "epoch": 0.11316666666666667, |
| "grad_norm": 35.75, |
| "learning_rate": 1.955745872167359e-05, |
| "loss": 0.058, |
| "step": 6790 |
| }, |
| { |
| "epoch": 0.11333333333333333, |
| "grad_norm": 27.375, |
| "learning_rate": 1.9555885527333083e-05, |
| "loss": 0.0552, |
| "step": 6800 |
| }, |
| { |
| "epoch": 0.1135, |
| "grad_norm": 2.296875, |
| "learning_rate": 1.9554309605170615e-05, |
| "loss": 0.0652, |
| "step": 6810 |
| }, |
| { |
| "epoch": 0.11366666666666667, |
| "grad_norm": 3.578125, |
| "learning_rate": 1.9552730955636048e-05, |
| "loss": 0.0601, |
| "step": 6820 |
| }, |
| { |
| "epoch": 0.11383333333333333, |
| "grad_norm": 6.15625, |
| "learning_rate": 1.9551149579180025e-05, |
| "loss": 0.0628, |
| "step": 6830 |
| }, |
| { |
| "epoch": 0.114, |
| "grad_norm": 4.96875, |
| "learning_rate": 1.954956547625396e-05, |
| "loss": 0.0566, |
| "step": 6840 |
| }, |
| { |
| "epoch": 0.11416666666666667, |
| "grad_norm": 50.0, |
| "learning_rate": 1.954797864731006e-05, |
| "loss": 0.0601, |
| "step": 6850 |
| }, |
| { |
| "epoch": 0.11433333333333333, |
| "grad_norm": 6.1875, |
| "learning_rate": 1.9546389092801292e-05, |
| "loss": 0.0663, |
| "step": 6860 |
| }, |
| { |
| "epoch": 0.1145, |
| "grad_norm": 26.625, |
| "learning_rate": 1.9544796813181416e-05, |
| "loss": 0.0701, |
| "step": 6870 |
| }, |
| { |
| "epoch": 0.11466666666666667, |
| "grad_norm": 7.4375, |
| "learning_rate": 1.954320180890496e-05, |
| "loss": 0.0549, |
| "step": 6880 |
| }, |
| { |
| "epoch": 0.11483333333333333, |
| "grad_norm": 7.84375, |
| "learning_rate": 1.9541604080427236e-05, |
| "loss": 0.0651, |
| "step": 6890 |
| }, |
| { |
| "epoch": 0.115, |
| "grad_norm": 13.1875, |
| "learning_rate": 1.9540003628204334e-05, |
| "loss": 0.0619, |
| "step": 6900 |
| }, |
| { |
| "epoch": 0.11516666666666667, |
| "grad_norm": 4.4375, |
| "learning_rate": 1.9538400452693112e-05, |
| "loss": 0.0707, |
| "step": 6910 |
| }, |
| { |
| "epoch": 0.11533333333333333, |
| "grad_norm": 2.21875, |
| "learning_rate": 1.9536794554351218e-05, |
| "loss": 0.0641, |
| "step": 6920 |
| }, |
| { |
| "epoch": 0.1155, |
| "grad_norm": 9.625, |
| "learning_rate": 1.953518593363707e-05, |
| "loss": 0.071, |
| "step": 6930 |
| }, |
| { |
| "epoch": 0.11566666666666667, |
| "grad_norm": 3.15625, |
| "learning_rate": 1.9533574591009864e-05, |
| "loss": 0.0558, |
| "step": 6940 |
| }, |
| { |
| "epoch": 0.11583333333333333, |
| "grad_norm": 2.28125, |
| "learning_rate": 1.9531960526929573e-05, |
| "loss": 0.0638, |
| "step": 6950 |
| }, |
| { |
| "epoch": 0.116, |
| "grad_norm": 9.25, |
| "learning_rate": 1.9530343741856954e-05, |
| "loss": 0.0556, |
| "step": 6960 |
| }, |
| { |
| "epoch": 0.11616666666666667, |
| "grad_norm": 8.375, |
| "learning_rate": 1.9528724236253526e-05, |
| "loss": 0.0576, |
| "step": 6970 |
| }, |
| { |
| "epoch": 0.11633333333333333, |
| "grad_norm": 23.25, |
| "learning_rate": 1.952710201058159e-05, |
| "loss": 0.0597, |
| "step": 6980 |
| }, |
| { |
| "epoch": 0.1165, |
| "grad_norm": 36.0, |
| "learning_rate": 1.9525477065304236e-05, |
| "loss": 0.0654, |
| "step": 6990 |
| }, |
| { |
| "epoch": 0.11666666666666667, |
| "grad_norm": 1.9453125, |
| "learning_rate": 1.952384940088532e-05, |
| "loss": 0.0569, |
| "step": 7000 |
| }, |
| { |
| "epoch": 0.11683333333333333, |
| "grad_norm": 5.3125, |
| "learning_rate": 1.952221901778947e-05, |
| "loss": 0.0527, |
| "step": 7010 |
| }, |
| { |
| "epoch": 0.117, |
| "grad_norm": 4.75, |
| "learning_rate": 1.9520585916482097e-05, |
| "loss": 0.0455, |
| "step": 7020 |
| }, |
| { |
| "epoch": 0.11716666666666667, |
| "grad_norm": 4.6875, |
| "learning_rate": 1.9518950097429383e-05, |
| "loss": 0.0481, |
| "step": 7030 |
| }, |
| { |
| "epoch": 0.11733333333333333, |
| "grad_norm": 7.8125, |
| "learning_rate": 1.9517311561098294e-05, |
| "loss": 0.0627, |
| "step": 7040 |
| }, |
| { |
| "epoch": 0.1175, |
| "grad_norm": 2.9375, |
| "learning_rate": 1.9515670307956563e-05, |
| "loss": 0.0584, |
| "step": 7050 |
| }, |
| { |
| "epoch": 0.11766666666666667, |
| "grad_norm": 2.75, |
| "learning_rate": 1.9514026338472703e-05, |
| "loss": 0.0577, |
| "step": 7060 |
| }, |
| { |
| "epoch": 0.11783333333333333, |
| "grad_norm": 4.46875, |
| "learning_rate": 1.9512379653116e-05, |
| "loss": 0.0667, |
| "step": 7070 |
| }, |
| { |
| "epoch": 0.118, |
| "grad_norm": 12.5625, |
| "learning_rate": 1.9510730252356517e-05, |
| "loss": 0.0521, |
| "step": 7080 |
| }, |
| { |
| "epoch": 0.11816666666666667, |
| "grad_norm": 15.5625, |
| "learning_rate": 1.9509078136665092e-05, |
| "loss": 0.0599, |
| "step": 7090 |
| }, |
| { |
| "epoch": 0.11833333333333333, |
| "grad_norm": 2.953125, |
| "learning_rate": 1.950742330651334e-05, |
| "loss": 0.0682, |
| "step": 7100 |
| }, |
| { |
| "epoch": 0.1185, |
| "grad_norm": 39.25, |
| "learning_rate": 1.950576576237365e-05, |
| "loss": 0.0699, |
| "step": 7110 |
| }, |
| { |
| "epoch": 0.11866666666666667, |
| "grad_norm": 2.921875, |
| "learning_rate": 1.9504105504719177e-05, |
| "loss": 0.0517, |
| "step": 7120 |
| }, |
| { |
| "epoch": 0.11883333333333333, |
| "grad_norm": 5.96875, |
| "learning_rate": 1.950244253402386e-05, |
| "loss": 0.0597, |
| "step": 7130 |
| }, |
| { |
| "epoch": 0.119, |
| "grad_norm": 3.125, |
| "learning_rate": 1.9500776850762415e-05, |
| "loss": 0.0772, |
| "step": 7140 |
| }, |
| { |
| "epoch": 0.11916666666666667, |
| "grad_norm": 6.34375, |
| "learning_rate": 1.9499108455410327e-05, |
| "loss": 0.064, |
| "step": 7150 |
| }, |
| { |
| "epoch": 0.11933333333333333, |
| "grad_norm": 2.5625, |
| "learning_rate": 1.9497437348443854e-05, |
| "loss": 0.0626, |
| "step": 7160 |
| }, |
| { |
| "epoch": 0.1195, |
| "grad_norm": 7.78125, |
| "learning_rate": 1.9495763530340026e-05, |
| "loss": 0.0607, |
| "step": 7170 |
| }, |
| { |
| "epoch": 0.11966666666666667, |
| "grad_norm": 52.75, |
| "learning_rate": 1.949408700157666e-05, |
| "loss": 0.0526, |
| "step": 7180 |
| }, |
| { |
| "epoch": 0.11983333333333333, |
| "grad_norm": 11.5, |
| "learning_rate": 1.9492407762632327e-05, |
| "loss": 0.0609, |
| "step": 7190 |
| }, |
| { |
| "epoch": 0.12, |
| "grad_norm": 13.375, |
| "learning_rate": 1.9490725813986392e-05, |
| "loss": 0.062, |
| "step": 7200 |
| }, |
| { |
| "epoch": 0.12016666666666667, |
| "grad_norm": 31.375, |
| "learning_rate": 1.948904115611898e-05, |
| "loss": 0.0695, |
| "step": 7210 |
| }, |
| { |
| "epoch": 0.12033333333333333, |
| "grad_norm": 16.375, |
| "learning_rate": 1.948735378951099e-05, |
| "loss": 0.0583, |
| "step": 7220 |
| }, |
| { |
| "epoch": 0.1205, |
| "grad_norm": 14.4375, |
| "learning_rate": 1.9485663714644104e-05, |
| "loss": 0.0501, |
| "step": 7230 |
| }, |
| { |
| "epoch": 0.12066666666666667, |
| "grad_norm": 14.4375, |
| "learning_rate": 1.9483970932000767e-05, |
| "loss": 0.064, |
| "step": 7240 |
| }, |
| { |
| "epoch": 0.12083333333333333, |
| "grad_norm": 3.265625, |
| "learning_rate": 1.94822754420642e-05, |
| "loss": 0.0674, |
| "step": 7250 |
| }, |
| { |
| "epoch": 0.121, |
| "grad_norm": 2.65625, |
| "learning_rate": 1.94805772453184e-05, |
| "loss": 0.0679, |
| "step": 7260 |
| }, |
| { |
| "epoch": 0.12116666666666667, |
| "grad_norm": 17.875, |
| "learning_rate": 1.947887634224813e-05, |
| "loss": 0.0687, |
| "step": 7270 |
| }, |
| { |
| "epoch": 0.12133333333333333, |
| "grad_norm": 13.625, |
| "learning_rate": 1.9477172733338934e-05, |
| "loss": 0.0479, |
| "step": 7280 |
| }, |
| { |
| "epoch": 0.1215, |
| "grad_norm": 12.75, |
| "learning_rate": 1.947546641907712e-05, |
| "loss": 0.0487, |
| "step": 7290 |
| }, |
| { |
| "epoch": 0.12166666666666667, |
| "grad_norm": 7.0, |
| "learning_rate": 1.9473757399949773e-05, |
| "loss": 0.0581, |
| "step": 7300 |
| }, |
| { |
| "epoch": 0.12183333333333334, |
| "grad_norm": 3.421875, |
| "learning_rate": 1.9472045676444753e-05, |
| "loss": 0.0616, |
| "step": 7310 |
| }, |
| { |
| "epoch": 0.122, |
| "grad_norm": 4.125, |
| "learning_rate": 1.9470331249050686e-05, |
| "loss": 0.0446, |
| "step": 7320 |
| }, |
| { |
| "epoch": 0.12216666666666667, |
| "grad_norm": 7.5, |
| "learning_rate": 1.946861411825697e-05, |
| "loss": 0.0516, |
| "step": 7330 |
| }, |
| { |
| "epoch": 0.12233333333333334, |
| "grad_norm": 11.8125, |
| "learning_rate": 1.9466894284553778e-05, |
| "loss": 0.0659, |
| "step": 7340 |
| }, |
| { |
| "epoch": 0.1225, |
| "grad_norm": 20.0, |
| "learning_rate": 1.9465171748432056e-05, |
| "loss": 0.0639, |
| "step": 7350 |
| }, |
| { |
| "epoch": 0.12266666666666666, |
| "grad_norm": 11.8125, |
| "learning_rate": 1.9463446510383517e-05, |
| "loss": 0.0635, |
| "step": 7360 |
| }, |
| { |
| "epoch": 0.12283333333333334, |
| "grad_norm": 2.8125, |
| "learning_rate": 1.946171857090065e-05, |
| "loss": 0.0672, |
| "step": 7370 |
| }, |
| { |
| "epoch": 0.123, |
| "grad_norm": 19.125, |
| "learning_rate": 1.945998793047671e-05, |
| "loss": 0.0507, |
| "step": 7380 |
| }, |
| { |
| "epoch": 0.12316666666666666, |
| "grad_norm": 4.21875, |
| "learning_rate": 1.9458254589605723e-05, |
| "loss": 0.0693, |
| "step": 7390 |
| }, |
| { |
| "epoch": 0.12333333333333334, |
| "grad_norm": 6.78125, |
| "learning_rate": 1.9456518548782494e-05, |
| "loss": 0.0553, |
| "step": 7400 |
| }, |
| { |
| "epoch": 0.1235, |
| "grad_norm": 6.3125, |
| "learning_rate": 1.945477980850259e-05, |
| "loss": 0.0469, |
| "step": 7410 |
| }, |
| { |
| "epoch": 0.12366666666666666, |
| "grad_norm": 4.46875, |
| "learning_rate": 1.945303836926235e-05, |
| "loss": 0.0532, |
| "step": 7420 |
| }, |
| { |
| "epoch": 0.12383333333333334, |
| "grad_norm": 10.5625, |
| "learning_rate": 1.9451294231558884e-05, |
| "loss": 0.0514, |
| "step": 7430 |
| }, |
| { |
| "epoch": 0.124, |
| "grad_norm": 8.375, |
| "learning_rate": 1.9449547395890077e-05, |
| "loss": 0.063, |
| "step": 7440 |
| }, |
| { |
| "epoch": 0.12416666666666666, |
| "grad_norm": 7.59375, |
| "learning_rate": 1.944779786275458e-05, |
| "loss": 0.0693, |
| "step": 7450 |
| }, |
| { |
| "epoch": 0.12433333333333334, |
| "grad_norm": 10.0625, |
| "learning_rate": 1.9446045632651815e-05, |
| "loss": 0.0624, |
| "step": 7460 |
| }, |
| { |
| "epoch": 0.1245, |
| "grad_norm": 4.5625, |
| "learning_rate": 1.944429070608197e-05, |
| "loss": 0.0542, |
| "step": 7470 |
| }, |
| { |
| "epoch": 0.12466666666666666, |
| "grad_norm": 6.5625, |
| "learning_rate": 1.944253308354601e-05, |
| "loss": 0.0549, |
| "step": 7480 |
| }, |
| { |
| "epoch": 0.12483333333333334, |
| "grad_norm": 8.5625, |
| "learning_rate": 1.9440772765545666e-05, |
| "loss": 0.0688, |
| "step": 7490 |
| }, |
| { |
| "epoch": 0.125, |
| "grad_norm": 11.5, |
| "learning_rate": 1.9439009752583437e-05, |
| "loss": 0.0527, |
| "step": 7500 |
| }, |
| { |
| "epoch": 0.12516666666666668, |
| "grad_norm": 16.625, |
| "learning_rate": 1.943724404516259e-05, |
| "loss": 0.0754, |
| "step": 7510 |
| }, |
| { |
| "epoch": 0.12533333333333332, |
| "grad_norm": 9.5, |
| "learning_rate": 1.9435475643787163e-05, |
| "loss": 0.062, |
| "step": 7520 |
| }, |
| { |
| "epoch": 0.1255, |
| "grad_norm": 25.625, |
| "learning_rate": 1.9433704548961966e-05, |
| "loss": 0.0717, |
| "step": 7530 |
| }, |
| { |
| "epoch": 0.12566666666666668, |
| "grad_norm": 1.125, |
| "learning_rate": 1.943193076119258e-05, |
| "loss": 0.0583, |
| "step": 7540 |
| }, |
| { |
| "epoch": 0.12583333333333332, |
| "grad_norm": 20.875, |
| "learning_rate": 1.943015428098534e-05, |
| "loss": 0.07, |
| "step": 7550 |
| }, |
| { |
| "epoch": 0.126, |
| "grad_norm": 25.0, |
| "learning_rate": 1.9428375108847373e-05, |
| "loss": 0.0626, |
| "step": 7560 |
| }, |
| { |
| "epoch": 0.12616666666666668, |
| "grad_norm": 35.75, |
| "learning_rate": 1.9426593245286547e-05, |
| "loss": 0.0681, |
| "step": 7570 |
| }, |
| { |
| "epoch": 0.12633333333333333, |
| "grad_norm": 5.78125, |
| "learning_rate": 1.9424808690811523e-05, |
| "loss": 0.0617, |
| "step": 7580 |
| }, |
| { |
| "epoch": 0.1265, |
| "grad_norm": 12.125, |
| "learning_rate": 1.9423021445931714e-05, |
| "loss": 0.0615, |
| "step": 7590 |
| }, |
| { |
| "epoch": 0.12666666666666668, |
| "grad_norm": 20.25, |
| "learning_rate": 1.9421231511157314e-05, |
| "loss": 0.0487, |
| "step": 7600 |
| }, |
| { |
| "epoch": 0.12683333333333333, |
| "grad_norm": 17.875, |
| "learning_rate": 1.9419438886999268e-05, |
| "loss": 0.0616, |
| "step": 7610 |
| }, |
| { |
| "epoch": 0.127, |
| "grad_norm": 12.75, |
| "learning_rate": 1.9417643573969304e-05, |
| "loss": 0.0621, |
| "step": 7620 |
| }, |
| { |
| "epoch": 0.12716666666666668, |
| "grad_norm": 13.4375, |
| "learning_rate": 1.941584557257991e-05, |
| "loss": 0.0697, |
| "step": 7630 |
| }, |
| { |
| "epoch": 0.12733333333333333, |
| "grad_norm": 11.75, |
| "learning_rate": 1.9414044883344346e-05, |
| "loss": 0.0555, |
| "step": 7640 |
| }, |
| { |
| "epoch": 0.1275, |
| "grad_norm": 2.546875, |
| "learning_rate": 1.9412241506776633e-05, |
| "loss": 0.0635, |
| "step": 7650 |
| }, |
| { |
| "epoch": 0.12766666666666668, |
| "grad_norm": 17.25, |
| "learning_rate": 1.9410435443391565e-05, |
| "loss": 0.0564, |
| "step": 7660 |
| }, |
| { |
| "epoch": 0.12783333333333333, |
| "grad_norm": 20.625, |
| "learning_rate": 1.94086266937047e-05, |
| "loss": 0.0662, |
| "step": 7670 |
| }, |
| { |
| "epoch": 0.128, |
| "grad_norm": 3.171875, |
| "learning_rate": 1.940681525823236e-05, |
| "loss": 0.0532, |
| "step": 7680 |
| }, |
| { |
| "epoch": 0.12816666666666668, |
| "grad_norm": 4.0, |
| "learning_rate": 1.9405001137491642e-05, |
| "loss": 0.0574, |
| "step": 7690 |
| }, |
| { |
| "epoch": 0.12833333333333333, |
| "grad_norm": 12.9375, |
| "learning_rate": 1.9403184332000405e-05, |
| "loss": 0.0559, |
| "step": 7700 |
| }, |
| { |
| "epoch": 0.1285, |
| "grad_norm": 10.1875, |
| "learning_rate": 1.940136484227727e-05, |
| "loss": 0.0749, |
| "step": 7710 |
| }, |
| { |
| "epoch": 0.12866666666666668, |
| "grad_norm": 14.625, |
| "learning_rate": 1.939954266884163e-05, |
| "loss": 0.0562, |
| "step": 7720 |
| }, |
| { |
| "epoch": 0.12883333333333333, |
| "grad_norm": 18.125, |
| "learning_rate": 1.9397717812213644e-05, |
| "loss": 0.0601, |
| "step": 7730 |
| }, |
| { |
| "epoch": 0.129, |
| "grad_norm": 13.9375, |
| "learning_rate": 1.9395890272914237e-05, |
| "loss": 0.0625, |
| "step": 7740 |
| }, |
| { |
| "epoch": 0.12916666666666668, |
| "grad_norm": 5.03125, |
| "learning_rate": 1.939406005146509e-05, |
| "loss": 0.0706, |
| "step": 7750 |
| }, |
| { |
| "epoch": 0.12933333333333333, |
| "grad_norm": 7.125, |
| "learning_rate": 1.9392227148388667e-05, |
| "loss": 0.0622, |
| "step": 7760 |
| }, |
| { |
| "epoch": 0.1295, |
| "grad_norm": 23.25, |
| "learning_rate": 1.9390391564208184e-05, |
| "loss": 0.0668, |
| "step": 7770 |
| }, |
| { |
| "epoch": 0.12966666666666668, |
| "grad_norm": 4.71875, |
| "learning_rate": 1.9388553299447625e-05, |
| "loss": 0.0544, |
| "step": 7780 |
| }, |
| { |
| "epoch": 0.12983333333333333, |
| "grad_norm": 4.4375, |
| "learning_rate": 1.9386712354631748e-05, |
| "loss": 0.071, |
| "step": 7790 |
| }, |
| { |
| "epoch": 0.13, |
| "grad_norm": 2.359375, |
| "learning_rate": 1.9384868730286058e-05, |
| "loss": 0.0556, |
| "step": 7800 |
| }, |
| { |
| "epoch": 0.13016666666666668, |
| "grad_norm": 4.28125, |
| "learning_rate": 1.9383022426936848e-05, |
| "loss": 0.0588, |
| "step": 7810 |
| }, |
| { |
| "epoch": 0.13033333333333333, |
| "grad_norm": 2.015625, |
| "learning_rate": 1.938117344511115e-05, |
| "loss": 0.0603, |
| "step": 7820 |
| }, |
| { |
| "epoch": 0.1305, |
| "grad_norm": 15.0625, |
| "learning_rate": 1.9379321785336785e-05, |
| "loss": 0.0534, |
| "step": 7830 |
| }, |
| { |
| "epoch": 0.13066666666666665, |
| "grad_norm": 3.171875, |
| "learning_rate": 1.9377467448142325e-05, |
| "loss": 0.0623, |
| "step": 7840 |
| }, |
| { |
| "epoch": 0.13083333333333333, |
| "grad_norm": 4.34375, |
| "learning_rate": 1.9375610434057103e-05, |
| "loss": 0.0787, |
| "step": 7850 |
| }, |
| { |
| "epoch": 0.131, |
| "grad_norm": 15.8125, |
| "learning_rate": 1.937375074361123e-05, |
| "loss": 0.0594, |
| "step": 7860 |
| }, |
| { |
| "epoch": 0.13116666666666665, |
| "grad_norm": 8.125, |
| "learning_rate": 1.9371888377335574e-05, |
| "loss": 0.0567, |
| "step": 7870 |
| }, |
| { |
| "epoch": 0.13133333333333333, |
| "grad_norm": 14.0, |
| "learning_rate": 1.9370023335761755e-05, |
| "loss": 0.0609, |
| "step": 7880 |
| }, |
| { |
| "epoch": 0.1315, |
| "grad_norm": 18.125, |
| "learning_rate": 1.936815561942218e-05, |
| "loss": 0.0626, |
| "step": 7890 |
| }, |
| { |
| "epoch": 0.13166666666666665, |
| "grad_norm": 2.5, |
| "learning_rate": 1.9366285228849996e-05, |
| "loss": 0.0615, |
| "step": 7900 |
| }, |
| { |
| "epoch": 0.13183333333333333, |
| "grad_norm": 4.59375, |
| "learning_rate": 1.9364412164579135e-05, |
| "loss": 0.062, |
| "step": 7910 |
| }, |
| { |
| "epoch": 0.132, |
| "grad_norm": 32.5, |
| "learning_rate": 1.9362536427144273e-05, |
| "loss": 0.06, |
| "step": 7920 |
| }, |
| { |
| "epoch": 0.13216666666666665, |
| "grad_norm": 3.21875, |
| "learning_rate": 1.936065801708086e-05, |
| "loss": 0.0604, |
| "step": 7930 |
| }, |
| { |
| "epoch": 0.13233333333333333, |
| "grad_norm": 10.625, |
| "learning_rate": 1.935877693492511e-05, |
| "loss": 0.0491, |
| "step": 7940 |
| }, |
| { |
| "epoch": 0.1325, |
| "grad_norm": 9.125, |
| "learning_rate": 1.9356893181213997e-05, |
| "loss": 0.0594, |
| "step": 7950 |
| }, |
| { |
| "epoch": 0.13266666666666665, |
| "grad_norm": 9.25, |
| "learning_rate": 1.935500675648525e-05, |
| "loss": 0.0637, |
| "step": 7960 |
| }, |
| { |
| "epoch": 0.13283333333333333, |
| "grad_norm": 6.21875, |
| "learning_rate": 1.9353117661277374e-05, |
| "loss": 0.0697, |
| "step": 7970 |
| }, |
| { |
| "epoch": 0.133, |
| "grad_norm": 5.03125, |
| "learning_rate": 1.9351225896129627e-05, |
| "loss": 0.0616, |
| "step": 7980 |
| }, |
| { |
| "epoch": 0.13316666666666666, |
| "grad_norm": 24.0, |
| "learning_rate": 1.934933146158204e-05, |
| "loss": 0.0672, |
| "step": 7990 |
| }, |
| { |
| "epoch": 0.13333333333333333, |
| "grad_norm": 2.3125, |
| "learning_rate": 1.9347434358175383e-05, |
| "loss": 0.061, |
| "step": 8000 |
| }, |
| { |
| "epoch": 0.1335, |
| "grad_norm": 1.734375, |
| "learning_rate": 1.9345534586451212e-05, |
| "loss": 0.0653, |
| "step": 8010 |
| }, |
| { |
| "epoch": 0.13366666666666666, |
| "grad_norm": 14.875, |
| "learning_rate": 1.9343632146951837e-05, |
| "loss": 0.0536, |
| "step": 8020 |
| }, |
| { |
| "epoch": 0.13383333333333333, |
| "grad_norm": 4.375, |
| "learning_rate": 1.9341727040220325e-05, |
| "loss": 0.0578, |
| "step": 8030 |
| }, |
| { |
| "epoch": 0.134, |
| "grad_norm": 7.34375, |
| "learning_rate": 1.9339819266800514e-05, |
| "loss": 0.0719, |
| "step": 8040 |
| }, |
| { |
| "epoch": 0.13416666666666666, |
| "grad_norm": 7.78125, |
| "learning_rate": 1.9337908827236983e-05, |
| "loss": 0.0559, |
| "step": 8050 |
| }, |
| { |
| "epoch": 0.13433333333333333, |
| "grad_norm": 9.5, |
| "learning_rate": 1.93359957220751e-05, |
| "loss": 0.0599, |
| "step": 8060 |
| }, |
| { |
| "epoch": 0.1345, |
| "grad_norm": 12.25, |
| "learning_rate": 1.933407995186097e-05, |
| "loss": 0.0639, |
| "step": 8070 |
| }, |
| { |
| "epoch": 0.13466666666666666, |
| "grad_norm": 7.1875, |
| "learning_rate": 1.9332161517141476e-05, |
| "loss": 0.0615, |
| "step": 8080 |
| }, |
| { |
| "epoch": 0.13483333333333333, |
| "grad_norm": 1.6875, |
| "learning_rate": 1.9330240418464247e-05, |
| "loss": 0.0576, |
| "step": 8090 |
| }, |
| { |
| "epoch": 0.135, |
| "grad_norm": 28.25, |
| "learning_rate": 1.9328316656377682e-05, |
| "loss": 0.0622, |
| "step": 8100 |
| }, |
| { |
| "epoch": 0.13516666666666666, |
| "grad_norm": 10.5, |
| "learning_rate": 1.9326390231430944e-05, |
| "loss": 0.0522, |
| "step": 8110 |
| }, |
| { |
| "epoch": 0.13533333333333333, |
| "grad_norm": 4.625, |
| "learning_rate": 1.932446114417394e-05, |
| "loss": 0.0649, |
| "step": 8120 |
| }, |
| { |
| "epoch": 0.1355, |
| "grad_norm": 7.0, |
| "learning_rate": 1.9322529395157356e-05, |
| "loss": 0.0565, |
| "step": 8130 |
| }, |
| { |
| "epoch": 0.13566666666666666, |
| "grad_norm": 2.4375, |
| "learning_rate": 1.9320594984932625e-05, |
| "loss": 0.0628, |
| "step": 8140 |
| }, |
| { |
| "epoch": 0.13583333333333333, |
| "grad_norm": 6.40625, |
| "learning_rate": 1.931865791405194e-05, |
| "loss": 0.0647, |
| "step": 8150 |
| }, |
| { |
| "epoch": 0.136, |
| "grad_norm": 18.875, |
| "learning_rate": 1.9316718183068265e-05, |
| "loss": 0.0609, |
| "step": 8160 |
| }, |
| { |
| "epoch": 0.13616666666666666, |
| "grad_norm": 61.75, |
| "learning_rate": 1.9314775792535307e-05, |
| "loss": 0.0711, |
| "step": 8170 |
| }, |
| { |
| "epoch": 0.13633333333333333, |
| "grad_norm": 6.3125, |
| "learning_rate": 1.9312830743007548e-05, |
| "loss": 0.0506, |
| "step": 8180 |
| }, |
| { |
| "epoch": 0.1365, |
| "grad_norm": 9.5625, |
| "learning_rate": 1.9310883035040217e-05, |
| "loss": 0.0543, |
| "step": 8190 |
| }, |
| { |
| "epoch": 0.13666666666666666, |
| "grad_norm": 11.1875, |
| "learning_rate": 1.9308932669189305e-05, |
| "loss": 0.0519, |
| "step": 8200 |
| }, |
| { |
| "epoch": 0.13683333333333333, |
| "grad_norm": 11.5, |
| "learning_rate": 1.9306979646011567e-05, |
| "loss": 0.0686, |
| "step": 8210 |
| }, |
| { |
| "epoch": 0.137, |
| "grad_norm": 2.3125, |
| "learning_rate": 1.930502396606451e-05, |
| "loss": 0.0528, |
| "step": 8220 |
| }, |
| { |
| "epoch": 0.13716666666666666, |
| "grad_norm": 2.296875, |
| "learning_rate": 1.9303065629906408e-05, |
| "loss": 0.053, |
| "step": 8230 |
| }, |
| { |
| "epoch": 0.13733333333333334, |
| "grad_norm": 17.875, |
| "learning_rate": 1.930110463809628e-05, |
| "loss": 0.0593, |
| "step": 8240 |
| }, |
| { |
| "epoch": 0.1375, |
| "grad_norm": 12.1875, |
| "learning_rate": 1.9299140991193912e-05, |
| "loss": 0.0664, |
| "step": 8250 |
| }, |
| { |
| "epoch": 0.13766666666666666, |
| "grad_norm": 18.25, |
| "learning_rate": 1.9297174689759852e-05, |
| "loss": 0.0595, |
| "step": 8260 |
| }, |
| { |
| "epoch": 0.13783333333333334, |
| "grad_norm": 9.125, |
| "learning_rate": 1.9295205734355395e-05, |
| "loss": 0.0705, |
| "step": 8270 |
| }, |
| { |
| "epoch": 0.138, |
| "grad_norm": 10.8125, |
| "learning_rate": 1.92932341255426e-05, |
| "loss": 0.0604, |
| "step": 8280 |
| }, |
| { |
| "epoch": 0.13816666666666666, |
| "grad_norm": 36.25, |
| "learning_rate": 1.929125986388428e-05, |
| "loss": 0.0709, |
| "step": 8290 |
| }, |
| { |
| "epoch": 0.13833333333333334, |
| "grad_norm": 3.390625, |
| "learning_rate": 1.928928294994401e-05, |
| "loss": 0.0625, |
| "step": 8300 |
| }, |
| { |
| "epoch": 0.1385, |
| "grad_norm": 3.609375, |
| "learning_rate": 1.928730338428612e-05, |
| "loss": 0.0638, |
| "step": 8310 |
| }, |
| { |
| "epoch": 0.13866666666666666, |
| "grad_norm": 3.6875, |
| "learning_rate": 1.92853211674757e-05, |
| "loss": 0.0582, |
| "step": 8320 |
| }, |
| { |
| "epoch": 0.13883333333333334, |
| "grad_norm": 6.0, |
| "learning_rate": 1.9283336300078583e-05, |
| "loss": 0.05, |
| "step": 8330 |
| }, |
| { |
| "epoch": 0.139, |
| "grad_norm": 8.125, |
| "learning_rate": 1.928134878266138e-05, |
| "loss": 0.0657, |
| "step": 8340 |
| }, |
| { |
| "epoch": 0.13916666666666666, |
| "grad_norm": 5.625, |
| "learning_rate": 1.927935861579144e-05, |
| "loss": 0.0559, |
| "step": 8350 |
| }, |
| { |
| "epoch": 0.13933333333333334, |
| "grad_norm": 15.1875, |
| "learning_rate": 1.927736580003688e-05, |
| "loss": 0.0658, |
| "step": 8360 |
| }, |
| { |
| "epoch": 0.1395, |
| "grad_norm": 5.21875, |
| "learning_rate": 1.927537033596657e-05, |
| "loss": 0.0595, |
| "step": 8370 |
| }, |
| { |
| "epoch": 0.13966666666666666, |
| "grad_norm": 12.75, |
| "learning_rate": 1.9273372224150126e-05, |
| "loss": 0.0536, |
| "step": 8380 |
| }, |
| { |
| "epoch": 0.13983333333333334, |
| "grad_norm": 8.0625, |
| "learning_rate": 1.927137146515794e-05, |
| "loss": 0.0707, |
| "step": 8390 |
| }, |
| { |
| "epoch": 0.14, |
| "grad_norm": 5.1875, |
| "learning_rate": 1.926936805956114e-05, |
| "loss": 0.061, |
| "step": 8400 |
| }, |
| { |
| "epoch": 0.14016666666666666, |
| "grad_norm": 3.09375, |
| "learning_rate": 1.9267362007931624e-05, |
| "loss": 0.0597, |
| "step": 8410 |
| }, |
| { |
| "epoch": 0.14033333333333334, |
| "grad_norm": 3.484375, |
| "learning_rate": 1.9265353310842035e-05, |
| "loss": 0.0509, |
| "step": 8420 |
| }, |
| { |
| "epoch": 0.1405, |
| "grad_norm": 38.25, |
| "learning_rate": 1.926334196886578e-05, |
| "loss": 0.0596, |
| "step": 8430 |
| }, |
| { |
| "epoch": 0.14066666666666666, |
| "grad_norm": 3.796875, |
| "learning_rate": 1.9261327982577015e-05, |
| "loss": 0.0536, |
| "step": 8440 |
| }, |
| { |
| "epoch": 0.14083333333333334, |
| "grad_norm": 4.46875, |
| "learning_rate": 1.9259311352550648e-05, |
| "loss": 0.0633, |
| "step": 8450 |
| }, |
| { |
| "epoch": 0.141, |
| "grad_norm": 6.1875, |
| "learning_rate": 1.925729207936235e-05, |
| "loss": 0.0575, |
| "step": 8460 |
| }, |
| { |
| "epoch": 0.14116666666666666, |
| "grad_norm": 4.5625, |
| "learning_rate": 1.9255270163588543e-05, |
| "loss": 0.0618, |
| "step": 8470 |
| }, |
| { |
| "epoch": 0.14133333333333334, |
| "grad_norm": 69.5, |
| "learning_rate": 1.9253245605806397e-05, |
| "loss": 0.0564, |
| "step": 8480 |
| }, |
| { |
| "epoch": 0.1415, |
| "grad_norm": 15.3125, |
| "learning_rate": 1.925121840659385e-05, |
| "loss": 0.0585, |
| "step": 8490 |
| }, |
| { |
| "epoch": 0.14166666666666666, |
| "grad_norm": 41.75, |
| "learning_rate": 1.924918856652958e-05, |
| "loss": 0.0668, |
| "step": 8500 |
| }, |
| { |
| "epoch": 0.14183333333333334, |
| "grad_norm": 16.125, |
| "learning_rate": 1.924715608619303e-05, |
| "loss": 0.0724, |
| "step": 8510 |
| }, |
| { |
| "epoch": 0.142, |
| "grad_norm": 6.34375, |
| "learning_rate": 1.9245120966164385e-05, |
| "loss": 0.0599, |
| "step": 8520 |
| }, |
| { |
| "epoch": 0.14216666666666666, |
| "grad_norm": 15.375, |
| "learning_rate": 1.92430832070246e-05, |
| "loss": 0.0658, |
| "step": 8530 |
| }, |
| { |
| "epoch": 0.14233333333333334, |
| "grad_norm": 17.75, |
| "learning_rate": 1.9241042809355362e-05, |
| "loss": 0.0578, |
| "step": 8540 |
| }, |
| { |
| "epoch": 0.1425, |
| "grad_norm": 6.28125, |
| "learning_rate": 1.923899977373913e-05, |
| "loss": 0.0505, |
| "step": 8550 |
| }, |
| { |
| "epoch": 0.14266666666666666, |
| "grad_norm": 2.109375, |
| "learning_rate": 1.9236954100759106e-05, |
| "loss": 0.0641, |
| "step": 8560 |
| }, |
| { |
| "epoch": 0.14283333333333334, |
| "grad_norm": 17.25, |
| "learning_rate": 1.9234905790999253e-05, |
| "loss": 0.056, |
| "step": 8570 |
| }, |
| { |
| "epoch": 0.143, |
| "grad_norm": 2.40625, |
| "learning_rate": 1.923285484504427e-05, |
| "loss": 0.0601, |
| "step": 8580 |
| }, |
| { |
| "epoch": 0.14316666666666666, |
| "grad_norm": 18.375, |
| "learning_rate": 1.923080126347963e-05, |
| "loss": 0.054, |
| "step": 8590 |
| }, |
| { |
| "epoch": 0.14333333333333334, |
| "grad_norm": 17.375, |
| "learning_rate": 1.9228745046891545e-05, |
| "loss": 0.0651, |
| "step": 8600 |
| }, |
| { |
| "epoch": 0.1435, |
| "grad_norm": 10.875, |
| "learning_rate": 1.9226686195866982e-05, |
| "loss": 0.0566, |
| "step": 8610 |
| }, |
| { |
| "epoch": 0.14366666666666666, |
| "grad_norm": 2.453125, |
| "learning_rate": 1.9224624710993657e-05, |
| "loss": 0.0508, |
| "step": 8620 |
| }, |
| { |
| "epoch": 0.14383333333333334, |
| "grad_norm": 52.5, |
| "learning_rate": 1.922256059286005e-05, |
| "loss": 0.0616, |
| "step": 8630 |
| }, |
| { |
| "epoch": 0.144, |
| "grad_norm": 3.875, |
| "learning_rate": 1.9220493842055376e-05, |
| "loss": 0.0663, |
| "step": 8640 |
| }, |
| { |
| "epoch": 0.14416666666666667, |
| "grad_norm": 17.875, |
| "learning_rate": 1.9218424459169613e-05, |
| "loss": 0.0669, |
| "step": 8650 |
| }, |
| { |
| "epoch": 0.14433333333333334, |
| "grad_norm": 3.328125, |
| "learning_rate": 1.9216352444793484e-05, |
| "loss": 0.0466, |
| "step": 8660 |
| }, |
| { |
| "epoch": 0.1445, |
| "grad_norm": 4.59375, |
| "learning_rate": 1.921427779951847e-05, |
| "loss": 0.0635, |
| "step": 8670 |
| }, |
| { |
| "epoch": 0.14466666666666667, |
| "grad_norm": 9.3125, |
| "learning_rate": 1.9212200523936792e-05, |
| "loss": 0.0536, |
| "step": 8680 |
| }, |
| { |
| "epoch": 0.14483333333333334, |
| "grad_norm": 3.515625, |
| "learning_rate": 1.9210120618641435e-05, |
| "loss": 0.0581, |
| "step": 8690 |
| }, |
| { |
| "epoch": 0.145, |
| "grad_norm": 20.125, |
| "learning_rate": 1.920803808422613e-05, |
| "loss": 0.0704, |
| "step": 8700 |
| }, |
| { |
| "epoch": 0.14516666666666667, |
| "grad_norm": 4.375, |
| "learning_rate": 1.9205952921285354e-05, |
| "loss": 0.0571, |
| "step": 8710 |
| }, |
| { |
| "epoch": 0.14533333333333334, |
| "grad_norm": 4.6875, |
| "learning_rate": 1.9203865130414338e-05, |
| "loss": 0.0641, |
| "step": 8720 |
| }, |
| { |
| "epoch": 0.1455, |
| "grad_norm": 4.21875, |
| "learning_rate": 1.9201774712209058e-05, |
| "loss": 0.054, |
| "step": 8730 |
| }, |
| { |
| "epoch": 0.14566666666666667, |
| "grad_norm": 22.625, |
| "learning_rate": 1.9199681667266254e-05, |
| "loss": 0.0596, |
| "step": 8740 |
| }, |
| { |
| "epoch": 0.14583333333333334, |
| "grad_norm": 7.84375, |
| "learning_rate": 1.9197585996183397e-05, |
| "loss": 0.063, |
| "step": 8750 |
| }, |
| { |
| "epoch": 0.146, |
| "grad_norm": 7.125, |
| "learning_rate": 1.919548769955872e-05, |
| "loss": 0.0586, |
| "step": 8760 |
| }, |
| { |
| "epoch": 0.14616666666666667, |
| "grad_norm": 3.65625, |
| "learning_rate": 1.9193386777991207e-05, |
| "loss": 0.0612, |
| "step": 8770 |
| }, |
| { |
| "epoch": 0.14633333333333334, |
| "grad_norm": 1.625, |
| "learning_rate": 1.919128323208058e-05, |
| "loss": 0.0627, |
| "step": 8780 |
| }, |
| { |
| "epoch": 0.1465, |
| "grad_norm": 14.0, |
| "learning_rate": 1.9189177062427324e-05, |
| "loss": 0.0599, |
| "step": 8790 |
| }, |
| { |
| "epoch": 0.14666666666666667, |
| "grad_norm": 42.0, |
| "learning_rate": 1.918706826963266e-05, |
| "loss": 0.0669, |
| "step": 8800 |
| }, |
| { |
| "epoch": 0.14683333333333334, |
| "grad_norm": 6.09375, |
| "learning_rate": 1.9184956854298565e-05, |
| "loss": 0.0576, |
| "step": 8810 |
| }, |
| { |
| "epoch": 0.147, |
| "grad_norm": 7.1875, |
| "learning_rate": 1.9182842817027768e-05, |
| "loss": 0.0612, |
| "step": 8820 |
| }, |
| { |
| "epoch": 0.14716666666666667, |
| "grad_norm": 25.125, |
| "learning_rate": 1.9180726158423735e-05, |
| "loss": 0.058, |
| "step": 8830 |
| }, |
| { |
| "epoch": 0.14733333333333334, |
| "grad_norm": 2.8125, |
| "learning_rate": 1.917860687909069e-05, |
| "loss": 0.062, |
| "step": 8840 |
| }, |
| { |
| "epoch": 0.1475, |
| "grad_norm": 48.5, |
| "learning_rate": 1.9176484979633602e-05, |
| "loss": 0.0579, |
| "step": 8850 |
| }, |
| { |
| "epoch": 0.14766666666666667, |
| "grad_norm": 2.796875, |
| "learning_rate": 1.9174360460658192e-05, |
| "loss": 0.0719, |
| "step": 8860 |
| }, |
| { |
| "epoch": 0.14783333333333334, |
| "grad_norm": 8.9375, |
| "learning_rate": 1.917223332277092e-05, |
| "loss": 0.0672, |
| "step": 8870 |
| }, |
| { |
| "epoch": 0.148, |
| "grad_norm": 6.78125, |
| "learning_rate": 1.9170103566579003e-05, |
| "loss": 0.0572, |
| "step": 8880 |
| }, |
| { |
| "epoch": 0.14816666666666667, |
| "grad_norm": 4.5625, |
| "learning_rate": 1.916797119269039e-05, |
| "loss": 0.0722, |
| "step": 8890 |
| }, |
| { |
| "epoch": 0.14833333333333334, |
| "grad_norm": 8.875, |
| "learning_rate": 1.9165836201713802e-05, |
| "loss": 0.0616, |
| "step": 8900 |
| }, |
| { |
| "epoch": 0.1485, |
| "grad_norm": 3.484375, |
| "learning_rate": 1.9163698594258687e-05, |
| "loss": 0.0666, |
| "step": 8910 |
| }, |
| { |
| "epoch": 0.14866666666666667, |
| "grad_norm": 28.25, |
| "learning_rate": 1.9161558370935248e-05, |
| "loss": 0.0606, |
| "step": 8920 |
| }, |
| { |
| "epoch": 0.14883333333333335, |
| "grad_norm": 8.75, |
| "learning_rate": 1.915941553235443e-05, |
| "loss": 0.0687, |
| "step": 8930 |
| }, |
| { |
| "epoch": 0.149, |
| "grad_norm": 4.1875, |
| "learning_rate": 1.915727007912793e-05, |
| "loss": 0.0596, |
| "step": 8940 |
| }, |
| { |
| "epoch": 0.14916666666666667, |
| "grad_norm": 26.75, |
| "learning_rate": 1.9155122011868188e-05, |
| "loss": 0.0552, |
| "step": 8950 |
| }, |
| { |
| "epoch": 0.14933333333333335, |
| "grad_norm": 7.0, |
| "learning_rate": 1.915297133118839e-05, |
| "loss": 0.059, |
| "step": 8960 |
| }, |
| { |
| "epoch": 0.1495, |
| "grad_norm": 13.5, |
| "learning_rate": 1.915081803770247e-05, |
| "loss": 0.047, |
| "step": 8970 |
| }, |
| { |
| "epoch": 0.14966666666666667, |
| "grad_norm": 2.765625, |
| "learning_rate": 1.914866213202511e-05, |
| "loss": 0.067, |
| "step": 8980 |
| }, |
| { |
| "epoch": 0.14983333333333335, |
| "grad_norm": 6.125, |
| "learning_rate": 1.9146503614771728e-05, |
| "loss": 0.0751, |
| "step": 8990 |
| }, |
| { |
| "epoch": 0.15, |
| "grad_norm": 2.3125, |
| "learning_rate": 1.9144342486558497e-05, |
| "loss": 0.0649, |
| "step": 9000 |
| }, |
| { |
| "epoch": 0.15016666666666667, |
| "grad_norm": 5.625, |
| "learning_rate": 1.9142178748002335e-05, |
| "loss": 0.0617, |
| "step": 9010 |
| }, |
| { |
| "epoch": 0.15033333333333335, |
| "grad_norm": 29.125, |
| "learning_rate": 1.9140012399720898e-05, |
| "loss": 0.0585, |
| "step": 9020 |
| }, |
| { |
| "epoch": 0.1505, |
| "grad_norm": 6.625, |
| "learning_rate": 1.9137843442332595e-05, |
| "loss": 0.0624, |
| "step": 9030 |
| }, |
| { |
| "epoch": 0.15066666666666667, |
| "grad_norm": 70.5, |
| "learning_rate": 1.913567187645658e-05, |
| "loss": 0.0537, |
| "step": 9040 |
| }, |
| { |
| "epoch": 0.15083333333333335, |
| "grad_norm": 12.375, |
| "learning_rate": 1.9133497702712737e-05, |
| "loss": 0.0646, |
| "step": 9050 |
| }, |
| { |
| "epoch": 0.151, |
| "grad_norm": 4.46875, |
| "learning_rate": 1.9131320921721713e-05, |
| "loss": 0.0621, |
| "step": 9060 |
| }, |
| { |
| "epoch": 0.15116666666666667, |
| "grad_norm": 2.5625, |
| "learning_rate": 1.912914153410489e-05, |
| "loss": 0.0798, |
| "step": 9070 |
| }, |
| { |
| "epoch": 0.15133333333333332, |
| "grad_norm": 4.75, |
| "learning_rate": 1.91269595404844e-05, |
| "loss": 0.0678, |
| "step": 9080 |
| }, |
| { |
| "epoch": 0.1515, |
| "grad_norm": 19.125, |
| "learning_rate": 1.912477494148311e-05, |
| "loss": 0.0521, |
| "step": 9090 |
| }, |
| { |
| "epoch": 0.15166666666666667, |
| "grad_norm": 3.484375, |
| "learning_rate": 1.9122587737724633e-05, |
| "loss": 0.0636, |
| "step": 9100 |
| }, |
| { |
| "epoch": 0.15183333333333332, |
| "grad_norm": 10.4375, |
| "learning_rate": 1.9120397929833334e-05, |
| "loss": 0.0606, |
| "step": 9110 |
| }, |
| { |
| "epoch": 0.152, |
| "grad_norm": 12.75, |
| "learning_rate": 1.911820551843431e-05, |
| "loss": 0.0547, |
| "step": 9120 |
| }, |
| { |
| "epoch": 0.15216666666666667, |
| "grad_norm": 41.5, |
| "learning_rate": 1.911601050415341e-05, |
| "loss": 0.0666, |
| "step": 9130 |
| }, |
| { |
| "epoch": 0.15233333333333332, |
| "grad_norm": 7.9375, |
| "learning_rate": 1.911381288761722e-05, |
| "loss": 0.0519, |
| "step": 9140 |
| }, |
| { |
| "epoch": 0.1525, |
| "grad_norm": 12.6875, |
| "learning_rate": 1.9111612669453074e-05, |
| "loss": 0.0645, |
| "step": 9150 |
| }, |
| { |
| "epoch": 0.15266666666666667, |
| "grad_norm": 31.75, |
| "learning_rate": 1.9109409850289045e-05, |
| "loss": 0.0545, |
| "step": 9160 |
| }, |
| { |
| "epoch": 0.15283333333333332, |
| "grad_norm": 26.875, |
| "learning_rate": 1.9107204430753947e-05, |
| "loss": 0.0589, |
| "step": 9170 |
| }, |
| { |
| "epoch": 0.153, |
| "grad_norm": 3.1875, |
| "learning_rate": 1.9104996411477344e-05, |
| "loss": 0.0626, |
| "step": 9180 |
| }, |
| { |
| "epoch": 0.15316666666666667, |
| "grad_norm": 5.4375, |
| "learning_rate": 1.9102785793089534e-05, |
| "loss": 0.0491, |
| "step": 9190 |
| }, |
| { |
| "epoch": 0.15333333333333332, |
| "grad_norm": 15.125, |
| "learning_rate": 1.910057257622156e-05, |
| "loss": 0.0665, |
| "step": 9200 |
| }, |
| { |
| "epoch": 0.1535, |
| "grad_norm": 4.75, |
| "learning_rate": 1.9098356761505204e-05, |
| "loss": 0.0537, |
| "step": 9210 |
| }, |
| { |
| "epoch": 0.15366666666666667, |
| "grad_norm": 5.90625, |
| "learning_rate": 1.9096138349572993e-05, |
| "loss": 0.0527, |
| "step": 9220 |
| }, |
| { |
| "epoch": 0.15383333333333332, |
| "grad_norm": 3.640625, |
| "learning_rate": 1.90939173410582e-05, |
| "loss": 0.0625, |
| "step": 9230 |
| }, |
| { |
| "epoch": 0.154, |
| "grad_norm": 1.6328125, |
| "learning_rate": 1.909169373659483e-05, |
| "loss": 0.0601, |
| "step": 9240 |
| }, |
| { |
| "epoch": 0.15416666666666667, |
| "grad_norm": 32.5, |
| "learning_rate": 1.908946753681763e-05, |
| "loss": 0.0789, |
| "step": 9250 |
| }, |
| { |
| "epoch": 0.15433333333333332, |
| "grad_norm": 29.625, |
| "learning_rate": 1.9087238742362094e-05, |
| "loss": 0.0572, |
| "step": 9260 |
| }, |
| { |
| "epoch": 0.1545, |
| "grad_norm": 4.0625, |
| "learning_rate": 1.9085007353864457e-05, |
| "loss": 0.0622, |
| "step": 9270 |
| }, |
| { |
| "epoch": 0.15466666666666667, |
| "grad_norm": 13.5625, |
| "learning_rate": 1.9082773371961684e-05, |
| "loss": 0.063, |
| "step": 9280 |
| }, |
| { |
| "epoch": 0.15483333333333332, |
| "grad_norm": 2.140625, |
| "learning_rate": 1.9080536797291493e-05, |
| "loss": 0.0597, |
| "step": 9290 |
| }, |
| { |
| "epoch": 0.155, |
| "grad_norm": 4.75, |
| "learning_rate": 1.9078297630492327e-05, |
| "loss": 0.0617, |
| "step": 9300 |
| }, |
| { |
| "epoch": 0.15516666666666667, |
| "grad_norm": 12.0625, |
| "learning_rate": 1.907605587220339e-05, |
| "loss": 0.0575, |
| "step": 9310 |
| }, |
| { |
| "epoch": 0.15533333333333332, |
| "grad_norm": 13.625, |
| "learning_rate": 1.907381152306461e-05, |
| "loss": 0.0642, |
| "step": 9320 |
| }, |
| { |
| "epoch": 0.1555, |
| "grad_norm": 5.40625, |
| "learning_rate": 1.9071564583716656e-05, |
| "loss": 0.0606, |
| "step": 9330 |
| }, |
| { |
| "epoch": 0.15566666666666668, |
| "grad_norm": 10.0625, |
| "learning_rate": 1.906931505480094e-05, |
| "loss": 0.0537, |
| "step": 9340 |
| }, |
| { |
| "epoch": 0.15583333333333332, |
| "grad_norm": 6.375, |
| "learning_rate": 1.906706293695961e-05, |
| "loss": 0.0606, |
| "step": 9350 |
| }, |
| { |
| "epoch": 0.156, |
| "grad_norm": 6.46875, |
| "learning_rate": 1.9064808230835566e-05, |
| "loss": 0.0692, |
| "step": 9360 |
| }, |
| { |
| "epoch": 0.15616666666666668, |
| "grad_norm": 2.578125, |
| "learning_rate": 1.906255093707242e-05, |
| "loss": 0.0541, |
| "step": 9370 |
| }, |
| { |
| "epoch": 0.15633333333333332, |
| "grad_norm": 2.296875, |
| "learning_rate": 1.906029105631455e-05, |
| "loss": 0.0522, |
| "step": 9380 |
| }, |
| { |
| "epoch": 0.1565, |
| "grad_norm": 13.75, |
| "learning_rate": 1.905802858920706e-05, |
| "loss": 0.053, |
| "step": 9390 |
| }, |
| { |
| "epoch": 0.15666666666666668, |
| "grad_norm": 3.984375, |
| "learning_rate": 1.9055763536395794e-05, |
| "loss": 0.0785, |
| "step": 9400 |
| }, |
| { |
| "epoch": 0.15683333333333332, |
| "grad_norm": 2.5625, |
| "learning_rate": 1.905349589852733e-05, |
| "loss": 0.0658, |
| "step": 9410 |
| }, |
| { |
| "epoch": 0.157, |
| "grad_norm": 20.0, |
| "learning_rate": 1.9051225676248987e-05, |
| "loss": 0.0543, |
| "step": 9420 |
| }, |
| { |
| "epoch": 0.15716666666666668, |
| "grad_norm": 17.875, |
| "learning_rate": 1.9048952870208825e-05, |
| "loss": 0.0552, |
| "step": 9430 |
| }, |
| { |
| "epoch": 0.15733333333333333, |
| "grad_norm": 7.15625, |
| "learning_rate": 1.9046677481055637e-05, |
| "loss": 0.0625, |
| "step": 9440 |
| }, |
| { |
| "epoch": 0.1575, |
| "grad_norm": 6.09375, |
| "learning_rate": 1.904439950943896e-05, |
| "loss": 0.067, |
| "step": 9450 |
| }, |
| { |
| "epoch": 0.15766666666666668, |
| "grad_norm": 5.6875, |
| "learning_rate": 1.904211895600906e-05, |
| "loss": 0.0548, |
| "step": 9460 |
| }, |
| { |
| "epoch": 0.15783333333333333, |
| "grad_norm": 9.6875, |
| "learning_rate": 1.9039835821416946e-05, |
| "loss": 0.0596, |
| "step": 9470 |
| }, |
| { |
| "epoch": 0.158, |
| "grad_norm": 11.1875, |
| "learning_rate": 1.9037550106314356e-05, |
| "loss": 0.0586, |
| "step": 9480 |
| }, |
| { |
| "epoch": 0.15816666666666668, |
| "grad_norm": 11.75, |
| "learning_rate": 1.9035261811353775e-05, |
| "loss": 0.0509, |
| "step": 9490 |
| }, |
| { |
| "epoch": 0.15833333333333333, |
| "grad_norm": 6.59375, |
| "learning_rate": 1.9032970937188417e-05, |
| "loss": 0.0672, |
| "step": 9500 |
| }, |
| { |
| "epoch": 0.1585, |
| "grad_norm": 3.390625, |
| "learning_rate": 1.9030677484472235e-05, |
| "loss": 0.0527, |
| "step": 9510 |
| }, |
| { |
| "epoch": 0.15866666666666668, |
| "grad_norm": 45.25, |
| "learning_rate": 1.9028381453859918e-05, |
| "loss": 0.063, |
| "step": 9520 |
| }, |
| { |
| "epoch": 0.15883333333333333, |
| "grad_norm": 2.03125, |
| "learning_rate": 1.9026082846006894e-05, |
| "loss": 0.0695, |
| "step": 9530 |
| }, |
| { |
| "epoch": 0.159, |
| "grad_norm": 17.5, |
| "learning_rate": 1.9023781661569317e-05, |
| "loss": 0.057, |
| "step": 9540 |
| }, |
| { |
| "epoch": 0.15916666666666668, |
| "grad_norm": 10.1875, |
| "learning_rate": 1.9021477901204087e-05, |
| "loss": 0.0591, |
| "step": 9550 |
| }, |
| { |
| "epoch": 0.15933333333333333, |
| "grad_norm": 19.875, |
| "learning_rate": 1.9019171565568832e-05, |
| "loss": 0.0647, |
| "step": 9560 |
| }, |
| { |
| "epoch": 0.1595, |
| "grad_norm": 13.8125, |
| "learning_rate": 1.9016862655321924e-05, |
| "loss": 0.0866, |
| "step": 9570 |
| }, |
| { |
| "epoch": 0.15966666666666668, |
| "grad_norm": 4.28125, |
| "learning_rate": 1.9014551171122456e-05, |
| "loss": 0.0657, |
| "step": 9580 |
| }, |
| { |
| "epoch": 0.15983333333333333, |
| "grad_norm": 20.25, |
| "learning_rate": 1.9012237113630275e-05, |
| "loss": 0.0492, |
| "step": 9590 |
| }, |
| { |
| "epoch": 0.16, |
| "grad_norm": 22.875, |
| "learning_rate": 1.900992048350594e-05, |
| "loss": 0.057, |
| "step": 9600 |
| }, |
| { |
| "epoch": 0.16016666666666668, |
| "grad_norm": 2.125, |
| "learning_rate": 1.9007601281410763e-05, |
| "loss": 0.0627, |
| "step": 9610 |
| }, |
| { |
| "epoch": 0.16033333333333333, |
| "grad_norm": 50.0, |
| "learning_rate": 1.9005279508006782e-05, |
| "loss": 0.0666, |
| "step": 9620 |
| }, |
| { |
| "epoch": 0.1605, |
| "grad_norm": 2.9375, |
| "learning_rate": 1.900295516395677e-05, |
| "loss": 0.061, |
| "step": 9630 |
| }, |
| { |
| "epoch": 0.16066666666666668, |
| "grad_norm": 2.828125, |
| "learning_rate": 1.9000628249924232e-05, |
| "loss": 0.0515, |
| "step": 9640 |
| }, |
| { |
| "epoch": 0.16083333333333333, |
| "grad_norm": 6.90625, |
| "learning_rate": 1.8998298766573408e-05, |
| "loss": 0.0701, |
| "step": 9650 |
| }, |
| { |
| "epoch": 0.161, |
| "grad_norm": 10.75, |
| "learning_rate": 1.899596671456928e-05, |
| "loss": 0.0699, |
| "step": 9660 |
| }, |
| { |
| "epoch": 0.16116666666666668, |
| "grad_norm": 3.09375, |
| "learning_rate": 1.8993632094577542e-05, |
| "loss": 0.0713, |
| "step": 9670 |
| }, |
| { |
| "epoch": 0.16133333333333333, |
| "grad_norm": 2.640625, |
| "learning_rate": 1.899129490726465e-05, |
| "loss": 0.0464, |
| "step": 9680 |
| }, |
| { |
| "epoch": 0.1615, |
| "grad_norm": 6.03125, |
| "learning_rate": 1.8988955153297762e-05, |
| "loss": 0.0627, |
| "step": 9690 |
| }, |
| { |
| "epoch": 0.16166666666666665, |
| "grad_norm": 2.953125, |
| "learning_rate": 1.898661283334479e-05, |
| "loss": 0.0516, |
| "step": 9700 |
| }, |
| { |
| "epoch": 0.16183333333333333, |
| "grad_norm": 9.1875, |
| "learning_rate": 1.898426794807438e-05, |
| "loss": 0.0706, |
| "step": 9710 |
| }, |
| { |
| "epoch": 0.162, |
| "grad_norm": 13.625, |
| "learning_rate": 1.8981920498155892e-05, |
| "loss": 0.056, |
| "step": 9720 |
| }, |
| { |
| "epoch": 0.16216666666666665, |
| "grad_norm": 2.3125, |
| "learning_rate": 1.8979570484259434e-05, |
| "loss": 0.0536, |
| "step": 9730 |
| }, |
| { |
| "epoch": 0.16233333333333333, |
| "grad_norm": 9.5625, |
| "learning_rate": 1.897721790705584e-05, |
| "loss": 0.0594, |
| "step": 9740 |
| }, |
| { |
| "epoch": 0.1625, |
| "grad_norm": 7.90625, |
| "learning_rate": 1.8974862767216673e-05, |
| "loss": 0.0653, |
| "step": 9750 |
| }, |
| { |
| "epoch": 0.16266666666666665, |
| "grad_norm": 7.96875, |
| "learning_rate": 1.8972505065414236e-05, |
| "loss": 0.0578, |
| "step": 9760 |
| }, |
| { |
| "epoch": 0.16283333333333333, |
| "grad_norm": 8.375, |
| "learning_rate": 1.8970144802321554e-05, |
| "loss": 0.0747, |
| "step": 9770 |
| }, |
| { |
| "epoch": 0.163, |
| "grad_norm": 40.5, |
| "learning_rate": 1.8967781978612393e-05, |
| "loss": 0.0621, |
| "step": 9780 |
| }, |
| { |
| "epoch": 0.16316666666666665, |
| "grad_norm": 7.9375, |
| "learning_rate": 1.8965416594961238e-05, |
| "loss": 0.0638, |
| "step": 9790 |
| }, |
| { |
| "epoch": 0.16333333333333333, |
| "grad_norm": 2.421875, |
| "learning_rate": 1.8963048652043316e-05, |
| "loss": 0.0658, |
| "step": 9800 |
| }, |
| { |
| "epoch": 0.1635, |
| "grad_norm": 8.9375, |
| "learning_rate": 1.8960678150534576e-05, |
| "loss": 0.0524, |
| "step": 9810 |
| }, |
| { |
| "epoch": 0.16366666666666665, |
| "grad_norm": 6.90625, |
| "learning_rate": 1.8958305091111703e-05, |
| "loss": 0.0605, |
| "step": 9820 |
| }, |
| { |
| "epoch": 0.16383333333333333, |
| "grad_norm": 2.375, |
| "learning_rate": 1.895592947445211e-05, |
| "loss": 0.0598, |
| "step": 9830 |
| }, |
| { |
| "epoch": 0.164, |
| "grad_norm": 4.65625, |
| "learning_rate": 1.8953551301233942e-05, |
| "loss": 0.0741, |
| "step": 9840 |
| }, |
| { |
| "epoch": 0.16416666666666666, |
| "grad_norm": 17.875, |
| "learning_rate": 1.895117057213607e-05, |
| "loss": 0.0636, |
| "step": 9850 |
| }, |
| { |
| "epoch": 0.16433333333333333, |
| "grad_norm": 23.25, |
| "learning_rate": 1.8948787287838094e-05, |
| "loss": 0.0676, |
| "step": 9860 |
| }, |
| { |
| "epoch": 0.1645, |
| "grad_norm": 4.75, |
| "learning_rate": 1.8946401449020353e-05, |
| "loss": 0.0586, |
| "step": 9870 |
| }, |
| { |
| "epoch": 0.16466666666666666, |
| "grad_norm": 2.4375, |
| "learning_rate": 1.8944013056363902e-05, |
| "loss": 0.0694, |
| "step": 9880 |
| }, |
| { |
| "epoch": 0.16483333333333333, |
| "grad_norm": 3.640625, |
| "learning_rate": 1.8941622110550534e-05, |
| "loss": 0.0568, |
| "step": 9890 |
| }, |
| { |
| "epoch": 0.165, |
| "grad_norm": 45.0, |
| "learning_rate": 1.8939228612262766e-05, |
| "loss": 0.0635, |
| "step": 9900 |
| }, |
| { |
| "epoch": 0.16516666666666666, |
| "grad_norm": 5.21875, |
| "learning_rate": 1.893683256218385e-05, |
| "loss": 0.0687, |
| "step": 9910 |
| }, |
| { |
| "epoch": 0.16533333333333333, |
| "grad_norm": 11.6875, |
| "learning_rate": 1.8934433960997757e-05, |
| "loss": 0.0628, |
| "step": 9920 |
| }, |
| { |
| "epoch": 0.1655, |
| "grad_norm": 37.25, |
| "learning_rate": 1.89320328093892e-05, |
| "loss": 0.0678, |
| "step": 9930 |
| }, |
| { |
| "epoch": 0.16566666666666666, |
| "grad_norm": 6.5, |
| "learning_rate": 1.8929629108043598e-05, |
| "loss": 0.0528, |
| "step": 9940 |
| }, |
| { |
| "epoch": 0.16583333333333333, |
| "grad_norm": 10.5, |
| "learning_rate": 1.8927222857647125e-05, |
| "loss": 0.0621, |
| "step": 9950 |
| }, |
| { |
| "epoch": 0.166, |
| "grad_norm": 7.0625, |
| "learning_rate": 1.892481405888666e-05, |
| "loss": 0.0726, |
| "step": 9960 |
| }, |
| { |
| "epoch": 0.16616666666666666, |
| "grad_norm": 7.96875, |
| "learning_rate": 1.892240271244982e-05, |
| "loss": 0.0685, |
| "step": 9970 |
| }, |
| { |
| "epoch": 0.16633333333333333, |
| "grad_norm": 4.125, |
| "learning_rate": 1.891998881902495e-05, |
| "loss": 0.0608, |
| "step": 9980 |
| }, |
| { |
| "epoch": 0.1665, |
| "grad_norm": 1.5703125, |
| "learning_rate": 1.891757237930112e-05, |
| "loss": 0.068, |
| "step": 9990 |
| }, |
| { |
| "epoch": 0.16666666666666666, |
| "grad_norm": 10.5625, |
| "learning_rate": 1.8915153393968122e-05, |
| "loss": 0.0528, |
| "step": 10000 |
| }, |
| { |
| "epoch": 0.16683333333333333, |
| "grad_norm": 18.125, |
| "learning_rate": 1.8912731863716485e-05, |
| "loss": 0.057, |
| "step": 10010 |
| }, |
| { |
| "epoch": 0.167, |
| "grad_norm": 15.5625, |
| "learning_rate": 1.8910307789237453e-05, |
| "loss": 0.0528, |
| "step": 10020 |
| }, |
| { |
| "epoch": 0.16716666666666666, |
| "grad_norm": 4.6875, |
| "learning_rate": 1.890788117122301e-05, |
| "loss": 0.058, |
| "step": 10030 |
| }, |
| { |
| "epoch": 0.16733333333333333, |
| "grad_norm": 6.0, |
| "learning_rate": 1.890545201036585e-05, |
| "loss": 0.0551, |
| "step": 10040 |
| }, |
| { |
| "epoch": 0.1675, |
| "grad_norm": 13.0, |
| "learning_rate": 1.8903020307359406e-05, |
| "loss": 0.0585, |
| "step": 10050 |
| }, |
| { |
| "epoch": 0.16766666666666666, |
| "grad_norm": 3.28125, |
| "learning_rate": 1.890058606289783e-05, |
| "loss": 0.0496, |
| "step": 10060 |
| }, |
| { |
| "epoch": 0.16783333333333333, |
| "grad_norm": 1.5234375, |
| "learning_rate": 1.8898149277676e-05, |
| "loss": 0.0659, |
| "step": 10070 |
| }, |
| { |
| "epoch": 0.168, |
| "grad_norm": 3.546875, |
| "learning_rate": 1.889570995238952e-05, |
| "loss": 0.0711, |
| "step": 10080 |
| }, |
| { |
| "epoch": 0.16816666666666666, |
| "grad_norm": 7.71875, |
| "learning_rate": 1.8893268087734724e-05, |
| "loss": 0.0681, |
| "step": 10090 |
| }, |
| { |
| "epoch": 0.16833333333333333, |
| "grad_norm": 3.203125, |
| "learning_rate": 1.889082368440866e-05, |
| "loss": 0.0553, |
| "step": 10100 |
| }, |
| { |
| "epoch": 0.1685, |
| "grad_norm": 10.375, |
| "learning_rate": 1.8888376743109114e-05, |
| "loss": 0.0613, |
| "step": 10110 |
| }, |
| { |
| "epoch": 0.16866666666666666, |
| "grad_norm": 2.984375, |
| "learning_rate": 1.8885927264534585e-05, |
| "loss": 0.0815, |
| "step": 10120 |
| }, |
| { |
| "epoch": 0.16883333333333334, |
| "grad_norm": 1.984375, |
| "learning_rate": 1.8883475249384302e-05, |
| "loss": 0.0593, |
| "step": 10130 |
| }, |
| { |
| "epoch": 0.169, |
| "grad_norm": 3.28125, |
| "learning_rate": 1.8881020698358217e-05, |
| "loss": 0.0529, |
| "step": 10140 |
| }, |
| { |
| "epoch": 0.16916666666666666, |
| "grad_norm": 5.1875, |
| "learning_rate": 1.8878563612157004e-05, |
| "loss": 0.0561, |
| "step": 10150 |
| }, |
| { |
| "epoch": 0.16933333333333334, |
| "grad_norm": 30.0, |
| "learning_rate": 1.8876103991482065e-05, |
| "loss": 0.065, |
| "step": 10160 |
| }, |
| { |
| "epoch": 0.1695, |
| "grad_norm": 15.375, |
| "learning_rate": 1.8873641837035523e-05, |
| "loss": 0.0688, |
| "step": 10170 |
| }, |
| { |
| "epoch": 0.16966666666666666, |
| "grad_norm": 5.0625, |
| "learning_rate": 1.8871177149520225e-05, |
| "loss": 0.0486, |
| "step": 10180 |
| }, |
| { |
| "epoch": 0.16983333333333334, |
| "grad_norm": 2.046875, |
| "learning_rate": 1.8868709929639736e-05, |
| "loss": 0.0667, |
| "step": 10190 |
| }, |
| { |
| "epoch": 0.17, |
| "grad_norm": 43.5, |
| "learning_rate": 1.8866240178098356e-05, |
| "loss": 0.0715, |
| "step": 10200 |
| }, |
| { |
| "epoch": 0.17016666666666666, |
| "grad_norm": 1.9296875, |
| "learning_rate": 1.8863767895601088e-05, |
| "loss": 0.0633, |
| "step": 10210 |
| }, |
| { |
| "epoch": 0.17033333333333334, |
| "grad_norm": 5.375, |
| "learning_rate": 1.8861293082853682e-05, |
| "loss": 0.0668, |
| "step": 10220 |
| }, |
| { |
| "epoch": 0.1705, |
| "grad_norm": 20.5, |
| "learning_rate": 1.885881574056259e-05, |
| "loss": 0.0773, |
| "step": 10230 |
| }, |
| { |
| "epoch": 0.17066666666666666, |
| "grad_norm": 6.15625, |
| "learning_rate": 1.8856335869434997e-05, |
| "loss": 0.0563, |
| "step": 10240 |
| }, |
| { |
| "epoch": 0.17083333333333334, |
| "grad_norm": 87.5, |
| "learning_rate": 1.8853853470178808e-05, |
| "loss": 0.0556, |
| "step": 10250 |
| }, |
| { |
| "epoch": 0.171, |
| "grad_norm": 23.5, |
| "learning_rate": 1.8851368543502648e-05, |
| "loss": 0.0698, |
| "step": 10260 |
| }, |
| { |
| "epoch": 0.17116666666666666, |
| "grad_norm": 8.0, |
| "learning_rate": 1.884888109011586e-05, |
| "loss": 0.0658, |
| "step": 10270 |
| }, |
| { |
| "epoch": 0.17133333333333334, |
| "grad_norm": 5.78125, |
| "learning_rate": 1.8846391110728513e-05, |
| "loss": 0.0645, |
| "step": 10280 |
| }, |
| { |
| "epoch": 0.1715, |
| "grad_norm": 1.7265625, |
| "learning_rate": 1.88438986060514e-05, |
| "loss": 0.0781, |
| "step": 10290 |
| }, |
| { |
| "epoch": 0.17166666666666666, |
| "grad_norm": 8.6875, |
| "learning_rate": 1.8841403576796024e-05, |
| "loss": 0.0519, |
| "step": 10300 |
| }, |
| { |
| "epoch": 0.17183333333333334, |
| "grad_norm": 5.375, |
| "learning_rate": 1.883890602367463e-05, |
| "loss": 0.0536, |
| "step": 10310 |
| }, |
| { |
| "epoch": 0.172, |
| "grad_norm": 7.28125, |
| "learning_rate": 1.8836405947400153e-05, |
| "loss": 0.055, |
| "step": 10320 |
| }, |
| { |
| "epoch": 0.17216666666666666, |
| "grad_norm": 6.6875, |
| "learning_rate": 1.883390334868627e-05, |
| "loss": 0.065, |
| "step": 10330 |
| }, |
| { |
| "epoch": 0.17233333333333334, |
| "grad_norm": 19.75, |
| "learning_rate": 1.8831398228247378e-05, |
| "loss": 0.0637, |
| "step": 10340 |
| }, |
| { |
| "epoch": 0.1725, |
| "grad_norm": 4.65625, |
| "learning_rate": 1.882889058679858e-05, |
| "loss": 0.0611, |
| "step": 10350 |
| }, |
| { |
| "epoch": 0.17266666666666666, |
| "grad_norm": 42.5, |
| "learning_rate": 1.8826380425055717e-05, |
| "loss": 0.058, |
| "step": 10360 |
| }, |
| { |
| "epoch": 0.17283333333333334, |
| "grad_norm": 1.8125, |
| "learning_rate": 1.882386774373533e-05, |
| "loss": 0.0617, |
| "step": 10370 |
| }, |
| { |
| "epoch": 0.173, |
| "grad_norm": 36.5, |
| "learning_rate": 1.882135254355469e-05, |
| "loss": 0.0521, |
| "step": 10380 |
| }, |
| { |
| "epoch": 0.17316666666666666, |
| "grad_norm": 2.53125, |
| "learning_rate": 1.8818834825231796e-05, |
| "loss": 0.06, |
| "step": 10390 |
| }, |
| { |
| "epoch": 0.17333333333333334, |
| "grad_norm": 9.625, |
| "learning_rate": 1.881631458948534e-05, |
| "loss": 0.056, |
| "step": 10400 |
| }, |
| { |
| "epoch": 0.1735, |
| "grad_norm": 1.546875, |
| "learning_rate": 1.881379183703476e-05, |
| "loss": 0.0589, |
| "step": 10410 |
| }, |
| { |
| "epoch": 0.17366666666666666, |
| "grad_norm": 3.921875, |
| "learning_rate": 1.8811266568600194e-05, |
| "loss": 0.0534, |
| "step": 10420 |
| }, |
| { |
| "epoch": 0.17383333333333334, |
| "grad_norm": 2.5625, |
| "learning_rate": 1.880873878490251e-05, |
| "loss": 0.0565, |
| "step": 10430 |
| }, |
| { |
| "epoch": 0.174, |
| "grad_norm": 5.65625, |
| "learning_rate": 1.8806208486663286e-05, |
| "loss": 0.0564, |
| "step": 10440 |
| }, |
| { |
| "epoch": 0.17416666666666666, |
| "grad_norm": 2.5625, |
| "learning_rate": 1.880367567460482e-05, |
| "loss": 0.0661, |
| "step": 10450 |
| }, |
| { |
| "epoch": 0.17433333333333334, |
| "grad_norm": 7.34375, |
| "learning_rate": 1.8801140349450132e-05, |
| "loss": 0.0683, |
| "step": 10460 |
| }, |
| { |
| "epoch": 0.1745, |
| "grad_norm": 3.84375, |
| "learning_rate": 1.879860251192295e-05, |
| "loss": 0.0667, |
| "step": 10470 |
| }, |
| { |
| "epoch": 0.17466666666666666, |
| "grad_norm": 3.09375, |
| "learning_rate": 1.8796062162747725e-05, |
| "loss": 0.0536, |
| "step": 10480 |
| }, |
| { |
| "epoch": 0.17483333333333334, |
| "grad_norm": 11.5, |
| "learning_rate": 1.8793519302649633e-05, |
| "loss": 0.054, |
| "step": 10490 |
| }, |
| { |
| "epoch": 0.175, |
| "grad_norm": 10.5, |
| "learning_rate": 1.879097393235455e-05, |
| "loss": 0.0625, |
| "step": 10500 |
| }, |
| { |
| "epoch": 0.17516666666666666, |
| "grad_norm": 3.328125, |
| "learning_rate": 1.8788426052589076e-05, |
| "loss": 0.0518, |
| "step": 10510 |
| }, |
| { |
| "epoch": 0.17533333333333334, |
| "grad_norm": 3.5625, |
| "learning_rate": 1.878587566408054e-05, |
| "loss": 0.0716, |
| "step": 10520 |
| }, |
| { |
| "epoch": 0.1755, |
| "grad_norm": 17.75, |
| "learning_rate": 1.878332276755696e-05, |
| "loss": 0.0545, |
| "step": 10530 |
| }, |
| { |
| "epoch": 0.17566666666666667, |
| "grad_norm": 3.296875, |
| "learning_rate": 1.8780767363747103e-05, |
| "loss": 0.068, |
| "step": 10540 |
| }, |
| { |
| "epoch": 0.17583333333333334, |
| "grad_norm": 5.5, |
| "learning_rate": 1.877820945338042e-05, |
| "loss": 0.0607, |
| "step": 10550 |
| }, |
| { |
| "epoch": 0.176, |
| "grad_norm": 4.40625, |
| "learning_rate": 1.8775649037187092e-05, |
| "loss": 0.0554, |
| "step": 10560 |
| }, |
| { |
| "epoch": 0.17616666666666667, |
| "grad_norm": 1.8359375, |
| "learning_rate": 1.8773086115898027e-05, |
| "loss": 0.0572, |
| "step": 10570 |
| }, |
| { |
| "epoch": 0.17633333333333334, |
| "grad_norm": 2.171875, |
| "learning_rate": 1.8770520690244825e-05, |
| "loss": 0.0591, |
| "step": 10580 |
| }, |
| { |
| "epoch": 0.1765, |
| "grad_norm": 2.109375, |
| "learning_rate": 1.8767952760959817e-05, |
| "loss": 0.0625, |
| "step": 10590 |
| }, |
| { |
| "epoch": 0.17666666666666667, |
| "grad_norm": 7.28125, |
| "learning_rate": 1.8765382328776044e-05, |
| "loss": 0.0574, |
| "step": 10600 |
| }, |
| { |
| "epoch": 0.17683333333333334, |
| "grad_norm": 5.875, |
| "learning_rate": 1.876280939442726e-05, |
| "loss": 0.0598, |
| "step": 10610 |
| }, |
| { |
| "epoch": 0.177, |
| "grad_norm": 32.75, |
| "learning_rate": 1.8760233958647936e-05, |
| "loss": 0.0648, |
| "step": 10620 |
| }, |
| { |
| "epoch": 0.17716666666666667, |
| "grad_norm": 2.5625, |
| "learning_rate": 1.875765602217325e-05, |
| "loss": 0.065, |
| "step": 10630 |
| }, |
| { |
| "epoch": 0.17733333333333334, |
| "grad_norm": 4.40625, |
| "learning_rate": 1.8755075585739107e-05, |
| "loss": 0.0638, |
| "step": 10640 |
| }, |
| { |
| "epoch": 0.1775, |
| "grad_norm": 3.46875, |
| "learning_rate": 1.8752492650082112e-05, |
| "loss": 0.0696, |
| "step": 10650 |
| }, |
| { |
| "epoch": 0.17766666666666667, |
| "grad_norm": 12.6875, |
| "learning_rate": 1.8749907215939595e-05, |
| "loss": 0.0611, |
| "step": 10660 |
| }, |
| { |
| "epoch": 0.17783333333333334, |
| "grad_norm": 4.03125, |
| "learning_rate": 1.874731928404959e-05, |
| "loss": 0.0641, |
| "step": 10670 |
| }, |
| { |
| "epoch": 0.178, |
| "grad_norm": 18.625, |
| "learning_rate": 1.874472885515085e-05, |
| "loss": 0.0598, |
| "step": 10680 |
| }, |
| { |
| "epoch": 0.17816666666666667, |
| "grad_norm": 20.25, |
| "learning_rate": 1.8742135929982837e-05, |
| "loss": 0.0638, |
| "step": 10690 |
| }, |
| { |
| "epoch": 0.17833333333333334, |
| "grad_norm": 26.0, |
| "learning_rate": 1.8739540509285724e-05, |
| "loss": 0.0581, |
| "step": 10700 |
| }, |
| { |
| "epoch": 0.1785, |
| "grad_norm": 4.1875, |
| "learning_rate": 1.8736942593800408e-05, |
| "loss": 0.0526, |
| "step": 10710 |
| }, |
| { |
| "epoch": 0.17866666666666667, |
| "grad_norm": 30.625, |
| "learning_rate": 1.8734342184268483e-05, |
| "loss": 0.0543, |
| "step": 10720 |
| }, |
| { |
| "epoch": 0.17883333333333334, |
| "grad_norm": 22.125, |
| "learning_rate": 1.873173928143226e-05, |
| "loss": 0.0534, |
| "step": 10730 |
| }, |
| { |
| "epoch": 0.179, |
| "grad_norm": 11.5, |
| "learning_rate": 1.8729133886034773e-05, |
| "loss": 0.0695, |
| "step": 10740 |
| }, |
| { |
| "epoch": 0.17916666666666667, |
| "grad_norm": 53.25, |
| "learning_rate": 1.8726525998819743e-05, |
| "loss": 0.0619, |
| "step": 10750 |
| }, |
| { |
| "epoch": 0.17933333333333334, |
| "grad_norm": 6.21875, |
| "learning_rate": 1.872391562053163e-05, |
| "loss": 0.0606, |
| "step": 10760 |
| }, |
| { |
| "epoch": 0.1795, |
| "grad_norm": 3.75, |
| "learning_rate": 1.8721302751915588e-05, |
| "loss": 0.0632, |
| "step": 10770 |
| }, |
| { |
| "epoch": 0.17966666666666667, |
| "grad_norm": 18.0, |
| "learning_rate": 1.8718687393717484e-05, |
| "loss": 0.0625, |
| "step": 10780 |
| }, |
| { |
| "epoch": 0.17983333333333335, |
| "grad_norm": 5.9375, |
| "learning_rate": 1.8716069546683904e-05, |
| "loss": 0.0614, |
| "step": 10790 |
| }, |
| { |
| "epoch": 0.18, |
| "grad_norm": 4.90625, |
| "learning_rate": 1.8713449211562132e-05, |
| "loss": 0.0491, |
| "step": 10800 |
| }, |
| { |
| "epoch": 0.18016666666666667, |
| "grad_norm": 9.9375, |
| "learning_rate": 1.8710826389100168e-05, |
| "loss": 0.0695, |
| "step": 10810 |
| }, |
| { |
| "epoch": 0.18033333333333335, |
| "grad_norm": 3.609375, |
| "learning_rate": 1.870820108004673e-05, |
| "loss": 0.0686, |
| "step": 10820 |
| }, |
| { |
| "epoch": 0.1805, |
| "grad_norm": 6.15625, |
| "learning_rate": 1.870557328515123e-05, |
| "loss": 0.0544, |
| "step": 10830 |
| }, |
| { |
| "epoch": 0.18066666666666667, |
| "grad_norm": 24.375, |
| "learning_rate": 1.8702943005163802e-05, |
| "loss": 0.0648, |
| "step": 10840 |
| }, |
| { |
| "epoch": 0.18083333333333335, |
| "grad_norm": 3.28125, |
| "learning_rate": 1.8700310240835287e-05, |
| "loss": 0.0596, |
| "step": 10850 |
| }, |
| { |
| "epoch": 0.181, |
| "grad_norm": 2.796875, |
| "learning_rate": 1.8697674992917233e-05, |
| "loss": 0.0614, |
| "step": 10860 |
| }, |
| { |
| "epoch": 0.18116666666666667, |
| "grad_norm": 1.71875, |
| "learning_rate": 1.869503726216189e-05, |
| "loss": 0.0588, |
| "step": 10870 |
| }, |
| { |
| "epoch": 0.18133333333333335, |
| "grad_norm": 42.5, |
| "learning_rate": 1.8692397049322236e-05, |
| "loss": 0.057, |
| "step": 10880 |
| }, |
| { |
| "epoch": 0.1815, |
| "grad_norm": 20.75, |
| "learning_rate": 1.868975435515194e-05, |
| "loss": 0.0589, |
| "step": 10890 |
| }, |
| { |
| "epoch": 0.18166666666666667, |
| "grad_norm": 13.125, |
| "learning_rate": 1.8687109180405384e-05, |
| "loss": 0.0555, |
| "step": 10900 |
| }, |
| { |
| "epoch": 0.18183333333333335, |
| "grad_norm": 13.75, |
| "learning_rate": 1.868446152583766e-05, |
| "loss": 0.0615, |
| "step": 10910 |
| }, |
| { |
| "epoch": 0.182, |
| "grad_norm": 2.578125, |
| "learning_rate": 1.868181139220457e-05, |
| "loss": 0.0487, |
| "step": 10920 |
| }, |
| { |
| "epoch": 0.18216666666666667, |
| "grad_norm": 2.34375, |
| "learning_rate": 1.8679158780262618e-05, |
| "loss": 0.0698, |
| "step": 10930 |
| }, |
| { |
| "epoch": 0.18233333333333332, |
| "grad_norm": 1.4765625, |
| "learning_rate": 1.867650369076902e-05, |
| "loss": 0.0733, |
| "step": 10940 |
| }, |
| { |
| "epoch": 0.1825, |
| "grad_norm": 1.5546875, |
| "learning_rate": 1.8673846124481696e-05, |
| "loss": 0.0612, |
| "step": 10950 |
| }, |
| { |
| "epoch": 0.18266666666666667, |
| "grad_norm": 3.4375, |
| "learning_rate": 1.8671186082159275e-05, |
| "loss": 0.0513, |
| "step": 10960 |
| }, |
| { |
| "epoch": 0.18283333333333332, |
| "grad_norm": 7.40625, |
| "learning_rate": 1.8668523564561095e-05, |
| "loss": 0.0662, |
| "step": 10970 |
| }, |
| { |
| "epoch": 0.183, |
| "grad_norm": 2.296875, |
| "learning_rate": 1.8665858572447196e-05, |
| "loss": 0.075, |
| "step": 10980 |
| }, |
| { |
| "epoch": 0.18316666666666667, |
| "grad_norm": 27.625, |
| "learning_rate": 1.8663191106578324e-05, |
| "loss": 0.0461, |
| "step": 10990 |
| }, |
| { |
| "epoch": 0.18333333333333332, |
| "grad_norm": 4.0, |
| "learning_rate": 1.866052116771593e-05, |
| "loss": 0.054, |
| "step": 11000 |
| }, |
| { |
| "epoch": 0.1835, |
| "grad_norm": 15.0, |
| "learning_rate": 1.865784875662219e-05, |
| "loss": 0.0516, |
| "step": 11010 |
| }, |
| { |
| "epoch": 0.18366666666666667, |
| "grad_norm": 2.71875, |
| "learning_rate": 1.8655173874059956e-05, |
| "loss": 0.0619, |
| "step": 11020 |
| }, |
| { |
| "epoch": 0.18383333333333332, |
| "grad_norm": 6.15625, |
| "learning_rate": 1.86524965207928e-05, |
| "loss": 0.0545, |
| "step": 11030 |
| }, |
| { |
| "epoch": 0.184, |
| "grad_norm": 3.34375, |
| "learning_rate": 1.8649816697585005e-05, |
| "loss": 0.0729, |
| "step": 11040 |
| }, |
| { |
| "epoch": 0.18416666666666667, |
| "grad_norm": 12.0625, |
| "learning_rate": 1.8647134405201554e-05, |
| "loss": 0.059, |
| "step": 11050 |
| }, |
| { |
| "epoch": 0.18433333333333332, |
| "grad_norm": 28.375, |
| "learning_rate": 1.8644449644408126e-05, |
| "loss": 0.0613, |
| "step": 11060 |
| }, |
| { |
| "epoch": 0.1845, |
| "grad_norm": 8.3125, |
| "learning_rate": 1.864176241597112e-05, |
| "loss": 0.0648, |
| "step": 11070 |
| }, |
| { |
| "epoch": 0.18466666666666667, |
| "grad_norm": 40.75, |
| "learning_rate": 1.8639072720657626e-05, |
| "loss": 0.0757, |
| "step": 11080 |
| }, |
| { |
| "epoch": 0.18483333333333332, |
| "grad_norm": 22.625, |
| "learning_rate": 1.863638055923545e-05, |
| "loss": 0.0566, |
| "step": 11090 |
| }, |
| { |
| "epoch": 0.185, |
| "grad_norm": 3.515625, |
| "learning_rate": 1.8633685932473093e-05, |
| "loss": 0.0577, |
| "step": 11100 |
| }, |
| { |
| "epoch": 0.18516666666666667, |
| "grad_norm": 8.25, |
| "learning_rate": 1.863098884113976e-05, |
| "loss": 0.0626, |
| "step": 11110 |
| }, |
| { |
| "epoch": 0.18533333333333332, |
| "grad_norm": 20.25, |
| "learning_rate": 1.8628289286005366e-05, |
| "loss": 0.0593, |
| "step": 11120 |
| }, |
| { |
| "epoch": 0.1855, |
| "grad_norm": 11.6875, |
| "learning_rate": 1.8625587267840527e-05, |
| "loss": 0.0649, |
| "step": 11130 |
| }, |
| { |
| "epoch": 0.18566666666666667, |
| "grad_norm": 11.0625, |
| "learning_rate": 1.8622882787416558e-05, |
| "loss": 0.0518, |
| "step": 11140 |
| }, |
| { |
| "epoch": 0.18583333333333332, |
| "grad_norm": 10.9375, |
| "learning_rate": 1.862017584550548e-05, |
| "loss": 0.0564, |
| "step": 11150 |
| }, |
| { |
| "epoch": 0.186, |
| "grad_norm": 9.25, |
| "learning_rate": 1.861746644288002e-05, |
| "loss": 0.0509, |
| "step": 11160 |
| }, |
| { |
| "epoch": 0.18616666666666667, |
| "grad_norm": 15.4375, |
| "learning_rate": 1.8614754580313596e-05, |
| "loss": 0.065, |
| "step": 11170 |
| }, |
| { |
| "epoch": 0.18633333333333332, |
| "grad_norm": 22.25, |
| "learning_rate": 1.8612040258580345e-05, |
| "loss": 0.0718, |
| "step": 11180 |
| }, |
| { |
| "epoch": 0.1865, |
| "grad_norm": 13.1875, |
| "learning_rate": 1.860932347845509e-05, |
| "loss": 0.0719, |
| "step": 11190 |
| }, |
| { |
| "epoch": 0.18666666666666668, |
| "grad_norm": 14.1875, |
| "learning_rate": 1.8606604240713364e-05, |
| "loss": 0.056, |
| "step": 11200 |
| }, |
| { |
| "epoch": 0.18683333333333332, |
| "grad_norm": 4.6875, |
| "learning_rate": 1.8603882546131402e-05, |
| "loss": 0.0639, |
| "step": 11210 |
| }, |
| { |
| "epoch": 0.187, |
| "grad_norm": 6.375, |
| "learning_rate": 1.860115839548614e-05, |
| "loss": 0.059, |
| "step": 11220 |
| }, |
| { |
| "epoch": 0.18716666666666668, |
| "grad_norm": 10.9375, |
| "learning_rate": 1.859843178955521e-05, |
| "loss": 0.0513, |
| "step": 11230 |
| }, |
| { |
| "epoch": 0.18733333333333332, |
| "grad_norm": 4.8125, |
| "learning_rate": 1.859570272911695e-05, |
| "loss": 0.0548, |
| "step": 11240 |
| }, |
| { |
| "epoch": 0.1875, |
| "grad_norm": 7.3125, |
| "learning_rate": 1.8592971214950403e-05, |
| "loss": 0.0621, |
| "step": 11250 |
| }, |
| { |
| "epoch": 0.18766666666666668, |
| "grad_norm": 7.6875, |
| "learning_rate": 1.8590237247835296e-05, |
| "loss": 0.0556, |
| "step": 11260 |
| }, |
| { |
| "epoch": 0.18783333333333332, |
| "grad_norm": 2.8125, |
| "learning_rate": 1.8587500828552075e-05, |
| "loss": 0.0675, |
| "step": 11270 |
| }, |
| { |
| "epoch": 0.188, |
| "grad_norm": 47.75, |
| "learning_rate": 1.858476195788187e-05, |
| "loss": 0.0606, |
| "step": 11280 |
| }, |
| { |
| "epoch": 0.18816666666666668, |
| "grad_norm": 7.5, |
| "learning_rate": 1.858202063660653e-05, |
| "loss": 0.0773, |
| "step": 11290 |
| }, |
| { |
| "epoch": 0.18833333333333332, |
| "grad_norm": 2.390625, |
| "learning_rate": 1.8579276865508587e-05, |
| "loss": 0.0764, |
| "step": 11300 |
| }, |
| { |
| "epoch": 0.1885, |
| "grad_norm": 5.5625, |
| "learning_rate": 1.8576530645371275e-05, |
| "loss": 0.0767, |
| "step": 11310 |
| }, |
| { |
| "epoch": 0.18866666666666668, |
| "grad_norm": 10.375, |
| "learning_rate": 1.8573781976978528e-05, |
| "loss": 0.0661, |
| "step": 11320 |
| }, |
| { |
| "epoch": 0.18883333333333333, |
| "grad_norm": 24.875, |
| "learning_rate": 1.8571030861114986e-05, |
| "loss": 0.0528, |
| "step": 11330 |
| }, |
| { |
| "epoch": 0.189, |
| "grad_norm": 1.8984375, |
| "learning_rate": 1.856827729856598e-05, |
| "loss": 0.0759, |
| "step": 11340 |
| }, |
| { |
| "epoch": 0.18916666666666668, |
| "grad_norm": 12.125, |
| "learning_rate": 1.8565521290117544e-05, |
| "loss": 0.0717, |
| "step": 11350 |
| }, |
| { |
| "epoch": 0.18933333333333333, |
| "grad_norm": 7.75, |
| "learning_rate": 1.8562762836556407e-05, |
| "loss": 0.0596, |
| "step": 11360 |
| }, |
| { |
| "epoch": 0.1895, |
| "grad_norm": 47.0, |
| "learning_rate": 1.8560001938669994e-05, |
| "loss": 0.0666, |
| "step": 11370 |
| }, |
| { |
| "epoch": 0.18966666666666668, |
| "grad_norm": 2.265625, |
| "learning_rate": 1.855723859724643e-05, |
| "loss": 0.0522, |
| "step": 11380 |
| }, |
| { |
| "epoch": 0.18983333333333333, |
| "grad_norm": 3.203125, |
| "learning_rate": 1.8554472813074543e-05, |
| "loss": 0.0591, |
| "step": 11390 |
| }, |
| { |
| "epoch": 0.19, |
| "grad_norm": 17.75, |
| "learning_rate": 1.855170458694385e-05, |
| "loss": 0.0693, |
| "step": 11400 |
| }, |
| { |
| "epoch": 0.19016666666666668, |
| "grad_norm": 27.125, |
| "learning_rate": 1.8548933919644567e-05, |
| "loss": 0.0643, |
| "step": 11410 |
| }, |
| { |
| "epoch": 0.19033333333333333, |
| "grad_norm": 8.0, |
| "learning_rate": 1.8546160811967616e-05, |
| "loss": 0.0616, |
| "step": 11420 |
| }, |
| { |
| "epoch": 0.1905, |
| "grad_norm": 4.59375, |
| "learning_rate": 1.8543385264704598e-05, |
| "loss": 0.0637, |
| "step": 11430 |
| }, |
| { |
| "epoch": 0.19066666666666668, |
| "grad_norm": 20.875, |
| "learning_rate": 1.8540607278647828e-05, |
| "loss": 0.0556, |
| "step": 11440 |
| }, |
| { |
| "epoch": 0.19083333333333333, |
| "grad_norm": 7.5, |
| "learning_rate": 1.8537826854590302e-05, |
| "loss": 0.0656, |
| "step": 11450 |
| }, |
| { |
| "epoch": 0.191, |
| "grad_norm": 11.5, |
| "learning_rate": 1.8535043993325728e-05, |
| "loss": 0.0629, |
| "step": 11460 |
| }, |
| { |
| "epoch": 0.19116666666666668, |
| "grad_norm": 4.6875, |
| "learning_rate": 1.85322586956485e-05, |
| "loss": 0.0567, |
| "step": 11470 |
| }, |
| { |
| "epoch": 0.19133333333333333, |
| "grad_norm": 3.171875, |
| "learning_rate": 1.85294709623537e-05, |
| "loss": 0.0564, |
| "step": 11480 |
| }, |
| { |
| "epoch": 0.1915, |
| "grad_norm": 3.0, |
| "learning_rate": 1.852668079423712e-05, |
| "loss": 0.0645, |
| "step": 11490 |
| }, |
| { |
| "epoch": 0.19166666666666668, |
| "grad_norm": 4.4375, |
| "learning_rate": 1.8523888192095246e-05, |
| "loss": 0.0702, |
| "step": 11500 |
| }, |
| { |
| "epoch": 0.19183333333333333, |
| "grad_norm": 8.5625, |
| "learning_rate": 1.8521093156725245e-05, |
| "loss": 0.0706, |
| "step": 11510 |
| }, |
| { |
| "epoch": 0.192, |
| "grad_norm": 7.53125, |
| "learning_rate": 1.8518295688924993e-05, |
| "loss": 0.0518, |
| "step": 11520 |
| }, |
| { |
| "epoch": 0.19216666666666668, |
| "grad_norm": 17.625, |
| "learning_rate": 1.8515495789493053e-05, |
| "loss": 0.0698, |
| "step": 11530 |
| }, |
| { |
| "epoch": 0.19233333333333333, |
| "grad_norm": 7.625, |
| "learning_rate": 1.8512693459228684e-05, |
| "loss": 0.0599, |
| "step": 11540 |
| }, |
| { |
| "epoch": 0.1925, |
| "grad_norm": 4.75, |
| "learning_rate": 1.8509888698931843e-05, |
| "loss": 0.0739, |
| "step": 11550 |
| }, |
| { |
| "epoch": 0.19266666666666668, |
| "grad_norm": 7.625, |
| "learning_rate": 1.8507081509403167e-05, |
| "loss": 0.0492, |
| "step": 11560 |
| }, |
| { |
| "epoch": 0.19283333333333333, |
| "grad_norm": 2.546875, |
| "learning_rate": 1.8504271891444005e-05, |
| "loss": 0.0604, |
| "step": 11570 |
| }, |
| { |
| "epoch": 0.193, |
| "grad_norm": 2.8125, |
| "learning_rate": 1.8501459845856388e-05, |
| "loss": 0.0659, |
| "step": 11580 |
| }, |
| { |
| "epoch": 0.19316666666666665, |
| "grad_norm": 7.65625, |
| "learning_rate": 1.849864537344304e-05, |
| "loss": 0.0644, |
| "step": 11590 |
| }, |
| { |
| "epoch": 0.19333333333333333, |
| "grad_norm": 6.8125, |
| "learning_rate": 1.849582847500738e-05, |
| "loss": 0.0556, |
| "step": 11600 |
| }, |
| { |
| "epoch": 0.1935, |
| "grad_norm": 1.2421875, |
| "learning_rate": 1.8493009151353524e-05, |
| "loss": 0.0585, |
| "step": 11610 |
| }, |
| { |
| "epoch": 0.19366666666666665, |
| "grad_norm": 18.75, |
| "learning_rate": 1.849018740328627e-05, |
| "loss": 0.0619, |
| "step": 11620 |
| }, |
| { |
| "epoch": 0.19383333333333333, |
| "grad_norm": 2.640625, |
| "learning_rate": 1.8487363231611114e-05, |
| "loss": 0.059, |
| "step": 11630 |
| }, |
| { |
| "epoch": 0.194, |
| "grad_norm": 8.625, |
| "learning_rate": 1.848453663713425e-05, |
| "loss": 0.0495, |
| "step": 11640 |
| }, |
| { |
| "epoch": 0.19416666666666665, |
| "grad_norm": 5.78125, |
| "learning_rate": 1.848170762066255e-05, |
| "loss": 0.0622, |
| "step": 11650 |
| }, |
| { |
| "epoch": 0.19433333333333333, |
| "grad_norm": 16.625, |
| "learning_rate": 1.847887618300359e-05, |
| "loss": 0.0584, |
| "step": 11660 |
| }, |
| { |
| "epoch": 0.1945, |
| "grad_norm": 12.5625, |
| "learning_rate": 1.847604232496563e-05, |
| "loss": 0.0711, |
| "step": 11670 |
| }, |
| { |
| "epoch": 0.19466666666666665, |
| "grad_norm": 2.109375, |
| "learning_rate": 1.847320604735762e-05, |
| "loss": 0.0478, |
| "step": 11680 |
| }, |
| { |
| "epoch": 0.19483333333333333, |
| "grad_norm": 3.453125, |
| "learning_rate": 1.8470367350989208e-05, |
| "loss": 0.0682, |
| "step": 11690 |
| }, |
| { |
| "epoch": 0.195, |
| "grad_norm": 11.0625, |
| "learning_rate": 1.8467526236670726e-05, |
| "loss": 0.0666, |
| "step": 11700 |
| }, |
| { |
| "epoch": 0.19516666666666665, |
| "grad_norm": 52.0, |
| "learning_rate": 1.8464682705213198e-05, |
| "loss": 0.057, |
| "step": 11710 |
| }, |
| { |
| "epoch": 0.19533333333333333, |
| "grad_norm": 8.0625, |
| "learning_rate": 1.8461836757428342e-05, |
| "loss": 0.0546, |
| "step": 11720 |
| }, |
| { |
| "epoch": 0.1955, |
| "grad_norm": 12.8125, |
| "learning_rate": 1.8458988394128555e-05, |
| "loss": 0.0617, |
| "step": 11730 |
| }, |
| { |
| "epoch": 0.19566666666666666, |
| "grad_norm": 22.25, |
| "learning_rate": 1.8456137616126933e-05, |
| "loss": 0.0624, |
| "step": 11740 |
| }, |
| { |
| "epoch": 0.19583333333333333, |
| "grad_norm": 2.515625, |
| "learning_rate": 1.8453284424237263e-05, |
| "loss": 0.0744, |
| "step": 11750 |
| }, |
| { |
| "epoch": 0.196, |
| "grad_norm": 28.5, |
| "learning_rate": 1.8450428819274006e-05, |
| "loss": 0.056, |
| "step": 11760 |
| }, |
| { |
| "epoch": 0.19616666666666666, |
| "grad_norm": 3.4375, |
| "learning_rate": 1.8447570802052337e-05, |
| "loss": 0.0606, |
| "step": 11770 |
| }, |
| { |
| "epoch": 0.19633333333333333, |
| "grad_norm": 66.5, |
| "learning_rate": 1.8444710373388095e-05, |
| "loss": 0.0634, |
| "step": 11780 |
| }, |
| { |
| "epoch": 0.1965, |
| "grad_norm": 14.3125, |
| "learning_rate": 1.844184753409782e-05, |
| "loss": 0.0531, |
| "step": 11790 |
| }, |
| { |
| "epoch": 0.19666666666666666, |
| "grad_norm": 5.0625, |
| "learning_rate": 1.8438982284998745e-05, |
| "loss": 0.0577, |
| "step": 11800 |
| }, |
| { |
| "epoch": 0.19683333333333333, |
| "grad_norm": 8.6875, |
| "learning_rate": 1.843611462690877e-05, |
| "loss": 0.0581, |
| "step": 11810 |
| }, |
| { |
| "epoch": 0.197, |
| "grad_norm": 10.25, |
| "learning_rate": 1.8433244560646505e-05, |
| "loss": 0.0612, |
| "step": 11820 |
| }, |
| { |
| "epoch": 0.19716666666666666, |
| "grad_norm": 6.28125, |
| "learning_rate": 1.8430372087031242e-05, |
| "loss": 0.0612, |
| "step": 11830 |
| }, |
| { |
| "epoch": 0.19733333333333333, |
| "grad_norm": 12.8125, |
| "learning_rate": 1.842749720688295e-05, |
| "loss": 0.0617, |
| "step": 11840 |
| }, |
| { |
| "epoch": 0.1975, |
| "grad_norm": 10.0, |
| "learning_rate": 1.8424619921022293e-05, |
| "loss": 0.0646, |
| "step": 11850 |
| }, |
| { |
| "epoch": 0.19766666666666666, |
| "grad_norm": 2.90625, |
| "learning_rate": 1.8421740230270623e-05, |
| "loss": 0.0517, |
| "step": 11860 |
| }, |
| { |
| "epoch": 0.19783333333333333, |
| "grad_norm": 9.6875, |
| "learning_rate": 1.8418858135449976e-05, |
| "loss": 0.0714, |
| "step": 11870 |
| }, |
| { |
| "epoch": 0.198, |
| "grad_norm": 2.546875, |
| "learning_rate": 1.8415973637383074e-05, |
| "loss": 0.0653, |
| "step": 11880 |
| }, |
| { |
| "epoch": 0.19816666666666666, |
| "grad_norm": 26.125, |
| "learning_rate": 1.841308673689332e-05, |
| "loss": 0.0573, |
| "step": 11890 |
| }, |
| { |
| "epoch": 0.19833333333333333, |
| "grad_norm": 3.90625, |
| "learning_rate": 1.841019743480482e-05, |
| "loss": 0.0486, |
| "step": 11900 |
| }, |
| { |
| "epoch": 0.1985, |
| "grad_norm": 8.0, |
| "learning_rate": 1.8407305731942345e-05, |
| "loss": 0.0643, |
| "step": 11910 |
| }, |
| { |
| "epoch": 0.19866666666666666, |
| "grad_norm": 2.109375, |
| "learning_rate": 1.8404411629131363e-05, |
| "loss": 0.0618, |
| "step": 11920 |
| }, |
| { |
| "epoch": 0.19883333333333333, |
| "grad_norm": 7.40625, |
| "learning_rate": 1.840151512719802e-05, |
| "loss": 0.0573, |
| "step": 11930 |
| }, |
| { |
| "epoch": 0.199, |
| "grad_norm": 2.5, |
| "learning_rate": 1.839861622696916e-05, |
| "loss": 0.0725, |
| "step": 11940 |
| }, |
| { |
| "epoch": 0.19916666666666666, |
| "grad_norm": 3.84375, |
| "learning_rate": 1.8395714929272297e-05, |
| "loss": 0.0669, |
| "step": 11950 |
| }, |
| { |
| "epoch": 0.19933333333333333, |
| "grad_norm": 18.5, |
| "learning_rate": 1.839281123493563e-05, |
| "loss": 0.0597, |
| "step": 11960 |
| }, |
| { |
| "epoch": 0.1995, |
| "grad_norm": 5.1875, |
| "learning_rate": 1.838990514478806e-05, |
| "loss": 0.0616, |
| "step": 11970 |
| }, |
| { |
| "epoch": 0.19966666666666666, |
| "grad_norm": 3.671875, |
| "learning_rate": 1.8386996659659147e-05, |
| "loss": 0.0658, |
| "step": 11980 |
| }, |
| { |
| "epoch": 0.19983333333333334, |
| "grad_norm": 3.296875, |
| "learning_rate": 1.8384085780379154e-05, |
| "loss": 0.063, |
| "step": 11990 |
| }, |
| { |
| "epoch": 0.2, |
| "grad_norm": 14.3125, |
| "learning_rate": 1.8381172507779016e-05, |
| "loss": 0.073, |
| "step": 12000 |
| }, |
| { |
| "epoch": 0.20016666666666666, |
| "grad_norm": 5.9375, |
| "learning_rate": 1.837825684269036e-05, |
| "loss": 0.058, |
| "step": 12010 |
| }, |
| { |
| "epoch": 0.20033333333333334, |
| "grad_norm": 2.515625, |
| "learning_rate": 1.8375338785945487e-05, |
| "loss": 0.0575, |
| "step": 12020 |
| }, |
| { |
| "epoch": 0.2005, |
| "grad_norm": 16.0, |
| "learning_rate": 1.837241833837739e-05, |
| "loss": 0.0472, |
| "step": 12030 |
| }, |
| { |
| "epoch": 0.20066666666666666, |
| "grad_norm": 17.375, |
| "learning_rate": 1.8369495500819737e-05, |
| "loss": 0.0644, |
| "step": 12040 |
| }, |
| { |
| "epoch": 0.20083333333333334, |
| "grad_norm": 4.0625, |
| "learning_rate": 1.8366570274106878e-05, |
| "loss": 0.056, |
| "step": 12050 |
| }, |
| { |
| "epoch": 0.201, |
| "grad_norm": 5.96875, |
| "learning_rate": 1.8363642659073852e-05, |
| "loss": 0.0654, |
| "step": 12060 |
| }, |
| { |
| "epoch": 0.20116666666666666, |
| "grad_norm": 4.5625, |
| "learning_rate": 1.836071265655637e-05, |
| "loss": 0.0628, |
| "step": 12070 |
| }, |
| { |
| "epoch": 0.20133333333333334, |
| "grad_norm": 2.09375, |
| "learning_rate": 1.835778026739084e-05, |
| "loss": 0.0632, |
| "step": 12080 |
| }, |
| { |
| "epoch": 0.2015, |
| "grad_norm": 12.5625, |
| "learning_rate": 1.8354845492414332e-05, |
| "loss": 0.0645, |
| "step": 12090 |
| }, |
| { |
| "epoch": 0.20166666666666666, |
| "grad_norm": 6.59375, |
| "learning_rate": 1.835190833246461e-05, |
| "loss": 0.059, |
| "step": 12100 |
| }, |
| { |
| "epoch": 0.20183333333333334, |
| "grad_norm": 2.0, |
| "learning_rate": 1.834896878838012e-05, |
| "loss": 0.0624, |
| "step": 12110 |
| }, |
| { |
| "epoch": 0.202, |
| "grad_norm": 2.875, |
| "learning_rate": 1.8346026860999976e-05, |
| "loss": 0.0743, |
| "step": 12120 |
| }, |
| { |
| "epoch": 0.20216666666666666, |
| "grad_norm": 5.6875, |
| "learning_rate": 1.8343082551163984e-05, |
| "loss": 0.0442, |
| "step": 12130 |
| }, |
| { |
| "epoch": 0.20233333333333334, |
| "grad_norm": 9.5, |
| "learning_rate": 1.834013585971263e-05, |
| "loss": 0.07, |
| "step": 12140 |
| }, |
| { |
| "epoch": 0.2025, |
| "grad_norm": 2.25, |
| "learning_rate": 1.8337186787487066e-05, |
| "loss": 0.0602, |
| "step": 12150 |
| }, |
| { |
| "epoch": 0.20266666666666666, |
| "grad_norm": 4.625, |
| "learning_rate": 1.8334235335329143e-05, |
| "loss": 0.0691, |
| "step": 12160 |
| }, |
| { |
| "epoch": 0.20283333333333334, |
| "grad_norm": 12.625, |
| "learning_rate": 1.833128150408138e-05, |
| "loss": 0.056, |
| "step": 12170 |
| }, |
| { |
| "epoch": 0.203, |
| "grad_norm": 13.8125, |
| "learning_rate": 1.8328325294586973e-05, |
| "loss": 0.0629, |
| "step": 12180 |
| }, |
| { |
| "epoch": 0.20316666666666666, |
| "grad_norm": 3.15625, |
| "learning_rate": 1.832536670768981e-05, |
| "loss": 0.0623, |
| "step": 12190 |
| }, |
| { |
| "epoch": 0.20333333333333334, |
| "grad_norm": 3.765625, |
| "learning_rate": 1.8322405744234443e-05, |
| "loss": 0.0556, |
| "step": 12200 |
| }, |
| { |
| "epoch": 0.2035, |
| "grad_norm": 16.875, |
| "learning_rate": 1.8319442405066108e-05, |
| "loss": 0.0562, |
| "step": 12210 |
| }, |
| { |
| "epoch": 0.20366666666666666, |
| "grad_norm": 30.125, |
| "learning_rate": 1.831647669103072e-05, |
| "loss": 0.0591, |
| "step": 12220 |
| }, |
| { |
| "epoch": 0.20383333333333334, |
| "grad_norm": 2.9375, |
| "learning_rate": 1.831350860297487e-05, |
| "loss": 0.0538, |
| "step": 12230 |
| }, |
| { |
| "epoch": 0.204, |
| "grad_norm": 5.25, |
| "learning_rate": 1.831053814174583e-05, |
| "loss": 0.0683, |
| "step": 12240 |
| }, |
| { |
| "epoch": 0.20416666666666666, |
| "grad_norm": 11.0625, |
| "learning_rate": 1.830756530819155e-05, |
| "loss": 0.0641, |
| "step": 12250 |
| }, |
| { |
| "epoch": 0.20433333333333334, |
| "grad_norm": 30.75, |
| "learning_rate": 1.830459010316065e-05, |
| "loss": 0.0586, |
| "step": 12260 |
| }, |
| { |
| "epoch": 0.2045, |
| "grad_norm": 4.34375, |
| "learning_rate": 1.8301612527502433e-05, |
| "loss": 0.0504, |
| "step": 12270 |
| }, |
| { |
| "epoch": 0.20466666666666666, |
| "grad_norm": 1.8359375, |
| "learning_rate": 1.829863258206688e-05, |
| "loss": 0.0628, |
| "step": 12280 |
| }, |
| { |
| "epoch": 0.20483333333333334, |
| "grad_norm": 27.125, |
| "learning_rate": 1.829565026770465e-05, |
| "loss": 0.0553, |
| "step": 12290 |
| }, |
| { |
| "epoch": 0.205, |
| "grad_norm": 14.625, |
| "learning_rate": 1.829266558526706e-05, |
| "loss": 0.0577, |
| "step": 12300 |
| }, |
| { |
| "epoch": 0.20516666666666666, |
| "grad_norm": 9.5, |
| "learning_rate": 1.8289678535606124e-05, |
| "loss": 0.0666, |
| "step": 12310 |
| }, |
| { |
| "epoch": 0.20533333333333334, |
| "grad_norm": 4.875, |
| "learning_rate": 1.8286689119574532e-05, |
| "loss": 0.0648, |
| "step": 12320 |
| }, |
| { |
| "epoch": 0.2055, |
| "grad_norm": 9.0, |
| "learning_rate": 1.8283697338025632e-05, |
| "loss": 0.0687, |
| "step": 12330 |
| }, |
| { |
| "epoch": 0.20566666666666666, |
| "grad_norm": 6.8125, |
| "learning_rate": 1.8280703191813468e-05, |
| "loss": 0.0563, |
| "step": 12340 |
| }, |
| { |
| "epoch": 0.20583333333333334, |
| "grad_norm": 10.0, |
| "learning_rate": 1.8277706681792736e-05, |
| "loss": 0.0523, |
| "step": 12350 |
| }, |
| { |
| "epoch": 0.206, |
| "grad_norm": 2.984375, |
| "learning_rate": 1.827470780881883e-05, |
| "loss": 0.0671, |
| "step": 12360 |
| }, |
| { |
| "epoch": 0.20616666666666666, |
| "grad_norm": 17.75, |
| "learning_rate": 1.8271706573747802e-05, |
| "loss": 0.0537, |
| "step": 12370 |
| }, |
| { |
| "epoch": 0.20633333333333334, |
| "grad_norm": 4.84375, |
| "learning_rate": 1.826870297743639e-05, |
| "loss": 0.0662, |
| "step": 12380 |
| }, |
| { |
| "epoch": 0.2065, |
| "grad_norm": 23.75, |
| "learning_rate": 1.826569702074199e-05, |
| "loss": 0.0537, |
| "step": 12390 |
| }, |
| { |
| "epoch": 0.20666666666666667, |
| "grad_norm": 13.875, |
| "learning_rate": 1.8262688704522694e-05, |
| "loss": 0.0619, |
| "step": 12400 |
| }, |
| { |
| "epoch": 0.20683333333333334, |
| "grad_norm": 11.375, |
| "learning_rate": 1.825967802963725e-05, |
| "loss": 0.0601, |
| "step": 12410 |
| }, |
| { |
| "epoch": 0.207, |
| "grad_norm": 4.0625, |
| "learning_rate": 1.8256664996945083e-05, |
| "loss": 0.0555, |
| "step": 12420 |
| }, |
| { |
| "epoch": 0.20716666666666667, |
| "grad_norm": 14.9375, |
| "learning_rate": 1.8253649607306294e-05, |
| "loss": 0.0666, |
| "step": 12430 |
| }, |
| { |
| "epoch": 0.20733333333333334, |
| "grad_norm": 11.75, |
| "learning_rate": 1.825063186158166e-05, |
| "loss": 0.0591, |
| "step": 12440 |
| }, |
| { |
| "epoch": 0.2075, |
| "grad_norm": 23.75, |
| "learning_rate": 1.824761176063262e-05, |
| "loss": 0.0619, |
| "step": 12450 |
| }, |
| { |
| "epoch": 0.20766666666666667, |
| "grad_norm": 7.75, |
| "learning_rate": 1.8244589305321294e-05, |
| "loss": 0.062, |
| "step": 12460 |
| }, |
| { |
| "epoch": 0.20783333333333334, |
| "grad_norm": 16.625, |
| "learning_rate": 1.8241564496510476e-05, |
| "loss": 0.063, |
| "step": 12470 |
| }, |
| { |
| "epoch": 0.208, |
| "grad_norm": 2.984375, |
| "learning_rate": 1.823853733506362e-05, |
| "loss": 0.0582, |
| "step": 12480 |
| }, |
| { |
| "epoch": 0.20816666666666667, |
| "grad_norm": 2.34375, |
| "learning_rate": 1.8235507821844865e-05, |
| "loss": 0.0651, |
| "step": 12490 |
| }, |
| { |
| "epoch": 0.20833333333333334, |
| "grad_norm": 13.25, |
| "learning_rate": 1.8232475957719015e-05, |
| "loss": 0.0563, |
| "step": 12500 |
| }, |
| { |
| "epoch": 0.2085, |
| "grad_norm": 29.125, |
| "learning_rate": 1.8229441743551546e-05, |
| "loss": 0.0658, |
| "step": 12510 |
| }, |
| { |
| "epoch": 0.20866666666666667, |
| "grad_norm": 2.296875, |
| "learning_rate": 1.82264051802086e-05, |
| "loss": 0.0631, |
| "step": 12520 |
| }, |
| { |
| "epoch": 0.20883333333333334, |
| "grad_norm": 18.0, |
| "learning_rate": 1.8223366268556996e-05, |
| "loss": 0.0468, |
| "step": 12530 |
| }, |
| { |
| "epoch": 0.209, |
| "grad_norm": 22.125, |
| "learning_rate": 1.8220325009464225e-05, |
| "loss": 0.0604, |
| "step": 12540 |
| }, |
| { |
| "epoch": 0.20916666666666667, |
| "grad_norm": 8.5, |
| "learning_rate": 1.8217281403798438e-05, |
| "loss": 0.0615, |
| "step": 12550 |
| }, |
| { |
| "epoch": 0.20933333333333334, |
| "grad_norm": 11.1875, |
| "learning_rate": 1.8214235452428468e-05, |
| "loss": 0.0661, |
| "step": 12560 |
| }, |
| { |
| "epoch": 0.2095, |
| "grad_norm": 2.09375, |
| "learning_rate": 1.821118715622381e-05, |
| "loss": 0.0542, |
| "step": 12570 |
| }, |
| { |
| "epoch": 0.20966666666666667, |
| "grad_norm": 2.34375, |
| "learning_rate": 1.8208136516054628e-05, |
| "loss": 0.0621, |
| "step": 12580 |
| }, |
| { |
| "epoch": 0.20983333333333334, |
| "grad_norm": 25.5, |
| "learning_rate": 1.820508353279176e-05, |
| "loss": 0.0539, |
| "step": 12590 |
| }, |
| { |
| "epoch": 0.21, |
| "grad_norm": 9.6875, |
| "learning_rate": 1.8202028207306712e-05, |
| "loss": 0.0607, |
| "step": 12600 |
| }, |
| { |
| "epoch": 0.21016666666666667, |
| "grad_norm": 2.046875, |
| "learning_rate": 1.8198970540471653e-05, |
| "loss": 0.0522, |
| "step": 12610 |
| }, |
| { |
| "epoch": 0.21033333333333334, |
| "grad_norm": 13.0, |
| "learning_rate": 1.8195910533159427e-05, |
| "loss": 0.0652, |
| "step": 12620 |
| }, |
| { |
| "epoch": 0.2105, |
| "grad_norm": 3.125, |
| "learning_rate": 1.819284818624354e-05, |
| "loss": 0.0646, |
| "step": 12630 |
| }, |
| { |
| "epoch": 0.21066666666666667, |
| "grad_norm": 7.53125, |
| "learning_rate": 1.8189783500598173e-05, |
| "loss": 0.0517, |
| "step": 12640 |
| }, |
| { |
| "epoch": 0.21083333333333334, |
| "grad_norm": 12.8125, |
| "learning_rate": 1.818671647709817e-05, |
| "loss": 0.0485, |
| "step": 12650 |
| }, |
| { |
| "epoch": 0.211, |
| "grad_norm": 25.625, |
| "learning_rate": 1.8183647116619037e-05, |
| "loss": 0.0572, |
| "step": 12660 |
| }, |
| { |
| "epoch": 0.21116666666666667, |
| "grad_norm": 11.375, |
| "learning_rate": 1.8180575420036962e-05, |
| "loss": 0.0561, |
| "step": 12670 |
| }, |
| { |
| "epoch": 0.21133333333333335, |
| "grad_norm": 4.625, |
| "learning_rate": 1.817750138822879e-05, |
| "loss": 0.0569, |
| "step": 12680 |
| }, |
| { |
| "epoch": 0.2115, |
| "grad_norm": 7.5625, |
| "learning_rate": 1.8174425022072027e-05, |
| "loss": 0.0618, |
| "step": 12690 |
| }, |
| { |
| "epoch": 0.21166666666666667, |
| "grad_norm": 7.21875, |
| "learning_rate": 1.817134632244486e-05, |
| "loss": 0.0633, |
| "step": 12700 |
| }, |
| { |
| "epoch": 0.21183333333333335, |
| "grad_norm": 19.125, |
| "learning_rate": 1.816826529022613e-05, |
| "loss": 0.063, |
| "step": 12710 |
| }, |
| { |
| "epoch": 0.212, |
| "grad_norm": 11.625, |
| "learning_rate": 1.816518192629535e-05, |
| "loss": 0.06, |
| "step": 12720 |
| }, |
| { |
| "epoch": 0.21216666666666667, |
| "grad_norm": 6.78125, |
| "learning_rate": 1.8162096231532694e-05, |
| "loss": 0.0617, |
| "step": 12730 |
| }, |
| { |
| "epoch": 0.21233333333333335, |
| "grad_norm": 3.109375, |
| "learning_rate": 1.8159008206819003e-05, |
| "loss": 0.0647, |
| "step": 12740 |
| }, |
| { |
| "epoch": 0.2125, |
| "grad_norm": 10.8125, |
| "learning_rate": 1.8155917853035792e-05, |
| "loss": 0.0564, |
| "step": 12750 |
| }, |
| { |
| "epoch": 0.21266666666666667, |
| "grad_norm": 10.9375, |
| "learning_rate": 1.8152825171065224e-05, |
| "loss": 0.0809, |
| "step": 12760 |
| }, |
| { |
| "epoch": 0.21283333333333335, |
| "grad_norm": 11.875, |
| "learning_rate": 1.814973016179014e-05, |
| "loss": 0.0538, |
| "step": 12770 |
| }, |
| { |
| "epoch": 0.213, |
| "grad_norm": 17.375, |
| "learning_rate": 1.8146632826094043e-05, |
| "loss": 0.0543, |
| "step": 12780 |
| }, |
| { |
| "epoch": 0.21316666666666667, |
| "grad_norm": 46.0, |
| "learning_rate": 1.8143533164861092e-05, |
| "loss": 0.0679, |
| "step": 12790 |
| }, |
| { |
| "epoch": 0.21333333333333335, |
| "grad_norm": 7.21875, |
| "learning_rate": 1.8140431178976122e-05, |
| "loss": 0.0575, |
| "step": 12800 |
| }, |
| { |
| "epoch": 0.2135, |
| "grad_norm": 1.6171875, |
| "learning_rate": 1.8137326869324623e-05, |
| "loss": 0.0632, |
| "step": 12810 |
| }, |
| { |
| "epoch": 0.21366666666666667, |
| "grad_norm": 24.75, |
| "learning_rate": 1.813422023679275e-05, |
| "loss": 0.064, |
| "step": 12820 |
| }, |
| { |
| "epoch": 0.21383333333333332, |
| "grad_norm": 3.234375, |
| "learning_rate": 1.8131111282267323e-05, |
| "loss": 0.0722, |
| "step": 12830 |
| }, |
| { |
| "epoch": 0.214, |
| "grad_norm": 6.0625, |
| "learning_rate": 1.8128000006635825e-05, |
| "loss": 0.0607, |
| "step": 12840 |
| }, |
| { |
| "epoch": 0.21416666666666667, |
| "grad_norm": 3.015625, |
| "learning_rate": 1.8124886410786397e-05, |
| "loss": 0.0817, |
| "step": 12850 |
| }, |
| { |
| "epoch": 0.21433333333333332, |
| "grad_norm": 7.5, |
| "learning_rate": 1.812177049560785e-05, |
| "loss": 0.0518, |
| "step": 12860 |
| }, |
| { |
| "epoch": 0.2145, |
| "grad_norm": 88.0, |
| "learning_rate": 1.8118652261989647e-05, |
| "loss": 0.0785, |
| "step": 12870 |
| }, |
| { |
| "epoch": 0.21466666666666667, |
| "grad_norm": 3.109375, |
| "learning_rate": 1.8115531710821926e-05, |
| "loss": 0.058, |
| "step": 12880 |
| }, |
| { |
| "epoch": 0.21483333333333332, |
| "grad_norm": 13.25, |
| "learning_rate": 1.811240884299547e-05, |
| "loss": 0.0585, |
| "step": 12890 |
| }, |
| { |
| "epoch": 0.215, |
| "grad_norm": 2.90625, |
| "learning_rate": 1.8109283659401746e-05, |
| "loss": 0.0623, |
| "step": 12900 |
| }, |
| { |
| "epoch": 0.21516666666666667, |
| "grad_norm": 18.75, |
| "learning_rate": 1.8106156160932854e-05, |
| "loss": 0.0622, |
| "step": 12910 |
| }, |
| { |
| "epoch": 0.21533333333333332, |
| "grad_norm": 11.8125, |
| "learning_rate": 1.8103026348481576e-05, |
| "loss": 0.0536, |
| "step": 12920 |
| }, |
| { |
| "epoch": 0.2155, |
| "grad_norm": 20.5, |
| "learning_rate": 1.8099894222941348e-05, |
| "loss": 0.0634, |
| "step": 12930 |
| }, |
| { |
| "epoch": 0.21566666666666667, |
| "grad_norm": 1.453125, |
| "learning_rate": 1.8096759785206268e-05, |
| "loss": 0.0452, |
| "step": 12940 |
| }, |
| { |
| "epoch": 0.21583333333333332, |
| "grad_norm": 65.5, |
| "learning_rate": 1.8093623036171087e-05, |
| "loss": 0.0757, |
| "step": 12950 |
| }, |
| { |
| "epoch": 0.216, |
| "grad_norm": 61.5, |
| "learning_rate": 1.8090483976731224e-05, |
| "loss": 0.0613, |
| "step": 12960 |
| }, |
| { |
| "epoch": 0.21616666666666667, |
| "grad_norm": 19.125, |
| "learning_rate": 1.808734260778276e-05, |
| "loss": 0.0782, |
| "step": 12970 |
| }, |
| { |
| "epoch": 0.21633333333333332, |
| "grad_norm": 13.75, |
| "learning_rate": 1.8084198930222418e-05, |
| "loss": 0.0447, |
| "step": 12980 |
| }, |
| { |
| "epoch": 0.2165, |
| "grad_norm": 3.265625, |
| "learning_rate": 1.8081052944947602e-05, |
| "loss": 0.0636, |
| "step": 12990 |
| }, |
| { |
| "epoch": 0.21666666666666667, |
| "grad_norm": 16.0, |
| "learning_rate": 1.8077904652856356e-05, |
| "loss": 0.0626, |
| "step": 13000 |
| }, |
| { |
| "epoch": 0.21683333333333332, |
| "grad_norm": 12.6875, |
| "learning_rate": 1.80747540548474e-05, |
| "loss": 0.0715, |
| "step": 13010 |
| }, |
| { |
| "epoch": 0.217, |
| "grad_norm": 8.25, |
| "learning_rate": 1.80716011518201e-05, |
| "loss": 0.0658, |
| "step": 13020 |
| }, |
| { |
| "epoch": 0.21716666666666667, |
| "grad_norm": 2.359375, |
| "learning_rate": 1.8068445944674478e-05, |
| "loss": 0.066, |
| "step": 13030 |
| }, |
| { |
| "epoch": 0.21733333333333332, |
| "grad_norm": 5.6875, |
| "learning_rate": 1.8065288434311226e-05, |
| "loss": 0.0557, |
| "step": 13040 |
| }, |
| { |
| "epoch": 0.2175, |
| "grad_norm": 2.1875, |
| "learning_rate": 1.8062128621631684e-05, |
| "loss": 0.0734, |
| "step": 13050 |
| }, |
| { |
| "epoch": 0.21766666666666667, |
| "grad_norm": 6.875, |
| "learning_rate": 1.8058966507537854e-05, |
| "loss": 0.0581, |
| "step": 13060 |
| }, |
| { |
| "epoch": 0.21783333333333332, |
| "grad_norm": 5.59375, |
| "learning_rate": 1.805580209293239e-05, |
| "loss": 0.0577, |
| "step": 13070 |
| }, |
| { |
| "epoch": 0.218, |
| "grad_norm": 1.9140625, |
| "learning_rate": 1.8052635378718605e-05, |
| "loss": 0.0564, |
| "step": 13080 |
| }, |
| { |
| "epoch": 0.21816666666666668, |
| "grad_norm": 2.640625, |
| "learning_rate": 1.8049466365800466e-05, |
| "loss": 0.0677, |
| "step": 13090 |
| }, |
| { |
| "epoch": 0.21833333333333332, |
| "grad_norm": 10.75, |
| "learning_rate": 1.8046295055082607e-05, |
| "loss": 0.0626, |
| "step": 13100 |
| }, |
| { |
| "epoch": 0.2185, |
| "grad_norm": 6.8125, |
| "learning_rate": 1.8043121447470305e-05, |
| "loss": 0.0631, |
| "step": 13110 |
| }, |
| { |
| "epoch": 0.21866666666666668, |
| "grad_norm": 6.09375, |
| "learning_rate": 1.80399455438695e-05, |
| "loss": 0.0596, |
| "step": 13120 |
| }, |
| { |
| "epoch": 0.21883333333333332, |
| "grad_norm": 5.3125, |
| "learning_rate": 1.8036767345186783e-05, |
| "loss": 0.0523, |
| "step": 13130 |
| }, |
| { |
| "epoch": 0.219, |
| "grad_norm": 28.0, |
| "learning_rate": 1.80335868523294e-05, |
| "loss": 0.0542, |
| "step": 13140 |
| }, |
| { |
| "epoch": 0.21916666666666668, |
| "grad_norm": 5.8125, |
| "learning_rate": 1.803040406620526e-05, |
| "loss": 0.0594, |
| "step": 13150 |
| }, |
| { |
| "epoch": 0.21933333333333332, |
| "grad_norm": 2.65625, |
| "learning_rate": 1.802721898772292e-05, |
| "loss": 0.0608, |
| "step": 13160 |
| }, |
| { |
| "epoch": 0.2195, |
| "grad_norm": 1.828125, |
| "learning_rate": 1.8024031617791585e-05, |
| "loss": 0.052, |
| "step": 13170 |
| }, |
| { |
| "epoch": 0.21966666666666668, |
| "grad_norm": 5.96875, |
| "learning_rate": 1.8020841957321127e-05, |
| "loss": 0.0631, |
| "step": 13180 |
| }, |
| { |
| "epoch": 0.21983333333333333, |
| "grad_norm": 5.03125, |
| "learning_rate": 1.8017650007222066e-05, |
| "loss": 0.0506, |
| "step": 13190 |
| }, |
| { |
| "epoch": 0.22, |
| "grad_norm": 17.125, |
| "learning_rate": 1.8014455768405578e-05, |
| "loss": 0.0619, |
| "step": 13200 |
| }, |
| { |
| "epoch": 0.22016666666666668, |
| "grad_norm": 3.578125, |
| "learning_rate": 1.801125924178348e-05, |
| "loss": 0.0539, |
| "step": 13210 |
| }, |
| { |
| "epoch": 0.22033333333333333, |
| "grad_norm": 2.859375, |
| "learning_rate": 1.8008060428268266e-05, |
| "loss": 0.0506, |
| "step": 13220 |
| }, |
| { |
| "epoch": 0.2205, |
| "grad_norm": 32.0, |
| "learning_rate": 1.800485932877306e-05, |
| "loss": 0.0672, |
| "step": 13230 |
| }, |
| { |
| "epoch": 0.22066666666666668, |
| "grad_norm": 9.3125, |
| "learning_rate": 1.8001655944211646e-05, |
| "loss": 0.055, |
| "step": 13240 |
| }, |
| { |
| "epoch": 0.22083333333333333, |
| "grad_norm": 15.25, |
| "learning_rate": 1.799845027549847e-05, |
| "loss": 0.0733, |
| "step": 13250 |
| }, |
| { |
| "epoch": 0.221, |
| "grad_norm": 15.3125, |
| "learning_rate": 1.7995242323548613e-05, |
| "loss": 0.0491, |
| "step": 13260 |
| }, |
| { |
| "epoch": 0.22116666666666668, |
| "grad_norm": 2.296875, |
| "learning_rate": 1.7992032089277822e-05, |
| "loss": 0.0662, |
| "step": 13270 |
| }, |
| { |
| "epoch": 0.22133333333333333, |
| "grad_norm": 6.65625, |
| "learning_rate": 1.798881957360249e-05, |
| "loss": 0.0664, |
| "step": 13280 |
| }, |
| { |
| "epoch": 0.2215, |
| "grad_norm": 34.5, |
| "learning_rate": 1.798560477743966e-05, |
| "loss": 0.05, |
| "step": 13290 |
| }, |
| { |
| "epoch": 0.22166666666666668, |
| "grad_norm": 20.875, |
| "learning_rate": 1.7982387701707024e-05, |
| "loss": 0.0493, |
| "step": 13300 |
| }, |
| { |
| "epoch": 0.22183333333333333, |
| "grad_norm": 12.25, |
| "learning_rate": 1.7979168347322934e-05, |
| "loss": 0.0584, |
| "step": 13310 |
| }, |
| { |
| "epoch": 0.222, |
| "grad_norm": 5.25, |
| "learning_rate": 1.7975946715206385e-05, |
| "loss": 0.0621, |
| "step": 13320 |
| }, |
| { |
| "epoch": 0.22216666666666668, |
| "grad_norm": 6.4375, |
| "learning_rate": 1.7972722806277024e-05, |
| "loss": 0.0519, |
| "step": 13330 |
| }, |
| { |
| "epoch": 0.22233333333333333, |
| "grad_norm": 2.015625, |
| "learning_rate": 1.796949662145514e-05, |
| "loss": 0.0504, |
| "step": 13340 |
| }, |
| { |
| "epoch": 0.2225, |
| "grad_norm": 15.1875, |
| "learning_rate": 1.7966268161661693e-05, |
| "loss": 0.0592, |
| "step": 13350 |
| }, |
| { |
| "epoch": 0.22266666666666668, |
| "grad_norm": 10.25, |
| "learning_rate": 1.7963037427818268e-05, |
| "loss": 0.0462, |
| "step": 13360 |
| }, |
| { |
| "epoch": 0.22283333333333333, |
| "grad_norm": 10.25, |
| "learning_rate": 1.7959804420847115e-05, |
| "loss": 0.059, |
| "step": 13370 |
| }, |
| { |
| "epoch": 0.223, |
| "grad_norm": 8.5, |
| "learning_rate": 1.7956569141671124e-05, |
| "loss": 0.0505, |
| "step": 13380 |
| }, |
| { |
| "epoch": 0.22316666666666668, |
| "grad_norm": 10.4375, |
| "learning_rate": 1.7953331591213843e-05, |
| "loss": 0.0549, |
| "step": 13390 |
| }, |
| { |
| "epoch": 0.22333333333333333, |
| "grad_norm": 7.4375, |
| "learning_rate": 1.795009177039946e-05, |
| "loss": 0.0572, |
| "step": 13400 |
| }, |
| { |
| "epoch": 0.2235, |
| "grad_norm": 26.625, |
| "learning_rate": 1.7946849680152806e-05, |
| "loss": 0.0598, |
| "step": 13410 |
| }, |
| { |
| "epoch": 0.22366666666666668, |
| "grad_norm": 20.125, |
| "learning_rate": 1.7943605321399383e-05, |
| "loss": 0.0493, |
| "step": 13420 |
| }, |
| { |
| "epoch": 0.22383333333333333, |
| "grad_norm": 26.75, |
| "learning_rate": 1.7940358695065313e-05, |
| "loss": 0.0592, |
| "step": 13430 |
| }, |
| { |
| "epoch": 0.224, |
| "grad_norm": 11.6875, |
| "learning_rate": 1.793710980207738e-05, |
| "loss": 0.0642, |
| "step": 13440 |
| }, |
| { |
| "epoch": 0.22416666666666665, |
| "grad_norm": 1.53125, |
| "learning_rate": 1.7933858643363018e-05, |
| "loss": 0.0608, |
| "step": 13450 |
| }, |
| { |
| "epoch": 0.22433333333333333, |
| "grad_norm": 4.59375, |
| "learning_rate": 1.7930605219850296e-05, |
| "loss": 0.0697, |
| "step": 13460 |
| }, |
| { |
| "epoch": 0.2245, |
| "grad_norm": 8.8125, |
| "learning_rate": 1.7927349532467944e-05, |
| "loss": 0.0626, |
| "step": 13470 |
| }, |
| { |
| "epoch": 0.22466666666666665, |
| "grad_norm": 7.1875, |
| "learning_rate": 1.792409158214532e-05, |
| "loss": 0.0549, |
| "step": 13480 |
| }, |
| { |
| "epoch": 0.22483333333333333, |
| "grad_norm": 2.03125, |
| "learning_rate": 1.7920831369812445e-05, |
| "loss": 0.0518, |
| "step": 13490 |
| }, |
| { |
| "epoch": 0.225, |
| "grad_norm": 4.4375, |
| "learning_rate": 1.7917568896399974e-05, |
| "loss": 0.0543, |
| "step": 13500 |
| }, |
| { |
| "epoch": 0.22516666666666665, |
| "grad_norm": 14.8125, |
| "learning_rate": 1.7914304162839218e-05, |
| "loss": 0.0595, |
| "step": 13510 |
| }, |
| { |
| "epoch": 0.22533333333333333, |
| "grad_norm": 6.28125, |
| "learning_rate": 1.7911037170062125e-05, |
| "loss": 0.064, |
| "step": 13520 |
| }, |
| { |
| "epoch": 0.2255, |
| "grad_norm": 35.25, |
| "learning_rate": 1.7907767919001286e-05, |
| "loss": 0.0646, |
| "step": 13530 |
| }, |
| { |
| "epoch": 0.22566666666666665, |
| "grad_norm": 30.875, |
| "learning_rate": 1.7904496410589948e-05, |
| "loss": 0.0631, |
| "step": 13540 |
| }, |
| { |
| "epoch": 0.22583333333333333, |
| "grad_norm": 12.3125, |
| "learning_rate": 1.7901222645761992e-05, |
| "loss": 0.0539, |
| "step": 13550 |
| }, |
| { |
| "epoch": 0.226, |
| "grad_norm": 7.75, |
| "learning_rate": 1.7897946625451947e-05, |
| "loss": 0.069, |
| "step": 13560 |
| }, |
| { |
| "epoch": 0.22616666666666665, |
| "grad_norm": 11.6875, |
| "learning_rate": 1.7894668350594983e-05, |
| "loss": 0.0667, |
| "step": 13570 |
| }, |
| { |
| "epoch": 0.22633333333333333, |
| "grad_norm": 10.9375, |
| "learning_rate": 1.789138782212692e-05, |
| "loss": 0.0471, |
| "step": 13580 |
| }, |
| { |
| "epoch": 0.2265, |
| "grad_norm": 4.8125, |
| "learning_rate": 1.7888105040984217e-05, |
| "loss": 0.0506, |
| "step": 13590 |
| }, |
| { |
| "epoch": 0.22666666666666666, |
| "grad_norm": 2.0, |
| "learning_rate": 1.788482000810397e-05, |
| "loss": 0.0578, |
| "step": 13600 |
| }, |
| { |
| "epoch": 0.22683333333333333, |
| "grad_norm": 16.875, |
| "learning_rate": 1.7881532724423934e-05, |
| "loss": 0.0644, |
| "step": 13610 |
| }, |
| { |
| "epoch": 0.227, |
| "grad_norm": 9.25, |
| "learning_rate": 1.787824319088249e-05, |
| "loss": 0.0711, |
| "step": 13620 |
| }, |
| { |
| "epoch": 0.22716666666666666, |
| "grad_norm": 5.4375, |
| "learning_rate": 1.7874951408418667e-05, |
| "loss": 0.0754, |
| "step": 13630 |
| }, |
| { |
| "epoch": 0.22733333333333333, |
| "grad_norm": 2.578125, |
| "learning_rate": 1.787165737797214e-05, |
| "loss": 0.0556, |
| "step": 13640 |
| }, |
| { |
| "epoch": 0.2275, |
| "grad_norm": 6.46875, |
| "learning_rate": 1.7868361100483224e-05, |
| "loss": 0.0645, |
| "step": 13650 |
| }, |
| { |
| "epoch": 0.22766666666666666, |
| "grad_norm": 8.625, |
| "learning_rate": 1.7865062576892872e-05, |
| "loss": 0.0645, |
| "step": 13660 |
| }, |
| { |
| "epoch": 0.22783333333333333, |
| "grad_norm": 32.0, |
| "learning_rate": 1.7861761808142675e-05, |
| "loss": 0.0569, |
| "step": 13670 |
| }, |
| { |
| "epoch": 0.228, |
| "grad_norm": 4.34375, |
| "learning_rate": 1.7858458795174877e-05, |
| "loss": 0.0611, |
| "step": 13680 |
| }, |
| { |
| "epoch": 0.22816666666666666, |
| "grad_norm": 2.296875, |
| "learning_rate": 1.7855153538932356e-05, |
| "loss": 0.0645, |
| "step": 13690 |
| }, |
| { |
| "epoch": 0.22833333333333333, |
| "grad_norm": 5.59375, |
| "learning_rate": 1.7851846040358626e-05, |
| "loss": 0.0491, |
| "step": 13700 |
| }, |
| { |
| "epoch": 0.2285, |
| "grad_norm": 3.53125, |
| "learning_rate": 1.7848536300397848e-05, |
| "loss": 0.0575, |
| "step": 13710 |
| }, |
| { |
| "epoch": 0.22866666666666666, |
| "grad_norm": 9.375, |
| "learning_rate": 1.7845224319994816e-05, |
| "loss": 0.0531, |
| "step": 13720 |
| }, |
| { |
| "epoch": 0.22883333333333333, |
| "grad_norm": 7.21875, |
| "learning_rate": 1.784191010009497e-05, |
| "loss": 0.0539, |
| "step": 13730 |
| }, |
| { |
| "epoch": 0.229, |
| "grad_norm": 3.703125, |
| "learning_rate": 1.783859364164439e-05, |
| "loss": 0.0607, |
| "step": 13740 |
| }, |
| { |
| "epoch": 0.22916666666666666, |
| "grad_norm": 3.78125, |
| "learning_rate": 1.7835274945589792e-05, |
| "loss": 0.0497, |
| "step": 13750 |
| }, |
| { |
| "epoch": 0.22933333333333333, |
| "grad_norm": 40.25, |
| "learning_rate": 1.783195401287852e-05, |
| "loss": 0.054, |
| "step": 13760 |
| }, |
| { |
| "epoch": 0.2295, |
| "grad_norm": 2.875, |
| "learning_rate": 1.782863084445858e-05, |
| "loss": 0.0515, |
| "step": 13770 |
| }, |
| { |
| "epoch": 0.22966666666666666, |
| "grad_norm": 3.03125, |
| "learning_rate": 1.7825305441278596e-05, |
| "loss": 0.067, |
| "step": 13780 |
| }, |
| { |
| "epoch": 0.22983333333333333, |
| "grad_norm": 10.0625, |
| "learning_rate": 1.782197780428784e-05, |
| "loss": 0.0595, |
| "step": 13790 |
| }, |
| { |
| "epoch": 0.23, |
| "grad_norm": 21.375, |
| "learning_rate": 1.7818647934436218e-05, |
| "loss": 0.0542, |
| "step": 13800 |
| }, |
| { |
| "epoch": 0.23016666666666666, |
| "grad_norm": 1.90625, |
| "learning_rate": 1.7815315832674275e-05, |
| "loss": 0.0523, |
| "step": 13810 |
| }, |
| { |
| "epoch": 0.23033333333333333, |
| "grad_norm": 8.25, |
| "learning_rate": 1.781198149995319e-05, |
| "loss": 0.0514, |
| "step": 13820 |
| }, |
| { |
| "epoch": 0.2305, |
| "grad_norm": 26.875, |
| "learning_rate": 1.7808644937224783e-05, |
| "loss": 0.0452, |
| "step": 13830 |
| }, |
| { |
| "epoch": 0.23066666666666666, |
| "grad_norm": 3.59375, |
| "learning_rate": 1.780530614544151e-05, |
| "loss": 0.067, |
| "step": 13840 |
| }, |
| { |
| "epoch": 0.23083333333333333, |
| "grad_norm": 16.125, |
| "learning_rate": 1.780196512555646e-05, |
| "loss": 0.0613, |
| "step": 13850 |
| }, |
| { |
| "epoch": 0.231, |
| "grad_norm": 11.9375, |
| "learning_rate": 1.7798621878523362e-05, |
| "loss": 0.0535, |
| "step": 13860 |
| }, |
| { |
| "epoch": 0.23116666666666666, |
| "grad_norm": 9.625, |
| "learning_rate": 1.7795276405296575e-05, |
| "loss": 0.058, |
| "step": 13870 |
| }, |
| { |
| "epoch": 0.23133333333333334, |
| "grad_norm": 5.09375, |
| "learning_rate": 1.77919287068311e-05, |
| "loss": 0.0733, |
| "step": 13880 |
| }, |
| { |
| "epoch": 0.2315, |
| "grad_norm": 4.625, |
| "learning_rate": 1.7788578784082574e-05, |
| "loss": 0.0518, |
| "step": 13890 |
| }, |
| { |
| "epoch": 0.23166666666666666, |
| "grad_norm": 14.5, |
| "learning_rate": 1.7785226638007264e-05, |
| "loss": 0.052, |
| "step": 13900 |
| }, |
| { |
| "epoch": 0.23183333333333334, |
| "grad_norm": 6.90625, |
| "learning_rate": 1.7781872269562062e-05, |
| "loss": 0.0704, |
| "step": 13910 |
| }, |
| { |
| "epoch": 0.232, |
| "grad_norm": 5.875, |
| "learning_rate": 1.7778515679704526e-05, |
| "loss": 0.0601, |
| "step": 13920 |
| }, |
| { |
| "epoch": 0.23216666666666666, |
| "grad_norm": 9.5, |
| "learning_rate": 1.777515686939281e-05, |
| "loss": 0.0609, |
| "step": 13930 |
| }, |
| { |
| "epoch": 0.23233333333333334, |
| "grad_norm": 25.625, |
| "learning_rate": 1.777179583958573e-05, |
| "loss": 0.0776, |
| "step": 13940 |
| }, |
| { |
| "epoch": 0.2325, |
| "grad_norm": 3.984375, |
| "learning_rate": 1.776843259124272e-05, |
| "loss": 0.0546, |
| "step": 13950 |
| }, |
| { |
| "epoch": 0.23266666666666666, |
| "grad_norm": 7.75, |
| "learning_rate": 1.7765067125323858e-05, |
| "loss": 0.0513, |
| "step": 13960 |
| }, |
| { |
| "epoch": 0.23283333333333334, |
| "grad_norm": 12.25, |
| "learning_rate": 1.776169944278984e-05, |
| "loss": 0.0593, |
| "step": 13970 |
| }, |
| { |
| "epoch": 0.233, |
| "grad_norm": 8.0625, |
| "learning_rate": 1.7758329544602014e-05, |
| "loss": 0.0579, |
| "step": 13980 |
| }, |
| { |
| "epoch": 0.23316666666666666, |
| "grad_norm": 21.75, |
| "learning_rate": 1.7754957431722347e-05, |
| "loss": 0.0639, |
| "step": 13990 |
| }, |
| { |
| "epoch": 0.23333333333333334, |
| "grad_norm": 5.65625, |
| "learning_rate": 1.775158310511344e-05, |
| "loss": 0.0651, |
| "step": 14000 |
| }, |
| { |
| "epoch": 0.2335, |
| "grad_norm": 9.3125, |
| "learning_rate": 1.7748206565738527e-05, |
| "loss": 0.0624, |
| "step": 14010 |
| }, |
| { |
| "epoch": 0.23366666666666666, |
| "grad_norm": 13.5, |
| "learning_rate": 1.7744827814561482e-05, |
| "loss": 0.0597, |
| "step": 14020 |
| }, |
| { |
| "epoch": 0.23383333333333334, |
| "grad_norm": 8.4375, |
| "learning_rate": 1.7741446852546795e-05, |
| "loss": 0.0613, |
| "step": 14030 |
| }, |
| { |
| "epoch": 0.234, |
| "grad_norm": 32.25, |
| "learning_rate": 1.77380636806596e-05, |
| "loss": 0.0681, |
| "step": 14040 |
| }, |
| { |
| "epoch": 0.23416666666666666, |
| "grad_norm": 11.9375, |
| "learning_rate": 1.7734678299865653e-05, |
| "loss": 0.0548, |
| "step": 14050 |
| }, |
| { |
| "epoch": 0.23433333333333334, |
| "grad_norm": 11.125, |
| "learning_rate": 1.773129071113135e-05, |
| "loss": 0.0536, |
| "step": 14060 |
| }, |
| { |
| "epoch": 0.2345, |
| "grad_norm": 16.125, |
| "learning_rate": 1.7727900915423702e-05, |
| "loss": 0.061, |
| "step": 14070 |
| }, |
| { |
| "epoch": 0.23466666666666666, |
| "grad_norm": 31.75, |
| "learning_rate": 1.772450891371037e-05, |
| "loss": 0.0576, |
| "step": 14080 |
| }, |
| { |
| "epoch": 0.23483333333333334, |
| "grad_norm": 10.6875, |
| "learning_rate": 1.772111470695963e-05, |
| "loss": 0.0633, |
| "step": 14090 |
| }, |
| { |
| "epoch": 0.235, |
| "grad_norm": 6.09375, |
| "learning_rate": 1.7717718296140388e-05, |
| "loss": 0.0686, |
| "step": 14100 |
| }, |
| { |
| "epoch": 0.23516666666666666, |
| "grad_norm": 14.0625, |
| "learning_rate": 1.7714319682222192e-05, |
| "loss": 0.0607, |
| "step": 14110 |
| }, |
| { |
| "epoch": 0.23533333333333334, |
| "grad_norm": 14.75, |
| "learning_rate": 1.7710918866175203e-05, |
| "loss": 0.0574, |
| "step": 14120 |
| }, |
| { |
| "epoch": 0.2355, |
| "grad_norm": 12.625, |
| "learning_rate": 1.7707515848970217e-05, |
| "loss": 0.0619, |
| "step": 14130 |
| }, |
| { |
| "epoch": 0.23566666666666666, |
| "grad_norm": 31.5, |
| "learning_rate": 1.7704110631578665e-05, |
| "loss": 0.0559, |
| "step": 14140 |
| }, |
| { |
| "epoch": 0.23583333333333334, |
| "grad_norm": 20.25, |
| "learning_rate": 1.770070321497259e-05, |
| "loss": 0.0597, |
| "step": 14150 |
| }, |
| { |
| "epoch": 0.236, |
| "grad_norm": 2.921875, |
| "learning_rate": 1.7697293600124685e-05, |
| "loss": 0.0652, |
| "step": 14160 |
| }, |
| { |
| "epoch": 0.23616666666666666, |
| "grad_norm": 7.25, |
| "learning_rate": 1.769388178800825e-05, |
| "loss": 0.0673, |
| "step": 14170 |
| }, |
| { |
| "epoch": 0.23633333333333334, |
| "grad_norm": 7.8125, |
| "learning_rate": 1.7690467779597225e-05, |
| "loss": 0.0576, |
| "step": 14180 |
| }, |
| { |
| "epoch": 0.2365, |
| "grad_norm": 7.78125, |
| "learning_rate": 1.768705157586617e-05, |
| "loss": 0.0538, |
| "step": 14190 |
| }, |
| { |
| "epoch": 0.23666666666666666, |
| "grad_norm": 20.375, |
| "learning_rate": 1.7683633177790272e-05, |
| "loss": 0.0591, |
| "step": 14200 |
| }, |
| { |
| "epoch": 0.23683333333333334, |
| "grad_norm": 3.015625, |
| "learning_rate": 1.7680212586345347e-05, |
| "loss": 0.0552, |
| "step": 14210 |
| }, |
| { |
| "epoch": 0.237, |
| "grad_norm": 4.65625, |
| "learning_rate": 1.7676789802507844e-05, |
| "loss": 0.0488, |
| "step": 14220 |
| }, |
| { |
| "epoch": 0.23716666666666666, |
| "grad_norm": 1.703125, |
| "learning_rate": 1.7673364827254824e-05, |
| "loss": 0.055, |
| "step": 14230 |
| }, |
| { |
| "epoch": 0.23733333333333334, |
| "grad_norm": 17.625, |
| "learning_rate": 1.7669937661563977e-05, |
| "loss": 0.0554, |
| "step": 14240 |
| }, |
| { |
| "epoch": 0.2375, |
| "grad_norm": 7.40625, |
| "learning_rate": 1.7666508306413626e-05, |
| "loss": 0.0663, |
| "step": 14250 |
| }, |
| { |
| "epoch": 0.23766666666666666, |
| "grad_norm": 8.0, |
| "learning_rate": 1.7663076762782715e-05, |
| "loss": 0.0643, |
| "step": 14260 |
| }, |
| { |
| "epoch": 0.23783333333333334, |
| "grad_norm": 2.328125, |
| "learning_rate": 1.7659643031650813e-05, |
| "loss": 0.0589, |
| "step": 14270 |
| }, |
| { |
| "epoch": 0.238, |
| "grad_norm": 21.5, |
| "learning_rate": 1.7656207113998107e-05, |
| "loss": 0.0666, |
| "step": 14280 |
| }, |
| { |
| "epoch": 0.23816666666666667, |
| "grad_norm": 11.0, |
| "learning_rate": 1.7652769010805416e-05, |
| "loss": 0.0676, |
| "step": 14290 |
| }, |
| { |
| "epoch": 0.23833333333333334, |
| "grad_norm": 14.1875, |
| "learning_rate": 1.7649328723054185e-05, |
| "loss": 0.0623, |
| "step": 14300 |
| }, |
| { |
| "epoch": 0.2385, |
| "grad_norm": 42.25, |
| "learning_rate": 1.7645886251726474e-05, |
| "loss": 0.0567, |
| "step": 14310 |
| }, |
| { |
| "epoch": 0.23866666666666667, |
| "grad_norm": 12.375, |
| "learning_rate": 1.7642441597804966e-05, |
| "loss": 0.0577, |
| "step": 14320 |
| }, |
| { |
| "epoch": 0.23883333333333334, |
| "grad_norm": 3.25, |
| "learning_rate": 1.763899476227298e-05, |
| "loss": 0.0596, |
| "step": 14330 |
| }, |
| { |
| "epoch": 0.239, |
| "grad_norm": 13.6875, |
| "learning_rate": 1.7635545746114447e-05, |
| "loss": 0.0666, |
| "step": 14340 |
| }, |
| { |
| "epoch": 0.23916666666666667, |
| "grad_norm": 1.7578125, |
| "learning_rate": 1.763209455031392e-05, |
| "loss": 0.0605, |
| "step": 14350 |
| }, |
| { |
| "epoch": 0.23933333333333334, |
| "grad_norm": 15.0, |
| "learning_rate": 1.7628641175856577e-05, |
| "loss": 0.0552, |
| "step": 14360 |
| }, |
| { |
| "epoch": 0.2395, |
| "grad_norm": 23.375, |
| "learning_rate": 1.7625185623728222e-05, |
| "loss": 0.0445, |
| "step": 14370 |
| }, |
| { |
| "epoch": 0.23966666666666667, |
| "grad_norm": 2.09375, |
| "learning_rate": 1.762172789491527e-05, |
| "loss": 0.0606, |
| "step": 14380 |
| }, |
| { |
| "epoch": 0.23983333333333334, |
| "grad_norm": 12.5625, |
| "learning_rate": 1.7618267990404773e-05, |
| "loss": 0.0528, |
| "step": 14390 |
| }, |
| { |
| "epoch": 0.24, |
| "grad_norm": 11.6875, |
| "learning_rate": 1.7614805911184387e-05, |
| "loss": 0.05, |
| "step": 14400 |
| }, |
| { |
| "epoch": 0.24016666666666667, |
| "grad_norm": 13.375, |
| "learning_rate": 1.7611341658242396e-05, |
| "loss": 0.0705, |
| "step": 14410 |
| }, |
| { |
| "epoch": 0.24033333333333334, |
| "grad_norm": 2.4375, |
| "learning_rate": 1.760787523256771e-05, |
| "loss": 0.0635, |
| "step": 14420 |
| }, |
| { |
| "epoch": 0.2405, |
| "grad_norm": 37.25, |
| "learning_rate": 1.7604406635149855e-05, |
| "loss": 0.0657, |
| "step": 14430 |
| }, |
| { |
| "epoch": 0.24066666666666667, |
| "grad_norm": 10.375, |
| "learning_rate": 1.7600935866978976e-05, |
| "loss": 0.0512, |
| "step": 14440 |
| }, |
| { |
| "epoch": 0.24083333333333334, |
| "grad_norm": 11.25, |
| "learning_rate": 1.7597462929045833e-05, |
| "loss": 0.0568, |
| "step": 14450 |
| }, |
| { |
| "epoch": 0.241, |
| "grad_norm": 2.46875, |
| "learning_rate": 1.7593987822341814e-05, |
| "loss": 0.0563, |
| "step": 14460 |
| }, |
| { |
| "epoch": 0.24116666666666667, |
| "grad_norm": 13.4375, |
| "learning_rate": 1.7590510547858923e-05, |
| "loss": 0.0564, |
| "step": 14470 |
| }, |
| { |
| "epoch": 0.24133333333333334, |
| "grad_norm": 2.40625, |
| "learning_rate": 1.7587031106589783e-05, |
| "loss": 0.0527, |
| "step": 14480 |
| }, |
| { |
| "epoch": 0.2415, |
| "grad_norm": 19.625, |
| "learning_rate": 1.758354949952763e-05, |
| "loss": 0.066, |
| "step": 14490 |
| }, |
| { |
| "epoch": 0.24166666666666667, |
| "grad_norm": 42.0, |
| "learning_rate": 1.7580065727666332e-05, |
| "loss": 0.0638, |
| "step": 14500 |
| }, |
| { |
| "epoch": 0.24183333333333334, |
| "grad_norm": 3.21875, |
| "learning_rate": 1.757657979200036e-05, |
| "loss": 0.0516, |
| "step": 14510 |
| }, |
| { |
| "epoch": 0.242, |
| "grad_norm": 12.9375, |
| "learning_rate": 1.757309169352481e-05, |
| "loss": 0.0516, |
| "step": 14520 |
| }, |
| { |
| "epoch": 0.24216666666666667, |
| "grad_norm": 10.6875, |
| "learning_rate": 1.7569601433235392e-05, |
| "loss": 0.0439, |
| "step": 14530 |
| }, |
| { |
| "epoch": 0.24233333333333335, |
| "grad_norm": 18.125, |
| "learning_rate": 1.7566109012128437e-05, |
| "loss": 0.0578, |
| "step": 14540 |
| }, |
| { |
| "epoch": 0.2425, |
| "grad_norm": 2.328125, |
| "learning_rate": 1.756261443120089e-05, |
| "loss": 0.0544, |
| "step": 14550 |
| }, |
| { |
| "epoch": 0.24266666666666667, |
| "grad_norm": 2.640625, |
| "learning_rate": 1.755911769145032e-05, |
| "loss": 0.0547, |
| "step": 14560 |
| }, |
| { |
| "epoch": 0.24283333333333335, |
| "grad_norm": 13.3125, |
| "learning_rate": 1.75556187938749e-05, |
| "loss": 0.0595, |
| "step": 14570 |
| }, |
| { |
| "epoch": 0.243, |
| "grad_norm": 4.78125, |
| "learning_rate": 1.755211773947342e-05, |
| "loss": 0.0698, |
| "step": 14580 |
| }, |
| { |
| "epoch": 0.24316666666666667, |
| "grad_norm": 6.625, |
| "learning_rate": 1.75486145292453e-05, |
| "loss": 0.0663, |
| "step": 14590 |
| }, |
| { |
| "epoch": 0.24333333333333335, |
| "grad_norm": 2.703125, |
| "learning_rate": 1.7545109164190564e-05, |
| "loss": 0.0582, |
| "step": 14600 |
| }, |
| { |
| "epoch": 0.2435, |
| "grad_norm": 3.96875, |
| "learning_rate": 1.7541601645309853e-05, |
| "loss": 0.0545, |
| "step": 14610 |
| }, |
| { |
| "epoch": 0.24366666666666667, |
| "grad_norm": 6.46875, |
| "learning_rate": 1.7538091973604416e-05, |
| "loss": 0.0562, |
| "step": 14620 |
| }, |
| { |
| "epoch": 0.24383333333333335, |
| "grad_norm": 3.96875, |
| "learning_rate": 1.7534580150076134e-05, |
| "loss": 0.0558, |
| "step": 14630 |
| }, |
| { |
| "epoch": 0.244, |
| "grad_norm": 3.15625, |
| "learning_rate": 1.753106617572748e-05, |
| "loss": 0.0628, |
| "step": 14640 |
| }, |
| { |
| "epoch": 0.24416666666666667, |
| "grad_norm": 10.875, |
| "learning_rate": 1.7527550051561567e-05, |
| "loss": 0.0611, |
| "step": 14650 |
| }, |
| { |
| "epoch": 0.24433333333333335, |
| "grad_norm": 2.203125, |
| "learning_rate": 1.7524031778582092e-05, |
| "loss": 0.0711, |
| "step": 14660 |
| }, |
| { |
| "epoch": 0.2445, |
| "grad_norm": 4.8125, |
| "learning_rate": 1.7520511357793398e-05, |
| "loss": 0.062, |
| "step": 14670 |
| }, |
| { |
| "epoch": 0.24466666666666667, |
| "grad_norm": 4.59375, |
| "learning_rate": 1.7516988790200407e-05, |
| "loss": 0.0631, |
| "step": 14680 |
| }, |
| { |
| "epoch": 0.24483333333333332, |
| "grad_norm": 12.375, |
| "learning_rate": 1.751346407680868e-05, |
| "loss": 0.0574, |
| "step": 14690 |
| }, |
| { |
| "epoch": 0.245, |
| "grad_norm": 2.015625, |
| "learning_rate": 1.750993721862438e-05, |
| "loss": 0.0774, |
| "step": 14700 |
| }, |
| { |
| "epoch": 0.24516666666666667, |
| "grad_norm": 2.125, |
| "learning_rate": 1.750640821665428e-05, |
| "loss": 0.0626, |
| "step": 14710 |
| }, |
| { |
| "epoch": 0.24533333333333332, |
| "grad_norm": 3.140625, |
| "learning_rate": 1.7502877071905777e-05, |
| "loss": 0.0713, |
| "step": 14720 |
| }, |
| { |
| "epoch": 0.2455, |
| "grad_norm": 16.875, |
| "learning_rate": 1.7499343785386863e-05, |
| "loss": 0.0625, |
| "step": 14730 |
| }, |
| { |
| "epoch": 0.24566666666666667, |
| "grad_norm": 2.59375, |
| "learning_rate": 1.749580835810615e-05, |
| "loss": 0.0528, |
| "step": 14740 |
| }, |
| { |
| "epoch": 0.24583333333333332, |
| "grad_norm": 2.078125, |
| "learning_rate": 1.7492270791072865e-05, |
| "loss": 0.0777, |
| "step": 14750 |
| }, |
| { |
| "epoch": 0.246, |
| "grad_norm": 10.6875, |
| "learning_rate": 1.748873108529684e-05, |
| "loss": 0.0601, |
| "step": 14760 |
| }, |
| { |
| "epoch": 0.24616666666666667, |
| "grad_norm": 2.96875, |
| "learning_rate": 1.748518924178852e-05, |
| "loss": 0.069, |
| "step": 14770 |
| }, |
| { |
| "epoch": 0.24633333333333332, |
| "grad_norm": 3.125, |
| "learning_rate": 1.748164526155895e-05, |
| "loss": 0.0614, |
| "step": 14780 |
| }, |
| { |
| "epoch": 0.2465, |
| "grad_norm": 3.328125, |
| "learning_rate": 1.747809914561981e-05, |
| "loss": 0.0691, |
| "step": 14790 |
| }, |
| { |
| "epoch": 0.24666666666666667, |
| "grad_norm": 11.5, |
| "learning_rate": 1.747455089498336e-05, |
| "loss": 0.0543, |
| "step": 14800 |
| }, |
| { |
| "epoch": 0.24683333333333332, |
| "grad_norm": 5.5, |
| "learning_rate": 1.7471000510662492e-05, |
| "loss": 0.0581, |
| "step": 14810 |
| }, |
| { |
| "epoch": 0.247, |
| "grad_norm": 4.5, |
| "learning_rate": 1.746744799367069e-05, |
| "loss": 0.0517, |
| "step": 14820 |
| }, |
| { |
| "epoch": 0.24716666666666667, |
| "grad_norm": 2.640625, |
| "learning_rate": 1.7463893345022067e-05, |
| "loss": 0.0604, |
| "step": 14830 |
| }, |
| { |
| "epoch": 0.24733333333333332, |
| "grad_norm": 17.0, |
| "learning_rate": 1.7460336565731325e-05, |
| "loss": 0.0612, |
| "step": 14840 |
| }, |
| { |
| "epoch": 0.2475, |
| "grad_norm": 22.625, |
| "learning_rate": 1.7456777656813778e-05, |
| "loss": 0.0593, |
| "step": 14850 |
| }, |
| { |
| "epoch": 0.24766666666666667, |
| "grad_norm": 7.8125, |
| "learning_rate": 1.745321661928536e-05, |
| "loss": 0.0498, |
| "step": 14860 |
| }, |
| { |
| "epoch": 0.24783333333333332, |
| "grad_norm": 34.0, |
| "learning_rate": 1.7449653454162598e-05, |
| "loss": 0.058, |
| "step": 14870 |
| }, |
| { |
| "epoch": 0.248, |
| "grad_norm": 12.9375, |
| "learning_rate": 1.7446088162462636e-05, |
| "loss": 0.0597, |
| "step": 14880 |
| }, |
| { |
| "epoch": 0.24816666666666667, |
| "grad_norm": 16.625, |
| "learning_rate": 1.744252074520322e-05, |
| "loss": 0.0612, |
| "step": 14890 |
| }, |
| { |
| "epoch": 0.24833333333333332, |
| "grad_norm": 4.65625, |
| "learning_rate": 1.743895120340271e-05, |
| "loss": 0.0568, |
| "step": 14900 |
| }, |
| { |
| "epoch": 0.2485, |
| "grad_norm": 7.4375, |
| "learning_rate": 1.7435379538080057e-05, |
| "loss": 0.0524, |
| "step": 14910 |
| }, |
| { |
| "epoch": 0.24866666666666667, |
| "grad_norm": 8.1875, |
| "learning_rate": 1.7431805750254837e-05, |
| "loss": 0.0794, |
| "step": 14920 |
| }, |
| { |
| "epoch": 0.24883333333333332, |
| "grad_norm": 5.90625, |
| "learning_rate": 1.742822984094722e-05, |
| "loss": 0.0491, |
| "step": 14930 |
| }, |
| { |
| "epoch": 0.249, |
| "grad_norm": 19.875, |
| "learning_rate": 1.742465181117798e-05, |
| "loss": 0.0589, |
| "step": 14940 |
| }, |
| { |
| "epoch": 0.24916666666666668, |
| "grad_norm": 2.125, |
| "learning_rate": 1.742107166196851e-05, |
| "loss": 0.0628, |
| "step": 14950 |
| }, |
| { |
| "epoch": 0.24933333333333332, |
| "grad_norm": 20.125, |
| "learning_rate": 1.7417489394340794e-05, |
| "loss": 0.0534, |
| "step": 14960 |
| }, |
| { |
| "epoch": 0.2495, |
| "grad_norm": 13.0625, |
| "learning_rate": 1.7413905009317423e-05, |
| "loss": 0.0638, |
| "step": 14970 |
| }, |
| { |
| "epoch": 0.24966666666666668, |
| "grad_norm": 85.0, |
| "learning_rate": 1.74103185079216e-05, |
| "loss": 0.0467, |
| "step": 14980 |
| }, |
| { |
| "epoch": 0.24983333333333332, |
| "grad_norm": 24.625, |
| "learning_rate": 1.7406729891177126e-05, |
| "loss": 0.0592, |
| "step": 14990 |
| }, |
| { |
| "epoch": 0.25, |
| "grad_norm": 10.625, |
| "learning_rate": 1.7403139160108403e-05, |
| "loss": 0.0559, |
| "step": 15000 |
| }, |
| { |
| "epoch": 0.25016666666666665, |
| "grad_norm": 2.6875, |
| "learning_rate": 1.7399546315740446e-05, |
| "loss": 0.0691, |
| "step": 15010 |
| }, |
| { |
| "epoch": 0.25033333333333335, |
| "grad_norm": 14.4375, |
| "learning_rate": 1.739595135909887e-05, |
| "loss": 0.0646, |
| "step": 15020 |
| }, |
| { |
| "epoch": 0.2505, |
| "grad_norm": 8.3125, |
| "learning_rate": 1.7392354291209884e-05, |
| "loss": 0.0583, |
| "step": 15030 |
| }, |
| { |
| "epoch": 0.25066666666666665, |
| "grad_norm": 12.625, |
| "learning_rate": 1.738875511310031e-05, |
| "loss": 0.068, |
| "step": 15040 |
| }, |
| { |
| "epoch": 0.25083333333333335, |
| "grad_norm": 13.3125, |
| "learning_rate": 1.738515382579757e-05, |
| "loss": 0.0552, |
| "step": 15050 |
| }, |
| { |
| "epoch": 0.251, |
| "grad_norm": 17.125, |
| "learning_rate": 1.7381550430329684e-05, |
| "loss": 0.0541, |
| "step": 15060 |
| }, |
| { |
| "epoch": 0.25116666666666665, |
| "grad_norm": 25.625, |
| "learning_rate": 1.7377944927725275e-05, |
| "loss": 0.0516, |
| "step": 15070 |
| }, |
| { |
| "epoch": 0.25133333333333335, |
| "grad_norm": 15.1875, |
| "learning_rate": 1.7374337319013576e-05, |
| "loss": 0.0533, |
| "step": 15080 |
| }, |
| { |
| "epoch": 0.2515, |
| "grad_norm": 5.15625, |
| "learning_rate": 1.7370727605224414e-05, |
| "loss": 0.0503, |
| "step": 15090 |
| }, |
| { |
| "epoch": 0.25166666666666665, |
| "grad_norm": 17.625, |
| "learning_rate": 1.736711578738821e-05, |
| "loss": 0.0659, |
| "step": 15100 |
| }, |
| { |
| "epoch": 0.25183333333333335, |
| "grad_norm": 3.09375, |
| "learning_rate": 1.7363501866536003e-05, |
| "loss": 0.0579, |
| "step": 15110 |
| }, |
| { |
| "epoch": 0.252, |
| "grad_norm": 3.78125, |
| "learning_rate": 1.7359885843699417e-05, |
| "loss": 0.0584, |
| "step": 15120 |
| }, |
| { |
| "epoch": 0.25216666666666665, |
| "grad_norm": 4.09375, |
| "learning_rate": 1.7356267719910674e-05, |
| "loss": 0.0581, |
| "step": 15130 |
| }, |
| { |
| "epoch": 0.25233333333333335, |
| "grad_norm": 5.71875, |
| "learning_rate": 1.735264749620262e-05, |
| "loss": 0.0633, |
| "step": 15140 |
| }, |
| { |
| "epoch": 0.2525, |
| "grad_norm": 7.625, |
| "learning_rate": 1.734902517360867e-05, |
| "loss": 0.0611, |
| "step": 15150 |
| }, |
| { |
| "epoch": 0.25266666666666665, |
| "grad_norm": 9.3125, |
| "learning_rate": 1.7345400753162857e-05, |
| "loss": 0.0563, |
| "step": 15160 |
| }, |
| { |
| "epoch": 0.25283333333333335, |
| "grad_norm": 4.59375, |
| "learning_rate": 1.734177423589981e-05, |
| "loss": 0.0722, |
| "step": 15170 |
| }, |
| { |
| "epoch": 0.253, |
| "grad_norm": 29.875, |
| "learning_rate": 1.733814562285475e-05, |
| "loss": 0.0514, |
| "step": 15180 |
| }, |
| { |
| "epoch": 0.25316666666666665, |
| "grad_norm": 3.125, |
| "learning_rate": 1.73345149150635e-05, |
| "loss": 0.055, |
| "step": 15190 |
| }, |
| { |
| "epoch": 0.25333333333333335, |
| "grad_norm": 27.25, |
| "learning_rate": 1.7330882113562484e-05, |
| "loss": 0.0675, |
| "step": 15200 |
| }, |
| { |
| "epoch": 0.2535, |
| "grad_norm": 19.25, |
| "learning_rate": 1.732724721938872e-05, |
| "loss": 0.0549, |
| "step": 15210 |
| }, |
| { |
| "epoch": 0.25366666666666665, |
| "grad_norm": 4.09375, |
| "learning_rate": 1.7323610233579823e-05, |
| "loss": 0.0589, |
| "step": 15220 |
| }, |
| { |
| "epoch": 0.25383333333333336, |
| "grad_norm": 2.09375, |
| "learning_rate": 1.731997115717401e-05, |
| "loss": 0.0579, |
| "step": 15230 |
| }, |
| { |
| "epoch": 0.254, |
| "grad_norm": 10.9375, |
| "learning_rate": 1.731632999121009e-05, |
| "loss": 0.0573, |
| "step": 15240 |
| }, |
| { |
| "epoch": 0.25416666666666665, |
| "grad_norm": 3.171875, |
| "learning_rate": 1.731268673672747e-05, |
| "loss": 0.0705, |
| "step": 15250 |
| }, |
| { |
| "epoch": 0.25433333333333336, |
| "grad_norm": 10.875, |
| "learning_rate": 1.730904139476615e-05, |
| "loss": 0.0582, |
| "step": 15260 |
| }, |
| { |
| "epoch": 0.2545, |
| "grad_norm": 5.1875, |
| "learning_rate": 1.7305393966366733e-05, |
| "loss": 0.0682, |
| "step": 15270 |
| }, |
| { |
| "epoch": 0.25466666666666665, |
| "grad_norm": 2.46875, |
| "learning_rate": 1.7301744452570413e-05, |
| "loss": 0.058, |
| "step": 15280 |
| }, |
| { |
| "epoch": 0.25483333333333336, |
| "grad_norm": 30.875, |
| "learning_rate": 1.7298092854418977e-05, |
| "loss": 0.0515, |
| "step": 15290 |
| }, |
| { |
| "epoch": 0.255, |
| "grad_norm": 2.09375, |
| "learning_rate": 1.729443917295481e-05, |
| "loss": 0.0554, |
| "step": 15300 |
| }, |
| { |
| "epoch": 0.25516666666666665, |
| "grad_norm": 10.0625, |
| "learning_rate": 1.7290783409220896e-05, |
| "loss": 0.0688, |
| "step": 15310 |
| }, |
| { |
| "epoch": 0.25533333333333336, |
| "grad_norm": 18.75, |
| "learning_rate": 1.7287125564260804e-05, |
| "loss": 0.0467, |
| "step": 15320 |
| }, |
| { |
| "epoch": 0.2555, |
| "grad_norm": 3.546875, |
| "learning_rate": 1.72834656391187e-05, |
| "loss": 0.0583, |
| "step": 15330 |
| }, |
| { |
| "epoch": 0.25566666666666665, |
| "grad_norm": 3.015625, |
| "learning_rate": 1.7279803634839354e-05, |
| "loss": 0.0716, |
| "step": 15340 |
| }, |
| { |
| "epoch": 0.25583333333333336, |
| "grad_norm": 18.625, |
| "learning_rate": 1.7276139552468114e-05, |
| "loss": 0.0573, |
| "step": 15350 |
| }, |
| { |
| "epoch": 0.256, |
| "grad_norm": 6.03125, |
| "learning_rate": 1.7272473393050932e-05, |
| "loss": 0.0534, |
| "step": 15360 |
| }, |
| { |
| "epoch": 0.25616666666666665, |
| "grad_norm": 5.875, |
| "learning_rate": 1.7268805157634353e-05, |
| "loss": 0.057, |
| "step": 15370 |
| }, |
| { |
| "epoch": 0.25633333333333336, |
| "grad_norm": 1.8515625, |
| "learning_rate": 1.72651348472655e-05, |
| "loss": 0.0634, |
| "step": 15380 |
| }, |
| { |
| "epoch": 0.2565, |
| "grad_norm": 15.625, |
| "learning_rate": 1.7261462462992112e-05, |
| "loss": 0.0571, |
| "step": 15390 |
| }, |
| { |
| "epoch": 0.25666666666666665, |
| "grad_norm": 20.5, |
| "learning_rate": 1.7257788005862498e-05, |
| "loss": 0.061, |
| "step": 15400 |
| }, |
| { |
| "epoch": 0.25683333333333336, |
| "grad_norm": 16.625, |
| "learning_rate": 1.7254111476925572e-05, |
| "loss": 0.0559, |
| "step": 15410 |
| }, |
| { |
| "epoch": 0.257, |
| "grad_norm": 5.9375, |
| "learning_rate": 1.7250432877230835e-05, |
| "loss": 0.0466, |
| "step": 15420 |
| }, |
| { |
| "epoch": 0.25716666666666665, |
| "grad_norm": 6.21875, |
| "learning_rate": 1.724675220782838e-05, |
| "loss": 0.063, |
| "step": 15430 |
| }, |
| { |
| "epoch": 0.25733333333333336, |
| "grad_norm": 6.59375, |
| "learning_rate": 1.724306946976889e-05, |
| "loss": 0.0594, |
| "step": 15440 |
| }, |
| { |
| "epoch": 0.2575, |
| "grad_norm": 26.875, |
| "learning_rate": 1.7239384664103642e-05, |
| "loss": 0.0666, |
| "step": 15450 |
| }, |
| { |
| "epoch": 0.25766666666666665, |
| "grad_norm": 11.875, |
| "learning_rate": 1.7235697791884492e-05, |
| "loss": 0.0512, |
| "step": 15460 |
| }, |
| { |
| "epoch": 0.25783333333333336, |
| "grad_norm": 11.375, |
| "learning_rate": 1.7232008854163903e-05, |
| "loss": 0.0578, |
| "step": 15470 |
| }, |
| { |
| "epoch": 0.258, |
| "grad_norm": 5.1875, |
| "learning_rate": 1.722831785199492e-05, |
| "loss": 0.0511, |
| "step": 15480 |
| }, |
| { |
| "epoch": 0.25816666666666666, |
| "grad_norm": 11.4375, |
| "learning_rate": 1.7224624786431165e-05, |
| "loss": 0.0627, |
| "step": 15490 |
| }, |
| { |
| "epoch": 0.25833333333333336, |
| "grad_norm": 14.8125, |
| "learning_rate": 1.722092965852687e-05, |
| "loss": 0.0624, |
| "step": 15500 |
| }, |
| { |
| "epoch": 0.2585, |
| "grad_norm": 7.03125, |
| "learning_rate": 1.721723246933684e-05, |
| "loss": 0.06, |
| "step": 15510 |
| }, |
| { |
| "epoch": 0.25866666666666666, |
| "grad_norm": 17.75, |
| "learning_rate": 1.7213533219916473e-05, |
| "loss": 0.0676, |
| "step": 15520 |
| }, |
| { |
| "epoch": 0.25883333333333336, |
| "grad_norm": 2.09375, |
| "learning_rate": 1.7209831911321763e-05, |
| "loss": 0.0621, |
| "step": 15530 |
| }, |
| { |
| "epoch": 0.259, |
| "grad_norm": 23.375, |
| "learning_rate": 1.720612854460928e-05, |
| "loss": 0.0609, |
| "step": 15540 |
| }, |
| { |
| "epoch": 0.25916666666666666, |
| "grad_norm": 20.375, |
| "learning_rate": 1.7202423120836188e-05, |
| "loss": 0.0542, |
| "step": 15550 |
| }, |
| { |
| "epoch": 0.25933333333333336, |
| "grad_norm": 18.75, |
| "learning_rate": 1.7198715641060243e-05, |
| "loss": 0.0543, |
| "step": 15560 |
| }, |
| { |
| "epoch": 0.2595, |
| "grad_norm": 7.78125, |
| "learning_rate": 1.7195006106339772e-05, |
| "loss": 0.0648, |
| "step": 15570 |
| }, |
| { |
| "epoch": 0.25966666666666666, |
| "grad_norm": 4.15625, |
| "learning_rate": 1.71912945177337e-05, |
| "loss": 0.0595, |
| "step": 15580 |
| }, |
| { |
| "epoch": 0.25983333333333336, |
| "grad_norm": 8.4375, |
| "learning_rate": 1.718758087630154e-05, |
| "loss": 0.0645, |
| "step": 15590 |
| }, |
| { |
| "epoch": 0.26, |
| "grad_norm": 11.1875, |
| "learning_rate": 1.718386518310339e-05, |
| "loss": 0.0591, |
| "step": 15600 |
| }, |
| { |
| "epoch": 0.26016666666666666, |
| "grad_norm": 35.0, |
| "learning_rate": 1.7180147439199926e-05, |
| "loss": 0.057, |
| "step": 15610 |
| }, |
| { |
| "epoch": 0.26033333333333336, |
| "grad_norm": 8.8125, |
| "learning_rate": 1.7176427645652417e-05, |
| "loss": 0.0717, |
| "step": 15620 |
| }, |
| { |
| "epoch": 0.2605, |
| "grad_norm": 7.28125, |
| "learning_rate": 1.7172705803522714e-05, |
| "loss": 0.0658, |
| "step": 15630 |
| }, |
| { |
| "epoch": 0.26066666666666666, |
| "grad_norm": 2.5, |
| "learning_rate": 1.7168981913873255e-05, |
| "loss": 0.0596, |
| "step": 15640 |
| }, |
| { |
| "epoch": 0.2608333333333333, |
| "grad_norm": 10.125, |
| "learning_rate": 1.7165255977767058e-05, |
| "loss": 0.057, |
| "step": 15650 |
| }, |
| { |
| "epoch": 0.261, |
| "grad_norm": 15.25, |
| "learning_rate": 1.7161527996267734e-05, |
| "loss": 0.0647, |
| "step": 15660 |
| }, |
| { |
| "epoch": 0.26116666666666666, |
| "grad_norm": 4.40625, |
| "learning_rate": 1.7157797970439466e-05, |
| "loss": 0.0676, |
| "step": 15670 |
| }, |
| { |
| "epoch": 0.2613333333333333, |
| "grad_norm": 7.90625, |
| "learning_rate": 1.7154065901347027e-05, |
| "loss": 0.0596, |
| "step": 15680 |
| }, |
| { |
| "epoch": 0.2615, |
| "grad_norm": 3.96875, |
| "learning_rate": 1.715033179005578e-05, |
| "loss": 0.0661, |
| "step": 15690 |
| }, |
| { |
| "epoch": 0.26166666666666666, |
| "grad_norm": 15.9375, |
| "learning_rate": 1.7146595637631657e-05, |
| "loss": 0.0589, |
| "step": 15700 |
| }, |
| { |
| "epoch": 0.2618333333333333, |
| "grad_norm": 2.75, |
| "learning_rate": 1.7142857445141185e-05, |
| "loss": 0.0612, |
| "step": 15710 |
| }, |
| { |
| "epoch": 0.262, |
| "grad_norm": 6.125, |
| "learning_rate": 1.713911721365146e-05, |
| "loss": 0.0548, |
| "step": 15720 |
| }, |
| { |
| "epoch": 0.26216666666666666, |
| "grad_norm": 10.1875, |
| "learning_rate": 1.713537494423018e-05, |
| "loss": 0.0688, |
| "step": 15730 |
| }, |
| { |
| "epoch": 0.2623333333333333, |
| "grad_norm": 17.375, |
| "learning_rate": 1.71316306379456e-05, |
| "loss": 0.0565, |
| "step": 15740 |
| }, |
| { |
| "epoch": 0.2625, |
| "grad_norm": 7.5, |
| "learning_rate": 1.7127884295866578e-05, |
| "loss": 0.0776, |
| "step": 15750 |
| }, |
| { |
| "epoch": 0.26266666666666666, |
| "grad_norm": 13.1875, |
| "learning_rate": 1.712413591906254e-05, |
| "loss": 0.0528, |
| "step": 15760 |
| }, |
| { |
| "epoch": 0.2628333333333333, |
| "grad_norm": 4.375, |
| "learning_rate": 1.7120385508603497e-05, |
| "loss": 0.0582, |
| "step": 15770 |
| }, |
| { |
| "epoch": 0.263, |
| "grad_norm": 43.75, |
| "learning_rate": 1.7116633065560043e-05, |
| "loss": 0.0614, |
| "step": 15780 |
| }, |
| { |
| "epoch": 0.26316666666666666, |
| "grad_norm": 2.375, |
| "learning_rate": 1.711287859100335e-05, |
| "loss": 0.0644, |
| "step": 15790 |
| }, |
| { |
| "epoch": 0.2633333333333333, |
| "grad_norm": 9.4375, |
| "learning_rate": 1.7109122086005173e-05, |
| "loss": 0.061, |
| "step": 15800 |
| }, |
| { |
| "epoch": 0.2635, |
| "grad_norm": 2.890625, |
| "learning_rate": 1.7105363551637836e-05, |
| "loss": 0.0628, |
| "step": 15810 |
| }, |
| { |
| "epoch": 0.26366666666666666, |
| "grad_norm": 4.59375, |
| "learning_rate": 1.7101602988974254e-05, |
| "loss": 0.0595, |
| "step": 15820 |
| }, |
| { |
| "epoch": 0.2638333333333333, |
| "grad_norm": 6.03125, |
| "learning_rate": 1.7097840399087915e-05, |
| "loss": 0.059, |
| "step": 15830 |
| }, |
| { |
| "epoch": 0.264, |
| "grad_norm": 6.96875, |
| "learning_rate": 1.709407578305289e-05, |
| "loss": 0.0553, |
| "step": 15840 |
| }, |
| { |
| "epoch": 0.26416666666666666, |
| "grad_norm": 15.125, |
| "learning_rate": 1.7090309141943822e-05, |
| "loss": 0.0618, |
| "step": 15850 |
| }, |
| { |
| "epoch": 0.2643333333333333, |
| "grad_norm": 2.34375, |
| "learning_rate": 1.7086540476835943e-05, |
| "loss": 0.0474, |
| "step": 15860 |
| }, |
| { |
| "epoch": 0.2645, |
| "grad_norm": 42.75, |
| "learning_rate": 1.708276978880505e-05, |
| "loss": 0.0619, |
| "step": 15870 |
| }, |
| { |
| "epoch": 0.26466666666666666, |
| "grad_norm": 19.75, |
| "learning_rate": 1.707899707892752e-05, |
| "loss": 0.0777, |
| "step": 15880 |
| }, |
| { |
| "epoch": 0.2648333333333333, |
| "grad_norm": 4.96875, |
| "learning_rate": 1.707522234828032e-05, |
| "loss": 0.0626, |
| "step": 15890 |
| }, |
| { |
| "epoch": 0.265, |
| "grad_norm": 29.125, |
| "learning_rate": 1.7071445597940978e-05, |
| "loss": 0.0691, |
| "step": 15900 |
| }, |
| { |
| "epoch": 0.26516666666666666, |
| "grad_norm": 11.25, |
| "learning_rate": 1.7067666828987604e-05, |
| "loss": 0.0642, |
| "step": 15910 |
| }, |
| { |
| "epoch": 0.2653333333333333, |
| "grad_norm": 15.0625, |
| "learning_rate": 1.7063886042498885e-05, |
| "loss": 0.0711, |
| "step": 15920 |
| }, |
| { |
| "epoch": 0.2655, |
| "grad_norm": 2.390625, |
| "learning_rate": 1.7060103239554088e-05, |
| "loss": 0.0575, |
| "step": 15930 |
| }, |
| { |
| "epoch": 0.26566666666666666, |
| "grad_norm": 10.4375, |
| "learning_rate": 1.705631842123305e-05, |
| "loss": 0.0689, |
| "step": 15940 |
| }, |
| { |
| "epoch": 0.2658333333333333, |
| "grad_norm": 45.75, |
| "learning_rate": 1.7052531588616176e-05, |
| "loss": 0.0424, |
| "step": 15950 |
| }, |
| { |
| "epoch": 0.266, |
| "grad_norm": 11.125, |
| "learning_rate": 1.704874274278447e-05, |
| "loss": 0.0532, |
| "step": 15960 |
| }, |
| { |
| "epoch": 0.26616666666666666, |
| "grad_norm": 27.25, |
| "learning_rate": 1.7044951884819486e-05, |
| "loss": 0.0685, |
| "step": 15970 |
| }, |
| { |
| "epoch": 0.2663333333333333, |
| "grad_norm": 80.0, |
| "learning_rate": 1.7041159015803365e-05, |
| "loss": 0.0683, |
| "step": 15980 |
| }, |
| { |
| "epoch": 0.2665, |
| "grad_norm": 10.6875, |
| "learning_rate": 1.7037364136818815e-05, |
| "loss": 0.0589, |
| "step": 15990 |
| }, |
| { |
| "epoch": 0.26666666666666666, |
| "grad_norm": 5.75, |
| "learning_rate": 1.7033567248949125e-05, |
| "loss": 0.0594, |
| "step": 16000 |
| }, |
| { |
| "epoch": 0.2668333333333333, |
| "grad_norm": 5.46875, |
| "learning_rate": 1.7029768353278157e-05, |
| "loss": 0.0536, |
| "step": 16010 |
| }, |
| { |
| "epoch": 0.267, |
| "grad_norm": 6.75, |
| "learning_rate": 1.7025967450890335e-05, |
| "loss": 0.0525, |
| "step": 16020 |
| }, |
| { |
| "epoch": 0.26716666666666666, |
| "grad_norm": 25.125, |
| "learning_rate": 1.7022164542870673e-05, |
| "loss": 0.0656, |
| "step": 16030 |
| }, |
| { |
| "epoch": 0.2673333333333333, |
| "grad_norm": 36.5, |
| "learning_rate": 1.7018359630304742e-05, |
| "loss": 0.0637, |
| "step": 16040 |
| }, |
| { |
| "epoch": 0.2675, |
| "grad_norm": 65.5, |
| "learning_rate": 1.7014552714278693e-05, |
| "loss": 0.0658, |
| "step": 16050 |
| }, |
| { |
| "epoch": 0.26766666666666666, |
| "grad_norm": 13.375, |
| "learning_rate": 1.7010743795879256e-05, |
| "loss": 0.0572, |
| "step": 16060 |
| }, |
| { |
| "epoch": 0.2678333333333333, |
| "grad_norm": 17.375, |
| "learning_rate": 1.7006932876193712e-05, |
| "loss": 0.0658, |
| "step": 16070 |
| }, |
| { |
| "epoch": 0.268, |
| "grad_norm": 3.1875, |
| "learning_rate": 1.700311995630993e-05, |
| "loss": 0.0516, |
| "step": 16080 |
| }, |
| { |
| "epoch": 0.26816666666666666, |
| "grad_norm": 36.5, |
| "learning_rate": 1.6999305037316354e-05, |
| "loss": 0.0675, |
| "step": 16090 |
| }, |
| { |
| "epoch": 0.2683333333333333, |
| "grad_norm": 9.0, |
| "learning_rate": 1.699548812030198e-05, |
| "loss": 0.0594, |
| "step": 16100 |
| }, |
| { |
| "epoch": 0.2685, |
| "grad_norm": 3.875, |
| "learning_rate": 1.6991669206356386e-05, |
| "loss": 0.0625, |
| "step": 16110 |
| }, |
| { |
| "epoch": 0.26866666666666666, |
| "grad_norm": 15.4375, |
| "learning_rate": 1.6987848296569723e-05, |
| "loss": 0.0576, |
| "step": 16120 |
| }, |
| { |
| "epoch": 0.2688333333333333, |
| "grad_norm": 4.25, |
| "learning_rate": 1.6984025392032707e-05, |
| "loss": 0.0664, |
| "step": 16130 |
| }, |
| { |
| "epoch": 0.269, |
| "grad_norm": 2.3125, |
| "learning_rate": 1.698020049383662e-05, |
| "loss": 0.0733, |
| "step": 16140 |
| }, |
| { |
| "epoch": 0.26916666666666667, |
| "grad_norm": 49.25, |
| "learning_rate": 1.6976373603073318e-05, |
| "loss": 0.0582, |
| "step": 16150 |
| }, |
| { |
| "epoch": 0.2693333333333333, |
| "grad_norm": 2.84375, |
| "learning_rate": 1.697254472083523e-05, |
| "loss": 0.0698, |
| "step": 16160 |
| }, |
| { |
| "epoch": 0.2695, |
| "grad_norm": 18.625, |
| "learning_rate": 1.6968713848215342e-05, |
| "loss": 0.0667, |
| "step": 16170 |
| }, |
| { |
| "epoch": 0.26966666666666667, |
| "grad_norm": 25.875, |
| "learning_rate": 1.6964880986307217e-05, |
| "loss": 0.0611, |
| "step": 16180 |
| }, |
| { |
| "epoch": 0.2698333333333333, |
| "grad_norm": 3.21875, |
| "learning_rate": 1.6961046136204983e-05, |
| "loss": 0.0662, |
| "step": 16190 |
| }, |
| { |
| "epoch": 0.27, |
| "grad_norm": 5.5, |
| "learning_rate": 1.6957209299003334e-05, |
| "loss": 0.0516, |
| "step": 16200 |
| }, |
| { |
| "epoch": 0.27016666666666667, |
| "grad_norm": 2.53125, |
| "learning_rate": 1.695337047579754e-05, |
| "loss": 0.074, |
| "step": 16210 |
| }, |
| { |
| "epoch": 0.2703333333333333, |
| "grad_norm": 40.0, |
| "learning_rate": 1.694952966768342e-05, |
| "loss": 0.0672, |
| "step": 16220 |
| }, |
| { |
| "epoch": 0.2705, |
| "grad_norm": 3.59375, |
| "learning_rate": 1.694568687575738e-05, |
| "loss": 0.0735, |
| "step": 16230 |
| }, |
| { |
| "epoch": 0.27066666666666667, |
| "grad_norm": 10.875, |
| "learning_rate": 1.694184210111638e-05, |
| "loss": 0.052, |
| "step": 16240 |
| }, |
| { |
| "epoch": 0.2708333333333333, |
| "grad_norm": 16.75, |
| "learning_rate": 1.6937995344857947e-05, |
| "loss": 0.0589, |
| "step": 16250 |
| }, |
| { |
| "epoch": 0.271, |
| "grad_norm": 13.5, |
| "learning_rate": 1.693414660808018e-05, |
| "loss": 0.0747, |
| "step": 16260 |
| }, |
| { |
| "epoch": 0.27116666666666667, |
| "grad_norm": 12.5, |
| "learning_rate": 1.693029589188173e-05, |
| "loss": 0.0631, |
| "step": 16270 |
| }, |
| { |
| "epoch": 0.2713333333333333, |
| "grad_norm": 4.28125, |
| "learning_rate": 1.6926443197361833e-05, |
| "loss": 0.0577, |
| "step": 16280 |
| }, |
| { |
| "epoch": 0.2715, |
| "grad_norm": 8.4375, |
| "learning_rate": 1.6922588525620275e-05, |
| "loss": 0.0592, |
| "step": 16290 |
| }, |
| { |
| "epoch": 0.27166666666666667, |
| "grad_norm": 11.625, |
| "learning_rate": 1.6918731877757407e-05, |
| "loss": 0.0608, |
| "step": 16300 |
| }, |
| { |
| "epoch": 0.2718333333333333, |
| "grad_norm": 3.90625, |
| "learning_rate": 1.6914873254874148e-05, |
| "loss": 0.0666, |
| "step": 16310 |
| }, |
| { |
| "epoch": 0.272, |
| "grad_norm": 3.859375, |
| "learning_rate": 1.6911012658071983e-05, |
| "loss": 0.0502, |
| "step": 16320 |
| }, |
| { |
| "epoch": 0.27216666666666667, |
| "grad_norm": 2.5625, |
| "learning_rate": 1.6907150088452953e-05, |
| "loss": 0.0551, |
| "step": 16330 |
| }, |
| { |
| "epoch": 0.2723333333333333, |
| "grad_norm": 15.5, |
| "learning_rate": 1.6903285547119672e-05, |
| "loss": 0.0547, |
| "step": 16340 |
| }, |
| { |
| "epoch": 0.2725, |
| "grad_norm": 32.5, |
| "learning_rate": 1.6899419035175308e-05, |
| "loss": 0.0693, |
| "step": 16350 |
| }, |
| { |
| "epoch": 0.27266666666666667, |
| "grad_norm": 25.5, |
| "learning_rate": 1.6895550553723596e-05, |
| "loss": 0.0629, |
| "step": 16360 |
| }, |
| { |
| "epoch": 0.2728333333333333, |
| "grad_norm": 6.875, |
| "learning_rate": 1.689168010386883e-05, |
| "loss": 0.0586, |
| "step": 16370 |
| }, |
| { |
| "epoch": 0.273, |
| "grad_norm": 38.75, |
| "learning_rate": 1.6887807686715872e-05, |
| "loss": 0.07, |
| "step": 16380 |
| }, |
| { |
| "epoch": 0.27316666666666667, |
| "grad_norm": 4.375, |
| "learning_rate": 1.6883933303370142e-05, |
| "loss": 0.0614, |
| "step": 16390 |
| }, |
| { |
| "epoch": 0.2733333333333333, |
| "grad_norm": 4.1875, |
| "learning_rate": 1.6880056954937617e-05, |
| "loss": 0.0637, |
| "step": 16400 |
| }, |
| { |
| "epoch": 0.2735, |
| "grad_norm": 52.25, |
| "learning_rate": 1.6876178642524844e-05, |
| "loss": 0.0652, |
| "step": 16410 |
| }, |
| { |
| "epoch": 0.27366666666666667, |
| "grad_norm": 11.875, |
| "learning_rate": 1.687229836723892e-05, |
| "loss": 0.0628, |
| "step": 16420 |
| }, |
| { |
| "epoch": 0.2738333333333333, |
| "grad_norm": 2.640625, |
| "learning_rate": 1.686841613018751e-05, |
| "loss": 0.0507, |
| "step": 16430 |
| }, |
| { |
| "epoch": 0.274, |
| "grad_norm": 20.875, |
| "learning_rate": 1.6864531932478838e-05, |
| "loss": 0.0584, |
| "step": 16440 |
| }, |
| { |
| "epoch": 0.27416666666666667, |
| "grad_norm": 13.4375, |
| "learning_rate": 1.686064577522169e-05, |
| "loss": 0.0668, |
| "step": 16450 |
| }, |
| { |
| "epoch": 0.2743333333333333, |
| "grad_norm": 17.75, |
| "learning_rate": 1.68567576595254e-05, |
| "loss": 0.0525, |
| "step": 16460 |
| }, |
| { |
| "epoch": 0.2745, |
| "grad_norm": 18.125, |
| "learning_rate": 1.6852867586499872e-05, |
| "loss": 0.0547, |
| "step": 16470 |
| }, |
| { |
| "epoch": 0.27466666666666667, |
| "grad_norm": 9.9375, |
| "learning_rate": 1.6848975557255572e-05, |
| "loss": 0.0609, |
| "step": 16480 |
| }, |
| { |
| "epoch": 0.2748333333333333, |
| "grad_norm": 20.5, |
| "learning_rate": 1.6845081572903508e-05, |
| "loss": 0.0555, |
| "step": 16490 |
| }, |
| { |
| "epoch": 0.275, |
| "grad_norm": 4.90625, |
| "learning_rate": 1.6841185634555267e-05, |
| "loss": 0.0575, |
| "step": 16500 |
| }, |
| { |
| "epoch": 0.27516666666666667, |
| "grad_norm": 13.4375, |
| "learning_rate": 1.6837287743322975e-05, |
| "loss": 0.0629, |
| "step": 16510 |
| }, |
| { |
| "epoch": 0.2753333333333333, |
| "grad_norm": 13.1875, |
| "learning_rate": 1.6833387900319324e-05, |
| "loss": 0.0559, |
| "step": 16520 |
| }, |
| { |
| "epoch": 0.2755, |
| "grad_norm": 18.625, |
| "learning_rate": 1.6829486106657566e-05, |
| "loss": 0.0615, |
| "step": 16530 |
| }, |
| { |
| "epoch": 0.27566666666666667, |
| "grad_norm": 13.4375, |
| "learning_rate": 1.682558236345151e-05, |
| "loss": 0.0608, |
| "step": 16540 |
| }, |
| { |
| "epoch": 0.2758333333333333, |
| "grad_norm": 12.625, |
| "learning_rate": 1.6821676671815508e-05, |
| "loss": 0.048, |
| "step": 16550 |
| }, |
| { |
| "epoch": 0.276, |
| "grad_norm": 2.796875, |
| "learning_rate": 1.6817769032864484e-05, |
| "loss": 0.0591, |
| "step": 16560 |
| }, |
| { |
| "epoch": 0.27616666666666667, |
| "grad_norm": 5.5625, |
| "learning_rate": 1.6813859447713918e-05, |
| "loss": 0.0641, |
| "step": 16570 |
| }, |
| { |
| "epoch": 0.2763333333333333, |
| "grad_norm": 5.6875, |
| "learning_rate": 1.6809947917479825e-05, |
| "loss": 0.0589, |
| "step": 16580 |
| }, |
| { |
| "epoch": 0.2765, |
| "grad_norm": 2.859375, |
| "learning_rate": 1.6806034443278804e-05, |
| "loss": 0.0512, |
| "step": 16590 |
| }, |
| { |
| "epoch": 0.27666666666666667, |
| "grad_norm": 34.0, |
| "learning_rate": 1.680211902622799e-05, |
| "loss": 0.0546, |
| "step": 16600 |
| }, |
| { |
| "epoch": 0.2768333333333333, |
| "grad_norm": 10.0, |
| "learning_rate": 1.6798201667445077e-05, |
| "loss": 0.0641, |
| "step": 16610 |
| }, |
| { |
| "epoch": 0.277, |
| "grad_norm": 10.25, |
| "learning_rate": 1.679428236804831e-05, |
| "loss": 0.0556, |
| "step": 16620 |
| }, |
| { |
| "epoch": 0.2771666666666667, |
| "grad_norm": 1.6796875, |
| "learning_rate": 1.67903611291565e-05, |
| "loss": 0.0744, |
| "step": 16630 |
| }, |
| { |
| "epoch": 0.2773333333333333, |
| "grad_norm": 9.4375, |
| "learning_rate": 1.6786437951889e-05, |
| "loss": 0.0522, |
| "step": 16640 |
| }, |
| { |
| "epoch": 0.2775, |
| "grad_norm": 11.0625, |
| "learning_rate": 1.6782512837365713e-05, |
| "loss": 0.0585, |
| "step": 16650 |
| }, |
| { |
| "epoch": 0.2776666666666667, |
| "grad_norm": 17.625, |
| "learning_rate": 1.677858578670711e-05, |
| "loss": 0.068, |
| "step": 16660 |
| }, |
| { |
| "epoch": 0.2778333333333333, |
| "grad_norm": 16.375, |
| "learning_rate": 1.6774656801034207e-05, |
| "loss": 0.0638, |
| "step": 16670 |
| }, |
| { |
| "epoch": 0.278, |
| "grad_norm": 13.125, |
| "learning_rate": 1.6770725881468567e-05, |
| "loss": 0.0509, |
| "step": 16680 |
| }, |
| { |
| "epoch": 0.2781666666666667, |
| "grad_norm": 13.75, |
| "learning_rate": 1.6766793029132307e-05, |
| "loss": 0.0562, |
| "step": 16690 |
| }, |
| { |
| "epoch": 0.2783333333333333, |
| "grad_norm": 24.25, |
| "learning_rate": 1.676285824514811e-05, |
| "loss": 0.0689, |
| "step": 16700 |
| }, |
| { |
| "epoch": 0.2785, |
| "grad_norm": 10.25, |
| "learning_rate": 1.6758921530639186e-05, |
| "loss": 0.0561, |
| "step": 16710 |
| }, |
| { |
| "epoch": 0.2786666666666667, |
| "grad_norm": 7.40625, |
| "learning_rate": 1.6754982886729318e-05, |
| "loss": 0.0625, |
| "step": 16720 |
| }, |
| { |
| "epoch": 0.2788333333333333, |
| "grad_norm": 11.1875, |
| "learning_rate": 1.6751042314542826e-05, |
| "loss": 0.0461, |
| "step": 16730 |
| }, |
| { |
| "epoch": 0.279, |
| "grad_norm": 5.25, |
| "learning_rate": 1.674709981520459e-05, |
| "loss": 0.0669, |
| "step": 16740 |
| }, |
| { |
| "epoch": 0.2791666666666667, |
| "grad_norm": 3.078125, |
| "learning_rate": 1.6743155389840032e-05, |
| "loss": 0.0634, |
| "step": 16750 |
| }, |
| { |
| "epoch": 0.2793333333333333, |
| "grad_norm": 11.9375, |
| "learning_rate": 1.673920903957513e-05, |
| "loss": 0.0592, |
| "step": 16760 |
| }, |
| { |
| "epoch": 0.2795, |
| "grad_norm": 1.7109375, |
| "learning_rate": 1.67352607655364e-05, |
| "loss": 0.0585, |
| "step": 16770 |
| }, |
| { |
| "epoch": 0.2796666666666667, |
| "grad_norm": 9.6875, |
| "learning_rate": 1.673131056885093e-05, |
| "loss": 0.0748, |
| "step": 16780 |
| }, |
| { |
| "epoch": 0.2798333333333333, |
| "grad_norm": 5.4375, |
| "learning_rate": 1.672735845064633e-05, |
| "loss": 0.0464, |
| "step": 16790 |
| }, |
| { |
| "epoch": 0.28, |
| "grad_norm": 2.171875, |
| "learning_rate": 1.6723404412050776e-05, |
| "loss": 0.0665, |
| "step": 16800 |
| }, |
| { |
| "epoch": 0.2801666666666667, |
| "grad_norm": 7.90625, |
| "learning_rate": 1.671944845419299e-05, |
| "loss": 0.0522, |
| "step": 16810 |
| }, |
| { |
| "epoch": 0.2803333333333333, |
| "grad_norm": 20.625, |
| "learning_rate": 1.6715490578202236e-05, |
| "loss": 0.0572, |
| "step": 16820 |
| }, |
| { |
| "epoch": 0.2805, |
| "grad_norm": 8.75, |
| "learning_rate": 1.6711530785208327e-05, |
| "loss": 0.0569, |
| "step": 16830 |
| }, |
| { |
| "epoch": 0.2806666666666667, |
| "grad_norm": 1.921875, |
| "learning_rate": 1.670756907634163e-05, |
| "loss": 0.0623, |
| "step": 16840 |
| }, |
| { |
| "epoch": 0.2808333333333333, |
| "grad_norm": 8.0625, |
| "learning_rate": 1.6703605452733053e-05, |
| "loss": 0.0604, |
| "step": 16850 |
| }, |
| { |
| "epoch": 0.281, |
| "grad_norm": 3.421875, |
| "learning_rate": 1.669963991551405e-05, |
| "loss": 0.0701, |
| "step": 16860 |
| }, |
| { |
| "epoch": 0.2811666666666667, |
| "grad_norm": 4.78125, |
| "learning_rate": 1.669567246581662e-05, |
| "loss": 0.0713, |
| "step": 16870 |
| }, |
| { |
| "epoch": 0.2813333333333333, |
| "grad_norm": 11.8125, |
| "learning_rate": 1.6691703104773317e-05, |
| "loss": 0.0612, |
| "step": 16880 |
| }, |
| { |
| "epoch": 0.2815, |
| "grad_norm": 15.9375, |
| "learning_rate": 1.668773183351723e-05, |
| "loss": 0.054, |
| "step": 16890 |
| }, |
| { |
| "epoch": 0.2816666666666667, |
| "grad_norm": 19.625, |
| "learning_rate": 1.6683758653182e-05, |
| "loss": 0.0623, |
| "step": 16900 |
| }, |
| { |
| "epoch": 0.2818333333333333, |
| "grad_norm": 12.375, |
| "learning_rate": 1.6679783564901806e-05, |
| "loss": 0.0774, |
| "step": 16910 |
| }, |
| { |
| "epoch": 0.282, |
| "grad_norm": 24.75, |
| "learning_rate": 1.6675806569811383e-05, |
| "loss": 0.0634, |
| "step": 16920 |
| }, |
| { |
| "epoch": 0.2821666666666667, |
| "grad_norm": 22.125, |
| "learning_rate": 1.6671827669045998e-05, |
| "loss": 0.0589, |
| "step": 16930 |
| }, |
| { |
| "epoch": 0.2823333333333333, |
| "grad_norm": 7.15625, |
| "learning_rate": 1.666784686374147e-05, |
| "loss": 0.0721, |
| "step": 16940 |
| }, |
| { |
| "epoch": 0.2825, |
| "grad_norm": 2.59375, |
| "learning_rate": 1.666386415503416e-05, |
| "loss": 0.0613, |
| "step": 16950 |
| }, |
| { |
| "epoch": 0.2826666666666667, |
| "grad_norm": 9.5625, |
| "learning_rate": 1.6659879544060967e-05, |
| "loss": 0.0666, |
| "step": 16960 |
| }, |
| { |
| "epoch": 0.2828333333333333, |
| "grad_norm": 6.9375, |
| "learning_rate": 1.6655893031959344e-05, |
| "loss": 0.0563, |
| "step": 16970 |
| }, |
| { |
| "epoch": 0.283, |
| "grad_norm": 5.46875, |
| "learning_rate": 1.6651904619867276e-05, |
| "loss": 0.0546, |
| "step": 16980 |
| }, |
| { |
| "epoch": 0.2831666666666667, |
| "grad_norm": 5.96875, |
| "learning_rate": 1.6647914308923296e-05, |
| "loss": 0.0586, |
| "step": 16990 |
| }, |
| { |
| "epoch": 0.2833333333333333, |
| "grad_norm": 18.75, |
| "learning_rate": 1.664392210026648e-05, |
| "loss": 0.065, |
| "step": 17000 |
| }, |
| { |
| "epoch": 0.2835, |
| "grad_norm": 24.25, |
| "learning_rate": 1.6639927995036437e-05, |
| "loss": 0.0489, |
| "step": 17010 |
| }, |
| { |
| "epoch": 0.2836666666666667, |
| "grad_norm": 8.5, |
| "learning_rate": 1.663593199437333e-05, |
| "loss": 0.0576, |
| "step": 17020 |
| }, |
| { |
| "epoch": 0.2838333333333333, |
| "grad_norm": 2.3125, |
| "learning_rate": 1.6631934099417855e-05, |
| "loss": 0.0588, |
| "step": 17030 |
| }, |
| { |
| "epoch": 0.284, |
| "grad_norm": 3.578125, |
| "learning_rate": 1.662793431131125e-05, |
| "loss": 0.0611, |
| "step": 17040 |
| }, |
| { |
| "epoch": 0.2841666666666667, |
| "grad_norm": 4.875, |
| "learning_rate": 1.6623932631195294e-05, |
| "loss": 0.0604, |
| "step": 17050 |
| }, |
| { |
| "epoch": 0.2843333333333333, |
| "grad_norm": 61.0, |
| "learning_rate": 1.661992906021231e-05, |
| "loss": 0.0626, |
| "step": 17060 |
| }, |
| { |
| "epoch": 0.2845, |
| "grad_norm": 7.625, |
| "learning_rate": 1.6615923599505147e-05, |
| "loss": 0.0559, |
| "step": 17070 |
| }, |
| { |
| "epoch": 0.2846666666666667, |
| "grad_norm": 2.390625, |
| "learning_rate": 1.6611916250217212e-05, |
| "loss": 0.0624, |
| "step": 17080 |
| }, |
| { |
| "epoch": 0.2848333333333333, |
| "grad_norm": 3.703125, |
| "learning_rate": 1.6607907013492442e-05, |
| "loss": 0.062, |
| "step": 17090 |
| }, |
| { |
| "epoch": 0.285, |
| "grad_norm": 10.5, |
| "learning_rate": 1.660389589047531e-05, |
| "loss": 0.054, |
| "step": 17100 |
| }, |
| { |
| "epoch": 0.2851666666666667, |
| "grad_norm": 16.0, |
| "learning_rate": 1.6599882882310834e-05, |
| "loss": 0.0661, |
| "step": 17110 |
| }, |
| { |
| "epoch": 0.2853333333333333, |
| "grad_norm": 12.4375, |
| "learning_rate": 1.6595867990144562e-05, |
| "loss": 0.0609, |
| "step": 17120 |
| }, |
| { |
| "epoch": 0.2855, |
| "grad_norm": 5.375, |
| "learning_rate": 1.659185121512259e-05, |
| "loss": 0.0572, |
| "step": 17130 |
| }, |
| { |
| "epoch": 0.2856666666666667, |
| "grad_norm": 3.109375, |
| "learning_rate": 1.658783255839154e-05, |
| "loss": 0.0591, |
| "step": 17140 |
| }, |
| { |
| "epoch": 0.28583333333333333, |
| "grad_norm": 20.375, |
| "learning_rate": 1.6583812021098586e-05, |
| "loss": 0.0608, |
| "step": 17150 |
| }, |
| { |
| "epoch": 0.286, |
| "grad_norm": 10.875, |
| "learning_rate": 1.657978960439142e-05, |
| "loss": 0.0582, |
| "step": 17160 |
| }, |
| { |
| "epoch": 0.2861666666666667, |
| "grad_norm": 28.0, |
| "learning_rate": 1.657576530941829e-05, |
| "loss": 0.0482, |
| "step": 17170 |
| }, |
| { |
| "epoch": 0.28633333333333333, |
| "grad_norm": 1.8359375, |
| "learning_rate": 1.657173913732797e-05, |
| "loss": 0.0463, |
| "step": 17180 |
| }, |
| { |
| "epoch": 0.2865, |
| "grad_norm": 3.90625, |
| "learning_rate": 1.656771108926976e-05, |
| "loss": 0.0602, |
| "step": 17190 |
| }, |
| { |
| "epoch": 0.2866666666666667, |
| "grad_norm": 5.65625, |
| "learning_rate": 1.6563681166393514e-05, |
| "loss": 0.0546, |
| "step": 17200 |
| }, |
| { |
| "epoch": 0.28683333333333333, |
| "grad_norm": 8.6875, |
| "learning_rate": 1.6559649369849615e-05, |
| "loss": 0.0546, |
| "step": 17210 |
| }, |
| { |
| "epoch": 0.287, |
| "grad_norm": 2.859375, |
| "learning_rate": 1.6555615700788977e-05, |
| "loss": 0.0667, |
| "step": 17220 |
| }, |
| { |
| "epoch": 0.2871666666666667, |
| "grad_norm": 1.5703125, |
| "learning_rate": 1.6551580160363047e-05, |
| "loss": 0.0579, |
| "step": 17230 |
| }, |
| { |
| "epoch": 0.28733333333333333, |
| "grad_norm": 23.875, |
| "learning_rate": 1.654754274972382e-05, |
| "loss": 0.0538, |
| "step": 17240 |
| }, |
| { |
| "epoch": 0.2875, |
| "grad_norm": 3.625, |
| "learning_rate": 1.6543503470023803e-05, |
| "loss": 0.0593, |
| "step": 17250 |
| }, |
| { |
| "epoch": 0.2876666666666667, |
| "grad_norm": 6.34375, |
| "learning_rate": 1.653946232241605e-05, |
| "loss": 0.053, |
| "step": 17260 |
| }, |
| { |
| "epoch": 0.28783333333333333, |
| "grad_norm": 12.625, |
| "learning_rate": 1.6535419308054156e-05, |
| "loss": 0.0651, |
| "step": 17270 |
| }, |
| { |
| "epoch": 0.288, |
| "grad_norm": 6.03125, |
| "learning_rate": 1.653137442809223e-05, |
| "loss": 0.0765, |
| "step": 17280 |
| }, |
| { |
| "epoch": 0.2881666666666667, |
| "grad_norm": 2.234375, |
| "learning_rate": 1.652732768368493e-05, |
| "loss": 0.072, |
| "step": 17290 |
| }, |
| { |
| "epoch": 0.28833333333333333, |
| "grad_norm": 13.5, |
| "learning_rate": 1.652327907598743e-05, |
| "loss": 0.0533, |
| "step": 17300 |
| }, |
| { |
| "epoch": 0.2885, |
| "grad_norm": 7.78125, |
| "learning_rate": 1.6519228606155455e-05, |
| "loss": 0.0557, |
| "step": 17310 |
| }, |
| { |
| "epoch": 0.2886666666666667, |
| "grad_norm": 4.09375, |
| "learning_rate": 1.651517627534525e-05, |
| "loss": 0.0563, |
| "step": 17320 |
| }, |
| { |
| "epoch": 0.28883333333333333, |
| "grad_norm": 3.125, |
| "learning_rate": 1.6511122084713583e-05, |
| "loss": 0.0691, |
| "step": 17330 |
| }, |
| { |
| "epoch": 0.289, |
| "grad_norm": 3.15625, |
| "learning_rate": 1.6507066035417775e-05, |
| "loss": 0.0672, |
| "step": 17340 |
| }, |
| { |
| "epoch": 0.2891666666666667, |
| "grad_norm": 8.5625, |
| "learning_rate": 1.6503008128615657e-05, |
| "loss": 0.0668, |
| "step": 17350 |
| }, |
| { |
| "epoch": 0.28933333333333333, |
| "grad_norm": 14.75, |
| "learning_rate": 1.6498948365465603e-05, |
| "loss": 0.0561, |
| "step": 17360 |
| }, |
| { |
| "epoch": 0.2895, |
| "grad_norm": 12.125, |
| "learning_rate": 1.649488674712651e-05, |
| "loss": 0.0539, |
| "step": 17370 |
| }, |
| { |
| "epoch": 0.2896666666666667, |
| "grad_norm": 2.75, |
| "learning_rate": 1.649082327475781e-05, |
| "loss": 0.0565, |
| "step": 17380 |
| }, |
| { |
| "epoch": 0.28983333333333333, |
| "grad_norm": 37.5, |
| "learning_rate": 1.648675794951946e-05, |
| "loss": 0.0554, |
| "step": 17390 |
| }, |
| { |
| "epoch": 0.29, |
| "grad_norm": 28.75, |
| "learning_rate": 1.6482690772571944e-05, |
| "loss": 0.0627, |
| "step": 17400 |
| }, |
| { |
| "epoch": 0.2901666666666667, |
| "grad_norm": 17.375, |
| "learning_rate": 1.6478621745076285e-05, |
| "loss": 0.0503, |
| "step": 17410 |
| }, |
| { |
| "epoch": 0.29033333333333333, |
| "grad_norm": 9.9375, |
| "learning_rate": 1.6474550868194022e-05, |
| "loss": 0.0572, |
| "step": 17420 |
| }, |
| { |
| "epoch": 0.2905, |
| "grad_norm": 25.125, |
| "learning_rate": 1.6470478143087227e-05, |
| "loss": 0.061, |
| "step": 17430 |
| }, |
| { |
| "epoch": 0.2906666666666667, |
| "grad_norm": 3.828125, |
| "learning_rate": 1.6466403570918503e-05, |
| "loss": 0.0555, |
| "step": 17440 |
| }, |
| { |
| "epoch": 0.29083333333333333, |
| "grad_norm": 24.875, |
| "learning_rate": 1.646232715285097e-05, |
| "loss": 0.0581, |
| "step": 17450 |
| }, |
| { |
| "epoch": 0.291, |
| "grad_norm": 12.0, |
| "learning_rate": 1.6458248890048288e-05, |
| "loss": 0.0608, |
| "step": 17460 |
| }, |
| { |
| "epoch": 0.2911666666666667, |
| "grad_norm": 26.0, |
| "learning_rate": 1.6454168783674637e-05, |
| "loss": 0.0512, |
| "step": 17470 |
| }, |
| { |
| "epoch": 0.29133333333333333, |
| "grad_norm": 3.625, |
| "learning_rate": 1.6450086834894727e-05, |
| "loss": 0.0638, |
| "step": 17480 |
| }, |
| { |
| "epoch": 0.2915, |
| "grad_norm": 4.5625, |
| "learning_rate": 1.6446003044873776e-05, |
| "loss": 0.0871, |
| "step": 17490 |
| }, |
| { |
| "epoch": 0.2916666666666667, |
| "grad_norm": 1.7421875, |
| "learning_rate": 1.644191741477756e-05, |
| "loss": 0.076, |
| "step": 17500 |
| }, |
| { |
| "epoch": 0.29183333333333333, |
| "grad_norm": 19.0, |
| "learning_rate": 1.6437829945772354e-05, |
| "loss": 0.0494, |
| "step": 17510 |
| }, |
| { |
| "epoch": 0.292, |
| "grad_norm": 27.5, |
| "learning_rate": 1.6433740639024963e-05, |
| "loss": 0.0517, |
| "step": 17520 |
| }, |
| { |
| "epoch": 0.2921666666666667, |
| "grad_norm": 8.25, |
| "learning_rate": 1.6429649495702726e-05, |
| "loss": 0.0691, |
| "step": 17530 |
| }, |
| { |
| "epoch": 0.29233333333333333, |
| "grad_norm": 1.8515625, |
| "learning_rate": 1.6425556516973502e-05, |
| "loss": 0.0558, |
| "step": 17540 |
| }, |
| { |
| "epoch": 0.2925, |
| "grad_norm": 4.78125, |
| "learning_rate": 1.6421461704005666e-05, |
| "loss": 0.0605, |
| "step": 17550 |
| }, |
| { |
| "epoch": 0.2926666666666667, |
| "grad_norm": 7.8125, |
| "learning_rate": 1.6417365057968123e-05, |
| "loss": 0.0521, |
| "step": 17560 |
| }, |
| { |
| "epoch": 0.29283333333333333, |
| "grad_norm": 2.140625, |
| "learning_rate": 1.6413266580030308e-05, |
| "loss": 0.0666, |
| "step": 17570 |
| }, |
| { |
| "epoch": 0.293, |
| "grad_norm": 10.0625, |
| "learning_rate": 1.6409166271362166e-05, |
| "loss": 0.0563, |
| "step": 17580 |
| }, |
| { |
| "epoch": 0.2931666666666667, |
| "grad_norm": 5.53125, |
| "learning_rate": 1.6405064133134173e-05, |
| "loss": 0.0546, |
| "step": 17590 |
| }, |
| { |
| "epoch": 0.29333333333333333, |
| "grad_norm": 4.375, |
| "learning_rate": 1.6400960166517324e-05, |
| "loss": 0.0661, |
| "step": 17600 |
| }, |
| { |
| "epoch": 0.2935, |
| "grad_norm": 5.15625, |
| "learning_rate": 1.6396854372683136e-05, |
| "loss": 0.0736, |
| "step": 17610 |
| }, |
| { |
| "epoch": 0.2936666666666667, |
| "grad_norm": 8.875, |
| "learning_rate": 1.639274675280365e-05, |
| "loss": 0.0648, |
| "step": 17620 |
| }, |
| { |
| "epoch": 0.29383333333333334, |
| "grad_norm": 10.75, |
| "learning_rate": 1.6388637308051428e-05, |
| "loss": 0.059, |
| "step": 17630 |
| }, |
| { |
| "epoch": 0.294, |
| "grad_norm": 14.3125, |
| "learning_rate": 1.6384526039599546e-05, |
| "loss": 0.0621, |
| "step": 17640 |
| }, |
| { |
| "epoch": 0.2941666666666667, |
| "grad_norm": 2.203125, |
| "learning_rate": 1.6380412948621616e-05, |
| "loss": 0.0504, |
| "step": 17650 |
| }, |
| { |
| "epoch": 0.29433333333333334, |
| "grad_norm": 11.5, |
| "learning_rate": 1.637629803629175e-05, |
| "loss": 0.0556, |
| "step": 17660 |
| }, |
| { |
| "epoch": 0.2945, |
| "grad_norm": 4.4375, |
| "learning_rate": 1.6372181303784596e-05, |
| "loss": 0.0538, |
| "step": 17670 |
| }, |
| { |
| "epoch": 0.2946666666666667, |
| "grad_norm": 2.90625, |
| "learning_rate": 1.6368062752275317e-05, |
| "loss": 0.0664, |
| "step": 17680 |
| }, |
| { |
| "epoch": 0.29483333333333334, |
| "grad_norm": 4.40625, |
| "learning_rate": 1.636394238293959e-05, |
| "loss": 0.0602, |
| "step": 17690 |
| }, |
| { |
| "epoch": 0.295, |
| "grad_norm": 12.6875, |
| "learning_rate": 1.6359820196953612e-05, |
| "loss": 0.0591, |
| "step": 17700 |
| }, |
| { |
| "epoch": 0.2951666666666667, |
| "grad_norm": 4.4375, |
| "learning_rate": 1.6355696195494116e-05, |
| "loss": 0.0545, |
| "step": 17710 |
| }, |
| { |
| "epoch": 0.29533333333333334, |
| "grad_norm": 2.625, |
| "learning_rate": 1.6351570379738327e-05, |
| "loss": 0.059, |
| "step": 17720 |
| }, |
| { |
| "epoch": 0.2955, |
| "grad_norm": 11.875, |
| "learning_rate": 1.6347442750864e-05, |
| "loss": 0.0666, |
| "step": 17730 |
| }, |
| { |
| "epoch": 0.2956666666666667, |
| "grad_norm": 21.0, |
| "learning_rate": 1.6343313310049413e-05, |
| "loss": 0.0514, |
| "step": 17740 |
| }, |
| { |
| "epoch": 0.29583333333333334, |
| "grad_norm": 9.875, |
| "learning_rate": 1.633918205847335e-05, |
| "loss": 0.0518, |
| "step": 17750 |
| }, |
| { |
| "epoch": 0.296, |
| "grad_norm": 28.5, |
| "learning_rate": 1.6335048997315125e-05, |
| "loss": 0.0637, |
| "step": 17760 |
| }, |
| { |
| "epoch": 0.2961666666666667, |
| "grad_norm": 26.875, |
| "learning_rate": 1.6330914127754552e-05, |
| "loss": 0.0561, |
| "step": 17770 |
| }, |
| { |
| "epoch": 0.29633333333333334, |
| "grad_norm": 6.4375, |
| "learning_rate": 1.632677745097198e-05, |
| "loss": 0.0645, |
| "step": 17780 |
| }, |
| { |
| "epoch": 0.2965, |
| "grad_norm": 7.4375, |
| "learning_rate": 1.6322638968148256e-05, |
| "loss": 0.0713, |
| "step": 17790 |
| }, |
| { |
| "epoch": 0.2966666666666667, |
| "grad_norm": 6.78125, |
| "learning_rate": 1.6318498680464753e-05, |
| "loss": 0.0649, |
| "step": 17800 |
| }, |
| { |
| "epoch": 0.29683333333333334, |
| "grad_norm": 2.09375, |
| "learning_rate": 1.6314356589103362e-05, |
| "loss": 0.0576, |
| "step": 17810 |
| }, |
| { |
| "epoch": 0.297, |
| "grad_norm": 6.375, |
| "learning_rate": 1.6310212695246477e-05, |
| "loss": 0.0562, |
| "step": 17820 |
| }, |
| { |
| "epoch": 0.2971666666666667, |
| "grad_norm": 4.34375, |
| "learning_rate": 1.630606700007702e-05, |
| "loss": 0.0687, |
| "step": 17830 |
| }, |
| { |
| "epoch": 0.29733333333333334, |
| "grad_norm": 28.5, |
| "learning_rate": 1.6301919504778415e-05, |
| "loss": 0.0573, |
| "step": 17840 |
| }, |
| { |
| "epoch": 0.2975, |
| "grad_norm": 12.5, |
| "learning_rate": 1.6297770210534606e-05, |
| "loss": 0.0616, |
| "step": 17850 |
| }, |
| { |
| "epoch": 0.2976666666666667, |
| "grad_norm": 13.6875, |
| "learning_rate": 1.6293619118530055e-05, |
| "loss": 0.0643, |
| "step": 17860 |
| }, |
| { |
| "epoch": 0.29783333333333334, |
| "grad_norm": 5.125, |
| "learning_rate": 1.6289466229949727e-05, |
| "loss": 0.0682, |
| "step": 17870 |
| }, |
| { |
| "epoch": 0.298, |
| "grad_norm": 15.25, |
| "learning_rate": 1.628531154597911e-05, |
| "loss": 0.0569, |
| "step": 17880 |
| }, |
| { |
| "epoch": 0.2981666666666667, |
| "grad_norm": 13.25, |
| "learning_rate": 1.6281155067804194e-05, |
| "loss": 0.0574, |
| "step": 17890 |
| }, |
| { |
| "epoch": 0.29833333333333334, |
| "grad_norm": 6.5625, |
| "learning_rate": 1.627699679661149e-05, |
| "loss": 0.0711, |
| "step": 17900 |
| }, |
| { |
| "epoch": 0.2985, |
| "grad_norm": 10.6875, |
| "learning_rate": 1.627283673358802e-05, |
| "loss": 0.0678, |
| "step": 17910 |
| }, |
| { |
| "epoch": 0.2986666666666667, |
| "grad_norm": 3.9375, |
| "learning_rate": 1.6268674879921307e-05, |
| "loss": 0.065, |
| "step": 17920 |
| }, |
| { |
| "epoch": 0.29883333333333334, |
| "grad_norm": 5.8125, |
| "learning_rate": 1.62645112367994e-05, |
| "loss": 0.0561, |
| "step": 17930 |
| }, |
| { |
| "epoch": 0.299, |
| "grad_norm": 8.0, |
| "learning_rate": 1.6260345805410853e-05, |
| "loss": 0.058, |
| "step": 17940 |
| }, |
| { |
| "epoch": 0.2991666666666667, |
| "grad_norm": 23.125, |
| "learning_rate": 1.6256178586944727e-05, |
| "loss": 0.0515, |
| "step": 17950 |
| }, |
| { |
| "epoch": 0.29933333333333334, |
| "grad_norm": 35.25, |
| "learning_rate": 1.6252009582590594e-05, |
| "loss": 0.0569, |
| "step": 17960 |
| }, |
| { |
| "epoch": 0.2995, |
| "grad_norm": 4.0, |
| "learning_rate": 1.624783879353854e-05, |
| "loss": 0.0622, |
| "step": 17970 |
| }, |
| { |
| "epoch": 0.2996666666666667, |
| "grad_norm": 4.8125, |
| "learning_rate": 1.6243666220979158e-05, |
| "loss": 0.0605, |
| "step": 17980 |
| }, |
| { |
| "epoch": 0.29983333333333334, |
| "grad_norm": 7.125, |
| "learning_rate": 1.6239491866103546e-05, |
| "loss": 0.0624, |
| "step": 17990 |
| }, |
| { |
| "epoch": 0.3, |
| "grad_norm": 5.71875, |
| "learning_rate": 1.623531573010332e-05, |
| "loss": 0.065, |
| "step": 18000 |
| }, |
| { |
| "epoch": 0.3001666666666667, |
| "grad_norm": 26.125, |
| "learning_rate": 1.62311378141706e-05, |
| "loss": 0.0634, |
| "step": 18010 |
| }, |
| { |
| "epoch": 0.30033333333333334, |
| "grad_norm": 5.875, |
| "learning_rate": 1.6226958119498006e-05, |
| "loss": 0.061, |
| "step": 18020 |
| }, |
| { |
| "epoch": 0.3005, |
| "grad_norm": 4.21875, |
| "learning_rate": 1.6222776647278683e-05, |
| "loss": 0.0438, |
| "step": 18030 |
| }, |
| { |
| "epoch": 0.3006666666666667, |
| "grad_norm": 36.25, |
| "learning_rate": 1.6218593398706267e-05, |
| "loss": 0.0771, |
| "step": 18040 |
| }, |
| { |
| "epoch": 0.30083333333333334, |
| "grad_norm": 9.25, |
| "learning_rate": 1.621440837497491e-05, |
| "loss": 0.0669, |
| "step": 18050 |
| }, |
| { |
| "epoch": 0.301, |
| "grad_norm": 5.5625, |
| "learning_rate": 1.6210221577279263e-05, |
| "loss": 0.0523, |
| "step": 18060 |
| }, |
| { |
| "epoch": 0.3011666666666667, |
| "grad_norm": 4.5, |
| "learning_rate": 1.6206033006814496e-05, |
| "loss": 0.0604, |
| "step": 18070 |
| }, |
| { |
| "epoch": 0.30133333333333334, |
| "grad_norm": 5.5625, |
| "learning_rate": 1.6201842664776278e-05, |
| "loss": 0.0568, |
| "step": 18080 |
| }, |
| { |
| "epoch": 0.3015, |
| "grad_norm": 1.984375, |
| "learning_rate": 1.619765055236078e-05, |
| "loss": 0.0629, |
| "step": 18090 |
| }, |
| { |
| "epoch": 0.3016666666666667, |
| "grad_norm": 9.25, |
| "learning_rate": 1.619345667076468e-05, |
| "loss": 0.0574, |
| "step": 18100 |
| }, |
| { |
| "epoch": 0.30183333333333334, |
| "grad_norm": 11.5625, |
| "learning_rate": 1.6189261021185166e-05, |
| "loss": 0.0558, |
| "step": 18110 |
| }, |
| { |
| "epoch": 0.302, |
| "grad_norm": 19.25, |
| "learning_rate": 1.618506360481993e-05, |
| "loss": 0.0736, |
| "step": 18120 |
| }, |
| { |
| "epoch": 0.30216666666666664, |
| "grad_norm": 9.375, |
| "learning_rate": 1.6180864422867163e-05, |
| "loss": 0.0577, |
| "step": 18130 |
| }, |
| { |
| "epoch": 0.30233333333333334, |
| "grad_norm": 6.25, |
| "learning_rate": 1.617666347652556e-05, |
| "loss": 0.0558, |
| "step": 18140 |
| }, |
| { |
| "epoch": 0.3025, |
| "grad_norm": 18.125, |
| "learning_rate": 1.617246076699433e-05, |
| "loss": 0.0641, |
| "step": 18150 |
| }, |
| { |
| "epoch": 0.30266666666666664, |
| "grad_norm": 37.75, |
| "learning_rate": 1.616825629547317e-05, |
| "loss": 0.0615, |
| "step": 18160 |
| }, |
| { |
| "epoch": 0.30283333333333334, |
| "grad_norm": 12.9375, |
| "learning_rate": 1.6164050063162295e-05, |
| "loss": 0.0602, |
| "step": 18170 |
| }, |
| { |
| "epoch": 0.303, |
| "grad_norm": 9.1875, |
| "learning_rate": 1.615984207126241e-05, |
| "loss": 0.0622, |
| "step": 18180 |
| }, |
| { |
| "epoch": 0.30316666666666664, |
| "grad_norm": 1.4453125, |
| "learning_rate": 1.615563232097473e-05, |
| "loss": 0.0595, |
| "step": 18190 |
| }, |
| { |
| "epoch": 0.30333333333333334, |
| "grad_norm": 2.6875, |
| "learning_rate": 1.615142081350097e-05, |
| "loss": 0.0667, |
| "step": 18200 |
| }, |
| { |
| "epoch": 0.3035, |
| "grad_norm": 39.0, |
| "learning_rate": 1.6147207550043348e-05, |
| "loss": 0.066, |
| "step": 18210 |
| }, |
| { |
| "epoch": 0.30366666666666664, |
| "grad_norm": 11.375, |
| "learning_rate": 1.614299253180458e-05, |
| "loss": 0.0567, |
| "step": 18220 |
| }, |
| { |
| "epoch": 0.30383333333333334, |
| "grad_norm": 4.84375, |
| "learning_rate": 1.6138775759987885e-05, |
| "loss": 0.0662, |
| "step": 18230 |
| }, |
| { |
| "epoch": 0.304, |
| "grad_norm": 13.75, |
| "learning_rate": 1.6134557235796983e-05, |
| "loss": 0.0601, |
| "step": 18240 |
| }, |
| { |
| "epoch": 0.30416666666666664, |
| "grad_norm": 6.0, |
| "learning_rate": 1.613033696043609e-05, |
| "loss": 0.0496, |
| "step": 18250 |
| }, |
| { |
| "epoch": 0.30433333333333334, |
| "grad_norm": 9.1875, |
| "learning_rate": 1.612611493510993e-05, |
| "loss": 0.0636, |
| "step": 18260 |
| }, |
| { |
| "epoch": 0.3045, |
| "grad_norm": 7.75, |
| "learning_rate": 1.612189116102372e-05, |
| "loss": 0.0596, |
| "step": 18270 |
| }, |
| { |
| "epoch": 0.30466666666666664, |
| "grad_norm": 19.875, |
| "learning_rate": 1.6117665639383173e-05, |
| "loss": 0.0562, |
| "step": 18280 |
| }, |
| { |
| "epoch": 0.30483333333333335, |
| "grad_norm": 15.8125, |
| "learning_rate": 1.6113438371394513e-05, |
| "loss": 0.0567, |
| "step": 18290 |
| }, |
| { |
| "epoch": 0.305, |
| "grad_norm": 5.375, |
| "learning_rate": 1.6109209358264457e-05, |
| "loss": 0.0629, |
| "step": 18300 |
| }, |
| { |
| "epoch": 0.30516666666666664, |
| "grad_norm": 27.875, |
| "learning_rate": 1.6104978601200207e-05, |
| "loss": 0.0652, |
| "step": 18310 |
| }, |
| { |
| "epoch": 0.30533333333333335, |
| "grad_norm": 12.25, |
| "learning_rate": 1.6100746101409487e-05, |
| "loss": 0.0645, |
| "step": 18320 |
| }, |
| { |
| "epoch": 0.3055, |
| "grad_norm": 2.625, |
| "learning_rate": 1.60965118601005e-05, |
| "loss": 0.0483, |
| "step": 18330 |
| }, |
| { |
| "epoch": 0.30566666666666664, |
| "grad_norm": 17.875, |
| "learning_rate": 1.6092275878481952e-05, |
| "loss": 0.0612, |
| "step": 18340 |
| }, |
| { |
| "epoch": 0.30583333333333335, |
| "grad_norm": 7.03125, |
| "learning_rate": 1.6088038157763047e-05, |
| "loss": 0.0644, |
| "step": 18350 |
| }, |
| { |
| "epoch": 0.306, |
| "grad_norm": 23.625, |
| "learning_rate": 1.6083798699153485e-05, |
| "loss": 0.0612, |
| "step": 18360 |
| }, |
| { |
| "epoch": 0.30616666666666664, |
| "grad_norm": 15.8125, |
| "learning_rate": 1.607955750386346e-05, |
| "loss": 0.0479, |
| "step": 18370 |
| }, |
| { |
| "epoch": 0.30633333333333335, |
| "grad_norm": 2.03125, |
| "learning_rate": 1.6075314573103664e-05, |
| "loss": 0.0574, |
| "step": 18380 |
| }, |
| { |
| "epoch": 0.3065, |
| "grad_norm": 2.78125, |
| "learning_rate": 1.6071069908085284e-05, |
| "loss": 0.0524, |
| "step": 18390 |
| }, |
| { |
| "epoch": 0.30666666666666664, |
| "grad_norm": 20.625, |
| "learning_rate": 1.6066823510019998e-05, |
| "loss": 0.0681, |
| "step": 18400 |
| }, |
| { |
| "epoch": 0.30683333333333335, |
| "grad_norm": 16.25, |
| "learning_rate": 1.6062575380119983e-05, |
| "loss": 0.0613, |
| "step": 18410 |
| }, |
| { |
| "epoch": 0.307, |
| "grad_norm": 25.625, |
| "learning_rate": 1.6058325519597918e-05, |
| "loss": 0.0581, |
| "step": 18420 |
| }, |
| { |
| "epoch": 0.30716666666666664, |
| "grad_norm": 5.90625, |
| "learning_rate": 1.6054073929666956e-05, |
| "loss": 0.0594, |
| "step": 18430 |
| }, |
| { |
| "epoch": 0.30733333333333335, |
| "grad_norm": 11.375, |
| "learning_rate": 1.6049820611540764e-05, |
| "loss": 0.0641, |
| "step": 18440 |
| }, |
| { |
| "epoch": 0.3075, |
| "grad_norm": 6.90625, |
| "learning_rate": 1.604556556643349e-05, |
| "loss": 0.0576, |
| "step": 18450 |
| }, |
| { |
| "epoch": 0.30766666666666664, |
| "grad_norm": 2.625, |
| "learning_rate": 1.6041308795559775e-05, |
| "loss": 0.0664, |
| "step": 18460 |
| }, |
| { |
| "epoch": 0.30783333333333335, |
| "grad_norm": 9.5, |
| "learning_rate": 1.6037050300134764e-05, |
| "loss": 0.053, |
| "step": 18470 |
| }, |
| { |
| "epoch": 0.308, |
| "grad_norm": 22.375, |
| "learning_rate": 1.603279008137408e-05, |
| "loss": 0.0707, |
| "step": 18480 |
| }, |
| { |
| "epoch": 0.30816666666666664, |
| "grad_norm": 5.34375, |
| "learning_rate": 1.602852814049385e-05, |
| "loss": 0.0563, |
| "step": 18490 |
| }, |
| { |
| "epoch": 0.30833333333333335, |
| "grad_norm": 6.96875, |
| "learning_rate": 1.6024264478710682e-05, |
| "loss": 0.0607, |
| "step": 18500 |
| }, |
| { |
| "epoch": 0.3085, |
| "grad_norm": 3.25, |
| "learning_rate": 1.6019999097241683e-05, |
| "loss": 0.0576, |
| "step": 18510 |
| }, |
| { |
| "epoch": 0.30866666666666664, |
| "grad_norm": 2.625, |
| "learning_rate": 1.601573199730445e-05, |
| "loss": 0.0431, |
| "step": 18520 |
| }, |
| { |
| "epoch": 0.30883333333333335, |
| "grad_norm": 2.484375, |
| "learning_rate": 1.6011463180117067e-05, |
| "loss": 0.065, |
| "step": 18530 |
| }, |
| { |
| "epoch": 0.309, |
| "grad_norm": 8.0625, |
| "learning_rate": 1.600719264689811e-05, |
| "loss": 0.0551, |
| "step": 18540 |
| }, |
| { |
| "epoch": 0.30916666666666665, |
| "grad_norm": 10.3125, |
| "learning_rate": 1.6002920398866643e-05, |
| "loss": 0.062, |
| "step": 18550 |
| }, |
| { |
| "epoch": 0.30933333333333335, |
| "grad_norm": 11.0625, |
| "learning_rate": 1.5998646437242228e-05, |
| "loss": 0.0598, |
| "step": 18560 |
| }, |
| { |
| "epoch": 0.3095, |
| "grad_norm": 5.875, |
| "learning_rate": 1.59943707632449e-05, |
| "loss": 0.0561, |
| "step": 18570 |
| }, |
| { |
| "epoch": 0.30966666666666665, |
| "grad_norm": 2.828125, |
| "learning_rate": 1.5990093378095198e-05, |
| "loss": 0.0718, |
| "step": 18580 |
| }, |
| { |
| "epoch": 0.30983333333333335, |
| "grad_norm": 15.125, |
| "learning_rate": 1.5985814283014145e-05, |
| "loss": 0.0613, |
| "step": 18590 |
| }, |
| { |
| "epoch": 0.31, |
| "grad_norm": 9.0, |
| "learning_rate": 1.5981533479223252e-05, |
| "loss": 0.0498, |
| "step": 18600 |
| }, |
| { |
| "epoch": 0.31016666666666665, |
| "grad_norm": 30.75, |
| "learning_rate": 1.597725096794451e-05, |
| "loss": 0.0648, |
| "step": 18610 |
| }, |
| { |
| "epoch": 0.31033333333333335, |
| "grad_norm": 4.3125, |
| "learning_rate": 1.5972966750400408e-05, |
| "loss": 0.0519, |
| "step": 18620 |
| }, |
| { |
| "epoch": 0.3105, |
| "grad_norm": 8.3125, |
| "learning_rate": 1.596868082781392e-05, |
| "loss": 0.0515, |
| "step": 18630 |
| }, |
| { |
| "epoch": 0.31066666666666665, |
| "grad_norm": 15.0625, |
| "learning_rate": 1.5964393201408504e-05, |
| "loss": 0.0635, |
| "step": 18640 |
| }, |
| { |
| "epoch": 0.31083333333333335, |
| "grad_norm": 10.0625, |
| "learning_rate": 1.59601038724081e-05, |
| "loss": 0.0512, |
| "step": 18650 |
| }, |
| { |
| "epoch": 0.311, |
| "grad_norm": 34.75, |
| "learning_rate": 1.595581284203715e-05, |
| "loss": 0.0601, |
| "step": 18660 |
| }, |
| { |
| "epoch": 0.31116666666666665, |
| "grad_norm": 38.75, |
| "learning_rate": 1.5951520111520564e-05, |
| "loss": 0.0576, |
| "step": 18670 |
| }, |
| { |
| "epoch": 0.31133333333333335, |
| "grad_norm": 23.0, |
| "learning_rate": 1.5947225682083744e-05, |
| "loss": 0.0652, |
| "step": 18680 |
| }, |
| { |
| "epoch": 0.3115, |
| "grad_norm": 26.125, |
| "learning_rate": 1.5942929554952577e-05, |
| "loss": 0.0452, |
| "step": 18690 |
| }, |
| { |
| "epoch": 0.31166666666666665, |
| "grad_norm": 5.09375, |
| "learning_rate": 1.5938631731353442e-05, |
| "loss": 0.0578, |
| "step": 18700 |
| }, |
| { |
| "epoch": 0.31183333333333335, |
| "grad_norm": 6.78125, |
| "learning_rate": 1.5934332212513186e-05, |
| "loss": 0.0667, |
| "step": 18710 |
| }, |
| { |
| "epoch": 0.312, |
| "grad_norm": 2.515625, |
| "learning_rate": 1.593003099965915e-05, |
| "loss": 0.0536, |
| "step": 18720 |
| }, |
| { |
| "epoch": 0.31216666666666665, |
| "grad_norm": 12.5625, |
| "learning_rate": 1.592572809401917e-05, |
| "loss": 0.049, |
| "step": 18730 |
| }, |
| { |
| "epoch": 0.31233333333333335, |
| "grad_norm": 2.109375, |
| "learning_rate": 1.5921423496821537e-05, |
| "loss": 0.0603, |
| "step": 18740 |
| }, |
| { |
| "epoch": 0.3125, |
| "grad_norm": 7.21875, |
| "learning_rate": 1.591711720929505e-05, |
| "loss": 0.0598, |
| "step": 18750 |
| }, |
| { |
| "epoch": 0.31266666666666665, |
| "grad_norm": 8.875, |
| "learning_rate": 1.5912809232668976e-05, |
| "loss": 0.0697, |
| "step": 18760 |
| }, |
| { |
| "epoch": 0.31283333333333335, |
| "grad_norm": 16.375, |
| "learning_rate": 1.590849956817307e-05, |
| "loss": 0.0635, |
| "step": 18770 |
| }, |
| { |
| "epoch": 0.313, |
| "grad_norm": 2.65625, |
| "learning_rate": 1.5904188217037576e-05, |
| "loss": 0.0608, |
| "step": 18780 |
| }, |
| { |
| "epoch": 0.31316666666666665, |
| "grad_norm": 5.34375, |
| "learning_rate": 1.589987518049321e-05, |
| "loss": 0.0704, |
| "step": 18790 |
| }, |
| { |
| "epoch": 0.31333333333333335, |
| "grad_norm": 5.8125, |
| "learning_rate": 1.589556045977116e-05, |
| "loss": 0.0528, |
| "step": 18800 |
| }, |
| { |
| "epoch": 0.3135, |
| "grad_norm": 19.75, |
| "learning_rate": 1.5891244056103117e-05, |
| "loss": 0.0585, |
| "step": 18810 |
| }, |
| { |
| "epoch": 0.31366666666666665, |
| "grad_norm": 25.25, |
| "learning_rate": 1.5886925970721235e-05, |
| "loss": 0.0692, |
| "step": 18820 |
| }, |
| { |
| "epoch": 0.31383333333333335, |
| "grad_norm": 20.625, |
| "learning_rate": 1.5882606204858156e-05, |
| "loss": 0.0455, |
| "step": 18830 |
| }, |
| { |
| "epoch": 0.314, |
| "grad_norm": 7.0625, |
| "learning_rate": 1.5878284759747e-05, |
| "loss": 0.0719, |
| "step": 18840 |
| }, |
| { |
| "epoch": 0.31416666666666665, |
| "grad_norm": 24.625, |
| "learning_rate": 1.587396163662137e-05, |
| "loss": 0.0596, |
| "step": 18850 |
| }, |
| { |
| "epoch": 0.31433333333333335, |
| "grad_norm": 5.09375, |
| "learning_rate": 1.5869636836715337e-05, |
| "loss": 0.0645, |
| "step": 18860 |
| }, |
| { |
| "epoch": 0.3145, |
| "grad_norm": 7.4375, |
| "learning_rate": 1.5865310361263465e-05, |
| "loss": 0.057, |
| "step": 18870 |
| }, |
| { |
| "epoch": 0.31466666666666665, |
| "grad_norm": 1.8828125, |
| "learning_rate": 1.5860982211500783e-05, |
| "loss": 0.0507, |
| "step": 18880 |
| }, |
| { |
| "epoch": 0.31483333333333335, |
| "grad_norm": 13.0625, |
| "learning_rate": 1.5856652388662808e-05, |
| "loss": 0.0627, |
| "step": 18890 |
| }, |
| { |
| "epoch": 0.315, |
| "grad_norm": 35.25, |
| "learning_rate": 1.5852320893985527e-05, |
| "loss": 0.0579, |
| "step": 18900 |
| }, |
| { |
| "epoch": 0.31516666666666665, |
| "grad_norm": 10.4375, |
| "learning_rate": 1.5847987728705415e-05, |
| "loss": 0.0685, |
| "step": 18910 |
| }, |
| { |
| "epoch": 0.31533333333333335, |
| "grad_norm": 6.0, |
| "learning_rate": 1.5843652894059408e-05, |
| "loss": 0.0586, |
| "step": 18920 |
| }, |
| { |
| "epoch": 0.3155, |
| "grad_norm": 4.34375, |
| "learning_rate": 1.5839316391284935e-05, |
| "loss": 0.0592, |
| "step": 18930 |
| }, |
| { |
| "epoch": 0.31566666666666665, |
| "grad_norm": 22.25, |
| "learning_rate": 1.583497822161989e-05, |
| "loss": 0.0554, |
| "step": 18940 |
| }, |
| { |
| "epoch": 0.31583333333333335, |
| "grad_norm": 2.71875, |
| "learning_rate": 1.583063838630264e-05, |
| "loss": 0.0657, |
| "step": 18950 |
| }, |
| { |
| "epoch": 0.316, |
| "grad_norm": 10.9375, |
| "learning_rate": 1.5826296886572046e-05, |
| "loss": 0.0622, |
| "step": 18960 |
| }, |
| { |
| "epoch": 0.31616666666666665, |
| "grad_norm": 7.875, |
| "learning_rate": 1.5821953723667427e-05, |
| "loss": 0.0551, |
| "step": 18970 |
| }, |
| { |
| "epoch": 0.31633333333333336, |
| "grad_norm": 35.5, |
| "learning_rate": 1.581760889882858e-05, |
| "loss": 0.0588, |
| "step": 18980 |
| }, |
| { |
| "epoch": 0.3165, |
| "grad_norm": 1.6953125, |
| "learning_rate": 1.581326241329578e-05, |
| "loss": 0.0666, |
| "step": 18990 |
| }, |
| { |
| "epoch": 0.31666666666666665, |
| "grad_norm": 2.078125, |
| "learning_rate": 1.5808914268309774e-05, |
| "loss": 0.0547, |
| "step": 19000 |
| }, |
| { |
| "epoch": 0.31683333333333336, |
| "grad_norm": 7.8125, |
| "learning_rate": 1.580456446511178e-05, |
| "loss": 0.069, |
| "step": 19010 |
| }, |
| { |
| "epoch": 0.317, |
| "grad_norm": 7.84375, |
| "learning_rate": 1.5800213004943498e-05, |
| "loss": 0.0519, |
| "step": 19020 |
| }, |
| { |
| "epoch": 0.31716666666666665, |
| "grad_norm": 4.8125, |
| "learning_rate": 1.5795859889047093e-05, |
| "loss": 0.0663, |
| "step": 19030 |
| }, |
| { |
| "epoch": 0.31733333333333336, |
| "grad_norm": 2.671875, |
| "learning_rate": 1.5791505118665203e-05, |
| "loss": 0.0509, |
| "step": 19040 |
| }, |
| { |
| "epoch": 0.3175, |
| "grad_norm": 14.3125, |
| "learning_rate": 1.578714869504094e-05, |
| "loss": 0.0511, |
| "step": 19050 |
| }, |
| { |
| "epoch": 0.31766666666666665, |
| "grad_norm": 20.5, |
| "learning_rate": 1.5782790619417895e-05, |
| "loss": 0.0697, |
| "step": 19060 |
| }, |
| { |
| "epoch": 0.31783333333333336, |
| "grad_norm": 12.6875, |
| "learning_rate": 1.5778430893040114e-05, |
| "loss": 0.0664, |
| "step": 19070 |
| }, |
| { |
| "epoch": 0.318, |
| "grad_norm": 7.75, |
| "learning_rate": 1.5774069517152128e-05, |
| "loss": 0.0525, |
| "step": 19080 |
| }, |
| { |
| "epoch": 0.31816666666666665, |
| "grad_norm": 53.0, |
| "learning_rate": 1.5769706492998934e-05, |
| "loss": 0.0623, |
| "step": 19090 |
| }, |
| { |
| "epoch": 0.31833333333333336, |
| "grad_norm": 3.046875, |
| "learning_rate": 1.5765341821826008e-05, |
| "loss": 0.0537, |
| "step": 19100 |
| }, |
| { |
| "epoch": 0.3185, |
| "grad_norm": 2.328125, |
| "learning_rate": 1.5760975504879276e-05, |
| "loss": 0.0551, |
| "step": 19110 |
| }, |
| { |
| "epoch": 0.31866666666666665, |
| "grad_norm": 3.96875, |
| "learning_rate": 1.5756607543405154e-05, |
| "loss": 0.0547, |
| "step": 19120 |
| }, |
| { |
| "epoch": 0.31883333333333336, |
| "grad_norm": 5.96875, |
| "learning_rate": 1.5752237938650517e-05, |
| "loss": 0.0582, |
| "step": 19130 |
| }, |
| { |
| "epoch": 0.319, |
| "grad_norm": 4.65625, |
| "learning_rate": 1.5747866691862717e-05, |
| "loss": 0.0607, |
| "step": 19140 |
| }, |
| { |
| "epoch": 0.31916666666666665, |
| "grad_norm": 2.234375, |
| "learning_rate": 1.574349380428956e-05, |
| "loss": 0.0663, |
| "step": 19150 |
| }, |
| { |
| "epoch": 0.31933333333333336, |
| "grad_norm": 4.84375, |
| "learning_rate": 1.5739119277179343e-05, |
| "loss": 0.0547, |
| "step": 19160 |
| }, |
| { |
| "epoch": 0.3195, |
| "grad_norm": 4.125, |
| "learning_rate": 1.5734743111780808e-05, |
| "loss": 0.0581, |
| "step": 19170 |
| }, |
| { |
| "epoch": 0.31966666666666665, |
| "grad_norm": 3.1875, |
| "learning_rate": 1.5730365309343177e-05, |
| "loss": 0.0663, |
| "step": 19180 |
| }, |
| { |
| "epoch": 0.31983333333333336, |
| "grad_norm": 8.875, |
| "learning_rate": 1.5725985871116137e-05, |
| "loss": 0.0609, |
| "step": 19190 |
| }, |
| { |
| "epoch": 0.32, |
| "grad_norm": 13.3125, |
| "learning_rate": 1.572160479834984e-05, |
| "loss": 0.0516, |
| "step": 19200 |
| }, |
| { |
| "epoch": 0.32016666666666665, |
| "grad_norm": 6.53125, |
| "learning_rate": 1.5717222092294915e-05, |
| "loss": 0.0554, |
| "step": 19210 |
| }, |
| { |
| "epoch": 0.32033333333333336, |
| "grad_norm": 20.375, |
| "learning_rate": 1.5712837754202433e-05, |
| "loss": 0.0646, |
| "step": 19220 |
| }, |
| { |
| "epoch": 0.3205, |
| "grad_norm": 11.0625, |
| "learning_rate": 1.5708451785323964e-05, |
| "loss": 0.0581, |
| "step": 19230 |
| }, |
| { |
| "epoch": 0.32066666666666666, |
| "grad_norm": 6.6875, |
| "learning_rate": 1.5704064186911517e-05, |
| "loss": 0.061, |
| "step": 19240 |
| }, |
| { |
| "epoch": 0.32083333333333336, |
| "grad_norm": 3.125, |
| "learning_rate": 1.5699674960217576e-05, |
| "loss": 0.0569, |
| "step": 19250 |
| }, |
| { |
| "epoch": 0.321, |
| "grad_norm": 5.8125, |
| "learning_rate": 1.569528410649509e-05, |
| "loss": 0.0623, |
| "step": 19260 |
| }, |
| { |
| "epoch": 0.32116666666666666, |
| "grad_norm": 6.1875, |
| "learning_rate": 1.569089162699747e-05, |
| "loss": 0.0625, |
| "step": 19270 |
| }, |
| { |
| "epoch": 0.32133333333333336, |
| "grad_norm": 6.90625, |
| "learning_rate": 1.5686497522978594e-05, |
| "loss": 0.0588, |
| "step": 19280 |
| }, |
| { |
| "epoch": 0.3215, |
| "grad_norm": 11.125, |
| "learning_rate": 1.5682101795692803e-05, |
| "loss": 0.0538, |
| "step": 19290 |
| }, |
| { |
| "epoch": 0.32166666666666666, |
| "grad_norm": 2.53125, |
| "learning_rate": 1.5677704446394903e-05, |
| "loss": 0.0644, |
| "step": 19300 |
| }, |
| { |
| "epoch": 0.32183333333333336, |
| "grad_norm": 12.0625, |
| "learning_rate": 1.5673305476340153e-05, |
| "loss": 0.0594, |
| "step": 19310 |
| }, |
| { |
| "epoch": 0.322, |
| "grad_norm": 26.625, |
| "learning_rate": 1.5668904886784287e-05, |
| "loss": 0.052, |
| "step": 19320 |
| }, |
| { |
| "epoch": 0.32216666666666666, |
| "grad_norm": 6.25, |
| "learning_rate": 1.5664502678983502e-05, |
| "loss": 0.0584, |
| "step": 19330 |
| }, |
| { |
| "epoch": 0.32233333333333336, |
| "grad_norm": 3.0625, |
| "learning_rate": 1.5660098854194445e-05, |
| "loss": 0.0599, |
| "step": 19340 |
| }, |
| { |
| "epoch": 0.3225, |
| "grad_norm": 7.4375, |
| "learning_rate": 1.5655693413674236e-05, |
| "loss": 0.0587, |
| "step": 19350 |
| }, |
| { |
| "epoch": 0.32266666666666666, |
| "grad_norm": 2.09375, |
| "learning_rate": 1.5651286358680444e-05, |
| "loss": 0.0648, |
| "step": 19360 |
| }, |
| { |
| "epoch": 0.32283333333333336, |
| "grad_norm": 4.625, |
| "learning_rate": 1.5646877690471116e-05, |
| "loss": 0.0595, |
| "step": 19370 |
| }, |
| { |
| "epoch": 0.323, |
| "grad_norm": 5.21875, |
| "learning_rate": 1.5642467410304743e-05, |
| "loss": 0.058, |
| "step": 19380 |
| }, |
| { |
| "epoch": 0.32316666666666666, |
| "grad_norm": 7.78125, |
| "learning_rate": 1.5638055519440284e-05, |
| "loss": 0.0521, |
| "step": 19390 |
| }, |
| { |
| "epoch": 0.3233333333333333, |
| "grad_norm": 12.6875, |
| "learning_rate": 1.563364201913716e-05, |
| "loss": 0.0599, |
| "step": 19400 |
| }, |
| { |
| "epoch": 0.3235, |
| "grad_norm": 13.8125, |
| "learning_rate": 1.5629226910655242e-05, |
| "loss": 0.0629, |
| "step": 19410 |
| }, |
| { |
| "epoch": 0.32366666666666666, |
| "grad_norm": 15.9375, |
| "learning_rate": 1.5624810195254874e-05, |
| "loss": 0.0734, |
| "step": 19420 |
| }, |
| { |
| "epoch": 0.3238333333333333, |
| "grad_norm": 14.375, |
| "learning_rate": 1.5620391874196853e-05, |
| "loss": 0.0733, |
| "step": 19430 |
| }, |
| { |
| "epoch": 0.324, |
| "grad_norm": 8.1875, |
| "learning_rate": 1.5615971948742422e-05, |
| "loss": 0.063, |
| "step": 19440 |
| }, |
| { |
| "epoch": 0.32416666666666666, |
| "grad_norm": 5.34375, |
| "learning_rate": 1.56115504201533e-05, |
| "loss": 0.0635, |
| "step": 19450 |
| }, |
| { |
| "epoch": 0.3243333333333333, |
| "grad_norm": 13.3125, |
| "learning_rate": 1.560712728969165e-05, |
| "loss": 0.0566, |
| "step": 19460 |
| }, |
| { |
| "epoch": 0.3245, |
| "grad_norm": 1.90625, |
| "learning_rate": 1.5602702558620103e-05, |
| "loss": 0.0596, |
| "step": 19470 |
| }, |
| { |
| "epoch": 0.32466666666666666, |
| "grad_norm": 2.515625, |
| "learning_rate": 1.5598276228201742e-05, |
| "loss": 0.0558, |
| "step": 19480 |
| }, |
| { |
| "epoch": 0.3248333333333333, |
| "grad_norm": 23.625, |
| "learning_rate": 1.559384829970011e-05, |
| "loss": 0.0781, |
| "step": 19490 |
| }, |
| { |
| "epoch": 0.325, |
| "grad_norm": 4.21875, |
| "learning_rate": 1.5589418774379194e-05, |
| "loss": 0.0684, |
| "step": 19500 |
| }, |
| { |
| "epoch": 0.32516666666666666, |
| "grad_norm": 2.09375, |
| "learning_rate": 1.558498765350345e-05, |
| "loss": 0.0675, |
| "step": 19510 |
| }, |
| { |
| "epoch": 0.3253333333333333, |
| "grad_norm": 1.9921875, |
| "learning_rate": 1.5580554938337785e-05, |
| "loss": 0.0756, |
| "step": 19520 |
| }, |
| { |
| "epoch": 0.3255, |
| "grad_norm": 24.25, |
| "learning_rate": 1.5576120630147565e-05, |
| "loss": 0.0643, |
| "step": 19530 |
| }, |
| { |
| "epoch": 0.32566666666666666, |
| "grad_norm": 23.25, |
| "learning_rate": 1.5571684730198608e-05, |
| "loss": 0.0763, |
| "step": 19540 |
| }, |
| { |
| "epoch": 0.3258333333333333, |
| "grad_norm": 1.8984375, |
| "learning_rate": 1.5567247239757176e-05, |
| "loss": 0.0521, |
| "step": 19550 |
| }, |
| { |
| "epoch": 0.326, |
| "grad_norm": 34.75, |
| "learning_rate": 1.556280816009e-05, |
| "loss": 0.0616, |
| "step": 19560 |
| }, |
| { |
| "epoch": 0.32616666666666666, |
| "grad_norm": 1.9453125, |
| "learning_rate": 1.555836749246426e-05, |
| "loss": 0.0612, |
| "step": 19570 |
| }, |
| { |
| "epoch": 0.3263333333333333, |
| "grad_norm": 7.3125, |
| "learning_rate": 1.555392523814759e-05, |
| "loss": 0.0561, |
| "step": 19580 |
| }, |
| { |
| "epoch": 0.3265, |
| "grad_norm": 10.0, |
| "learning_rate": 1.554948139840807e-05, |
| "loss": 0.0652, |
| "step": 19590 |
| }, |
| { |
| "epoch": 0.32666666666666666, |
| "grad_norm": 35.25, |
| "learning_rate": 1.554503597451425e-05, |
| "loss": 0.0573, |
| "step": 19600 |
| }, |
| { |
| "epoch": 0.3268333333333333, |
| "grad_norm": 15.375, |
| "learning_rate": 1.55405889677351e-05, |
| "loss": 0.0567, |
| "step": 19610 |
| }, |
| { |
| "epoch": 0.327, |
| "grad_norm": 8.0625, |
| "learning_rate": 1.553614037934008e-05, |
| "loss": 0.055, |
| "step": 19620 |
| }, |
| { |
| "epoch": 0.32716666666666666, |
| "grad_norm": 3.84375, |
| "learning_rate": 1.5531690210599077e-05, |
| "loss": 0.0555, |
| "step": 19630 |
| }, |
| { |
| "epoch": 0.3273333333333333, |
| "grad_norm": 9.25, |
| "learning_rate": 1.5527238462782434e-05, |
| "loss": 0.0678, |
| "step": 19640 |
| }, |
| { |
| "epoch": 0.3275, |
| "grad_norm": 39.0, |
| "learning_rate": 1.5522785137160952e-05, |
| "loss": 0.0645, |
| "step": 19650 |
| }, |
| { |
| "epoch": 0.32766666666666666, |
| "grad_norm": 2.90625, |
| "learning_rate": 1.5518330235005868e-05, |
| "loss": 0.0636, |
| "step": 19660 |
| }, |
| { |
| "epoch": 0.3278333333333333, |
| "grad_norm": 6.125, |
| "learning_rate": 1.5513873757588887e-05, |
| "loss": 0.0586, |
| "step": 19670 |
| }, |
| { |
| "epoch": 0.328, |
| "grad_norm": 4.9375, |
| "learning_rate": 1.5509415706182148e-05, |
| "loss": 0.0629, |
| "step": 19680 |
| }, |
| { |
| "epoch": 0.32816666666666666, |
| "grad_norm": 10.1875, |
| "learning_rate": 1.5504956082058246e-05, |
| "loss": 0.0644, |
| "step": 19690 |
| }, |
| { |
| "epoch": 0.3283333333333333, |
| "grad_norm": 15.25, |
| "learning_rate": 1.5500494886490227e-05, |
| "loss": 0.0518, |
| "step": 19700 |
| }, |
| { |
| "epoch": 0.3285, |
| "grad_norm": 14.3125, |
| "learning_rate": 1.5496032120751587e-05, |
| "loss": 0.0587, |
| "step": 19710 |
| }, |
| { |
| "epoch": 0.32866666666666666, |
| "grad_norm": 12.25, |
| "learning_rate": 1.549156778611626e-05, |
| "loss": 0.0594, |
| "step": 19720 |
| }, |
| { |
| "epoch": 0.3288333333333333, |
| "grad_norm": 22.125, |
| "learning_rate": 1.548710188385864e-05, |
| "loss": 0.0605, |
| "step": 19730 |
| }, |
| { |
| "epoch": 0.329, |
| "grad_norm": 2.078125, |
| "learning_rate": 1.5482634415253558e-05, |
| "loss": 0.0689, |
| "step": 19740 |
| }, |
| { |
| "epoch": 0.32916666666666666, |
| "grad_norm": 41.0, |
| "learning_rate": 1.54781653815763e-05, |
| "loss": 0.0757, |
| "step": 19750 |
| }, |
| { |
| "epoch": 0.3293333333333333, |
| "grad_norm": 18.0, |
| "learning_rate": 1.5473694784102595e-05, |
| "loss": 0.0559, |
| "step": 19760 |
| }, |
| { |
| "epoch": 0.3295, |
| "grad_norm": 16.375, |
| "learning_rate": 1.546922262410862e-05, |
| "loss": 0.0737, |
| "step": 19770 |
| }, |
| { |
| "epoch": 0.32966666666666666, |
| "grad_norm": 14.9375, |
| "learning_rate": 1.5464748902870995e-05, |
| "loss": 0.062, |
| "step": 19780 |
| }, |
| { |
| "epoch": 0.3298333333333333, |
| "grad_norm": 4.3125, |
| "learning_rate": 1.546027362166679e-05, |
| "loss": 0.0566, |
| "step": 19790 |
| }, |
| { |
| "epoch": 0.33, |
| "grad_norm": 16.625, |
| "learning_rate": 1.545579678177352e-05, |
| "loss": 0.0607, |
| "step": 19800 |
| }, |
| { |
| "epoch": 0.33016666666666666, |
| "grad_norm": 11.625, |
| "learning_rate": 1.5451318384469137e-05, |
| "loss": 0.0505, |
| "step": 19810 |
| }, |
| { |
| "epoch": 0.3303333333333333, |
| "grad_norm": 17.875, |
| "learning_rate": 1.544683843103205e-05, |
| "loss": 0.0643, |
| "step": 19820 |
| }, |
| { |
| "epoch": 0.3305, |
| "grad_norm": 4.25, |
| "learning_rate": 1.54423569227411e-05, |
| "loss": 0.048, |
| "step": 19830 |
| }, |
| { |
| "epoch": 0.33066666666666666, |
| "grad_norm": 15.9375, |
| "learning_rate": 1.5437873860875586e-05, |
| "loss": 0.0654, |
| "step": 19840 |
| }, |
| { |
| "epoch": 0.3308333333333333, |
| "grad_norm": 8.25, |
| "learning_rate": 1.543338924671524e-05, |
| "loss": 0.0571, |
| "step": 19850 |
| }, |
| { |
| "epoch": 0.331, |
| "grad_norm": 17.5, |
| "learning_rate": 1.5428903081540232e-05, |
| "loss": 0.0635, |
| "step": 19860 |
| }, |
| { |
| "epoch": 0.33116666666666666, |
| "grad_norm": 6.84375, |
| "learning_rate": 1.542441536663119e-05, |
| "loss": 0.0558, |
| "step": 19870 |
| }, |
| { |
| "epoch": 0.3313333333333333, |
| "grad_norm": 4.4375, |
| "learning_rate": 1.5419926103269175e-05, |
| "loss": 0.0589, |
| "step": 19880 |
| }, |
| { |
| "epoch": 0.3315, |
| "grad_norm": 6.46875, |
| "learning_rate": 1.5415435292735685e-05, |
| "loss": 0.0549, |
| "step": 19890 |
| }, |
| { |
| "epoch": 0.33166666666666667, |
| "grad_norm": 9.125, |
| "learning_rate": 1.541094293631268e-05, |
| "loss": 0.0605, |
| "step": 19900 |
| }, |
| { |
| "epoch": 0.3318333333333333, |
| "grad_norm": 26.0, |
| "learning_rate": 1.5406449035282537e-05, |
| "loss": 0.0663, |
| "step": 19910 |
| }, |
| { |
| "epoch": 0.332, |
| "grad_norm": 6.09375, |
| "learning_rate": 1.540195359092808e-05, |
| "loss": 0.0543, |
| "step": 19920 |
| }, |
| { |
| "epoch": 0.33216666666666667, |
| "grad_norm": 15.6875, |
| "learning_rate": 1.5397456604532594e-05, |
| "loss": 0.0625, |
| "step": 19930 |
| }, |
| { |
| "epoch": 0.3323333333333333, |
| "grad_norm": 17.125, |
| "learning_rate": 1.5392958077379775e-05, |
| "loss": 0.0554, |
| "step": 19940 |
| }, |
| { |
| "epoch": 0.3325, |
| "grad_norm": 18.0, |
| "learning_rate": 1.5388458010753776e-05, |
| "loss": 0.05, |
| "step": 19950 |
| }, |
| { |
| "epoch": 0.33266666666666667, |
| "grad_norm": 10.4375, |
| "learning_rate": 1.5383956405939188e-05, |
| "loss": 0.0595, |
| "step": 19960 |
| }, |
| { |
| "epoch": 0.3328333333333333, |
| "grad_norm": 2.25, |
| "learning_rate": 1.5379453264221034e-05, |
| "loss": 0.0614, |
| "step": 19970 |
| }, |
| { |
| "epoch": 0.333, |
| "grad_norm": 11.625, |
| "learning_rate": 1.5374948586884784e-05, |
| "loss": 0.0514, |
| "step": 19980 |
| }, |
| { |
| "epoch": 0.33316666666666667, |
| "grad_norm": 2.390625, |
| "learning_rate": 1.537044237521634e-05, |
| "loss": 0.0625, |
| "step": 19990 |
| }, |
| { |
| "epoch": 0.3333333333333333, |
| "grad_norm": 3.703125, |
| "learning_rate": 1.5365934630502043e-05, |
| "loss": 0.0514, |
| "step": 20000 |
| }, |
| { |
| "epoch": 0.3335, |
| "grad_norm": 2.3125, |
| "learning_rate": 1.5361425354028683e-05, |
| "loss": 0.06, |
| "step": 20010 |
| }, |
| { |
| "epoch": 0.33366666666666667, |
| "grad_norm": 14.125, |
| "learning_rate": 1.5356914547083466e-05, |
| "loss": 0.0601, |
| "step": 20020 |
| }, |
| { |
| "epoch": 0.3338333333333333, |
| "grad_norm": 6.96875, |
| "learning_rate": 1.535240221095405e-05, |
| "loss": 0.0611, |
| "step": 20030 |
| }, |
| { |
| "epoch": 0.334, |
| "grad_norm": 2.90625, |
| "learning_rate": 1.534788834692853e-05, |
| "loss": 0.0668, |
| "step": 20040 |
| }, |
| { |
| "epoch": 0.33416666666666667, |
| "grad_norm": 19.125, |
| "learning_rate": 1.534337295629543e-05, |
| "loss": 0.0683, |
| "step": 20050 |
| }, |
| { |
| "epoch": 0.3343333333333333, |
| "grad_norm": 49.25, |
| "learning_rate": 1.533885604034371e-05, |
| "loss": 0.0623, |
| "step": 20060 |
| }, |
| { |
| "epoch": 0.3345, |
| "grad_norm": 1.296875, |
| "learning_rate": 1.5334337600362775e-05, |
| "loss": 0.0538, |
| "step": 20070 |
| }, |
| { |
| "epoch": 0.33466666666666667, |
| "grad_norm": 8.3125, |
| "learning_rate": 1.5329817637642456e-05, |
| "loss": 0.0726, |
| "step": 20080 |
| }, |
| { |
| "epoch": 0.3348333333333333, |
| "grad_norm": 15.0625, |
| "learning_rate": 1.5325296153473015e-05, |
| "loss": 0.0635, |
| "step": 20090 |
| }, |
| { |
| "epoch": 0.335, |
| "grad_norm": 2.28125, |
| "learning_rate": 1.5320773149145162e-05, |
| "loss": 0.0555, |
| "step": 20100 |
| }, |
| { |
| "epoch": 0.33516666666666667, |
| "grad_norm": 5.6875, |
| "learning_rate": 1.531624862595003e-05, |
| "loss": 0.0691, |
| "step": 20110 |
| }, |
| { |
| "epoch": 0.3353333333333333, |
| "grad_norm": 3.140625, |
| "learning_rate": 1.5311722585179184e-05, |
| "loss": 0.0689, |
| "step": 20120 |
| }, |
| { |
| "epoch": 0.3355, |
| "grad_norm": 8.375, |
| "learning_rate": 1.5307195028124636e-05, |
| "loss": 0.0527, |
| "step": 20130 |
| }, |
| { |
| "epoch": 0.33566666666666667, |
| "grad_norm": 8.875, |
| "learning_rate": 1.5302665956078823e-05, |
| "loss": 0.0567, |
| "step": 20140 |
| }, |
| { |
| "epoch": 0.3358333333333333, |
| "grad_norm": 8.3125, |
| "learning_rate": 1.5298135370334603e-05, |
| "loss": 0.0495, |
| "step": 20150 |
| }, |
| { |
| "epoch": 0.336, |
| "grad_norm": 2.90625, |
| "learning_rate": 1.529360327218528e-05, |
| "loss": 0.0532, |
| "step": 20160 |
| }, |
| { |
| "epoch": 0.33616666666666667, |
| "grad_norm": 23.25, |
| "learning_rate": 1.528906966292459e-05, |
| "loss": 0.0645, |
| "step": 20170 |
| }, |
| { |
| "epoch": 0.3363333333333333, |
| "grad_norm": 3.84375, |
| "learning_rate": 1.5284534543846698e-05, |
| "loss": 0.0651, |
| "step": 20180 |
| }, |
| { |
| "epoch": 0.3365, |
| "grad_norm": 11.1875, |
| "learning_rate": 1.5279997916246196e-05, |
| "loss": 0.0708, |
| "step": 20190 |
| }, |
| { |
| "epoch": 0.33666666666666667, |
| "grad_norm": 10.0, |
| "learning_rate": 1.5275459781418103e-05, |
| "loss": 0.0627, |
| "step": 20200 |
| }, |
| { |
| "epoch": 0.3368333333333333, |
| "grad_norm": 1.828125, |
| "learning_rate": 1.5270920140657882e-05, |
| "loss": 0.0634, |
| "step": 20210 |
| }, |
| { |
| "epoch": 0.337, |
| "grad_norm": 22.75, |
| "learning_rate": 1.5266378995261423e-05, |
| "loss": 0.0526, |
| "step": 20220 |
| }, |
| { |
| "epoch": 0.33716666666666667, |
| "grad_norm": 6.25, |
| "learning_rate": 1.5261836346525023e-05, |
| "loss": 0.0579, |
| "step": 20230 |
| }, |
| { |
| "epoch": 0.3373333333333333, |
| "grad_norm": 17.25, |
| "learning_rate": 1.5257292195745445e-05, |
| "loss": 0.0648, |
| "step": 20240 |
| }, |
| { |
| "epoch": 0.3375, |
| "grad_norm": 17.5, |
| "learning_rate": 1.5252746544219852e-05, |
| "loss": 0.0585, |
| "step": 20250 |
| }, |
| { |
| "epoch": 0.33766666666666667, |
| "grad_norm": 1.9296875, |
| "learning_rate": 1.5248199393245843e-05, |
| "loss": 0.0582, |
| "step": 20260 |
| }, |
| { |
| "epoch": 0.3378333333333333, |
| "grad_norm": 13.4375, |
| "learning_rate": 1.5243650744121454e-05, |
| "loss": 0.0598, |
| "step": 20270 |
| }, |
| { |
| "epoch": 0.338, |
| "grad_norm": 14.5, |
| "learning_rate": 1.523910059814514e-05, |
| "loss": 0.0589, |
| "step": 20280 |
| }, |
| { |
| "epoch": 0.33816666666666667, |
| "grad_norm": 30.875, |
| "learning_rate": 1.5234548956615784e-05, |
| "loss": 0.0553, |
| "step": 20290 |
| }, |
| { |
| "epoch": 0.3383333333333333, |
| "grad_norm": 3.953125, |
| "learning_rate": 1.5229995820832696e-05, |
| "loss": 0.0618, |
| "step": 20300 |
| }, |
| { |
| "epoch": 0.3385, |
| "grad_norm": 12.75, |
| "learning_rate": 1.5225441192095616e-05, |
| "loss": 0.072, |
| "step": 20310 |
| }, |
| { |
| "epoch": 0.33866666666666667, |
| "grad_norm": 16.125, |
| "learning_rate": 1.5220885071704706e-05, |
| "loss": 0.0601, |
| "step": 20320 |
| }, |
| { |
| "epoch": 0.3388333333333333, |
| "grad_norm": 19.125, |
| "learning_rate": 1.5216327460960554e-05, |
| "loss": 0.0541, |
| "step": 20330 |
| }, |
| { |
| "epoch": 0.339, |
| "grad_norm": 5.40625, |
| "learning_rate": 1.5211768361164181e-05, |
| "loss": 0.0546, |
| "step": 20340 |
| }, |
| { |
| "epoch": 0.33916666666666667, |
| "grad_norm": 10.75, |
| "learning_rate": 1.520720777361702e-05, |
| "loss": 0.0428, |
| "step": 20350 |
| }, |
| { |
| "epoch": 0.3393333333333333, |
| "grad_norm": 3.09375, |
| "learning_rate": 1.5202645699620941e-05, |
| "loss": 0.0532, |
| "step": 20360 |
| }, |
| { |
| "epoch": 0.3395, |
| "grad_norm": 8.1875, |
| "learning_rate": 1.5198082140478229e-05, |
| "loss": 0.0741, |
| "step": 20370 |
| }, |
| { |
| "epoch": 0.3396666666666667, |
| "grad_norm": 82.5, |
| "learning_rate": 1.5193517097491601e-05, |
| "loss": 0.0618, |
| "step": 20380 |
| }, |
| { |
| "epoch": 0.3398333333333333, |
| "grad_norm": 7.0, |
| "learning_rate": 1.5188950571964195e-05, |
| "loss": 0.055, |
| "step": 20390 |
| }, |
| { |
| "epoch": 0.34, |
| "grad_norm": 2.453125, |
| "learning_rate": 1.5184382565199562e-05, |
| "loss": 0.053, |
| "step": 20400 |
| }, |
| { |
| "epoch": 0.3401666666666667, |
| "grad_norm": 5.65625, |
| "learning_rate": 1.5179813078501693e-05, |
| "loss": 0.0513, |
| "step": 20410 |
| }, |
| { |
| "epoch": 0.3403333333333333, |
| "grad_norm": 2.640625, |
| "learning_rate": 1.517524211317499e-05, |
| "loss": 0.0545, |
| "step": 20420 |
| }, |
| { |
| "epoch": 0.3405, |
| "grad_norm": 3.53125, |
| "learning_rate": 1.5170669670524283e-05, |
| "loss": 0.0542, |
| "step": 20430 |
| }, |
| { |
| "epoch": 0.3406666666666667, |
| "grad_norm": 16.125, |
| "learning_rate": 1.5166095751854815e-05, |
| "loss": 0.051, |
| "step": 20440 |
| }, |
| { |
| "epoch": 0.3408333333333333, |
| "grad_norm": 11.9375, |
| "learning_rate": 1.5161520358472261e-05, |
| "loss": 0.0503, |
| "step": 20450 |
| }, |
| { |
| "epoch": 0.341, |
| "grad_norm": 5.3125, |
| "learning_rate": 1.5156943491682714e-05, |
| "loss": 0.0559, |
| "step": 20460 |
| }, |
| { |
| "epoch": 0.3411666666666667, |
| "grad_norm": 6.9375, |
| "learning_rate": 1.515236515279268e-05, |
| "loss": 0.0541, |
| "step": 20470 |
| }, |
| { |
| "epoch": 0.3413333333333333, |
| "grad_norm": 51.5, |
| "learning_rate": 1.5147785343109096e-05, |
| "loss": 0.0594, |
| "step": 20480 |
| }, |
| { |
| "epoch": 0.3415, |
| "grad_norm": 23.875, |
| "learning_rate": 1.5143204063939312e-05, |
| "loss": 0.0695, |
| "step": 20490 |
| }, |
| { |
| "epoch": 0.3416666666666667, |
| "grad_norm": 9.5625, |
| "learning_rate": 1.5138621316591095e-05, |
| "loss": 0.0621, |
| "step": 20500 |
| }, |
| { |
| "epoch": 0.3418333333333333, |
| "grad_norm": 21.0, |
| "learning_rate": 1.5134037102372645e-05, |
| "loss": 0.0539, |
| "step": 20510 |
| }, |
| { |
| "epoch": 0.342, |
| "grad_norm": 3.578125, |
| "learning_rate": 1.5129451422592566e-05, |
| "loss": 0.0612, |
| "step": 20520 |
| }, |
| { |
| "epoch": 0.3421666666666667, |
| "grad_norm": 1.9921875, |
| "learning_rate": 1.5124864278559888e-05, |
| "loss": 0.0644, |
| "step": 20530 |
| }, |
| { |
| "epoch": 0.3423333333333333, |
| "grad_norm": 6.09375, |
| "learning_rate": 1.512027567158405e-05, |
| "loss": 0.057, |
| "step": 20540 |
| }, |
| { |
| "epoch": 0.3425, |
| "grad_norm": 43.0, |
| "learning_rate": 1.511568560297492e-05, |
| "loss": 0.0546, |
| "step": 20550 |
| }, |
| { |
| "epoch": 0.3426666666666667, |
| "grad_norm": 2.96875, |
| "learning_rate": 1.511109407404278e-05, |
| "loss": 0.0467, |
| "step": 20560 |
| }, |
| { |
| "epoch": 0.3428333333333333, |
| "grad_norm": 6.375, |
| "learning_rate": 1.5106501086098324e-05, |
| "loss": 0.0577, |
| "step": 20570 |
| }, |
| { |
| "epoch": 0.343, |
| "grad_norm": 2.109375, |
| "learning_rate": 1.510190664045267e-05, |
| "loss": 0.0575, |
| "step": 20580 |
| }, |
| { |
| "epoch": 0.3431666666666667, |
| "grad_norm": 18.5, |
| "learning_rate": 1.5097310738417344e-05, |
| "loss": 0.0452, |
| "step": 20590 |
| }, |
| { |
| "epoch": 0.3433333333333333, |
| "grad_norm": 13.3125, |
| "learning_rate": 1.5092713381304291e-05, |
| "loss": 0.0482, |
| "step": 20600 |
| }, |
| { |
| "epoch": 0.3435, |
| "grad_norm": 10.0, |
| "learning_rate": 1.5088114570425875e-05, |
| "loss": 0.0525, |
| "step": 20610 |
| }, |
| { |
| "epoch": 0.3436666666666667, |
| "grad_norm": 9.6875, |
| "learning_rate": 1.508351430709487e-05, |
| "loss": 0.0603, |
| "step": 20620 |
| }, |
| { |
| "epoch": 0.3438333333333333, |
| "grad_norm": 6.21875, |
| "learning_rate": 1.507891259262447e-05, |
| "loss": 0.0686, |
| "step": 20630 |
| }, |
| { |
| "epoch": 0.344, |
| "grad_norm": 11.375, |
| "learning_rate": 1.5074309428328275e-05, |
| "loss": 0.0524, |
| "step": 20640 |
| }, |
| { |
| "epoch": 0.3441666666666667, |
| "grad_norm": 6.125, |
| "learning_rate": 1.5069704815520308e-05, |
| "loss": 0.0582, |
| "step": 20650 |
| }, |
| { |
| "epoch": 0.3443333333333333, |
| "grad_norm": 14.5, |
| "learning_rate": 1.5065098755514997e-05, |
| "loss": 0.0693, |
| "step": 20660 |
| }, |
| { |
| "epoch": 0.3445, |
| "grad_norm": 15.875, |
| "learning_rate": 1.5060491249627189e-05, |
| "loss": 0.0609, |
| "step": 20670 |
| }, |
| { |
| "epoch": 0.3446666666666667, |
| "grad_norm": 2.203125, |
| "learning_rate": 1.5055882299172147e-05, |
| "loss": 0.0586, |
| "step": 20680 |
| }, |
| { |
| "epoch": 0.3448333333333333, |
| "grad_norm": 12.6875, |
| "learning_rate": 1.5051271905465537e-05, |
| "loss": 0.0543, |
| "step": 20690 |
| }, |
| { |
| "epoch": 0.345, |
| "grad_norm": 9.0625, |
| "learning_rate": 1.5046660069823438e-05, |
| "loss": 0.0597, |
| "step": 20700 |
| }, |
| { |
| "epoch": 0.3451666666666667, |
| "grad_norm": 3.5, |
| "learning_rate": 1.5042046793562348e-05, |
| "loss": 0.0563, |
| "step": 20710 |
| }, |
| { |
| "epoch": 0.3453333333333333, |
| "grad_norm": 3.40625, |
| "learning_rate": 1.5037432077999175e-05, |
| "loss": 0.069, |
| "step": 20720 |
| }, |
| { |
| "epoch": 0.3455, |
| "grad_norm": 7.71875, |
| "learning_rate": 1.5032815924451232e-05, |
| "loss": 0.0668, |
| "step": 20730 |
| }, |
| { |
| "epoch": 0.3456666666666667, |
| "grad_norm": 40.0, |
| "learning_rate": 1.5028198334236242e-05, |
| "loss": 0.0598, |
| "step": 20740 |
| }, |
| { |
| "epoch": 0.3458333333333333, |
| "grad_norm": 4.125, |
| "learning_rate": 1.5023579308672349e-05, |
| "loss": 0.0615, |
| "step": 20750 |
| }, |
| { |
| "epoch": 0.346, |
| "grad_norm": 13.0, |
| "learning_rate": 1.5018958849078096e-05, |
| "loss": 0.0746, |
| "step": 20760 |
| }, |
| { |
| "epoch": 0.3461666666666667, |
| "grad_norm": 10.4375, |
| "learning_rate": 1.5014336956772435e-05, |
| "loss": 0.0624, |
| "step": 20770 |
| }, |
| { |
| "epoch": 0.3463333333333333, |
| "grad_norm": 8.8125, |
| "learning_rate": 1.500971363307474e-05, |
| "loss": 0.0494, |
| "step": 20780 |
| }, |
| { |
| "epoch": 0.3465, |
| "grad_norm": 6.71875, |
| "learning_rate": 1.5005088879304779e-05, |
| "loss": 0.0628, |
| "step": 20790 |
| }, |
| { |
| "epoch": 0.3466666666666667, |
| "grad_norm": 3.9375, |
| "learning_rate": 1.5000462696782732e-05, |
| "loss": 0.0545, |
| "step": 20800 |
| }, |
| { |
| "epoch": 0.3468333333333333, |
| "grad_norm": 17.25, |
| "learning_rate": 1.4995835086829192e-05, |
| "loss": 0.0535, |
| "step": 20810 |
| }, |
| { |
| "epoch": 0.347, |
| "grad_norm": 3.46875, |
| "learning_rate": 1.499120605076515e-05, |
| "loss": 0.0608, |
| "step": 20820 |
| }, |
| { |
| "epoch": 0.3471666666666667, |
| "grad_norm": 18.625, |
| "learning_rate": 1.498657558991202e-05, |
| "loss": 0.0655, |
| "step": 20830 |
| }, |
| { |
| "epoch": 0.3473333333333333, |
| "grad_norm": 7.21875, |
| "learning_rate": 1.4981943705591604e-05, |
| "loss": 0.0519, |
| "step": 20840 |
| }, |
| { |
| "epoch": 0.3475, |
| "grad_norm": 7.78125, |
| "learning_rate": 1.4977310399126123e-05, |
| "loss": 0.048, |
| "step": 20850 |
| }, |
| { |
| "epoch": 0.3476666666666667, |
| "grad_norm": 17.75, |
| "learning_rate": 1.4972675671838202e-05, |
| "loss": 0.0458, |
| "step": 20860 |
| }, |
| { |
| "epoch": 0.3478333333333333, |
| "grad_norm": 12.3125, |
| "learning_rate": 1.4968039525050863e-05, |
| "loss": 0.0578, |
| "step": 20870 |
| }, |
| { |
| "epoch": 0.348, |
| "grad_norm": 8.9375, |
| "learning_rate": 1.4963401960087547e-05, |
| "loss": 0.06, |
| "step": 20880 |
| }, |
| { |
| "epoch": 0.3481666666666667, |
| "grad_norm": 2.265625, |
| "learning_rate": 1.495876297827209e-05, |
| "loss": 0.0527, |
| "step": 20890 |
| }, |
| { |
| "epoch": 0.34833333333333333, |
| "grad_norm": 12.3125, |
| "learning_rate": 1.4954122580928736e-05, |
| "loss": 0.0616, |
| "step": 20900 |
| }, |
| { |
| "epoch": 0.3485, |
| "grad_norm": 11.8125, |
| "learning_rate": 1.494948076938213e-05, |
| "loss": 0.0613, |
| "step": 20910 |
| }, |
| { |
| "epoch": 0.3486666666666667, |
| "grad_norm": 11.25, |
| "learning_rate": 1.4944837544957325e-05, |
| "loss": 0.0506, |
| "step": 20920 |
| }, |
| { |
| "epoch": 0.34883333333333333, |
| "grad_norm": 8.5625, |
| "learning_rate": 1.4940192908979773e-05, |
| "loss": 0.058, |
| "step": 20930 |
| }, |
| { |
| "epoch": 0.349, |
| "grad_norm": 6.4375, |
| "learning_rate": 1.4935546862775335e-05, |
| "loss": 0.054, |
| "step": 20940 |
| }, |
| { |
| "epoch": 0.3491666666666667, |
| "grad_norm": 8.0, |
| "learning_rate": 1.493089940767027e-05, |
| "loss": 0.0555, |
| "step": 20950 |
| }, |
| { |
| "epoch": 0.34933333333333333, |
| "grad_norm": 15.5, |
| "learning_rate": 1.4926250544991237e-05, |
| "loss": 0.0476, |
| "step": 20960 |
| }, |
| { |
| "epoch": 0.3495, |
| "grad_norm": 9.75, |
| "learning_rate": 1.49216002760653e-05, |
| "loss": 0.0644, |
| "step": 20970 |
| }, |
| { |
| "epoch": 0.3496666666666667, |
| "grad_norm": 2.390625, |
| "learning_rate": 1.4916948602219928e-05, |
| "loss": 0.0613, |
| "step": 20980 |
| }, |
| { |
| "epoch": 0.34983333333333333, |
| "grad_norm": 5.6875, |
| "learning_rate": 1.4912295524782985e-05, |
| "loss": 0.0728, |
| "step": 20990 |
| }, |
| { |
| "epoch": 0.35, |
| "grad_norm": 7.0625, |
| "learning_rate": 1.4907641045082737e-05, |
| "loss": 0.0479, |
| "step": 21000 |
| }, |
| { |
| "epoch": 0.3501666666666667, |
| "grad_norm": 15.6875, |
| "learning_rate": 1.4902985164447852e-05, |
| "loss": 0.0645, |
| "step": 21010 |
| }, |
| { |
| "epoch": 0.35033333333333333, |
| "grad_norm": 9.1875, |
| "learning_rate": 1.4898327884207397e-05, |
| "loss": 0.0515, |
| "step": 21020 |
| }, |
| { |
| "epoch": 0.3505, |
| "grad_norm": 34.0, |
| "learning_rate": 1.4893669205690841e-05, |
| "loss": 0.0579, |
| "step": 21030 |
| }, |
| { |
| "epoch": 0.3506666666666667, |
| "grad_norm": 12.625, |
| "learning_rate": 1.4889009130228047e-05, |
| "loss": 0.0792, |
| "step": 21040 |
| }, |
| { |
| "epoch": 0.35083333333333333, |
| "grad_norm": 20.5, |
| "learning_rate": 1.488434765914928e-05, |
| "loss": 0.0445, |
| "step": 21050 |
| }, |
| { |
| "epoch": 0.351, |
| "grad_norm": 10.5, |
| "learning_rate": 1.4879684793785206e-05, |
| "loss": 0.057, |
| "step": 21060 |
| }, |
| { |
| "epoch": 0.3511666666666667, |
| "grad_norm": 31.625, |
| "learning_rate": 1.4875020535466879e-05, |
| "loss": 0.0583, |
| "step": 21070 |
| }, |
| { |
| "epoch": 0.35133333333333333, |
| "grad_norm": 11.0, |
| "learning_rate": 1.4870354885525767e-05, |
| "loss": 0.0594, |
| "step": 21080 |
| }, |
| { |
| "epoch": 0.3515, |
| "grad_norm": 33.25, |
| "learning_rate": 1.486568784529372e-05, |
| "loss": 0.056, |
| "step": 21090 |
| }, |
| { |
| "epoch": 0.3516666666666667, |
| "grad_norm": 5.90625, |
| "learning_rate": 1.4861019416102988e-05, |
| "loss": 0.0675, |
| "step": 21100 |
| }, |
| { |
| "epoch": 0.35183333333333333, |
| "grad_norm": 6.5, |
| "learning_rate": 1.4856349599286226e-05, |
| "loss": 0.0487, |
| "step": 21110 |
| }, |
| { |
| "epoch": 0.352, |
| "grad_norm": 23.75, |
| "learning_rate": 1.4851678396176476e-05, |
| "loss": 0.061, |
| "step": 21120 |
| }, |
| { |
| "epoch": 0.3521666666666667, |
| "grad_norm": 18.625, |
| "learning_rate": 1.4847005808107185e-05, |
| "loss": 0.0597, |
| "step": 21130 |
| }, |
| { |
| "epoch": 0.35233333333333333, |
| "grad_norm": 9.3125, |
| "learning_rate": 1.484233183641218e-05, |
| "loss": 0.0703, |
| "step": 21140 |
| }, |
| { |
| "epoch": 0.3525, |
| "grad_norm": 10.125, |
| "learning_rate": 1.4837656482425699e-05, |
| "loss": 0.0655, |
| "step": 21150 |
| }, |
| { |
| "epoch": 0.3526666666666667, |
| "grad_norm": 8.0625, |
| "learning_rate": 1.4832979747482365e-05, |
| "loss": 0.0643, |
| "step": 21160 |
| }, |
| { |
| "epoch": 0.35283333333333333, |
| "grad_norm": 1.9375, |
| "learning_rate": 1.4828301632917204e-05, |
| "loss": 0.0649, |
| "step": 21170 |
| }, |
| { |
| "epoch": 0.353, |
| "grad_norm": 54.75, |
| "learning_rate": 1.482362214006562e-05, |
| "loss": 0.0544, |
| "step": 21180 |
| }, |
| { |
| "epoch": 0.3531666666666667, |
| "grad_norm": 12.6875, |
| "learning_rate": 1.481894127026343e-05, |
| "loss": 0.0635, |
| "step": 21190 |
| }, |
| { |
| "epoch": 0.35333333333333333, |
| "grad_norm": 12.5625, |
| "learning_rate": 1.4814259024846828e-05, |
| "loss": 0.0592, |
| "step": 21200 |
| }, |
| { |
| "epoch": 0.3535, |
| "grad_norm": 2.390625, |
| "learning_rate": 1.4809575405152413e-05, |
| "loss": 0.0602, |
| "step": 21210 |
| }, |
| { |
| "epoch": 0.3536666666666667, |
| "grad_norm": 5.375, |
| "learning_rate": 1.4804890412517163e-05, |
| "loss": 0.0561, |
| "step": 21220 |
| }, |
| { |
| "epoch": 0.35383333333333333, |
| "grad_norm": 25.25, |
| "learning_rate": 1.4800204048278461e-05, |
| "loss": 0.0678, |
| "step": 21230 |
| }, |
| { |
| "epoch": 0.354, |
| "grad_norm": 27.75, |
| "learning_rate": 1.4795516313774077e-05, |
| "loss": 0.0512, |
| "step": 21240 |
| }, |
| { |
| "epoch": 0.3541666666666667, |
| "grad_norm": 37.75, |
| "learning_rate": 1.4790827210342167e-05, |
| "loss": 0.0602, |
| "step": 21250 |
| }, |
| { |
| "epoch": 0.35433333333333333, |
| "grad_norm": 1.53125, |
| "learning_rate": 1.4786136739321284e-05, |
| "loss": 0.0577, |
| "step": 21260 |
| }, |
| { |
| "epoch": 0.3545, |
| "grad_norm": 4.78125, |
| "learning_rate": 1.4781444902050369e-05, |
| "loss": 0.0627, |
| "step": 21270 |
| }, |
| { |
| "epoch": 0.3546666666666667, |
| "grad_norm": 10.875, |
| "learning_rate": 1.4776751699868752e-05, |
| "loss": 0.057, |
| "step": 21280 |
| }, |
| { |
| "epoch": 0.35483333333333333, |
| "grad_norm": 8.625, |
| "learning_rate": 1.4772057134116157e-05, |
| "loss": 0.0644, |
| "step": 21290 |
| }, |
| { |
| "epoch": 0.355, |
| "grad_norm": 32.75, |
| "learning_rate": 1.4767361206132695e-05, |
| "loss": 0.0582, |
| "step": 21300 |
| }, |
| { |
| "epoch": 0.3551666666666667, |
| "grad_norm": 60.25, |
| "learning_rate": 1.4762663917258859e-05, |
| "loss": 0.0537, |
| "step": 21310 |
| }, |
| { |
| "epoch": 0.35533333333333333, |
| "grad_norm": 6.09375, |
| "learning_rate": 1.4757965268835541e-05, |
| "loss": 0.0585, |
| "step": 21320 |
| }, |
| { |
| "epoch": 0.3555, |
| "grad_norm": 6.15625, |
| "learning_rate": 1.4753265262204015e-05, |
| "loss": 0.0437, |
| "step": 21330 |
| }, |
| { |
| "epoch": 0.3556666666666667, |
| "grad_norm": 10.75, |
| "learning_rate": 1.4748563898705945e-05, |
| "loss": 0.0442, |
| "step": 21340 |
| }, |
| { |
| "epoch": 0.35583333333333333, |
| "grad_norm": 31.625, |
| "learning_rate": 1.4743861179683386e-05, |
| "loss": 0.0538, |
| "step": 21350 |
| }, |
| { |
| "epoch": 0.356, |
| "grad_norm": 25.625, |
| "learning_rate": 1.473915710647877e-05, |
| "loss": 0.0615, |
| "step": 21360 |
| }, |
| { |
| "epoch": 0.3561666666666667, |
| "grad_norm": 4.78125, |
| "learning_rate": 1.4734451680434918e-05, |
| "loss": 0.067, |
| "step": 21370 |
| }, |
| { |
| "epoch": 0.35633333333333334, |
| "grad_norm": 5.03125, |
| "learning_rate": 1.4729744902895047e-05, |
| "loss": 0.058, |
| "step": 21380 |
| }, |
| { |
| "epoch": 0.3565, |
| "grad_norm": 6.34375, |
| "learning_rate": 1.4725036775202753e-05, |
| "loss": 0.0536, |
| "step": 21390 |
| }, |
| { |
| "epoch": 0.3566666666666667, |
| "grad_norm": 2.421875, |
| "learning_rate": 1.4720327298702016e-05, |
| "loss": 0.0598, |
| "step": 21400 |
| }, |
| { |
| "epoch": 0.35683333333333334, |
| "grad_norm": 13.0, |
| "learning_rate": 1.47156164747372e-05, |
| "loss": 0.0658, |
| "step": 21410 |
| }, |
| { |
| "epoch": 0.357, |
| "grad_norm": 25.875, |
| "learning_rate": 1.471090430465306e-05, |
| "loss": 0.0422, |
| "step": 21420 |
| }, |
| { |
| "epoch": 0.3571666666666667, |
| "grad_norm": 9.75, |
| "learning_rate": 1.4706190789794727e-05, |
| "loss": 0.0604, |
| "step": 21430 |
| }, |
| { |
| "epoch": 0.35733333333333334, |
| "grad_norm": 14.0625, |
| "learning_rate": 1.4701475931507729e-05, |
| "loss": 0.0495, |
| "step": 21440 |
| }, |
| { |
| "epoch": 0.3575, |
| "grad_norm": 15.8125, |
| "learning_rate": 1.469675973113796e-05, |
| "loss": 0.0568, |
| "step": 21450 |
| }, |
| { |
| "epoch": 0.3576666666666667, |
| "grad_norm": 12.625, |
| "learning_rate": 1.469204219003171e-05, |
| "loss": 0.07, |
| "step": 21460 |
| }, |
| { |
| "epoch": 0.35783333333333334, |
| "grad_norm": 15.625, |
| "learning_rate": 1.4687323309535648e-05, |
| "loss": 0.0604, |
| "step": 21470 |
| }, |
| { |
| "epoch": 0.358, |
| "grad_norm": 1.7265625, |
| "learning_rate": 1.4682603090996821e-05, |
| "loss": 0.0627, |
| "step": 21480 |
| }, |
| { |
| "epoch": 0.3581666666666667, |
| "grad_norm": 8.1875, |
| "learning_rate": 1.4677881535762666e-05, |
| "loss": 0.0529, |
| "step": 21490 |
| }, |
| { |
| "epoch": 0.35833333333333334, |
| "grad_norm": 7.25, |
| "learning_rate": 1.4673158645181e-05, |
| "loss": 0.0554, |
| "step": 21500 |
| }, |
| { |
| "epoch": 0.3585, |
| "grad_norm": 6.3125, |
| "learning_rate": 1.466843442060001e-05, |
| "loss": 0.0621, |
| "step": 21510 |
| }, |
| { |
| "epoch": 0.3586666666666667, |
| "grad_norm": 11.1875, |
| "learning_rate": 1.4663708863368284e-05, |
| "loss": 0.0518, |
| "step": 21520 |
| }, |
| { |
| "epoch": 0.35883333333333334, |
| "grad_norm": 7.375, |
| "learning_rate": 1.4658981974834774e-05, |
| "loss": 0.0755, |
| "step": 21530 |
| }, |
| { |
| "epoch": 0.359, |
| "grad_norm": 1.9140625, |
| "learning_rate": 1.4654253756348812e-05, |
| "loss": 0.0559, |
| "step": 21540 |
| }, |
| { |
| "epoch": 0.3591666666666667, |
| "grad_norm": 2.9375, |
| "learning_rate": 1.4649524209260118e-05, |
| "loss": 0.051, |
| "step": 21550 |
| }, |
| { |
| "epoch": 0.35933333333333334, |
| "grad_norm": 1.90625, |
| "learning_rate": 1.4644793334918792e-05, |
| "loss": 0.0542, |
| "step": 21560 |
| }, |
| { |
| "epoch": 0.3595, |
| "grad_norm": 5.59375, |
| "learning_rate": 1.4640061134675305e-05, |
| "loss": 0.0524, |
| "step": 21570 |
| }, |
| { |
| "epoch": 0.3596666666666667, |
| "grad_norm": 10.8125, |
| "learning_rate": 1.4635327609880513e-05, |
| "loss": 0.056, |
| "step": 21580 |
| }, |
| { |
| "epoch": 0.35983333333333334, |
| "grad_norm": 30.875, |
| "learning_rate": 1.4630592761885643e-05, |
| "loss": 0.0544, |
| "step": 21590 |
| }, |
| { |
| "epoch": 0.36, |
| "grad_norm": 7.53125, |
| "learning_rate": 1.4625856592042304e-05, |
| "loss": 0.0575, |
| "step": 21600 |
| }, |
| { |
| "epoch": 0.3601666666666667, |
| "grad_norm": 2.5625, |
| "learning_rate": 1.4621119101702487e-05, |
| "loss": 0.0678, |
| "step": 21610 |
| }, |
| { |
| "epoch": 0.36033333333333334, |
| "grad_norm": 2.21875, |
| "learning_rate": 1.4616380292218557e-05, |
| "loss": 0.0628, |
| "step": 21620 |
| }, |
| { |
| "epoch": 0.3605, |
| "grad_norm": 7.71875, |
| "learning_rate": 1.4611640164943248e-05, |
| "loss": 0.0727, |
| "step": 21630 |
| }, |
| { |
| "epoch": 0.3606666666666667, |
| "grad_norm": 4.5625, |
| "learning_rate": 1.4606898721229681e-05, |
| "loss": 0.0522, |
| "step": 21640 |
| }, |
| { |
| "epoch": 0.36083333333333334, |
| "grad_norm": 2.984375, |
| "learning_rate": 1.4602155962431343e-05, |
| "loss": 0.0595, |
| "step": 21650 |
| }, |
| { |
| "epoch": 0.361, |
| "grad_norm": 5.625, |
| "learning_rate": 1.4597411889902105e-05, |
| "loss": 0.0563, |
| "step": 21660 |
| }, |
| { |
| "epoch": 0.3611666666666667, |
| "grad_norm": 16.5, |
| "learning_rate": 1.4592666504996207e-05, |
| "loss": 0.063, |
| "step": 21670 |
| }, |
| { |
| "epoch": 0.36133333333333334, |
| "grad_norm": 2.046875, |
| "learning_rate": 1.4587919809068266e-05, |
| "loss": 0.0573, |
| "step": 21680 |
| }, |
| { |
| "epoch": 0.3615, |
| "grad_norm": 2.09375, |
| "learning_rate": 1.4583171803473279e-05, |
| "loss": 0.0494, |
| "step": 21690 |
| }, |
| { |
| "epoch": 0.3616666666666667, |
| "grad_norm": 2.578125, |
| "learning_rate": 1.4578422489566608e-05, |
| "loss": 0.0621, |
| "step": 21700 |
| }, |
| { |
| "epoch": 0.36183333333333334, |
| "grad_norm": 8.75, |
| "learning_rate": 1.4573671868703987e-05, |
| "loss": 0.0647, |
| "step": 21710 |
| }, |
| { |
| "epoch": 0.362, |
| "grad_norm": 12.25, |
| "learning_rate": 1.456891994224153e-05, |
| "loss": 0.0606, |
| "step": 21720 |
| }, |
| { |
| "epoch": 0.3621666666666667, |
| "grad_norm": 23.375, |
| "learning_rate": 1.4564166711535725e-05, |
| "loss": 0.0618, |
| "step": 21730 |
| }, |
| { |
| "epoch": 0.36233333333333334, |
| "grad_norm": 23.5, |
| "learning_rate": 1.4559412177943429e-05, |
| "loss": 0.0719, |
| "step": 21740 |
| }, |
| { |
| "epoch": 0.3625, |
| "grad_norm": 12.0625, |
| "learning_rate": 1.4554656342821862e-05, |
| "loss": 0.0617, |
| "step": 21750 |
| }, |
| { |
| "epoch": 0.3626666666666667, |
| "grad_norm": 6.90625, |
| "learning_rate": 1.4549899207528632e-05, |
| "loss": 0.0615, |
| "step": 21760 |
| }, |
| { |
| "epoch": 0.36283333333333334, |
| "grad_norm": 16.25, |
| "learning_rate": 1.4545140773421708e-05, |
| "loss": 0.0562, |
| "step": 21770 |
| }, |
| { |
| "epoch": 0.363, |
| "grad_norm": 32.0, |
| "learning_rate": 1.4540381041859433e-05, |
| "loss": 0.0653, |
| "step": 21780 |
| }, |
| { |
| "epoch": 0.3631666666666667, |
| "grad_norm": 7.875, |
| "learning_rate": 1.4535620014200519e-05, |
| "loss": 0.0677, |
| "step": 21790 |
| }, |
| { |
| "epoch": 0.36333333333333334, |
| "grad_norm": 5.96875, |
| "learning_rate": 1.453085769180405e-05, |
| "loss": 0.0587, |
| "step": 21800 |
| }, |
| { |
| "epoch": 0.3635, |
| "grad_norm": 1.9296875, |
| "learning_rate": 1.4526094076029474e-05, |
| "loss": 0.0561, |
| "step": 21810 |
| }, |
| { |
| "epoch": 0.3636666666666667, |
| "grad_norm": 13.3125, |
| "learning_rate": 1.4521329168236614e-05, |
| "loss": 0.0635, |
| "step": 21820 |
| }, |
| { |
| "epoch": 0.36383333333333334, |
| "grad_norm": 2.265625, |
| "learning_rate": 1.4516562969785657e-05, |
| "loss": 0.0623, |
| "step": 21830 |
| }, |
| { |
| "epoch": 0.364, |
| "grad_norm": 5.59375, |
| "learning_rate": 1.451179548203717e-05, |
| "loss": 0.0526, |
| "step": 21840 |
| }, |
| { |
| "epoch": 0.3641666666666667, |
| "grad_norm": 12.9375, |
| "learning_rate": 1.450702670635207e-05, |
| "loss": 0.0656, |
| "step": 21850 |
| }, |
| { |
| "epoch": 0.36433333333333334, |
| "grad_norm": 3.734375, |
| "learning_rate": 1.4502256644091657e-05, |
| "loss": 0.0581, |
| "step": 21860 |
| }, |
| { |
| "epoch": 0.3645, |
| "grad_norm": 10.8125, |
| "learning_rate": 1.4497485296617593e-05, |
| "loss": 0.0644, |
| "step": 21870 |
| }, |
| { |
| "epoch": 0.36466666666666664, |
| "grad_norm": 15.9375, |
| "learning_rate": 1.4492712665291902e-05, |
| "loss": 0.0602, |
| "step": 21880 |
| }, |
| { |
| "epoch": 0.36483333333333334, |
| "grad_norm": 2.96875, |
| "learning_rate": 1.448793875147698e-05, |
| "loss": 0.0553, |
| "step": 21890 |
| }, |
| { |
| "epoch": 0.365, |
| "grad_norm": 7.375, |
| "learning_rate": 1.4483163556535589e-05, |
| "loss": 0.0591, |
| "step": 21900 |
| }, |
| { |
| "epoch": 0.36516666666666664, |
| "grad_norm": 17.125, |
| "learning_rate": 1.4478387081830858e-05, |
| "loss": 0.0583, |
| "step": 21910 |
| }, |
| { |
| "epoch": 0.36533333333333334, |
| "grad_norm": 8.375, |
| "learning_rate": 1.4473609328726273e-05, |
| "loss": 0.0608, |
| "step": 21920 |
| }, |
| { |
| "epoch": 0.3655, |
| "grad_norm": 4.09375, |
| "learning_rate": 1.4468830298585697e-05, |
| "loss": 0.0557, |
| "step": 21930 |
| }, |
| { |
| "epoch": 0.36566666666666664, |
| "grad_norm": 7.90625, |
| "learning_rate": 1.4464049992773346e-05, |
| "loss": 0.0548, |
| "step": 21940 |
| }, |
| { |
| "epoch": 0.36583333333333334, |
| "grad_norm": 8.0, |
| "learning_rate": 1.4459268412653806e-05, |
| "loss": 0.0617, |
| "step": 21950 |
| }, |
| { |
| "epoch": 0.366, |
| "grad_norm": 2.265625, |
| "learning_rate": 1.4454485559592031e-05, |
| "loss": 0.0566, |
| "step": 21960 |
| }, |
| { |
| "epoch": 0.36616666666666664, |
| "grad_norm": 8.8125, |
| "learning_rate": 1.4449701434953334e-05, |
| "loss": 0.066, |
| "step": 21970 |
| }, |
| { |
| "epoch": 0.36633333333333334, |
| "grad_norm": 18.25, |
| "learning_rate": 1.4444916040103383e-05, |
| "loss": 0.0542, |
| "step": 21980 |
| }, |
| { |
| "epoch": 0.3665, |
| "grad_norm": 5.15625, |
| "learning_rate": 1.4440129376408221e-05, |
| "loss": 0.0663, |
| "step": 21990 |
| }, |
| { |
| "epoch": 0.36666666666666664, |
| "grad_norm": 8.125, |
| "learning_rate": 1.443534144523425e-05, |
| "loss": 0.0565, |
| "step": 22000 |
| }, |
| { |
| "epoch": 0.36683333333333334, |
| "grad_norm": 8.4375, |
| "learning_rate": 1.443055224794823e-05, |
| "loss": 0.0571, |
| "step": 22010 |
| }, |
| { |
| "epoch": 0.367, |
| "grad_norm": 2.953125, |
| "learning_rate": 1.4425761785917286e-05, |
| "loss": 0.0684, |
| "step": 22020 |
| }, |
| { |
| "epoch": 0.36716666666666664, |
| "grad_norm": 25.375, |
| "learning_rate": 1.4420970060508902e-05, |
| "loss": 0.0558, |
| "step": 22030 |
| }, |
| { |
| "epoch": 0.36733333333333335, |
| "grad_norm": 2.578125, |
| "learning_rate": 1.4416177073090922e-05, |
| "loss": 0.0561, |
| "step": 22040 |
| }, |
| { |
| "epoch": 0.3675, |
| "grad_norm": 4.28125, |
| "learning_rate": 1.4411382825031552e-05, |
| "loss": 0.0666, |
| "step": 22050 |
| }, |
| { |
| "epoch": 0.36766666666666664, |
| "grad_norm": 10.3125, |
| "learning_rate": 1.4406587317699363e-05, |
| "loss": 0.0565, |
| "step": 22060 |
| }, |
| { |
| "epoch": 0.36783333333333335, |
| "grad_norm": 29.25, |
| "learning_rate": 1.4401790552463273e-05, |
| "loss": 0.0623, |
| "step": 22070 |
| }, |
| { |
| "epoch": 0.368, |
| "grad_norm": 11.125, |
| "learning_rate": 1.4396992530692568e-05, |
| "loss": 0.0523, |
| "step": 22080 |
| }, |
| { |
| "epoch": 0.36816666666666664, |
| "grad_norm": 13.3125, |
| "learning_rate": 1.4392193253756892e-05, |
| "loss": 0.0641, |
| "step": 22090 |
| }, |
| { |
| "epoch": 0.36833333333333335, |
| "grad_norm": 26.25, |
| "learning_rate": 1.4387392723026243e-05, |
| "loss": 0.0714, |
| "step": 22100 |
| }, |
| { |
| "epoch": 0.3685, |
| "grad_norm": 4.9375, |
| "learning_rate": 1.4382590939870987e-05, |
| "loss": 0.0527, |
| "step": 22110 |
| }, |
| { |
| "epoch": 0.36866666666666664, |
| "grad_norm": 9.5, |
| "learning_rate": 1.4377787905661831e-05, |
| "loss": 0.0624, |
| "step": 22120 |
| }, |
| { |
| "epoch": 0.36883333333333335, |
| "grad_norm": 2.546875, |
| "learning_rate": 1.4372983621769856e-05, |
| "loss": 0.0518, |
| "step": 22130 |
| }, |
| { |
| "epoch": 0.369, |
| "grad_norm": 15.0, |
| "learning_rate": 1.436817808956649e-05, |
| "loss": 0.0522, |
| "step": 22140 |
| }, |
| { |
| "epoch": 0.36916666666666664, |
| "grad_norm": 21.375, |
| "learning_rate": 1.4363371310423516e-05, |
| "loss": 0.0718, |
| "step": 22150 |
| }, |
| { |
| "epoch": 0.36933333333333335, |
| "grad_norm": 12.5, |
| "learning_rate": 1.4358563285713079e-05, |
| "loss": 0.0712, |
| "step": 22160 |
| }, |
| { |
| "epoch": 0.3695, |
| "grad_norm": 7.21875, |
| "learning_rate": 1.4353754016807682e-05, |
| "loss": 0.0695, |
| "step": 22170 |
| }, |
| { |
| "epoch": 0.36966666666666664, |
| "grad_norm": 11.5, |
| "learning_rate": 1.4348943505080173e-05, |
| "loss": 0.0528, |
| "step": 22180 |
| }, |
| { |
| "epoch": 0.36983333333333335, |
| "grad_norm": 40.25, |
| "learning_rate": 1.434413175190376e-05, |
| "loss": 0.0631, |
| "step": 22190 |
| }, |
| { |
| "epoch": 0.37, |
| "grad_norm": 15.0625, |
| "learning_rate": 1.433931875865201e-05, |
| "loss": 0.0746, |
| "step": 22200 |
| }, |
| { |
| "epoch": 0.37016666666666664, |
| "grad_norm": 33.0, |
| "learning_rate": 1.4334504526698833e-05, |
| "loss": 0.067, |
| "step": 22210 |
| }, |
| { |
| "epoch": 0.37033333333333335, |
| "grad_norm": 6.03125, |
| "learning_rate": 1.4329689057418503e-05, |
| "loss": 0.0518, |
| "step": 22220 |
| }, |
| { |
| "epoch": 0.3705, |
| "grad_norm": 2.9375, |
| "learning_rate": 1.4324872352185643e-05, |
| "loss": 0.0574, |
| "step": 22230 |
| }, |
| { |
| "epoch": 0.37066666666666664, |
| "grad_norm": 27.0, |
| "learning_rate": 1.4320054412375232e-05, |
| "loss": 0.0522, |
| "step": 22240 |
| }, |
| { |
| "epoch": 0.37083333333333335, |
| "grad_norm": 5.53125, |
| "learning_rate": 1.4315235239362592e-05, |
| "loss": 0.0582, |
| "step": 22250 |
| }, |
| { |
| "epoch": 0.371, |
| "grad_norm": 3.171875, |
| "learning_rate": 1.431041483452341e-05, |
| "loss": 0.0537, |
| "step": 22260 |
| }, |
| { |
| "epoch": 0.37116666666666664, |
| "grad_norm": 7.40625, |
| "learning_rate": 1.4305593199233711e-05, |
| "loss": 0.0596, |
| "step": 22270 |
| }, |
| { |
| "epoch": 0.37133333333333335, |
| "grad_norm": 35.75, |
| "learning_rate": 1.4300770334869886e-05, |
| "loss": 0.0605, |
| "step": 22280 |
| }, |
| { |
| "epoch": 0.3715, |
| "grad_norm": 25.75, |
| "learning_rate": 1.4295946242808665e-05, |
| "loss": 0.0519, |
| "step": 22290 |
| }, |
| { |
| "epoch": 0.37166666666666665, |
| "grad_norm": 14.625, |
| "learning_rate": 1.4291120924427136e-05, |
| "loss": 0.058, |
| "step": 22300 |
| }, |
| { |
| "epoch": 0.37183333333333335, |
| "grad_norm": 30.875, |
| "learning_rate": 1.428629438110273e-05, |
| "loss": 0.0675, |
| "step": 22310 |
| }, |
| { |
| "epoch": 0.372, |
| "grad_norm": 5.21875, |
| "learning_rate": 1.428146661421323e-05, |
| "loss": 0.0568, |
| "step": 22320 |
| }, |
| { |
| "epoch": 0.37216666666666665, |
| "grad_norm": 20.625, |
| "learning_rate": 1.4276637625136776e-05, |
| "loss": 0.0543, |
| "step": 22330 |
| }, |
| { |
| "epoch": 0.37233333333333335, |
| "grad_norm": 10.25, |
| "learning_rate": 1.4271807415251846e-05, |
| "loss": 0.0586, |
| "step": 22340 |
| }, |
| { |
| "epoch": 0.3725, |
| "grad_norm": 22.875, |
| "learning_rate": 1.4266975985937275e-05, |
| "loss": 0.06, |
| "step": 22350 |
| }, |
| { |
| "epoch": 0.37266666666666665, |
| "grad_norm": 6.71875, |
| "learning_rate": 1.4262143338572236e-05, |
| "loss": 0.057, |
| "step": 22360 |
| }, |
| { |
| "epoch": 0.37283333333333335, |
| "grad_norm": 7.75, |
| "learning_rate": 1.4257309474536263e-05, |
| "loss": 0.0542, |
| "step": 22370 |
| }, |
| { |
| "epoch": 0.373, |
| "grad_norm": 7.75, |
| "learning_rate": 1.4252474395209225e-05, |
| "loss": 0.0547, |
| "step": 22380 |
| }, |
| { |
| "epoch": 0.37316666666666665, |
| "grad_norm": 17.25, |
| "learning_rate": 1.4247638101971343e-05, |
| "loss": 0.0658, |
| "step": 22390 |
| }, |
| { |
| "epoch": 0.37333333333333335, |
| "grad_norm": 11.3125, |
| "learning_rate": 1.4242800596203192e-05, |
| "loss": 0.068, |
| "step": 22400 |
| }, |
| { |
| "epoch": 0.3735, |
| "grad_norm": 3.71875, |
| "learning_rate": 1.423796187928568e-05, |
| "loss": 0.0657, |
| "step": 22410 |
| }, |
| { |
| "epoch": 0.37366666666666665, |
| "grad_norm": 12.4375, |
| "learning_rate": 1.4233121952600066e-05, |
| "loss": 0.067, |
| "step": 22420 |
| }, |
| { |
| "epoch": 0.37383333333333335, |
| "grad_norm": 41.25, |
| "learning_rate": 1.4228280817527958e-05, |
| "loss": 0.0593, |
| "step": 22430 |
| }, |
| { |
| "epoch": 0.374, |
| "grad_norm": 4.625, |
| "learning_rate": 1.4223438475451298e-05, |
| "loss": 0.0619, |
| "step": 22440 |
| }, |
| { |
| "epoch": 0.37416666666666665, |
| "grad_norm": 13.3125, |
| "learning_rate": 1.4218594927752394e-05, |
| "loss": 0.0645, |
| "step": 22450 |
| }, |
| { |
| "epoch": 0.37433333333333335, |
| "grad_norm": 5.375, |
| "learning_rate": 1.4213750175813871e-05, |
| "loss": 0.0593, |
| "step": 22460 |
| }, |
| { |
| "epoch": 0.3745, |
| "grad_norm": 10.5625, |
| "learning_rate": 1.4208904221018722e-05, |
| "loss": 0.0635, |
| "step": 22470 |
| }, |
| { |
| "epoch": 0.37466666666666665, |
| "grad_norm": 6.90625, |
| "learning_rate": 1.4204057064750267e-05, |
| "loss": 0.0726, |
| "step": 22480 |
| }, |
| { |
| "epoch": 0.37483333333333335, |
| "grad_norm": 4.0625, |
| "learning_rate": 1.4199208708392173e-05, |
| "loss": 0.0563, |
| "step": 22490 |
| }, |
| { |
| "epoch": 0.375, |
| "grad_norm": 2.625, |
| "learning_rate": 1.4194359153328456e-05, |
| "loss": 0.0728, |
| "step": 22500 |
| }, |
| { |
| "epoch": 0.37516666666666665, |
| "grad_norm": 10.375, |
| "learning_rate": 1.4189508400943468e-05, |
| "loss": 0.0614, |
| "step": 22510 |
| }, |
| { |
| "epoch": 0.37533333333333335, |
| "grad_norm": 4.59375, |
| "learning_rate": 1.41846564526219e-05, |
| "loss": 0.0687, |
| "step": 22520 |
| }, |
| { |
| "epoch": 0.3755, |
| "grad_norm": 9.875, |
| "learning_rate": 1.4179803309748796e-05, |
| "loss": 0.0657, |
| "step": 22530 |
| }, |
| { |
| "epoch": 0.37566666666666665, |
| "grad_norm": 6.125, |
| "learning_rate": 1.417494897370953e-05, |
| "loss": 0.0573, |
| "step": 22540 |
| }, |
| { |
| "epoch": 0.37583333333333335, |
| "grad_norm": 6.40625, |
| "learning_rate": 1.4170093445889816e-05, |
| "loss": 0.0656, |
| "step": 22550 |
| }, |
| { |
| "epoch": 0.376, |
| "grad_norm": 2.34375, |
| "learning_rate": 1.416523672767572e-05, |
| "loss": 0.058, |
| "step": 22560 |
| }, |
| { |
| "epoch": 0.37616666666666665, |
| "grad_norm": 6.46875, |
| "learning_rate": 1.4160378820453635e-05, |
| "loss": 0.0614, |
| "step": 22570 |
| }, |
| { |
| "epoch": 0.37633333333333335, |
| "grad_norm": 5.4375, |
| "learning_rate": 1.4155519725610302e-05, |
| "loss": 0.0563, |
| "step": 22580 |
| }, |
| { |
| "epoch": 0.3765, |
| "grad_norm": 20.375, |
| "learning_rate": 1.4150659444532792e-05, |
| "loss": 0.0595, |
| "step": 22590 |
| }, |
| { |
| "epoch": 0.37666666666666665, |
| "grad_norm": 18.375, |
| "learning_rate": 1.4145797978608529e-05, |
| "loss": 0.0502, |
| "step": 22600 |
| }, |
| { |
| "epoch": 0.37683333333333335, |
| "grad_norm": 34.25, |
| "learning_rate": 1.4140935329225258e-05, |
| "loss": 0.0505, |
| "step": 22610 |
| }, |
| { |
| "epoch": 0.377, |
| "grad_norm": 1.8671875, |
| "learning_rate": 1.4136071497771076e-05, |
| "loss": 0.0765, |
| "step": 22620 |
| }, |
| { |
| "epoch": 0.37716666666666665, |
| "grad_norm": 3.53125, |
| "learning_rate": 1.4131206485634408e-05, |
| "loss": 0.0587, |
| "step": 22630 |
| }, |
| { |
| "epoch": 0.37733333333333335, |
| "grad_norm": 6.375, |
| "learning_rate": 1.4126340294204021e-05, |
| "loss": 0.0541, |
| "step": 22640 |
| }, |
| { |
| "epoch": 0.3775, |
| "grad_norm": 5.0625, |
| "learning_rate": 1.4121472924869023e-05, |
| "loss": 0.0572, |
| "step": 22650 |
| }, |
| { |
| "epoch": 0.37766666666666665, |
| "grad_norm": 29.375, |
| "learning_rate": 1.4116604379018838e-05, |
| "loss": 0.0539, |
| "step": 22660 |
| }, |
| { |
| "epoch": 0.37783333333333335, |
| "grad_norm": 7.9375, |
| "learning_rate": 1.4111734658043256e-05, |
| "loss": 0.0515, |
| "step": 22670 |
| }, |
| { |
| "epoch": 0.378, |
| "grad_norm": 3.890625, |
| "learning_rate": 1.4106863763332383e-05, |
| "loss": 0.0599, |
| "step": 22680 |
| }, |
| { |
| "epoch": 0.37816666666666665, |
| "grad_norm": 10.25, |
| "learning_rate": 1.4101991696276658e-05, |
| "loss": 0.0634, |
| "step": 22690 |
| }, |
| { |
| "epoch": 0.37833333333333335, |
| "grad_norm": 9.1875, |
| "learning_rate": 1.4097118458266868e-05, |
| "loss": 0.0529, |
| "step": 22700 |
| }, |
| { |
| "epoch": 0.3785, |
| "grad_norm": 8.4375, |
| "learning_rate": 1.4092244050694121e-05, |
| "loss": 0.0615, |
| "step": 22710 |
| }, |
| { |
| "epoch": 0.37866666666666665, |
| "grad_norm": 3.453125, |
| "learning_rate": 1.408736847494987e-05, |
| "loss": 0.0527, |
| "step": 22720 |
| }, |
| { |
| "epoch": 0.37883333333333336, |
| "grad_norm": 2.46875, |
| "learning_rate": 1.4082491732425891e-05, |
| "loss": 0.0585, |
| "step": 22730 |
| }, |
| { |
| "epoch": 0.379, |
| "grad_norm": 5.78125, |
| "learning_rate": 1.4077613824514305e-05, |
| "loss": 0.0676, |
| "step": 22740 |
| }, |
| { |
| "epoch": 0.37916666666666665, |
| "grad_norm": 5.5625, |
| "learning_rate": 1.4072734752607554e-05, |
| "loss": 0.0547, |
| "step": 22750 |
| }, |
| { |
| "epoch": 0.37933333333333336, |
| "grad_norm": 6.9375, |
| "learning_rate": 1.4067854518098416e-05, |
| "loss": 0.0566, |
| "step": 22760 |
| }, |
| { |
| "epoch": 0.3795, |
| "grad_norm": 29.375, |
| "learning_rate": 1.4062973122380006e-05, |
| "loss": 0.0684, |
| "step": 22770 |
| }, |
| { |
| "epoch": 0.37966666666666665, |
| "grad_norm": 4.90625, |
| "learning_rate": 1.4058090566845766e-05, |
| "loss": 0.0671, |
| "step": 22780 |
| }, |
| { |
| "epoch": 0.37983333333333336, |
| "grad_norm": 4.1875, |
| "learning_rate": 1.4053206852889468e-05, |
| "loss": 0.0509, |
| "step": 22790 |
| }, |
| { |
| "epoch": 0.38, |
| "grad_norm": 3.203125, |
| "learning_rate": 1.4048321981905219e-05, |
| "loss": 0.0653, |
| "step": 22800 |
| }, |
| { |
| "epoch": 0.38016666666666665, |
| "grad_norm": 35.75, |
| "learning_rate": 1.4043435955287452e-05, |
| "loss": 0.0564, |
| "step": 22810 |
| }, |
| { |
| "epoch": 0.38033333333333336, |
| "grad_norm": 1.9609375, |
| "learning_rate": 1.4038548774430928e-05, |
| "loss": 0.0735, |
| "step": 22820 |
| }, |
| { |
| "epoch": 0.3805, |
| "grad_norm": 6.625, |
| "learning_rate": 1.403366044073075e-05, |
| "loss": 0.0626, |
| "step": 22830 |
| }, |
| { |
| "epoch": 0.38066666666666665, |
| "grad_norm": 7.15625, |
| "learning_rate": 1.4028770955582333e-05, |
| "loss": 0.0499, |
| "step": 22840 |
| }, |
| { |
| "epoch": 0.38083333333333336, |
| "grad_norm": 9.8125, |
| "learning_rate": 1.4023880320381435e-05, |
| "loss": 0.0594, |
| "step": 22850 |
| }, |
| { |
| "epoch": 0.381, |
| "grad_norm": 2.28125, |
| "learning_rate": 1.401898853652413e-05, |
| "loss": 0.0521, |
| "step": 22860 |
| }, |
| { |
| "epoch": 0.38116666666666665, |
| "grad_norm": 17.25, |
| "learning_rate": 1.401409560540683e-05, |
| "loss": 0.0852, |
| "step": 22870 |
| }, |
| { |
| "epoch": 0.38133333333333336, |
| "grad_norm": 7.40625, |
| "learning_rate": 1.4009201528426269e-05, |
| "loss": 0.0495, |
| "step": 22880 |
| }, |
| { |
| "epoch": 0.3815, |
| "grad_norm": 17.125, |
| "learning_rate": 1.400430630697951e-05, |
| "loss": 0.0587, |
| "step": 22890 |
| }, |
| { |
| "epoch": 0.38166666666666665, |
| "grad_norm": 16.375, |
| "learning_rate": 1.3999409942463941e-05, |
| "loss": 0.0433, |
| "step": 22900 |
| }, |
| { |
| "epoch": 0.38183333333333336, |
| "grad_norm": 4.34375, |
| "learning_rate": 1.3994512436277283e-05, |
| "loss": 0.0612, |
| "step": 22910 |
| }, |
| { |
| "epoch": 0.382, |
| "grad_norm": 2.515625, |
| "learning_rate": 1.3989613789817574e-05, |
| "loss": 0.0688, |
| "step": 22920 |
| }, |
| { |
| "epoch": 0.38216666666666665, |
| "grad_norm": 4.125, |
| "learning_rate": 1.3984714004483178e-05, |
| "loss": 0.0666, |
| "step": 22930 |
| }, |
| { |
| "epoch": 0.38233333333333336, |
| "grad_norm": 25.25, |
| "learning_rate": 1.3979813081672789e-05, |
| "loss": 0.0758, |
| "step": 22940 |
| }, |
| { |
| "epoch": 0.3825, |
| "grad_norm": 2.03125, |
| "learning_rate": 1.3974911022785428e-05, |
| "loss": 0.0626, |
| "step": 22950 |
| }, |
| { |
| "epoch": 0.38266666666666665, |
| "grad_norm": 11.75, |
| "learning_rate": 1.3970007829220431e-05, |
| "loss": 0.0558, |
| "step": 22960 |
| }, |
| { |
| "epoch": 0.38283333333333336, |
| "grad_norm": 21.75, |
| "learning_rate": 1.3965103502377466e-05, |
| "loss": 0.0566, |
| "step": 22970 |
| }, |
| { |
| "epoch": 0.383, |
| "grad_norm": 15.125, |
| "learning_rate": 1.396019804365652e-05, |
| "loss": 0.0584, |
| "step": 22980 |
| }, |
| { |
| "epoch": 0.38316666666666666, |
| "grad_norm": 8.8125, |
| "learning_rate": 1.3955291454457905e-05, |
| "loss": 0.0623, |
| "step": 22990 |
| }, |
| { |
| "epoch": 0.38333333333333336, |
| "grad_norm": 9.125, |
| "learning_rate": 1.3950383736182253e-05, |
| "loss": 0.053, |
| "step": 23000 |
| }, |
| { |
| "epoch": 0.3835, |
| "grad_norm": 10.0625, |
| "learning_rate": 1.3945474890230528e-05, |
| "loss": 0.0628, |
| "step": 23010 |
| }, |
| { |
| "epoch": 0.38366666666666666, |
| "grad_norm": 7.75, |
| "learning_rate": 1.3940564918004005e-05, |
| "loss": 0.0517, |
| "step": 23020 |
| }, |
| { |
| "epoch": 0.38383333333333336, |
| "grad_norm": 12.25, |
| "learning_rate": 1.3935653820904277e-05, |
| "loss": 0.0672, |
| "step": 23030 |
| }, |
| { |
| "epoch": 0.384, |
| "grad_norm": 10.25, |
| "learning_rate": 1.3930741600333276e-05, |
| "loss": 0.076, |
| "step": 23040 |
| }, |
| { |
| "epoch": 0.38416666666666666, |
| "grad_norm": 1.546875, |
| "learning_rate": 1.3925828257693236e-05, |
| "loss": 0.0518, |
| "step": 23050 |
| }, |
| { |
| "epoch": 0.38433333333333336, |
| "grad_norm": 4.03125, |
| "learning_rate": 1.3920913794386724e-05, |
| "loss": 0.0658, |
| "step": 23060 |
| }, |
| { |
| "epoch": 0.3845, |
| "grad_norm": 8.875, |
| "learning_rate": 1.391599821181662e-05, |
| "loss": 0.0558, |
| "step": 23070 |
| }, |
| { |
| "epoch": 0.38466666666666666, |
| "grad_norm": 2.875, |
| "learning_rate": 1.3911081511386126e-05, |
| "loss": 0.064, |
| "step": 23080 |
| }, |
| { |
| "epoch": 0.38483333333333336, |
| "grad_norm": 6.21875, |
| "learning_rate": 1.3906163694498764e-05, |
| "loss": 0.0546, |
| "step": 23090 |
| }, |
| { |
| "epoch": 0.385, |
| "grad_norm": 7.8125, |
| "learning_rate": 1.390124476255837e-05, |
| "loss": 0.0463, |
| "step": 23100 |
| }, |
| { |
| "epoch": 0.38516666666666666, |
| "grad_norm": 4.28125, |
| "learning_rate": 1.3896324716969104e-05, |
| "loss": 0.0649, |
| "step": 23110 |
| }, |
| { |
| "epoch": 0.38533333333333336, |
| "grad_norm": 51.0, |
| "learning_rate": 1.3891403559135443e-05, |
| "loss": 0.0571, |
| "step": 23120 |
| }, |
| { |
| "epoch": 0.3855, |
| "grad_norm": 8.5, |
| "learning_rate": 1.3886481290462176e-05, |
| "loss": 0.0622, |
| "step": 23130 |
| }, |
| { |
| "epoch": 0.38566666666666666, |
| "grad_norm": 7.46875, |
| "learning_rate": 1.3881557912354419e-05, |
| "loss": 0.0598, |
| "step": 23140 |
| }, |
| { |
| "epoch": 0.3858333333333333, |
| "grad_norm": 2.328125, |
| "learning_rate": 1.3876633426217598e-05, |
| "loss": 0.0684, |
| "step": 23150 |
| }, |
| { |
| "epoch": 0.386, |
| "grad_norm": 11.8125, |
| "learning_rate": 1.387170783345745e-05, |
| "loss": 0.0629, |
| "step": 23160 |
| }, |
| { |
| "epoch": 0.38616666666666666, |
| "grad_norm": 9.3125, |
| "learning_rate": 1.3866781135480039e-05, |
| "loss": 0.0673, |
| "step": 23170 |
| }, |
| { |
| "epoch": 0.3863333333333333, |
| "grad_norm": 7.375, |
| "learning_rate": 1.386185333369174e-05, |
| "loss": 0.0498, |
| "step": 23180 |
| }, |
| { |
| "epoch": 0.3865, |
| "grad_norm": 2.21875, |
| "learning_rate": 1.3856924429499242e-05, |
| "loss": 0.0523, |
| "step": 23190 |
| }, |
| { |
| "epoch": 0.38666666666666666, |
| "grad_norm": 23.625, |
| "learning_rate": 1.3851994424309545e-05, |
| "loss": 0.0645, |
| "step": 23200 |
| }, |
| { |
| "epoch": 0.3868333333333333, |
| "grad_norm": 7.90625, |
| "learning_rate": 1.3847063319529976e-05, |
| "loss": 0.0533, |
| "step": 23210 |
| }, |
| { |
| "epoch": 0.387, |
| "grad_norm": 7.90625, |
| "learning_rate": 1.384213111656816e-05, |
| "loss": 0.0611, |
| "step": 23220 |
| }, |
| { |
| "epoch": 0.38716666666666666, |
| "grad_norm": 3.09375, |
| "learning_rate": 1.3837197816832049e-05, |
| "loss": 0.0527, |
| "step": 23230 |
| }, |
| { |
| "epoch": 0.3873333333333333, |
| "grad_norm": 1.703125, |
| "learning_rate": 1.3832263421729898e-05, |
| "loss": 0.0581, |
| "step": 23240 |
| }, |
| { |
| "epoch": 0.3875, |
| "grad_norm": 4.59375, |
| "learning_rate": 1.3827327932670283e-05, |
| "loss": 0.0608, |
| "step": 23250 |
| }, |
| { |
| "epoch": 0.38766666666666666, |
| "grad_norm": 4.40625, |
| "learning_rate": 1.3822391351062085e-05, |
| "loss": 0.0631, |
| "step": 23260 |
| }, |
| { |
| "epoch": 0.3878333333333333, |
| "grad_norm": 10.125, |
| "learning_rate": 1.3817453678314498e-05, |
| "loss": 0.068, |
| "step": 23270 |
| }, |
| { |
| "epoch": 0.388, |
| "grad_norm": 2.09375, |
| "learning_rate": 1.3812514915837032e-05, |
| "loss": 0.0631, |
| "step": 23280 |
| }, |
| { |
| "epoch": 0.38816666666666666, |
| "grad_norm": 8.4375, |
| "learning_rate": 1.380757506503951e-05, |
| "loss": 0.055, |
| "step": 23290 |
| }, |
| { |
| "epoch": 0.3883333333333333, |
| "grad_norm": 2.40625, |
| "learning_rate": 1.3802634127332051e-05, |
| "loss": 0.0605, |
| "step": 23300 |
| }, |
| { |
| "epoch": 0.3885, |
| "grad_norm": 3.328125, |
| "learning_rate": 1.3797692104125103e-05, |
| "loss": 0.055, |
| "step": 23310 |
| }, |
| { |
| "epoch": 0.38866666666666666, |
| "grad_norm": 26.75, |
| "learning_rate": 1.3792748996829413e-05, |
| "loss": 0.0489, |
| "step": 23320 |
| }, |
| { |
| "epoch": 0.3888333333333333, |
| "grad_norm": 3.8125, |
| "learning_rate": 1.3787804806856038e-05, |
| "loss": 0.0616, |
| "step": 23330 |
| }, |
| { |
| "epoch": 0.389, |
| "grad_norm": 2.234375, |
| "learning_rate": 1.3782859535616349e-05, |
| "loss": 0.0561, |
| "step": 23340 |
| }, |
| { |
| "epoch": 0.38916666666666666, |
| "grad_norm": 8.25, |
| "learning_rate": 1.377791318452202e-05, |
| "loss": 0.0808, |
| "step": 23350 |
| }, |
| { |
| "epoch": 0.3893333333333333, |
| "grad_norm": 17.125, |
| "learning_rate": 1.377296575498504e-05, |
| "loss": 0.0714, |
| "step": 23360 |
| }, |
| { |
| "epoch": 0.3895, |
| "grad_norm": 13.625, |
| "learning_rate": 1.3768017248417693e-05, |
| "loss": 0.0638, |
| "step": 23370 |
| }, |
| { |
| "epoch": 0.38966666666666666, |
| "grad_norm": 32.0, |
| "learning_rate": 1.3763067666232586e-05, |
| "loss": 0.0475, |
| "step": 23380 |
| }, |
| { |
| "epoch": 0.3898333333333333, |
| "grad_norm": 10.0625, |
| "learning_rate": 1.3758117009842626e-05, |
| "loss": 0.0603, |
| "step": 23390 |
| }, |
| { |
| "epoch": 0.39, |
| "grad_norm": 2.890625, |
| "learning_rate": 1.3753165280661025e-05, |
| "loss": 0.0553, |
| "step": 23400 |
| }, |
| { |
| "epoch": 0.39016666666666666, |
| "grad_norm": 8.25, |
| "learning_rate": 1.3748212480101305e-05, |
| "loss": 0.0635, |
| "step": 23410 |
| }, |
| { |
| "epoch": 0.3903333333333333, |
| "grad_norm": 8.8125, |
| "learning_rate": 1.3743258609577287e-05, |
| "loss": 0.0621, |
| "step": 23420 |
| }, |
| { |
| "epoch": 0.3905, |
| "grad_norm": 2.375, |
| "learning_rate": 1.3738303670503107e-05, |
| "loss": 0.0677, |
| "step": 23430 |
| }, |
| { |
| "epoch": 0.39066666666666666, |
| "grad_norm": 6.15625, |
| "learning_rate": 1.37333476642932e-05, |
| "loss": 0.0613, |
| "step": 23440 |
| }, |
| { |
| "epoch": 0.3908333333333333, |
| "grad_norm": 3.546875, |
| "learning_rate": 1.3728390592362308e-05, |
| "loss": 0.0674, |
| "step": 23450 |
| }, |
| { |
| "epoch": 0.391, |
| "grad_norm": 8.125, |
| "learning_rate": 1.3723432456125476e-05, |
| "loss": 0.0476, |
| "step": 23460 |
| }, |
| { |
| "epoch": 0.39116666666666666, |
| "grad_norm": 3.40625, |
| "learning_rate": 1.3718473256998048e-05, |
| "loss": 0.0624, |
| "step": 23470 |
| }, |
| { |
| "epoch": 0.3913333333333333, |
| "grad_norm": 6.34375, |
| "learning_rate": 1.3713512996395686e-05, |
| "loss": 0.0606, |
| "step": 23480 |
| }, |
| { |
| "epoch": 0.3915, |
| "grad_norm": 5.34375, |
| "learning_rate": 1.3708551675734334e-05, |
| "loss": 0.0611, |
| "step": 23490 |
| }, |
| { |
| "epoch": 0.39166666666666666, |
| "grad_norm": 5.96875, |
| "learning_rate": 1.3703589296430258e-05, |
| "loss": 0.0489, |
| "step": 23500 |
| }, |
| { |
| "epoch": 0.3918333333333333, |
| "grad_norm": 13.125, |
| "learning_rate": 1.369862585990002e-05, |
| "loss": 0.0563, |
| "step": 23510 |
| }, |
| { |
| "epoch": 0.392, |
| "grad_norm": 12.5625, |
| "learning_rate": 1.3693661367560473e-05, |
| "loss": 0.054, |
| "step": 23520 |
| }, |
| { |
| "epoch": 0.39216666666666666, |
| "grad_norm": 4.9375, |
| "learning_rate": 1.368869582082879e-05, |
| "loss": 0.0485, |
| "step": 23530 |
| }, |
| { |
| "epoch": 0.3923333333333333, |
| "grad_norm": 7.40625, |
| "learning_rate": 1.3683729221122427e-05, |
| "loss": 0.0579, |
| "step": 23540 |
| }, |
| { |
| "epoch": 0.3925, |
| "grad_norm": 33.75, |
| "learning_rate": 1.367876156985915e-05, |
| "loss": 0.0544, |
| "step": 23550 |
| }, |
| { |
| "epoch": 0.39266666666666666, |
| "grad_norm": 3.375, |
| "learning_rate": 1.3673792868457034e-05, |
| "loss": 0.0671, |
| "step": 23560 |
| }, |
| { |
| "epoch": 0.3928333333333333, |
| "grad_norm": 17.625, |
| "learning_rate": 1.3668823118334433e-05, |
| "loss": 0.0513, |
| "step": 23570 |
| }, |
| { |
| "epoch": 0.393, |
| "grad_norm": 97.5, |
| "learning_rate": 1.3663852320910018e-05, |
| "loss": 0.0699, |
| "step": 23580 |
| }, |
| { |
| "epoch": 0.39316666666666666, |
| "grad_norm": 4.78125, |
| "learning_rate": 1.3658880477602747e-05, |
| "loss": 0.0612, |
| "step": 23590 |
| }, |
| { |
| "epoch": 0.3933333333333333, |
| "grad_norm": 5.40625, |
| "learning_rate": 1.3653907589831885e-05, |
| "loss": 0.0552, |
| "step": 23600 |
| }, |
| { |
| "epoch": 0.3935, |
| "grad_norm": 4.6875, |
| "learning_rate": 1.3648933659016989e-05, |
| "loss": 0.0603, |
| "step": 23610 |
| }, |
| { |
| "epoch": 0.39366666666666666, |
| "grad_norm": 3.734375, |
| "learning_rate": 1.3643958686577923e-05, |
| "loss": 0.0585, |
| "step": 23620 |
| }, |
| { |
| "epoch": 0.3938333333333333, |
| "grad_norm": 9.5625, |
| "learning_rate": 1.3638982673934838e-05, |
| "loss": 0.0695, |
| "step": 23630 |
| }, |
| { |
| "epoch": 0.394, |
| "grad_norm": 6.8125, |
| "learning_rate": 1.3634005622508181e-05, |
| "loss": 0.0518, |
| "step": 23640 |
| }, |
| { |
| "epoch": 0.39416666666666667, |
| "grad_norm": 8.875, |
| "learning_rate": 1.3629027533718711e-05, |
| "loss": 0.05, |
| "step": 23650 |
| }, |
| { |
| "epoch": 0.3943333333333333, |
| "grad_norm": 5.96875, |
| "learning_rate": 1.3624048408987465e-05, |
| "loss": 0.0557, |
| "step": 23660 |
| }, |
| { |
| "epoch": 0.3945, |
| "grad_norm": 2.234375, |
| "learning_rate": 1.3619068249735783e-05, |
| "loss": 0.0581, |
| "step": 23670 |
| }, |
| { |
| "epoch": 0.39466666666666667, |
| "grad_norm": 24.25, |
| "learning_rate": 1.3614087057385305e-05, |
| "loss": 0.0637, |
| "step": 23680 |
| }, |
| { |
| "epoch": 0.3948333333333333, |
| "grad_norm": 6.8125, |
| "learning_rate": 1.3609104833357962e-05, |
| "loss": 0.0629, |
| "step": 23690 |
| }, |
| { |
| "epoch": 0.395, |
| "grad_norm": 23.625, |
| "learning_rate": 1.3604121579075975e-05, |
| "loss": 0.0667, |
| "step": 23700 |
| }, |
| { |
| "epoch": 0.39516666666666667, |
| "grad_norm": 7.25, |
| "learning_rate": 1.3599137295961866e-05, |
| "loss": 0.0669, |
| "step": 23710 |
| }, |
| { |
| "epoch": 0.3953333333333333, |
| "grad_norm": 17.75, |
| "learning_rate": 1.3594151985438445e-05, |
| "loss": 0.0501, |
| "step": 23720 |
| }, |
| { |
| "epoch": 0.3955, |
| "grad_norm": 8.125, |
| "learning_rate": 1.3589165648928822e-05, |
| "loss": 0.0586, |
| "step": 23730 |
| }, |
| { |
| "epoch": 0.39566666666666667, |
| "grad_norm": 11.75, |
| "learning_rate": 1.3584178287856391e-05, |
| "loss": 0.0657, |
| "step": 23740 |
| }, |
| { |
| "epoch": 0.3958333333333333, |
| "grad_norm": 24.125, |
| "learning_rate": 1.3579189903644849e-05, |
| "loss": 0.0605, |
| "step": 23750 |
| }, |
| { |
| "epoch": 0.396, |
| "grad_norm": 2.953125, |
| "learning_rate": 1.3574200497718177e-05, |
| "loss": 0.0601, |
| "step": 23760 |
| }, |
| { |
| "epoch": 0.39616666666666667, |
| "grad_norm": 21.625, |
| "learning_rate": 1.3569210071500651e-05, |
| "loss": 0.0596, |
| "step": 23770 |
| }, |
| { |
| "epoch": 0.3963333333333333, |
| "grad_norm": 42.75, |
| "learning_rate": 1.3564218626416833e-05, |
| "loss": 0.0602, |
| "step": 23780 |
| }, |
| { |
| "epoch": 0.3965, |
| "grad_norm": 6.21875, |
| "learning_rate": 1.355922616389159e-05, |
| "loss": 0.0623, |
| "step": 23790 |
| }, |
| { |
| "epoch": 0.39666666666666667, |
| "grad_norm": 8.6875, |
| "learning_rate": 1.3554232685350062e-05, |
| "loss": 0.0738, |
| "step": 23800 |
| }, |
| { |
| "epoch": 0.3968333333333333, |
| "grad_norm": 28.0, |
| "learning_rate": 1.3549238192217686e-05, |
| "loss": 0.0511, |
| "step": 23810 |
| }, |
| { |
| "epoch": 0.397, |
| "grad_norm": 10.5, |
| "learning_rate": 1.3544242685920198e-05, |
| "loss": 0.0484, |
| "step": 23820 |
| }, |
| { |
| "epoch": 0.39716666666666667, |
| "grad_norm": 4.625, |
| "learning_rate": 1.3539246167883602e-05, |
| "loss": 0.0587, |
| "step": 23830 |
| }, |
| { |
| "epoch": 0.3973333333333333, |
| "grad_norm": 5.71875, |
| "learning_rate": 1.3534248639534213e-05, |
| "loss": 0.0612, |
| "step": 23840 |
| }, |
| { |
| "epoch": 0.3975, |
| "grad_norm": 8.25, |
| "learning_rate": 1.3529250102298623e-05, |
| "loss": 0.0496, |
| "step": 23850 |
| }, |
| { |
| "epoch": 0.39766666666666667, |
| "grad_norm": 9.6875, |
| "learning_rate": 1.3524250557603714e-05, |
| "loss": 0.0808, |
| "step": 23860 |
| }, |
| { |
| "epoch": 0.3978333333333333, |
| "grad_norm": 14.75, |
| "learning_rate": 1.3519250006876652e-05, |
| "loss": 0.0673, |
| "step": 23870 |
| }, |
| { |
| "epoch": 0.398, |
| "grad_norm": 3.203125, |
| "learning_rate": 1.3514248451544899e-05, |
| "loss": 0.0645, |
| "step": 23880 |
| }, |
| { |
| "epoch": 0.39816666666666667, |
| "grad_norm": 2.890625, |
| "learning_rate": 1.3509245893036192e-05, |
| "loss": 0.0606, |
| "step": 23890 |
| }, |
| { |
| "epoch": 0.3983333333333333, |
| "grad_norm": 8.6875, |
| "learning_rate": 1.3504242332778566e-05, |
| "loss": 0.0778, |
| "step": 23900 |
| }, |
| { |
| "epoch": 0.3985, |
| "grad_norm": 2.359375, |
| "learning_rate": 1.3499237772200333e-05, |
| "loss": 0.06, |
| "step": 23910 |
| }, |
| { |
| "epoch": 0.39866666666666667, |
| "grad_norm": 3.0625, |
| "learning_rate": 1.3494232212730098e-05, |
| "loss": 0.0628, |
| "step": 23920 |
| }, |
| { |
| "epoch": 0.3988333333333333, |
| "grad_norm": 13.375, |
| "learning_rate": 1.3489225655796748e-05, |
| "loss": 0.0588, |
| "step": 23930 |
| }, |
| { |
| "epoch": 0.399, |
| "grad_norm": 2.34375, |
| "learning_rate": 1.3484218102829447e-05, |
| "loss": 0.0547, |
| "step": 23940 |
| }, |
| { |
| "epoch": 0.39916666666666667, |
| "grad_norm": 41.0, |
| "learning_rate": 1.3479209555257657e-05, |
| "loss": 0.0533, |
| "step": 23950 |
| }, |
| { |
| "epoch": 0.3993333333333333, |
| "grad_norm": 20.625, |
| "learning_rate": 1.3474200014511117e-05, |
| "loss": 0.0566, |
| "step": 23960 |
| }, |
| { |
| "epoch": 0.3995, |
| "grad_norm": 17.125, |
| "learning_rate": 1.3469189482019846e-05, |
| "loss": 0.0658, |
| "step": 23970 |
| }, |
| { |
| "epoch": 0.39966666666666667, |
| "grad_norm": 2.671875, |
| "learning_rate": 1.3464177959214154e-05, |
| "loss": 0.0639, |
| "step": 23980 |
| }, |
| { |
| "epoch": 0.3998333333333333, |
| "grad_norm": 8.25, |
| "learning_rate": 1.345916544752463e-05, |
| "loss": 0.0593, |
| "step": 23990 |
| }, |
| { |
| "epoch": 0.4, |
| "grad_norm": 8.5625, |
| "learning_rate": 1.3454151948382142e-05, |
| "loss": 0.0664, |
| "step": 24000 |
| }, |
| { |
| "epoch": 0.40016666666666667, |
| "grad_norm": 5.875, |
| "learning_rate": 1.3449137463217846e-05, |
| "loss": 0.0621, |
| "step": 24010 |
| }, |
| { |
| "epoch": 0.4003333333333333, |
| "grad_norm": 2.1875, |
| "learning_rate": 1.3444121993463171e-05, |
| "loss": 0.0603, |
| "step": 24020 |
| }, |
| { |
| "epoch": 0.4005, |
| "grad_norm": 7.71875, |
| "learning_rate": 1.3439105540549839e-05, |
| "loss": 0.0486, |
| "step": 24030 |
| }, |
| { |
| "epoch": 0.40066666666666667, |
| "grad_norm": 66.5, |
| "learning_rate": 1.3434088105909841e-05, |
| "loss": 0.0632, |
| "step": 24040 |
| }, |
| { |
| "epoch": 0.4008333333333333, |
| "grad_norm": 35.0, |
| "learning_rate": 1.3429069690975457e-05, |
| "loss": 0.0669, |
| "step": 24050 |
| }, |
| { |
| "epoch": 0.401, |
| "grad_norm": 12.625, |
| "learning_rate": 1.342405029717924e-05, |
| "loss": 0.0668, |
| "step": 24060 |
| }, |
| { |
| "epoch": 0.40116666666666667, |
| "grad_norm": 39.25, |
| "learning_rate": 1.3419029925954028e-05, |
| "loss": 0.0467, |
| "step": 24070 |
| }, |
| { |
| "epoch": 0.4013333333333333, |
| "grad_norm": 3.21875, |
| "learning_rate": 1.3414008578732933e-05, |
| "loss": 0.0583, |
| "step": 24080 |
| }, |
| { |
| "epoch": 0.4015, |
| "grad_norm": 10.3125, |
| "learning_rate": 1.3408986256949352e-05, |
| "loss": 0.0712, |
| "step": 24090 |
| }, |
| { |
| "epoch": 0.40166666666666667, |
| "grad_norm": 2.5625, |
| "learning_rate": 1.3403962962036952e-05, |
| "loss": 0.0593, |
| "step": 24100 |
| }, |
| { |
| "epoch": 0.4018333333333333, |
| "grad_norm": 31.5, |
| "learning_rate": 1.3398938695429685e-05, |
| "loss": 0.0595, |
| "step": 24110 |
| }, |
| { |
| "epoch": 0.402, |
| "grad_norm": 10.375, |
| "learning_rate": 1.3393913458561779e-05, |
| "loss": 0.0542, |
| "step": 24120 |
| }, |
| { |
| "epoch": 0.4021666666666667, |
| "grad_norm": 28.125, |
| "learning_rate": 1.3388887252867733e-05, |
| "loss": 0.058, |
| "step": 24130 |
| }, |
| { |
| "epoch": 0.4023333333333333, |
| "grad_norm": 11.3125, |
| "learning_rate": 1.3383860079782331e-05, |
| "loss": 0.0709, |
| "step": 24140 |
| }, |
| { |
| "epoch": 0.4025, |
| "grad_norm": 14.25, |
| "learning_rate": 1.3378831940740627e-05, |
| "loss": 0.0591, |
| "step": 24150 |
| }, |
| { |
| "epoch": 0.4026666666666667, |
| "grad_norm": 2.59375, |
| "learning_rate": 1.3373802837177952e-05, |
| "loss": 0.0573, |
| "step": 24160 |
| }, |
| { |
| "epoch": 0.4028333333333333, |
| "grad_norm": 47.0, |
| "learning_rate": 1.3368772770529919e-05, |
| "loss": 0.0549, |
| "step": 24170 |
| }, |
| { |
| "epoch": 0.403, |
| "grad_norm": 16.875, |
| "learning_rate": 1.3363741742232403e-05, |
| "loss": 0.0558, |
| "step": 24180 |
| }, |
| { |
| "epoch": 0.4031666666666667, |
| "grad_norm": 9.4375, |
| "learning_rate": 1.3358709753721566e-05, |
| "loss": 0.0452, |
| "step": 24190 |
| }, |
| { |
| "epoch": 0.4033333333333333, |
| "grad_norm": 18.5, |
| "learning_rate": 1.3353676806433838e-05, |
| "loss": 0.058, |
| "step": 24200 |
| }, |
| { |
| "epoch": 0.4035, |
| "grad_norm": 19.625, |
| "learning_rate": 1.3348642901805919e-05, |
| "loss": 0.0512, |
| "step": 24210 |
| }, |
| { |
| "epoch": 0.4036666666666667, |
| "grad_norm": 2.484375, |
| "learning_rate": 1.3343608041274791e-05, |
| "loss": 0.0654, |
| "step": 24220 |
| }, |
| { |
| "epoch": 0.4038333333333333, |
| "grad_norm": 28.75, |
| "learning_rate": 1.3338572226277706e-05, |
| "loss": 0.0649, |
| "step": 24230 |
| }, |
| { |
| "epoch": 0.404, |
| "grad_norm": 10.125, |
| "learning_rate": 1.3333535458252183e-05, |
| "loss": 0.0551, |
| "step": 24240 |
| }, |
| { |
| "epoch": 0.4041666666666667, |
| "grad_norm": 1.2578125, |
| "learning_rate": 1.332849773863602e-05, |
| "loss": 0.0546, |
| "step": 24250 |
| }, |
| { |
| "epoch": 0.4043333333333333, |
| "grad_norm": 4.0625, |
| "learning_rate": 1.3323459068867284e-05, |
| "loss": 0.0582, |
| "step": 24260 |
| }, |
| { |
| "epoch": 0.4045, |
| "grad_norm": 19.125, |
| "learning_rate": 1.331841945038431e-05, |
| "loss": 0.0634, |
| "step": 24270 |
| }, |
| { |
| "epoch": 0.4046666666666667, |
| "grad_norm": 1.6171875, |
| "learning_rate": 1.331337888462571e-05, |
| "loss": 0.0515, |
| "step": 24280 |
| }, |
| { |
| "epoch": 0.4048333333333333, |
| "grad_norm": 4.46875, |
| "learning_rate": 1.3308337373030365e-05, |
| "loss": 0.0635, |
| "step": 24290 |
| }, |
| { |
| "epoch": 0.405, |
| "grad_norm": 4.4375, |
| "learning_rate": 1.3303294917037422e-05, |
| "loss": 0.0647, |
| "step": 24300 |
| }, |
| { |
| "epoch": 0.4051666666666667, |
| "grad_norm": 12.0625, |
| "learning_rate": 1.3298251518086293e-05, |
| "loss": 0.0657, |
| "step": 24310 |
| }, |
| { |
| "epoch": 0.4053333333333333, |
| "grad_norm": 14.25, |
| "learning_rate": 1.329320717761668e-05, |
| "loss": 0.0609, |
| "step": 24320 |
| }, |
| { |
| "epoch": 0.4055, |
| "grad_norm": 45.25, |
| "learning_rate": 1.3288161897068528e-05, |
| "loss": 0.0579, |
| "step": 24330 |
| }, |
| { |
| "epoch": 0.4056666666666667, |
| "grad_norm": 5.5625, |
| "learning_rate": 1.328311567788207e-05, |
| "loss": 0.0684, |
| "step": 24340 |
| }, |
| { |
| "epoch": 0.4058333333333333, |
| "grad_norm": 21.25, |
| "learning_rate": 1.3278068521497794e-05, |
| "loss": 0.0539, |
| "step": 24350 |
| }, |
| { |
| "epoch": 0.406, |
| "grad_norm": 3.625, |
| "learning_rate": 1.3273020429356465e-05, |
| "loss": 0.0557, |
| "step": 24360 |
| }, |
| { |
| "epoch": 0.4061666666666667, |
| "grad_norm": 4.40625, |
| "learning_rate": 1.3267971402899107e-05, |
| "loss": 0.0493, |
| "step": 24370 |
| }, |
| { |
| "epoch": 0.4063333333333333, |
| "grad_norm": 9.25, |
| "learning_rate": 1.3262921443567015e-05, |
| "loss": 0.056, |
| "step": 24380 |
| }, |
| { |
| "epoch": 0.4065, |
| "grad_norm": 10.75, |
| "learning_rate": 1.3257870552801749e-05, |
| "loss": 0.0604, |
| "step": 24390 |
| }, |
| { |
| "epoch": 0.4066666666666667, |
| "grad_norm": 15.5625, |
| "learning_rate": 1.325281873204514e-05, |
| "loss": 0.0507, |
| "step": 24400 |
| }, |
| { |
| "epoch": 0.4068333333333333, |
| "grad_norm": 14.5625, |
| "learning_rate": 1.3247765982739275e-05, |
| "loss": 0.0611, |
| "step": 24410 |
| }, |
| { |
| "epoch": 0.407, |
| "grad_norm": 21.375, |
| "learning_rate": 1.3242712306326517e-05, |
| "loss": 0.0612, |
| "step": 24420 |
| }, |
| { |
| "epoch": 0.4071666666666667, |
| "grad_norm": 8.8125, |
| "learning_rate": 1.3237657704249485e-05, |
| "loss": 0.0623, |
| "step": 24430 |
| }, |
| { |
| "epoch": 0.4073333333333333, |
| "grad_norm": 10.5625, |
| "learning_rate": 1.3232602177951061e-05, |
| "loss": 0.047, |
| "step": 24440 |
| }, |
| { |
| "epoch": 0.4075, |
| "grad_norm": 9.875, |
| "learning_rate": 1.32275457288744e-05, |
| "loss": 0.0607, |
| "step": 24450 |
| }, |
| { |
| "epoch": 0.4076666666666667, |
| "grad_norm": 4.125, |
| "learning_rate": 1.3222488358462915e-05, |
| "loss": 0.0713, |
| "step": 24460 |
| }, |
| { |
| "epoch": 0.4078333333333333, |
| "grad_norm": 28.25, |
| "learning_rate": 1.3217430068160282e-05, |
| "loss": 0.0733, |
| "step": 24470 |
| }, |
| { |
| "epoch": 0.408, |
| "grad_norm": 7.1875, |
| "learning_rate": 1.3212370859410437e-05, |
| "loss": 0.0633, |
| "step": 24480 |
| }, |
| { |
| "epoch": 0.4081666666666667, |
| "grad_norm": 4.65625, |
| "learning_rate": 1.3207310733657586e-05, |
| "loss": 0.06, |
| "step": 24490 |
| }, |
| { |
| "epoch": 0.4083333333333333, |
| "grad_norm": 53.75, |
| "learning_rate": 1.3202249692346187e-05, |
| "loss": 0.0671, |
| "step": 24500 |
| }, |
| { |
| "epoch": 0.4085, |
| "grad_norm": 4.65625, |
| "learning_rate": 1.3197187736920967e-05, |
| "loss": 0.0607, |
| "step": 24510 |
| }, |
| { |
| "epoch": 0.4086666666666667, |
| "grad_norm": 9.8125, |
| "learning_rate": 1.3192124868826913e-05, |
| "loss": 0.0554, |
| "step": 24520 |
| }, |
| { |
| "epoch": 0.4088333333333333, |
| "grad_norm": 13.3125, |
| "learning_rate": 1.3187061089509268e-05, |
| "loss": 0.0647, |
| "step": 24530 |
| }, |
| { |
| "epoch": 0.409, |
| "grad_norm": 3.4375, |
| "learning_rate": 1.3181996400413539e-05, |
| "loss": 0.0498, |
| "step": 24540 |
| }, |
| { |
| "epoch": 0.4091666666666667, |
| "grad_norm": 2.359375, |
| "learning_rate": 1.3176930802985489e-05, |
| "loss": 0.052, |
| "step": 24550 |
| }, |
| { |
| "epoch": 0.4093333333333333, |
| "grad_norm": 26.625, |
| "learning_rate": 1.3171864298671144e-05, |
| "loss": 0.0568, |
| "step": 24560 |
| }, |
| { |
| "epoch": 0.4095, |
| "grad_norm": 5.25, |
| "learning_rate": 1.316679688891679e-05, |
| "loss": 0.0592, |
| "step": 24570 |
| }, |
| { |
| "epoch": 0.4096666666666667, |
| "grad_norm": 10.1875, |
| "learning_rate": 1.3161728575168968e-05, |
| "loss": 0.0675, |
| "step": 24580 |
| }, |
| { |
| "epoch": 0.4098333333333333, |
| "grad_norm": 38.5, |
| "learning_rate": 1.3156659358874477e-05, |
| "loss": 0.0489, |
| "step": 24590 |
| }, |
| { |
| "epoch": 0.41, |
| "grad_norm": 31.375, |
| "learning_rate": 1.315158924148038e-05, |
| "loss": 0.0631, |
| "step": 24600 |
| }, |
| { |
| "epoch": 0.4101666666666667, |
| "grad_norm": 7.4375, |
| "learning_rate": 1.314651822443398e-05, |
| "loss": 0.0634, |
| "step": 24610 |
| }, |
| { |
| "epoch": 0.4103333333333333, |
| "grad_norm": 19.125, |
| "learning_rate": 1.3141446309182864e-05, |
| "loss": 0.0622, |
| "step": 24620 |
| }, |
| { |
| "epoch": 0.4105, |
| "grad_norm": 2.21875, |
| "learning_rate": 1.313637349717485e-05, |
| "loss": 0.0609, |
| "step": 24630 |
| }, |
| { |
| "epoch": 0.4106666666666667, |
| "grad_norm": 10.8125, |
| "learning_rate": 1.3131299789858028e-05, |
| "loss": 0.0636, |
| "step": 24640 |
| }, |
| { |
| "epoch": 0.41083333333333333, |
| "grad_norm": 54.75, |
| "learning_rate": 1.3126225188680733e-05, |
| "loss": 0.0618, |
| "step": 24650 |
| }, |
| { |
| "epoch": 0.411, |
| "grad_norm": 19.125, |
| "learning_rate": 1.3121149695091562e-05, |
| "loss": 0.0611, |
| "step": 24660 |
| }, |
| { |
| "epoch": 0.4111666666666667, |
| "grad_norm": 10.25, |
| "learning_rate": 1.3116073310539367e-05, |
| "loss": 0.0587, |
| "step": 24670 |
| }, |
| { |
| "epoch": 0.41133333333333333, |
| "grad_norm": 2.90625, |
| "learning_rate": 1.3110996036473252e-05, |
| "loss": 0.0495, |
| "step": 24680 |
| }, |
| { |
| "epoch": 0.4115, |
| "grad_norm": 20.875, |
| "learning_rate": 1.3105917874342571e-05, |
| "loss": 0.0522, |
| "step": 24690 |
| }, |
| { |
| "epoch": 0.4116666666666667, |
| "grad_norm": 2.765625, |
| "learning_rate": 1.310083882559694e-05, |
| "loss": 0.0611, |
| "step": 24700 |
| }, |
| { |
| "epoch": 0.41183333333333333, |
| "grad_norm": 12.375, |
| "learning_rate": 1.3095758891686221e-05, |
| "loss": 0.0648, |
| "step": 24710 |
| }, |
| { |
| "epoch": 0.412, |
| "grad_norm": 7.375, |
| "learning_rate": 1.309067807406053e-05, |
| "loss": 0.062, |
| "step": 24720 |
| }, |
| { |
| "epoch": 0.4121666666666667, |
| "grad_norm": 6.625, |
| "learning_rate": 1.3085596374170241e-05, |
| "loss": 0.0619, |
| "step": 24730 |
| }, |
| { |
| "epoch": 0.41233333333333333, |
| "grad_norm": 41.5, |
| "learning_rate": 1.3080513793465974e-05, |
| "loss": 0.0632, |
| "step": 24740 |
| }, |
| { |
| "epoch": 0.4125, |
| "grad_norm": 5.84375, |
| "learning_rate": 1.3075430333398598e-05, |
| "loss": 0.0451, |
| "step": 24750 |
| }, |
| { |
| "epoch": 0.4126666666666667, |
| "grad_norm": 44.5, |
| "learning_rate": 1.3070345995419242e-05, |
| "loss": 0.0641, |
| "step": 24760 |
| }, |
| { |
| "epoch": 0.41283333333333333, |
| "grad_norm": 1.4140625, |
| "learning_rate": 1.3065260780979279e-05, |
| "loss": 0.0561, |
| "step": 24770 |
| }, |
| { |
| "epoch": 0.413, |
| "grad_norm": 5.59375, |
| "learning_rate": 1.3060174691530332e-05, |
| "loss": 0.0495, |
| "step": 24780 |
| }, |
| { |
| "epoch": 0.4131666666666667, |
| "grad_norm": 5.375, |
| "learning_rate": 1.3055087728524275e-05, |
| "loss": 0.0519, |
| "step": 24790 |
| }, |
| { |
| "epoch": 0.41333333333333333, |
| "grad_norm": 5.59375, |
| "learning_rate": 1.3049999893413238e-05, |
| "loss": 0.0528, |
| "step": 24800 |
| }, |
| { |
| "epoch": 0.4135, |
| "grad_norm": 8.6875, |
| "learning_rate": 1.304491118764959e-05, |
| "loss": 0.0648, |
| "step": 24810 |
| }, |
| { |
| "epoch": 0.4136666666666667, |
| "grad_norm": 6.8125, |
| "learning_rate": 1.3039821612685945e-05, |
| "loss": 0.0556, |
| "step": 24820 |
| }, |
| { |
| "epoch": 0.41383333333333333, |
| "grad_norm": 15.25, |
| "learning_rate": 1.3034731169975183e-05, |
| "loss": 0.051, |
| "step": 24830 |
| }, |
| { |
| "epoch": 0.414, |
| "grad_norm": 1.65625, |
| "learning_rate": 1.3029639860970418e-05, |
| "loss": 0.054, |
| "step": 24840 |
| }, |
| { |
| "epoch": 0.4141666666666667, |
| "grad_norm": 10.875, |
| "learning_rate": 1.3024547687125013e-05, |
| "loss": 0.0652, |
| "step": 24850 |
| }, |
| { |
| "epoch": 0.41433333333333333, |
| "grad_norm": 14.5625, |
| "learning_rate": 1.301945464989258e-05, |
| "loss": 0.0637, |
| "step": 24860 |
| }, |
| { |
| "epoch": 0.4145, |
| "grad_norm": 9.25, |
| "learning_rate": 1.3014360750726977e-05, |
| "loss": 0.0633, |
| "step": 24870 |
| }, |
| { |
| "epoch": 0.4146666666666667, |
| "grad_norm": 26.375, |
| "learning_rate": 1.300926599108231e-05, |
| "loss": 0.0659, |
| "step": 24880 |
| }, |
| { |
| "epoch": 0.41483333333333333, |
| "grad_norm": 4.15625, |
| "learning_rate": 1.3004170372412924e-05, |
| "loss": 0.0658, |
| "step": 24890 |
| }, |
| { |
| "epoch": 0.415, |
| "grad_norm": 4.3125, |
| "learning_rate": 1.2999073896173415e-05, |
| "loss": 0.0533, |
| "step": 24900 |
| }, |
| { |
| "epoch": 0.4151666666666667, |
| "grad_norm": 23.75, |
| "learning_rate": 1.2993976563818627e-05, |
| "loss": 0.0687, |
| "step": 24910 |
| }, |
| { |
| "epoch": 0.41533333333333333, |
| "grad_norm": 9.25, |
| "learning_rate": 1.2988878376803637e-05, |
| "loss": 0.0684, |
| "step": 24920 |
| }, |
| { |
| "epoch": 0.4155, |
| "grad_norm": 7.5, |
| "learning_rate": 1.298377933658378e-05, |
| "loss": 0.0648, |
| "step": 24930 |
| }, |
| { |
| "epoch": 0.4156666666666667, |
| "grad_norm": 2.46875, |
| "learning_rate": 1.2978679444614622e-05, |
| "loss": 0.067, |
| "step": 24940 |
| }, |
| { |
| "epoch": 0.41583333333333333, |
| "grad_norm": 2.90625, |
| "learning_rate": 1.2973578702351977e-05, |
| "loss": 0.0558, |
| "step": 24950 |
| }, |
| { |
| "epoch": 0.416, |
| "grad_norm": 5.15625, |
| "learning_rate": 1.2968477111251908e-05, |
| "loss": 0.0648, |
| "step": 24960 |
| }, |
| { |
| "epoch": 0.4161666666666667, |
| "grad_norm": 6.59375, |
| "learning_rate": 1.296337467277071e-05, |
| "loss": 0.0604, |
| "step": 24970 |
| }, |
| { |
| "epoch": 0.41633333333333333, |
| "grad_norm": 2.421875, |
| "learning_rate": 1.2958271388364926e-05, |
| "loss": 0.0546, |
| "step": 24980 |
| }, |
| { |
| "epoch": 0.4165, |
| "grad_norm": 18.5, |
| "learning_rate": 1.295316725949134e-05, |
| "loss": 0.0618, |
| "step": 24990 |
| }, |
| { |
| "epoch": 0.4166666666666667, |
| "grad_norm": 12.6875, |
| "learning_rate": 1.2948062287606971e-05, |
| "loss": 0.0646, |
| "step": 25000 |
| }, |
| { |
| "epoch": 0.41683333333333333, |
| "grad_norm": 6.125, |
| "learning_rate": 1.294295647416909e-05, |
| "loss": 0.0572, |
| "step": 25010 |
| }, |
| { |
| "epoch": 0.417, |
| "grad_norm": 3.859375, |
| "learning_rate": 1.2937849820635198e-05, |
| "loss": 0.0623, |
| "step": 25020 |
| }, |
| { |
| "epoch": 0.4171666666666667, |
| "grad_norm": 9.1875, |
| "learning_rate": 1.2932742328463042e-05, |
| "loss": 0.0615, |
| "step": 25030 |
| }, |
| { |
| "epoch": 0.41733333333333333, |
| "grad_norm": 8.1875, |
| "learning_rate": 1.2927633999110605e-05, |
| "loss": 0.0576, |
| "step": 25040 |
| }, |
| { |
| "epoch": 0.4175, |
| "grad_norm": 3.125, |
| "learning_rate": 1.292252483403611e-05, |
| "loss": 0.0616, |
| "step": 25050 |
| }, |
| { |
| "epoch": 0.4176666666666667, |
| "grad_norm": 4.375, |
| "learning_rate": 1.2917414834698017e-05, |
| "loss": 0.0606, |
| "step": 25060 |
| }, |
| { |
| "epoch": 0.41783333333333333, |
| "grad_norm": 2.5, |
| "learning_rate": 1.291230400255503e-05, |
| "loss": 0.0542, |
| "step": 25070 |
| }, |
| { |
| "epoch": 0.418, |
| "grad_norm": 19.875, |
| "learning_rate": 1.2907192339066086e-05, |
| "loss": 0.0699, |
| "step": 25080 |
| }, |
| { |
| "epoch": 0.4181666666666667, |
| "grad_norm": 22.375, |
| "learning_rate": 1.2902079845690353e-05, |
| "loss": 0.0504, |
| "step": 25090 |
| }, |
| { |
| "epoch": 0.41833333333333333, |
| "grad_norm": 8.3125, |
| "learning_rate": 1.2896966523887251e-05, |
| "loss": 0.0616, |
| "step": 25100 |
| }, |
| { |
| "epoch": 0.4185, |
| "grad_norm": 9.0625, |
| "learning_rate": 1.2891852375116425e-05, |
| "loss": 0.0567, |
| "step": 25110 |
| }, |
| { |
| "epoch": 0.4186666666666667, |
| "grad_norm": 3.171875, |
| "learning_rate": 1.2886737400837759e-05, |
| "loss": 0.0688, |
| "step": 25120 |
| }, |
| { |
| "epoch": 0.41883333333333334, |
| "grad_norm": 9.75, |
| "learning_rate": 1.2881621602511374e-05, |
| "loss": 0.0618, |
| "step": 25130 |
| }, |
| { |
| "epoch": 0.419, |
| "grad_norm": 10.9375, |
| "learning_rate": 1.2876504981597625e-05, |
| "loss": 0.0702, |
| "step": 25140 |
| }, |
| { |
| "epoch": 0.4191666666666667, |
| "grad_norm": 37.25, |
| "learning_rate": 1.2871387539557099e-05, |
| "loss": 0.0714, |
| "step": 25150 |
| }, |
| { |
| "epoch": 0.41933333333333334, |
| "grad_norm": 7.875, |
| "learning_rate": 1.2866269277850625e-05, |
| "loss": 0.0671, |
| "step": 25160 |
| }, |
| { |
| "epoch": 0.4195, |
| "grad_norm": 11.6875, |
| "learning_rate": 1.2861150197939258e-05, |
| "loss": 0.061, |
| "step": 25170 |
| }, |
| { |
| "epoch": 0.4196666666666667, |
| "grad_norm": 9.25, |
| "learning_rate": 1.2856030301284292e-05, |
| "loss": 0.0584, |
| "step": 25180 |
| }, |
| { |
| "epoch": 0.41983333333333334, |
| "grad_norm": 15.8125, |
| "learning_rate": 1.2850909589347251e-05, |
| "loss": 0.0616, |
| "step": 25190 |
| }, |
| { |
| "epoch": 0.42, |
| "grad_norm": 6.84375, |
| "learning_rate": 1.2845788063589894e-05, |
| "loss": 0.0626, |
| "step": 25200 |
| }, |
| { |
| "epoch": 0.4201666666666667, |
| "grad_norm": 12.6875, |
| "learning_rate": 1.2840665725474212e-05, |
| "loss": 0.0624, |
| "step": 25210 |
| }, |
| { |
| "epoch": 0.42033333333333334, |
| "grad_norm": 6.1875, |
| "learning_rate": 1.2835542576462424e-05, |
| "loss": 0.0588, |
| "step": 25220 |
| }, |
| { |
| "epoch": 0.4205, |
| "grad_norm": 4.40625, |
| "learning_rate": 1.2830418618016983e-05, |
| "loss": 0.056, |
| "step": 25230 |
| }, |
| { |
| "epoch": 0.4206666666666667, |
| "grad_norm": 8.75, |
| "learning_rate": 1.2825293851600576e-05, |
| "loss": 0.0635, |
| "step": 25240 |
| }, |
| { |
| "epoch": 0.42083333333333334, |
| "grad_norm": 12.5, |
| "learning_rate": 1.2820168278676119e-05, |
| "loss": 0.0625, |
| "step": 25250 |
| }, |
| { |
| "epoch": 0.421, |
| "grad_norm": 1.9609375, |
| "learning_rate": 1.2815041900706754e-05, |
| "loss": 0.0567, |
| "step": 25260 |
| }, |
| { |
| "epoch": 0.4211666666666667, |
| "grad_norm": 27.125, |
| "learning_rate": 1.2809914719155862e-05, |
| "loss": 0.0542, |
| "step": 25270 |
| }, |
| { |
| "epoch": 0.42133333333333334, |
| "grad_norm": 5.3125, |
| "learning_rate": 1.2804786735487041e-05, |
| "loss": 0.0646, |
| "step": 25280 |
| }, |
| { |
| "epoch": 0.4215, |
| "grad_norm": 23.375, |
| "learning_rate": 1.2799657951164128e-05, |
| "loss": 0.0562, |
| "step": 25290 |
| }, |
| { |
| "epoch": 0.4216666666666667, |
| "grad_norm": 19.0, |
| "learning_rate": 1.2794528367651187e-05, |
| "loss": 0.0584, |
| "step": 25300 |
| }, |
| { |
| "epoch": 0.42183333333333334, |
| "grad_norm": 16.875, |
| "learning_rate": 1.2789397986412507e-05, |
| "loss": 0.059, |
| "step": 25310 |
| }, |
| { |
| "epoch": 0.422, |
| "grad_norm": 1.90625, |
| "learning_rate": 1.27842668089126e-05, |
| "loss": 0.0605, |
| "step": 25320 |
| }, |
| { |
| "epoch": 0.4221666666666667, |
| "grad_norm": 32.75, |
| "learning_rate": 1.2779134836616218e-05, |
| "loss": 0.0557, |
| "step": 25330 |
| }, |
| { |
| "epoch": 0.42233333333333334, |
| "grad_norm": 26.875, |
| "learning_rate": 1.2774002070988334e-05, |
| "loss": 0.0653, |
| "step": 25340 |
| }, |
| { |
| "epoch": 0.4225, |
| "grad_norm": 3.03125, |
| "learning_rate": 1.2768868513494146e-05, |
| "loss": 0.0549, |
| "step": 25350 |
| }, |
| { |
| "epoch": 0.4226666666666667, |
| "grad_norm": 10.875, |
| "learning_rate": 1.2763734165599074e-05, |
| "loss": 0.0619, |
| "step": 25360 |
| }, |
| { |
| "epoch": 0.42283333333333334, |
| "grad_norm": 3.96875, |
| "learning_rate": 1.2758599028768772e-05, |
| "loss": 0.0603, |
| "step": 25370 |
| }, |
| { |
| "epoch": 0.423, |
| "grad_norm": 18.375, |
| "learning_rate": 1.2753463104469113e-05, |
| "loss": 0.0712, |
| "step": 25380 |
| }, |
| { |
| "epoch": 0.4231666666666667, |
| "grad_norm": 4.71875, |
| "learning_rate": 1.2748326394166202e-05, |
| "loss": 0.0559, |
| "step": 25390 |
| }, |
| { |
| "epoch": 0.42333333333333334, |
| "grad_norm": 27.875, |
| "learning_rate": 1.274318889932636e-05, |
| "loss": 0.0686, |
| "step": 25400 |
| }, |
| { |
| "epoch": 0.4235, |
| "grad_norm": 1.421875, |
| "learning_rate": 1.2738050621416138e-05, |
| "loss": 0.0604, |
| "step": 25410 |
| }, |
| { |
| "epoch": 0.4236666666666667, |
| "grad_norm": 31.75, |
| "learning_rate": 1.2732911561902306e-05, |
| "loss": 0.0714, |
| "step": 25420 |
| }, |
| { |
| "epoch": 0.42383333333333334, |
| "grad_norm": 2.21875, |
| "learning_rate": 1.2727771722251861e-05, |
| "loss": 0.0606, |
| "step": 25430 |
| }, |
| { |
| "epoch": 0.424, |
| "grad_norm": 6.40625, |
| "learning_rate": 1.2722631103932019e-05, |
| "loss": 0.0529, |
| "step": 25440 |
| }, |
| { |
| "epoch": 0.4241666666666667, |
| "grad_norm": 9.5625, |
| "learning_rate": 1.2717489708410222e-05, |
| "loss": 0.0504, |
| "step": 25450 |
| }, |
| { |
| "epoch": 0.42433333333333334, |
| "grad_norm": 5.5, |
| "learning_rate": 1.271234753715413e-05, |
| "loss": 0.0588, |
| "step": 25460 |
| }, |
| { |
| "epoch": 0.4245, |
| "grad_norm": 26.875, |
| "learning_rate": 1.2707204591631634e-05, |
| "loss": 0.0641, |
| "step": 25470 |
| }, |
| { |
| "epoch": 0.4246666666666667, |
| "grad_norm": 8.1875, |
| "learning_rate": 1.2702060873310829e-05, |
| "loss": 0.0647, |
| "step": 25480 |
| }, |
| { |
| "epoch": 0.42483333333333334, |
| "grad_norm": 8.3125, |
| "learning_rate": 1.2696916383660046e-05, |
| "loss": 0.0647, |
| "step": 25490 |
| }, |
| { |
| "epoch": 0.425, |
| "grad_norm": 2.25, |
| "learning_rate": 1.2691771124147825e-05, |
| "loss": 0.0565, |
| "step": 25500 |
| }, |
| { |
| "epoch": 0.4251666666666667, |
| "grad_norm": 5.5, |
| "learning_rate": 1.2686625096242938e-05, |
| "loss": 0.0641, |
| "step": 25510 |
| }, |
| { |
| "epoch": 0.42533333333333334, |
| "grad_norm": 27.875, |
| "learning_rate": 1.2681478301414366e-05, |
| "loss": 0.0586, |
| "step": 25520 |
| }, |
| { |
| "epoch": 0.4255, |
| "grad_norm": 1.84375, |
| "learning_rate": 1.2676330741131311e-05, |
| "loss": 0.0697, |
| "step": 25530 |
| }, |
| { |
| "epoch": 0.4256666666666667, |
| "grad_norm": 39.25, |
| "learning_rate": 1.26711824168632e-05, |
| "loss": 0.0629, |
| "step": 25540 |
| }, |
| { |
| "epoch": 0.42583333333333334, |
| "grad_norm": 44.0, |
| "learning_rate": 1.2666033330079665e-05, |
| "loss": 0.056, |
| "step": 25550 |
| }, |
| { |
| "epoch": 0.426, |
| "grad_norm": 3.609375, |
| "learning_rate": 1.266088348225057e-05, |
| "loss": 0.0565, |
| "step": 25560 |
| }, |
| { |
| "epoch": 0.4261666666666667, |
| "grad_norm": 9.8125, |
| "learning_rate": 1.2655732874845991e-05, |
| "loss": 0.0515, |
| "step": 25570 |
| }, |
| { |
| "epoch": 0.42633333333333334, |
| "grad_norm": 2.265625, |
| "learning_rate": 1.2650581509336217e-05, |
| "loss": 0.0551, |
| "step": 25580 |
| }, |
| { |
| "epoch": 0.4265, |
| "grad_norm": 35.5, |
| "learning_rate": 1.2645429387191754e-05, |
| "loss": 0.068, |
| "step": 25590 |
| }, |
| { |
| "epoch": 0.4266666666666667, |
| "grad_norm": 17.125, |
| "learning_rate": 1.2640276509883332e-05, |
| "loss": 0.0546, |
| "step": 25600 |
| }, |
| { |
| "epoch": 0.42683333333333334, |
| "grad_norm": 2.875, |
| "learning_rate": 1.2635122878881883e-05, |
| "loss": 0.0619, |
| "step": 25610 |
| }, |
| { |
| "epoch": 0.427, |
| "grad_norm": 7.65625, |
| "learning_rate": 1.2629968495658571e-05, |
| "loss": 0.0514, |
| "step": 25620 |
| }, |
| { |
| "epoch": 0.42716666666666664, |
| "grad_norm": 3.859375, |
| "learning_rate": 1.2624813361684756e-05, |
| "loss": 0.0651, |
| "step": 25630 |
| }, |
| { |
| "epoch": 0.42733333333333334, |
| "grad_norm": 5.4375, |
| "learning_rate": 1.261965747843203e-05, |
| "loss": 0.0589, |
| "step": 25640 |
| }, |
| { |
| "epoch": 0.4275, |
| "grad_norm": 4.875, |
| "learning_rate": 1.2614500847372188e-05, |
| "loss": 0.0571, |
| "step": 25650 |
| }, |
| { |
| "epoch": 0.42766666666666664, |
| "grad_norm": 8.75, |
| "learning_rate": 1.2609343469977238e-05, |
| "loss": 0.0634, |
| "step": 25660 |
| }, |
| { |
| "epoch": 0.42783333333333334, |
| "grad_norm": 19.125, |
| "learning_rate": 1.260418534771941e-05, |
| "loss": 0.0515, |
| "step": 25670 |
| }, |
| { |
| "epoch": 0.428, |
| "grad_norm": 1.7265625, |
| "learning_rate": 1.2599026482071136e-05, |
| "loss": 0.0462, |
| "step": 25680 |
| }, |
| { |
| "epoch": 0.42816666666666664, |
| "grad_norm": 12.875, |
| "learning_rate": 1.259386687450507e-05, |
| "loss": 0.0479, |
| "step": 25690 |
| }, |
| { |
| "epoch": 0.42833333333333334, |
| "grad_norm": 33.5, |
| "learning_rate": 1.258870652649407e-05, |
| "loss": 0.0642, |
| "step": 25700 |
| }, |
| { |
| "epoch": 0.4285, |
| "grad_norm": 5.90625, |
| "learning_rate": 1.2583545439511209e-05, |
| "loss": 0.0534, |
| "step": 25710 |
| }, |
| { |
| "epoch": 0.42866666666666664, |
| "grad_norm": 6.28125, |
| "learning_rate": 1.2578383615029767e-05, |
| "loss": 0.054, |
| "step": 25720 |
| }, |
| { |
| "epoch": 0.42883333333333334, |
| "grad_norm": 17.625, |
| "learning_rate": 1.257322105452324e-05, |
| "loss": 0.0666, |
| "step": 25730 |
| }, |
| { |
| "epoch": 0.429, |
| "grad_norm": 2.6875, |
| "learning_rate": 1.2568057759465338e-05, |
| "loss": 0.0674, |
| "step": 25740 |
| }, |
| { |
| "epoch": 0.42916666666666664, |
| "grad_norm": 9.5, |
| "learning_rate": 1.2562893731329968e-05, |
| "loss": 0.052, |
| "step": 25750 |
| }, |
| { |
| "epoch": 0.42933333333333334, |
| "grad_norm": 9.75, |
| "learning_rate": 1.2557728971591251e-05, |
| "loss": 0.0545, |
| "step": 25760 |
| }, |
| { |
| "epoch": 0.4295, |
| "grad_norm": 3.578125, |
| "learning_rate": 1.2552563481723527e-05, |
| "loss": 0.0623, |
| "step": 25770 |
| }, |
| { |
| "epoch": 0.42966666666666664, |
| "grad_norm": 4.3125, |
| "learning_rate": 1.2547397263201329e-05, |
| "loss": 0.0661, |
| "step": 25780 |
| }, |
| { |
| "epoch": 0.42983333333333335, |
| "grad_norm": 15.25, |
| "learning_rate": 1.2542230317499404e-05, |
| "loss": 0.0557, |
| "step": 25790 |
| }, |
| { |
| "epoch": 0.43, |
| "grad_norm": 2.515625, |
| "learning_rate": 1.2537062646092715e-05, |
| "loss": 0.0599, |
| "step": 25800 |
| }, |
| { |
| "epoch": 0.43016666666666664, |
| "grad_norm": 6.0, |
| "learning_rate": 1.253189425045642e-05, |
| "loss": 0.0629, |
| "step": 25810 |
| }, |
| { |
| "epoch": 0.43033333333333335, |
| "grad_norm": 3.90625, |
| "learning_rate": 1.2526725132065889e-05, |
| "loss": 0.0609, |
| "step": 25820 |
| }, |
| { |
| "epoch": 0.4305, |
| "grad_norm": 14.4375, |
| "learning_rate": 1.2521555292396696e-05, |
| "loss": 0.0649, |
| "step": 25830 |
| }, |
| { |
| "epoch": 0.43066666666666664, |
| "grad_norm": 5.75, |
| "learning_rate": 1.2516384732924626e-05, |
| "loss": 0.064, |
| "step": 25840 |
| }, |
| { |
| "epoch": 0.43083333333333335, |
| "grad_norm": 4.15625, |
| "learning_rate": 1.2511213455125668e-05, |
| "loss": 0.0624, |
| "step": 25850 |
| }, |
| { |
| "epoch": 0.431, |
| "grad_norm": 14.125, |
| "learning_rate": 1.250604146047601e-05, |
| "loss": 0.055, |
| "step": 25860 |
| }, |
| { |
| "epoch": 0.43116666666666664, |
| "grad_norm": 9.0625, |
| "learning_rate": 1.2500868750452053e-05, |
| "loss": 0.0548, |
| "step": 25870 |
| }, |
| { |
| "epoch": 0.43133333333333335, |
| "grad_norm": 20.5, |
| "learning_rate": 1.2495695326530394e-05, |
| "loss": 0.0528, |
| "step": 25880 |
| }, |
| { |
| "epoch": 0.4315, |
| "grad_norm": 7.3125, |
| "learning_rate": 1.249052119018784e-05, |
| "loss": 0.0687, |
| "step": 25890 |
| }, |
| { |
| "epoch": 0.43166666666666664, |
| "grad_norm": 9.0, |
| "learning_rate": 1.2485346342901398e-05, |
| "loss": 0.0796, |
| "step": 25900 |
| }, |
| { |
| "epoch": 0.43183333333333335, |
| "grad_norm": 17.25, |
| "learning_rate": 1.2480170786148284e-05, |
| "loss": 0.0444, |
| "step": 25910 |
| }, |
| { |
| "epoch": 0.432, |
| "grad_norm": 5.15625, |
| "learning_rate": 1.2474994521405908e-05, |
| "loss": 0.064, |
| "step": 25920 |
| }, |
| { |
| "epoch": 0.43216666666666664, |
| "grad_norm": 9.8125, |
| "learning_rate": 1.2469817550151884e-05, |
| "loss": 0.0543, |
| "step": 25930 |
| }, |
| { |
| "epoch": 0.43233333333333335, |
| "grad_norm": 5.03125, |
| "learning_rate": 1.2464639873864033e-05, |
| "loss": 0.0676, |
| "step": 25940 |
| }, |
| { |
| "epoch": 0.4325, |
| "grad_norm": 3.703125, |
| "learning_rate": 1.2459461494020372e-05, |
| "loss": 0.0546, |
| "step": 25950 |
| }, |
| { |
| "epoch": 0.43266666666666664, |
| "grad_norm": 10.625, |
| "learning_rate": 1.2454282412099121e-05, |
| "loss": 0.0569, |
| "step": 25960 |
| }, |
| { |
| "epoch": 0.43283333333333335, |
| "grad_norm": 8.5625, |
| "learning_rate": 1.2449102629578705e-05, |
| "loss": 0.0563, |
| "step": 25970 |
| }, |
| { |
| "epoch": 0.433, |
| "grad_norm": 6.4375, |
| "learning_rate": 1.2443922147937738e-05, |
| "loss": 0.0581, |
| "step": 25980 |
| }, |
| { |
| "epoch": 0.43316666666666664, |
| "grad_norm": 7.5, |
| "learning_rate": 1.2438740968655041e-05, |
| "loss": 0.0673, |
| "step": 25990 |
| }, |
| { |
| "epoch": 0.43333333333333335, |
| "grad_norm": 6.1875, |
| "learning_rate": 1.2433559093209628e-05, |
| "loss": 0.0608, |
| "step": 26000 |
| }, |
| { |
| "epoch": 0.4335, |
| "grad_norm": 4.75, |
| "learning_rate": 1.2428376523080728e-05, |
| "loss": 0.0683, |
| "step": 26010 |
| }, |
| { |
| "epoch": 0.43366666666666664, |
| "grad_norm": 15.8125, |
| "learning_rate": 1.242319325974775e-05, |
| "loss": 0.0657, |
| "step": 26020 |
| }, |
| { |
| "epoch": 0.43383333333333335, |
| "grad_norm": 35.25, |
| "learning_rate": 1.2418009304690308e-05, |
| "loss": 0.0555, |
| "step": 26030 |
| }, |
| { |
| "epoch": 0.434, |
| "grad_norm": 20.25, |
| "learning_rate": 1.2412824659388214e-05, |
| "loss": 0.05, |
| "step": 26040 |
| }, |
| { |
| "epoch": 0.43416666666666665, |
| "grad_norm": 5.78125, |
| "learning_rate": 1.2407639325321475e-05, |
| "loss": 0.058, |
| "step": 26050 |
| }, |
| { |
| "epoch": 0.43433333333333335, |
| "grad_norm": 59.75, |
| "learning_rate": 1.2402453303970294e-05, |
| "loss": 0.0583, |
| "step": 26060 |
| }, |
| { |
| "epoch": 0.4345, |
| "grad_norm": 11.625, |
| "learning_rate": 1.239726659681508e-05, |
| "loss": 0.0579, |
| "step": 26070 |
| }, |
| { |
| "epoch": 0.43466666666666665, |
| "grad_norm": 30.25, |
| "learning_rate": 1.2392079205336423e-05, |
| "loss": 0.0624, |
| "step": 26080 |
| }, |
| { |
| "epoch": 0.43483333333333335, |
| "grad_norm": 3.40625, |
| "learning_rate": 1.2386891131015118e-05, |
| "loss": 0.0574, |
| "step": 26090 |
| }, |
| { |
| "epoch": 0.435, |
| "grad_norm": 2.703125, |
| "learning_rate": 1.2381702375332148e-05, |
| "loss": 0.0597, |
| "step": 26100 |
| }, |
| { |
| "epoch": 0.43516666666666665, |
| "grad_norm": 20.5, |
| "learning_rate": 1.2376512939768696e-05, |
| "loss": 0.064, |
| "step": 26110 |
| }, |
| { |
| "epoch": 0.43533333333333335, |
| "grad_norm": 12.75, |
| "learning_rate": 1.2371322825806144e-05, |
| "loss": 0.0646, |
| "step": 26120 |
| }, |
| { |
| "epoch": 0.4355, |
| "grad_norm": 20.75, |
| "learning_rate": 1.2366132034926053e-05, |
| "loss": 0.0573, |
| "step": 26130 |
| }, |
| { |
| "epoch": 0.43566666666666665, |
| "grad_norm": 7.09375, |
| "learning_rate": 1.2360940568610192e-05, |
| "loss": 0.0568, |
| "step": 26140 |
| }, |
| { |
| "epoch": 0.43583333333333335, |
| "grad_norm": 2.984375, |
| "learning_rate": 1.2355748428340513e-05, |
| "loss": 0.0662, |
| "step": 26150 |
| }, |
| { |
| "epoch": 0.436, |
| "grad_norm": 22.625, |
| "learning_rate": 1.235055561559916e-05, |
| "loss": 0.0712, |
| "step": 26160 |
| }, |
| { |
| "epoch": 0.43616666666666665, |
| "grad_norm": 27.875, |
| "learning_rate": 1.234536213186848e-05, |
| "loss": 0.0491, |
| "step": 26170 |
| }, |
| { |
| "epoch": 0.43633333333333335, |
| "grad_norm": 2.328125, |
| "learning_rate": 1.2340167978631002e-05, |
| "loss": 0.0613, |
| "step": 26180 |
| }, |
| { |
| "epoch": 0.4365, |
| "grad_norm": 7.40625, |
| "learning_rate": 1.2334973157369446e-05, |
| "loss": 0.0817, |
| "step": 26190 |
| }, |
| { |
| "epoch": 0.43666666666666665, |
| "grad_norm": 9.3125, |
| "learning_rate": 1.2329777669566725e-05, |
| "loss": 0.0542, |
| "step": 26200 |
| }, |
| { |
| "epoch": 0.43683333333333335, |
| "grad_norm": 5.90625, |
| "learning_rate": 1.2324581516705946e-05, |
| "loss": 0.0565, |
| "step": 26210 |
| }, |
| { |
| "epoch": 0.437, |
| "grad_norm": 9.5, |
| "learning_rate": 1.23193847002704e-05, |
| "loss": 0.054, |
| "step": 26220 |
| }, |
| { |
| "epoch": 0.43716666666666665, |
| "grad_norm": 5.78125, |
| "learning_rate": 1.2314187221743567e-05, |
| "loss": 0.0609, |
| "step": 26230 |
| }, |
| { |
| "epoch": 0.43733333333333335, |
| "grad_norm": 15.375, |
| "learning_rate": 1.2308989082609124e-05, |
| "loss": 0.056, |
| "step": 26240 |
| }, |
| { |
| "epoch": 0.4375, |
| "grad_norm": 5.03125, |
| "learning_rate": 1.2303790284350929e-05, |
| "loss": 0.0687, |
| "step": 26250 |
| }, |
| { |
| "epoch": 0.43766666666666665, |
| "grad_norm": 6.5625, |
| "learning_rate": 1.229859082845303e-05, |
| "loss": 0.0584, |
| "step": 26260 |
| }, |
| { |
| "epoch": 0.43783333333333335, |
| "grad_norm": 21.0, |
| "learning_rate": 1.229339071639966e-05, |
| "loss": 0.054, |
| "step": 26270 |
| }, |
| { |
| "epoch": 0.438, |
| "grad_norm": 5.96875, |
| "learning_rate": 1.2288189949675246e-05, |
| "loss": 0.0611, |
| "step": 26280 |
| }, |
| { |
| "epoch": 0.43816666666666665, |
| "grad_norm": 4.15625, |
| "learning_rate": 1.22829885297644e-05, |
| "loss": 0.0628, |
| "step": 26290 |
| }, |
| { |
| "epoch": 0.43833333333333335, |
| "grad_norm": 1.7734375, |
| "learning_rate": 1.2277786458151915e-05, |
| "loss": 0.0622, |
| "step": 26300 |
| }, |
| { |
| "epoch": 0.4385, |
| "grad_norm": 11.5625, |
| "learning_rate": 1.2272583736322773e-05, |
| "loss": 0.0752, |
| "step": 26310 |
| }, |
| { |
| "epoch": 0.43866666666666665, |
| "grad_norm": 3.78125, |
| "learning_rate": 1.2267380365762148e-05, |
| "loss": 0.0661, |
| "step": 26320 |
| }, |
| { |
| "epoch": 0.43883333333333335, |
| "grad_norm": 11.9375, |
| "learning_rate": 1.2262176347955385e-05, |
| "loss": 0.0539, |
| "step": 26330 |
| }, |
| { |
| "epoch": 0.439, |
| "grad_norm": 2.765625, |
| "learning_rate": 1.225697168438803e-05, |
| "loss": 0.0618, |
| "step": 26340 |
| }, |
| { |
| "epoch": 0.43916666666666665, |
| "grad_norm": 8.375, |
| "learning_rate": 1.2251766376545804e-05, |
| "loss": 0.0571, |
| "step": 26350 |
| }, |
| { |
| "epoch": 0.43933333333333335, |
| "grad_norm": 1.75, |
| "learning_rate": 1.2246560425914613e-05, |
| "loss": 0.0617, |
| "step": 26360 |
| }, |
| { |
| "epoch": 0.4395, |
| "grad_norm": 16.75, |
| "learning_rate": 1.2241353833980543e-05, |
| "loss": 0.0535, |
| "step": 26370 |
| }, |
| { |
| "epoch": 0.43966666666666665, |
| "grad_norm": 3.609375, |
| "learning_rate": 1.2236146602229875e-05, |
| "loss": 0.0668, |
| "step": 26380 |
| }, |
| { |
| "epoch": 0.43983333333333335, |
| "grad_norm": 7.0, |
| "learning_rate": 1.2230938732149056e-05, |
| "loss": 0.0679, |
| "step": 26390 |
| }, |
| { |
| "epoch": 0.44, |
| "grad_norm": 17.125, |
| "learning_rate": 1.2225730225224728e-05, |
| "loss": 0.0517, |
| "step": 26400 |
| }, |
| { |
| "epoch": 0.44016666666666665, |
| "grad_norm": 28.375, |
| "learning_rate": 1.2220521082943714e-05, |
| "loss": 0.0597, |
| "step": 26410 |
| }, |
| { |
| "epoch": 0.44033333333333335, |
| "grad_norm": 61.25, |
| "learning_rate": 1.2215311306793014e-05, |
| "loss": 0.0655, |
| "step": 26420 |
| }, |
| { |
| "epoch": 0.4405, |
| "grad_norm": 18.0, |
| "learning_rate": 1.2210100898259806e-05, |
| "loss": 0.067, |
| "step": 26430 |
| }, |
| { |
| "epoch": 0.44066666666666665, |
| "grad_norm": 13.0, |
| "learning_rate": 1.2204889858831454e-05, |
| "loss": 0.0605, |
| "step": 26440 |
| }, |
| { |
| "epoch": 0.44083333333333335, |
| "grad_norm": 3.21875, |
| "learning_rate": 1.2199678189995502e-05, |
| "loss": 0.0522, |
| "step": 26450 |
| }, |
| { |
| "epoch": 0.441, |
| "grad_norm": 14.4375, |
| "learning_rate": 1.2194465893239673e-05, |
| "loss": 0.0597, |
| "step": 26460 |
| }, |
| { |
| "epoch": 0.44116666666666665, |
| "grad_norm": 10.125, |
| "learning_rate": 1.2189252970051866e-05, |
| "loss": 0.0501, |
| "step": 26470 |
| }, |
| { |
| "epoch": 0.44133333333333336, |
| "grad_norm": 16.625, |
| "learning_rate": 1.2184039421920164e-05, |
| "loss": 0.0562, |
| "step": 26480 |
| }, |
| { |
| "epoch": 0.4415, |
| "grad_norm": 27.25, |
| "learning_rate": 1.2178825250332826e-05, |
| "loss": 0.0621, |
| "step": 26490 |
| }, |
| { |
| "epoch": 0.44166666666666665, |
| "grad_norm": 2.1875, |
| "learning_rate": 1.2173610456778286e-05, |
| "loss": 0.0617, |
| "step": 26500 |
| }, |
| { |
| "epoch": 0.44183333333333336, |
| "grad_norm": 3.375, |
| "learning_rate": 1.2168395042745162e-05, |
| "loss": 0.0594, |
| "step": 26510 |
| }, |
| { |
| "epoch": 0.442, |
| "grad_norm": 41.0, |
| "learning_rate": 1.2163179009722244e-05, |
| "loss": 0.0563, |
| "step": 26520 |
| }, |
| { |
| "epoch": 0.44216666666666665, |
| "grad_norm": 2.3125, |
| "learning_rate": 1.2157962359198498e-05, |
| "loss": 0.0581, |
| "step": 26530 |
| }, |
| { |
| "epoch": 0.44233333333333336, |
| "grad_norm": 3.0625, |
| "learning_rate": 1.215274509266307e-05, |
| "loss": 0.0659, |
| "step": 26540 |
| }, |
| { |
| "epoch": 0.4425, |
| "grad_norm": 5.90625, |
| "learning_rate": 1.214752721160528e-05, |
| "loss": 0.0623, |
| "step": 26550 |
| }, |
| { |
| "epoch": 0.44266666666666665, |
| "grad_norm": 16.5, |
| "learning_rate": 1.2142308717514626e-05, |
| "loss": 0.0597, |
| "step": 26560 |
| }, |
| { |
| "epoch": 0.44283333333333336, |
| "grad_norm": 2.328125, |
| "learning_rate": 1.2137089611880774e-05, |
| "loss": 0.0688, |
| "step": 26570 |
| }, |
| { |
| "epoch": 0.443, |
| "grad_norm": 2.71875, |
| "learning_rate": 1.2131869896193577e-05, |
| "loss": 0.065, |
| "step": 26580 |
| }, |
| { |
| "epoch": 0.44316666666666665, |
| "grad_norm": 5.5, |
| "learning_rate": 1.2126649571943047e-05, |
| "loss": 0.0629, |
| "step": 26590 |
| }, |
| { |
| "epoch": 0.44333333333333336, |
| "grad_norm": 20.5, |
| "learning_rate": 1.2121428640619379e-05, |
| "loss": 0.0546, |
| "step": 26600 |
| }, |
| { |
| "epoch": 0.4435, |
| "grad_norm": 10.3125, |
| "learning_rate": 1.2116207103712942e-05, |
| "loss": 0.0614, |
| "step": 26610 |
| }, |
| { |
| "epoch": 0.44366666666666665, |
| "grad_norm": 3.390625, |
| "learning_rate": 1.2110984962714272e-05, |
| "loss": 0.0648, |
| "step": 26620 |
| }, |
| { |
| "epoch": 0.44383333333333336, |
| "grad_norm": 5.71875, |
| "learning_rate": 1.2105762219114084e-05, |
| "loss": 0.0649, |
| "step": 26630 |
| }, |
| { |
| "epoch": 0.444, |
| "grad_norm": 5.125, |
| "learning_rate": 1.2100538874403258e-05, |
| "loss": 0.0515, |
| "step": 26640 |
| }, |
| { |
| "epoch": 0.44416666666666665, |
| "grad_norm": 8.6875, |
| "learning_rate": 1.2095314930072855e-05, |
| "loss": 0.0704, |
| "step": 26650 |
| }, |
| { |
| "epoch": 0.44433333333333336, |
| "grad_norm": 40.0, |
| "learning_rate": 1.2090090387614095e-05, |
| "loss": 0.0646, |
| "step": 26660 |
| }, |
| { |
| "epoch": 0.4445, |
| "grad_norm": 13.5625, |
| "learning_rate": 1.2084865248518375e-05, |
| "loss": 0.0508, |
| "step": 26670 |
| }, |
| { |
| "epoch": 0.44466666666666665, |
| "grad_norm": 6.25, |
| "learning_rate": 1.207963951427727e-05, |
| "loss": 0.0537, |
| "step": 26680 |
| }, |
| { |
| "epoch": 0.44483333333333336, |
| "grad_norm": 2.171875, |
| "learning_rate": 1.2074413186382513e-05, |
| "loss": 0.0442, |
| "step": 26690 |
| }, |
| { |
| "epoch": 0.445, |
| "grad_norm": 42.75, |
| "learning_rate": 1.2069186266326013e-05, |
| "loss": 0.0645, |
| "step": 26700 |
| }, |
| { |
| "epoch": 0.44516666666666665, |
| "grad_norm": 40.75, |
| "learning_rate": 1.2063958755599842e-05, |
| "loss": 0.0633, |
| "step": 26710 |
| }, |
| { |
| "epoch": 0.44533333333333336, |
| "grad_norm": 15.375, |
| "learning_rate": 1.2058730655696245e-05, |
| "loss": 0.0631, |
| "step": 26720 |
| }, |
| { |
| "epoch": 0.4455, |
| "grad_norm": 8.8125, |
| "learning_rate": 1.2053501968107642e-05, |
| "loss": 0.0668, |
| "step": 26730 |
| }, |
| { |
| "epoch": 0.44566666666666666, |
| "grad_norm": 16.5, |
| "learning_rate": 1.2048272694326601e-05, |
| "loss": 0.0629, |
| "step": 26740 |
| }, |
| { |
| "epoch": 0.44583333333333336, |
| "grad_norm": 11.375, |
| "learning_rate": 1.2043042835845885e-05, |
| "loss": 0.0476, |
| "step": 26750 |
| }, |
| { |
| "epoch": 0.446, |
| "grad_norm": 11.1875, |
| "learning_rate": 1.2037812394158396e-05, |
| "loss": 0.0535, |
| "step": 26760 |
| }, |
| { |
| "epoch": 0.44616666666666666, |
| "grad_norm": 17.625, |
| "learning_rate": 1.2032581370757221e-05, |
| "loss": 0.0644, |
| "step": 26770 |
| }, |
| { |
| "epoch": 0.44633333333333336, |
| "grad_norm": 2.53125, |
| "learning_rate": 1.2027349767135606e-05, |
| "loss": 0.0617, |
| "step": 26780 |
| }, |
| { |
| "epoch": 0.4465, |
| "grad_norm": 6.75, |
| "learning_rate": 1.2022117584786965e-05, |
| "loss": 0.0607, |
| "step": 26790 |
| }, |
| { |
| "epoch": 0.44666666666666666, |
| "grad_norm": 7.75, |
| "learning_rate": 1.2016884825204876e-05, |
| "loss": 0.061, |
| "step": 26800 |
| }, |
| { |
| "epoch": 0.44683333333333336, |
| "grad_norm": 4.125, |
| "learning_rate": 1.201165148988308e-05, |
| "loss": 0.0662, |
| "step": 26810 |
| }, |
| { |
| "epoch": 0.447, |
| "grad_norm": 5.9375, |
| "learning_rate": 1.2006417580315488e-05, |
| "loss": 0.0648, |
| "step": 26820 |
| }, |
| { |
| "epoch": 0.44716666666666666, |
| "grad_norm": 11.1875, |
| "learning_rate": 1.2001183097996167e-05, |
| "loss": 0.0551, |
| "step": 26830 |
| }, |
| { |
| "epoch": 0.44733333333333336, |
| "grad_norm": 11.3125, |
| "learning_rate": 1.1995948044419352e-05, |
| "loss": 0.0533, |
| "step": 26840 |
| }, |
| { |
| "epoch": 0.4475, |
| "grad_norm": 1.625, |
| "learning_rate": 1.1990712421079446e-05, |
| "loss": 0.0576, |
| "step": 26850 |
| }, |
| { |
| "epoch": 0.44766666666666666, |
| "grad_norm": 9.8125, |
| "learning_rate": 1.1985476229471007e-05, |
| "loss": 0.0606, |
| "step": 26860 |
| }, |
| { |
| "epoch": 0.44783333333333336, |
| "grad_norm": 3.921875, |
| "learning_rate": 1.1980239471088752e-05, |
| "loss": 0.076, |
| "step": 26870 |
| }, |
| { |
| "epoch": 0.448, |
| "grad_norm": 3.375, |
| "learning_rate": 1.1975002147427575e-05, |
| "loss": 0.06, |
| "step": 26880 |
| }, |
| { |
| "epoch": 0.44816666666666666, |
| "grad_norm": 11.8125, |
| "learning_rate": 1.1969764259982513e-05, |
| "loss": 0.0644, |
| "step": 26890 |
| }, |
| { |
| "epoch": 0.4483333333333333, |
| "grad_norm": 2.71875, |
| "learning_rate": 1.196452581024878e-05, |
| "loss": 0.0731, |
| "step": 26900 |
| }, |
| { |
| "epoch": 0.4485, |
| "grad_norm": 9.875, |
| "learning_rate": 1.1959286799721735e-05, |
| "loss": 0.0612, |
| "step": 26910 |
| }, |
| { |
| "epoch": 0.44866666666666666, |
| "grad_norm": 21.625, |
| "learning_rate": 1.1954047229896912e-05, |
| "loss": 0.057, |
| "step": 26920 |
| }, |
| { |
| "epoch": 0.4488333333333333, |
| "grad_norm": 6.71875, |
| "learning_rate": 1.194880710227e-05, |
| "loss": 0.0543, |
| "step": 26930 |
| }, |
| { |
| "epoch": 0.449, |
| "grad_norm": 3.046875, |
| "learning_rate": 1.1943566418336836e-05, |
| "loss": 0.0685, |
| "step": 26940 |
| }, |
| { |
| "epoch": 0.44916666666666666, |
| "grad_norm": 2.09375, |
| "learning_rate": 1.193832517959343e-05, |
| "loss": 0.0517, |
| "step": 26950 |
| }, |
| { |
| "epoch": 0.4493333333333333, |
| "grad_norm": 2.515625, |
| "learning_rate": 1.193308338753595e-05, |
| "loss": 0.0499, |
| "step": 26960 |
| }, |
| { |
| "epoch": 0.4495, |
| "grad_norm": 3.21875, |
| "learning_rate": 1.1927841043660711e-05, |
| "loss": 0.0599, |
| "step": 26970 |
| }, |
| { |
| "epoch": 0.44966666666666666, |
| "grad_norm": 23.75, |
| "learning_rate": 1.1922598149464193e-05, |
| "loss": 0.0616, |
| "step": 26980 |
| }, |
| { |
| "epoch": 0.4498333333333333, |
| "grad_norm": 21.125, |
| "learning_rate": 1.1917354706443037e-05, |
| "loss": 0.0578, |
| "step": 26990 |
| }, |
| { |
| "epoch": 0.45, |
| "grad_norm": 2.140625, |
| "learning_rate": 1.1912110716094025e-05, |
| "loss": 0.0637, |
| "step": 27000 |
| }, |
| { |
| "epoch": 0.45016666666666666, |
| "grad_norm": 3.921875, |
| "learning_rate": 1.1906866179914116e-05, |
| "loss": 0.0397, |
| "step": 27010 |
| }, |
| { |
| "epoch": 0.4503333333333333, |
| "grad_norm": 2.53125, |
| "learning_rate": 1.1901621099400411e-05, |
| "loss": 0.0578, |
| "step": 27020 |
| }, |
| { |
| "epoch": 0.4505, |
| "grad_norm": 19.125, |
| "learning_rate": 1.189637547605017e-05, |
| "loss": 0.0551, |
| "step": 27030 |
| }, |
| { |
| "epoch": 0.45066666666666666, |
| "grad_norm": 36.75, |
| "learning_rate": 1.189112931136081e-05, |
| "loss": 0.0559, |
| "step": 27040 |
| }, |
| { |
| "epoch": 0.4508333333333333, |
| "grad_norm": 12.5625, |
| "learning_rate": 1.1885882606829897e-05, |
| "loss": 0.0616, |
| "step": 27050 |
| }, |
| { |
| "epoch": 0.451, |
| "grad_norm": 1.3515625, |
| "learning_rate": 1.1880635363955155e-05, |
| "loss": 0.0578, |
| "step": 27060 |
| }, |
| { |
| "epoch": 0.45116666666666666, |
| "grad_norm": 5.21875, |
| "learning_rate": 1.1875387584234463e-05, |
| "loss": 0.0632, |
| "step": 27070 |
| }, |
| { |
| "epoch": 0.4513333333333333, |
| "grad_norm": 4.5, |
| "learning_rate": 1.1870139269165853e-05, |
| "loss": 0.0725, |
| "step": 27080 |
| }, |
| { |
| "epoch": 0.4515, |
| "grad_norm": 17.0, |
| "learning_rate": 1.1864890420247506e-05, |
| "loss": 0.0703, |
| "step": 27090 |
| }, |
| { |
| "epoch": 0.45166666666666666, |
| "grad_norm": 3.078125, |
| "learning_rate": 1.185964103897776e-05, |
| "loss": 0.0559, |
| "step": 27100 |
| }, |
| { |
| "epoch": 0.4518333333333333, |
| "grad_norm": 9.9375, |
| "learning_rate": 1.1854391126855098e-05, |
| "loss": 0.0523, |
| "step": 27110 |
| }, |
| { |
| "epoch": 0.452, |
| "grad_norm": 13.375, |
| "learning_rate": 1.1849140685378164e-05, |
| "loss": 0.0608, |
| "step": 27120 |
| }, |
| { |
| "epoch": 0.45216666666666666, |
| "grad_norm": 9.4375, |
| "learning_rate": 1.184388971604575e-05, |
| "loss": 0.0769, |
| "step": 27130 |
| }, |
| { |
| "epoch": 0.4523333333333333, |
| "grad_norm": 1.28125, |
| "learning_rate": 1.1838638220356788e-05, |
| "loss": 0.0571, |
| "step": 27140 |
| }, |
| { |
| "epoch": 0.4525, |
| "grad_norm": 3.28125, |
| "learning_rate": 1.1833386199810379e-05, |
| "loss": 0.0598, |
| "step": 27150 |
| }, |
| { |
| "epoch": 0.45266666666666666, |
| "grad_norm": 15.75, |
| "learning_rate": 1.1828133655905763e-05, |
| "loss": 0.0594, |
| "step": 27160 |
| }, |
| { |
| "epoch": 0.4528333333333333, |
| "grad_norm": 6.0, |
| "learning_rate": 1.1822880590142325e-05, |
| "loss": 0.0584, |
| "step": 27170 |
| }, |
| { |
| "epoch": 0.453, |
| "grad_norm": 9.6875, |
| "learning_rate": 1.1817627004019606e-05, |
| "loss": 0.0665, |
| "step": 27180 |
| }, |
| { |
| "epoch": 0.45316666666666666, |
| "grad_norm": 17.5, |
| "learning_rate": 1.1812372899037298e-05, |
| "loss": 0.0612, |
| "step": 27190 |
| }, |
| { |
| "epoch": 0.4533333333333333, |
| "grad_norm": 3.53125, |
| "learning_rate": 1.1807118276695237e-05, |
| "loss": 0.0659, |
| "step": 27200 |
| }, |
| { |
| "epoch": 0.4535, |
| "grad_norm": 38.25, |
| "learning_rate": 1.18018631384934e-05, |
| "loss": 0.0639, |
| "step": 27210 |
| }, |
| { |
| "epoch": 0.45366666666666666, |
| "grad_norm": 26.5, |
| "learning_rate": 1.1796607485931928e-05, |
| "loss": 0.0531, |
| "step": 27220 |
| }, |
| { |
| "epoch": 0.4538333333333333, |
| "grad_norm": 2.53125, |
| "learning_rate": 1.179135132051109e-05, |
| "loss": 0.0591, |
| "step": 27230 |
| }, |
| { |
| "epoch": 0.454, |
| "grad_norm": 3.671875, |
| "learning_rate": 1.1786094643731314e-05, |
| "loss": 0.068, |
| "step": 27240 |
| }, |
| { |
| "epoch": 0.45416666666666666, |
| "grad_norm": 16.125, |
| "learning_rate": 1.1780837457093175e-05, |
| "loss": 0.0732, |
| "step": 27250 |
| }, |
| { |
| "epoch": 0.4543333333333333, |
| "grad_norm": 2.359375, |
| "learning_rate": 1.1775579762097383e-05, |
| "loss": 0.0749, |
| "step": 27260 |
| }, |
| { |
| "epoch": 0.4545, |
| "grad_norm": 14.4375, |
| "learning_rate": 1.17703215602448e-05, |
| "loss": 0.0548, |
| "step": 27270 |
| }, |
| { |
| "epoch": 0.45466666666666666, |
| "grad_norm": 28.75, |
| "learning_rate": 1.176506285303643e-05, |
| "loss": 0.0514, |
| "step": 27280 |
| }, |
| { |
| "epoch": 0.4548333333333333, |
| "grad_norm": 14.1875, |
| "learning_rate": 1.1759803641973427e-05, |
| "loss": 0.0648, |
| "step": 27290 |
| }, |
| { |
| "epoch": 0.455, |
| "grad_norm": 10.8125, |
| "learning_rate": 1.1754543928557083e-05, |
| "loss": 0.0607, |
| "step": 27300 |
| }, |
| { |
| "epoch": 0.45516666666666666, |
| "grad_norm": 4.53125, |
| "learning_rate": 1.1749283714288833e-05, |
| "loss": 0.0598, |
| "step": 27310 |
| }, |
| { |
| "epoch": 0.4553333333333333, |
| "grad_norm": 2.28125, |
| "learning_rate": 1.1744023000670262e-05, |
| "loss": 0.0596, |
| "step": 27320 |
| }, |
| { |
| "epoch": 0.4555, |
| "grad_norm": 23.25, |
| "learning_rate": 1.1738761789203091e-05, |
| "loss": 0.0554, |
| "step": 27330 |
| }, |
| { |
| "epoch": 0.45566666666666666, |
| "grad_norm": 5.03125, |
| "learning_rate": 1.173350008138918e-05, |
| "loss": 0.0699, |
| "step": 27340 |
| }, |
| { |
| "epoch": 0.4558333333333333, |
| "grad_norm": 13.875, |
| "learning_rate": 1.172823787873054e-05, |
| "loss": 0.0584, |
| "step": 27350 |
| }, |
| { |
| "epoch": 0.456, |
| "grad_norm": 7.8125, |
| "learning_rate": 1.172297518272932e-05, |
| "loss": 0.0616, |
| "step": 27360 |
| }, |
| { |
| "epoch": 0.45616666666666666, |
| "grad_norm": 3.515625, |
| "learning_rate": 1.1717711994887803e-05, |
| "loss": 0.0706, |
| "step": 27370 |
| }, |
| { |
| "epoch": 0.4563333333333333, |
| "grad_norm": 8.6875, |
| "learning_rate": 1.1712448316708424e-05, |
| "loss": 0.0517, |
| "step": 27380 |
| }, |
| { |
| "epoch": 0.4565, |
| "grad_norm": 10.0625, |
| "learning_rate": 1.1707184149693749e-05, |
| "loss": 0.0544, |
| "step": 27390 |
| }, |
| { |
| "epoch": 0.45666666666666667, |
| "grad_norm": 16.125, |
| "learning_rate": 1.1701919495346488e-05, |
| "loss": 0.0572, |
| "step": 27400 |
| }, |
| { |
| "epoch": 0.4568333333333333, |
| "grad_norm": 2.359375, |
| "learning_rate": 1.1696654355169485e-05, |
| "loss": 0.0558, |
| "step": 27410 |
| }, |
| { |
| "epoch": 0.457, |
| "grad_norm": 24.0, |
| "learning_rate": 1.1691388730665731e-05, |
| "loss": 0.065, |
| "step": 27420 |
| }, |
| { |
| "epoch": 0.45716666666666667, |
| "grad_norm": 6.90625, |
| "learning_rate": 1.168612262333835e-05, |
| "loss": 0.0669, |
| "step": 27430 |
| }, |
| { |
| "epoch": 0.4573333333333333, |
| "grad_norm": 2.078125, |
| "learning_rate": 1.16808560346906e-05, |
| "loss": 0.0671, |
| "step": 27440 |
| }, |
| { |
| "epoch": 0.4575, |
| "grad_norm": 15.375, |
| "learning_rate": 1.1675588966225883e-05, |
| "loss": 0.056, |
| "step": 27450 |
| }, |
| { |
| "epoch": 0.45766666666666667, |
| "grad_norm": 3.84375, |
| "learning_rate": 1.167032141944774e-05, |
| "loss": 0.0555, |
| "step": 27460 |
| }, |
| { |
| "epoch": 0.4578333333333333, |
| "grad_norm": 6.15625, |
| "learning_rate": 1.166505339585984e-05, |
| "loss": 0.0605, |
| "step": 27470 |
| }, |
| { |
| "epoch": 0.458, |
| "grad_norm": 13.0625, |
| "learning_rate": 1.165978489696599e-05, |
| "loss": 0.0641, |
| "step": 27480 |
| }, |
| { |
| "epoch": 0.45816666666666667, |
| "grad_norm": 18.0, |
| "learning_rate": 1.165451592427014e-05, |
| "loss": 0.0522, |
| "step": 27490 |
| }, |
| { |
| "epoch": 0.4583333333333333, |
| "grad_norm": 5.625, |
| "learning_rate": 1.1649246479276369e-05, |
| "loss": 0.0538, |
| "step": 27500 |
| }, |
| { |
| "epoch": 0.4585, |
| "grad_norm": 4.09375, |
| "learning_rate": 1.1643976563488888e-05, |
| "loss": 0.0554, |
| "step": 27510 |
| }, |
| { |
| "epoch": 0.45866666666666667, |
| "grad_norm": 3.21875, |
| "learning_rate": 1.1638706178412053e-05, |
| "loss": 0.0648, |
| "step": 27520 |
| }, |
| { |
| "epoch": 0.4588333333333333, |
| "grad_norm": 4.25, |
| "learning_rate": 1.1633435325550346e-05, |
| "loss": 0.06, |
| "step": 27530 |
| }, |
| { |
| "epoch": 0.459, |
| "grad_norm": 10.5625, |
| "learning_rate": 1.1628164006408382e-05, |
| "loss": 0.054, |
| "step": 27540 |
| }, |
| { |
| "epoch": 0.45916666666666667, |
| "grad_norm": 10.3125, |
| "learning_rate": 1.1622892222490912e-05, |
| "loss": 0.051, |
| "step": 27550 |
| }, |
| { |
| "epoch": 0.4593333333333333, |
| "grad_norm": 28.75, |
| "learning_rate": 1.1617619975302816e-05, |
| "loss": 0.0502, |
| "step": 27560 |
| }, |
| { |
| "epoch": 0.4595, |
| "grad_norm": 22.25, |
| "learning_rate": 1.1612347266349113e-05, |
| "loss": 0.0618, |
| "step": 27570 |
| }, |
| { |
| "epoch": 0.45966666666666667, |
| "grad_norm": 1.6796875, |
| "learning_rate": 1.160707409713495e-05, |
| "loss": 0.0648, |
| "step": 27580 |
| }, |
| { |
| "epoch": 0.4598333333333333, |
| "grad_norm": 2.34375, |
| "learning_rate": 1.1601800469165603e-05, |
| "loss": 0.0578, |
| "step": 27590 |
| }, |
| { |
| "epoch": 0.46, |
| "grad_norm": 24.75, |
| "learning_rate": 1.1596526383946482e-05, |
| "loss": 0.061, |
| "step": 27600 |
| }, |
| { |
| "epoch": 0.46016666666666667, |
| "grad_norm": 9.625, |
| "learning_rate": 1.1591251842983126e-05, |
| "loss": 0.0537, |
| "step": 27610 |
| }, |
| { |
| "epoch": 0.4603333333333333, |
| "grad_norm": 27.25, |
| "learning_rate": 1.1585976847781204e-05, |
| "loss": 0.0512, |
| "step": 27620 |
| }, |
| { |
| "epoch": 0.4605, |
| "grad_norm": 16.125, |
| "learning_rate": 1.1580701399846521e-05, |
| "loss": 0.069, |
| "step": 27630 |
| }, |
| { |
| "epoch": 0.46066666666666667, |
| "grad_norm": 21.125, |
| "learning_rate": 1.1575425500685003e-05, |
| "loss": 0.053, |
| "step": 27640 |
| }, |
| { |
| "epoch": 0.4608333333333333, |
| "grad_norm": 4.5, |
| "learning_rate": 1.15701491518027e-05, |
| "loss": 0.0553, |
| "step": 27650 |
| }, |
| { |
| "epoch": 0.461, |
| "grad_norm": 23.25, |
| "learning_rate": 1.1564872354705813e-05, |
| "loss": 0.0604, |
| "step": 27660 |
| }, |
| { |
| "epoch": 0.46116666666666667, |
| "grad_norm": 37.5, |
| "learning_rate": 1.155959511090064e-05, |
| "loss": 0.0632, |
| "step": 27670 |
| }, |
| { |
| "epoch": 0.4613333333333333, |
| "grad_norm": 36.75, |
| "learning_rate": 1.155431742189363e-05, |
| "loss": 0.0684, |
| "step": 27680 |
| }, |
| { |
| "epoch": 0.4615, |
| "grad_norm": 1.5625, |
| "learning_rate": 1.1549039289191355e-05, |
| "loss": 0.0575, |
| "step": 27690 |
| }, |
| { |
| "epoch": 0.46166666666666667, |
| "grad_norm": 54.0, |
| "learning_rate": 1.1543760714300504e-05, |
| "loss": 0.0523, |
| "step": 27700 |
| }, |
| { |
| "epoch": 0.4618333333333333, |
| "grad_norm": 40.75, |
| "learning_rate": 1.1538481698727903e-05, |
| "loss": 0.0528, |
| "step": 27710 |
| }, |
| { |
| "epoch": 0.462, |
| "grad_norm": 3.171875, |
| "learning_rate": 1.1533202243980495e-05, |
| "loss": 0.0492, |
| "step": 27720 |
| }, |
| { |
| "epoch": 0.46216666666666667, |
| "grad_norm": 33.0, |
| "learning_rate": 1.1527922351565353e-05, |
| "loss": 0.0772, |
| "step": 27730 |
| }, |
| { |
| "epoch": 0.4623333333333333, |
| "grad_norm": 10.1875, |
| "learning_rate": 1.1522642022989679e-05, |
| "loss": 0.0566, |
| "step": 27740 |
| }, |
| { |
| "epoch": 0.4625, |
| "grad_norm": 20.0, |
| "learning_rate": 1.1517361259760789e-05, |
| "loss": 0.0526, |
| "step": 27750 |
| }, |
| { |
| "epoch": 0.46266666666666667, |
| "grad_norm": 19.875, |
| "learning_rate": 1.1512080063386133e-05, |
| "loss": 0.0586, |
| "step": 27760 |
| }, |
| { |
| "epoch": 0.4628333333333333, |
| "grad_norm": 17.25, |
| "learning_rate": 1.150679843537328e-05, |
| "loss": 0.054, |
| "step": 27770 |
| }, |
| { |
| "epoch": 0.463, |
| "grad_norm": 4.90625, |
| "learning_rate": 1.1501516377229922e-05, |
| "loss": 0.0626, |
| "step": 27780 |
| }, |
| { |
| "epoch": 0.46316666666666667, |
| "grad_norm": 2.046875, |
| "learning_rate": 1.1496233890463874e-05, |
| "loss": 0.0548, |
| "step": 27790 |
| }, |
| { |
| "epoch": 0.4633333333333333, |
| "grad_norm": 35.75, |
| "learning_rate": 1.1490950976583078e-05, |
| "loss": 0.0577, |
| "step": 27800 |
| }, |
| { |
| "epoch": 0.4635, |
| "grad_norm": 6.0625, |
| "learning_rate": 1.148566763709559e-05, |
| "loss": 0.0664, |
| "step": 27810 |
| }, |
| { |
| "epoch": 0.46366666666666667, |
| "grad_norm": 25.875, |
| "learning_rate": 1.148038387350959e-05, |
| "loss": 0.0584, |
| "step": 27820 |
| }, |
| { |
| "epoch": 0.4638333333333333, |
| "grad_norm": 74.5, |
| "learning_rate": 1.1475099687333388e-05, |
| "loss": 0.0691, |
| "step": 27830 |
| }, |
| { |
| "epoch": 0.464, |
| "grad_norm": 7.53125, |
| "learning_rate": 1.1469815080075399e-05, |
| "loss": 0.0471, |
| "step": 27840 |
| }, |
| { |
| "epoch": 0.46416666666666667, |
| "grad_norm": 2.6875, |
| "learning_rate": 1.146453005324417e-05, |
| "loss": 0.0622, |
| "step": 27850 |
| }, |
| { |
| "epoch": 0.4643333333333333, |
| "grad_norm": 8.25, |
| "learning_rate": 1.1459244608348366e-05, |
| "loss": 0.048, |
| "step": 27860 |
| }, |
| { |
| "epoch": 0.4645, |
| "grad_norm": 15.5625, |
| "learning_rate": 1.1453958746896767e-05, |
| "loss": 0.0585, |
| "step": 27870 |
| }, |
| { |
| "epoch": 0.4646666666666667, |
| "grad_norm": 1.9375, |
| "learning_rate": 1.1448672470398275e-05, |
| "loss": 0.0561, |
| "step": 27880 |
| }, |
| { |
| "epoch": 0.4648333333333333, |
| "grad_norm": 1.921875, |
| "learning_rate": 1.1443385780361907e-05, |
| "loss": 0.0528, |
| "step": 27890 |
| }, |
| { |
| "epoch": 0.465, |
| "grad_norm": 2.359375, |
| "learning_rate": 1.1438098678296802e-05, |
| "loss": 0.0583, |
| "step": 27900 |
| }, |
| { |
| "epoch": 0.4651666666666667, |
| "grad_norm": 10.1875, |
| "learning_rate": 1.1432811165712222e-05, |
| "loss": 0.0475, |
| "step": 27910 |
| }, |
| { |
| "epoch": 0.4653333333333333, |
| "grad_norm": 4.9375, |
| "learning_rate": 1.1427523244117531e-05, |
| "loss": 0.0532, |
| "step": 27920 |
| }, |
| { |
| "epoch": 0.4655, |
| "grad_norm": 8.625, |
| "learning_rate": 1.1422234915022226e-05, |
| "loss": 0.0643, |
| "step": 27930 |
| }, |
| { |
| "epoch": 0.4656666666666667, |
| "grad_norm": 8.1875, |
| "learning_rate": 1.1416946179935909e-05, |
| "loss": 0.0652, |
| "step": 27940 |
| }, |
| { |
| "epoch": 0.4658333333333333, |
| "grad_norm": 22.125, |
| "learning_rate": 1.1411657040368298e-05, |
| "loss": 0.0515, |
| "step": 27950 |
| }, |
| { |
| "epoch": 0.466, |
| "grad_norm": 22.125, |
| "learning_rate": 1.1406367497829233e-05, |
| "loss": 0.0551, |
| "step": 27960 |
| }, |
| { |
| "epoch": 0.4661666666666667, |
| "grad_norm": 26.375, |
| "learning_rate": 1.1401077553828673e-05, |
| "loss": 0.0664, |
| "step": 27970 |
| }, |
| { |
| "epoch": 0.4663333333333333, |
| "grad_norm": 11.5, |
| "learning_rate": 1.1395787209876676e-05, |
| "loss": 0.0469, |
| "step": 27980 |
| }, |
| { |
| "epoch": 0.4665, |
| "grad_norm": 12.4375, |
| "learning_rate": 1.1390496467483426e-05, |
| "loss": 0.0524, |
| "step": 27990 |
| }, |
| { |
| "epoch": 0.4666666666666667, |
| "grad_norm": 4.3125, |
| "learning_rate": 1.1385205328159216e-05, |
| "loss": 0.0615, |
| "step": 28000 |
| }, |
| { |
| "epoch": 0.4668333333333333, |
| "grad_norm": 4.5, |
| "learning_rate": 1.1379913793414457e-05, |
| "loss": 0.059, |
| "step": 28010 |
| }, |
| { |
| "epoch": 0.467, |
| "grad_norm": 18.625, |
| "learning_rate": 1.1374621864759665e-05, |
| "loss": 0.059, |
| "step": 28020 |
| }, |
| { |
| "epoch": 0.4671666666666667, |
| "grad_norm": 28.125, |
| "learning_rate": 1.1369329543705483e-05, |
| "loss": 0.0457, |
| "step": 28030 |
| }, |
| { |
| "epoch": 0.4673333333333333, |
| "grad_norm": 1.9375, |
| "learning_rate": 1.1364036831762648e-05, |
| "loss": 0.0583, |
| "step": 28040 |
| }, |
| { |
| "epoch": 0.4675, |
| "grad_norm": 2.390625, |
| "learning_rate": 1.1358743730442016e-05, |
| "loss": 0.0532, |
| "step": 28050 |
| }, |
| { |
| "epoch": 0.4676666666666667, |
| "grad_norm": 3.59375, |
| "learning_rate": 1.135345024125456e-05, |
| "loss": 0.0551, |
| "step": 28060 |
| }, |
| { |
| "epoch": 0.4678333333333333, |
| "grad_norm": 2.21875, |
| "learning_rate": 1.134815636571136e-05, |
| "loss": 0.0607, |
| "step": 28070 |
| }, |
| { |
| "epoch": 0.468, |
| "grad_norm": 5.90625, |
| "learning_rate": 1.1342862105323599e-05, |
| "loss": 0.0665, |
| "step": 28080 |
| }, |
| { |
| "epoch": 0.4681666666666667, |
| "grad_norm": 5.3125, |
| "learning_rate": 1.133756746160258e-05, |
| "loss": 0.0527, |
| "step": 28090 |
| }, |
| { |
| "epoch": 0.4683333333333333, |
| "grad_norm": 1.875, |
| "learning_rate": 1.133227243605971e-05, |
| "loss": 0.0564, |
| "step": 28100 |
| }, |
| { |
| "epoch": 0.4685, |
| "grad_norm": 14.125, |
| "learning_rate": 1.1326977030206505e-05, |
| "loss": 0.0514, |
| "step": 28110 |
| }, |
| { |
| "epoch": 0.4686666666666667, |
| "grad_norm": 3.421875, |
| "learning_rate": 1.1321681245554594e-05, |
| "loss": 0.0537, |
| "step": 28120 |
| }, |
| { |
| "epoch": 0.4688333333333333, |
| "grad_norm": 4.0625, |
| "learning_rate": 1.131638508361571e-05, |
| "loss": 0.0564, |
| "step": 28130 |
| }, |
| { |
| "epoch": 0.469, |
| "grad_norm": 4.875, |
| "learning_rate": 1.1311088545901696e-05, |
| "loss": 0.0587, |
| "step": 28140 |
| }, |
| { |
| "epoch": 0.4691666666666667, |
| "grad_norm": 1.3828125, |
| "learning_rate": 1.1305791633924499e-05, |
| "loss": 0.0527, |
| "step": 28150 |
| }, |
| { |
| "epoch": 0.4693333333333333, |
| "grad_norm": 1.546875, |
| "learning_rate": 1.1300494349196173e-05, |
| "loss": 0.048, |
| "step": 28160 |
| }, |
| { |
| "epoch": 0.4695, |
| "grad_norm": 5.0625, |
| "learning_rate": 1.1295196693228885e-05, |
| "loss": 0.0622, |
| "step": 28170 |
| }, |
| { |
| "epoch": 0.4696666666666667, |
| "grad_norm": 10.3125, |
| "learning_rate": 1.1289898667534902e-05, |
| "loss": 0.0604, |
| "step": 28180 |
| }, |
| { |
| "epoch": 0.4698333333333333, |
| "grad_norm": 1.8828125, |
| "learning_rate": 1.1284600273626594e-05, |
| "loss": 0.0527, |
| "step": 28190 |
| }, |
| { |
| "epoch": 0.47, |
| "grad_norm": 10.8125, |
| "learning_rate": 1.1279301513016445e-05, |
| "loss": 0.0558, |
| "step": 28200 |
| }, |
| { |
| "epoch": 0.4701666666666667, |
| "grad_norm": 10.25, |
| "learning_rate": 1.1274002387217036e-05, |
| "loss": 0.0586, |
| "step": 28210 |
| }, |
| { |
| "epoch": 0.4703333333333333, |
| "grad_norm": 42.25, |
| "learning_rate": 1.1268702897741052e-05, |
| "loss": 0.0551, |
| "step": 28220 |
| }, |
| { |
| "epoch": 0.4705, |
| "grad_norm": 7.34375, |
| "learning_rate": 1.1263403046101289e-05, |
| "loss": 0.0596, |
| "step": 28230 |
| }, |
| { |
| "epoch": 0.4706666666666667, |
| "grad_norm": 6.03125, |
| "learning_rate": 1.1258102833810643e-05, |
| "loss": 0.0537, |
| "step": 28240 |
| }, |
| { |
| "epoch": 0.4708333333333333, |
| "grad_norm": 8.8125, |
| "learning_rate": 1.125280226238211e-05, |
| "loss": 0.0579, |
| "step": 28250 |
| }, |
| { |
| "epoch": 0.471, |
| "grad_norm": 2.765625, |
| "learning_rate": 1.1247501333328788e-05, |
| "loss": 0.0539, |
| "step": 28260 |
| }, |
| { |
| "epoch": 0.4711666666666667, |
| "grad_norm": 2.65625, |
| "learning_rate": 1.1242200048163883e-05, |
| "loss": 0.0553, |
| "step": 28270 |
| }, |
| { |
| "epoch": 0.4713333333333333, |
| "grad_norm": 4.75, |
| "learning_rate": 1.1236898408400693e-05, |
| "loss": 0.0668, |
| "step": 28280 |
| }, |
| { |
| "epoch": 0.4715, |
| "grad_norm": 4.0625, |
| "learning_rate": 1.1231596415552633e-05, |
| "loss": 0.0715, |
| "step": 28290 |
| }, |
| { |
| "epoch": 0.4716666666666667, |
| "grad_norm": 9.9375, |
| "learning_rate": 1.1226294071133205e-05, |
| "loss": 0.0642, |
| "step": 28300 |
| }, |
| { |
| "epoch": 0.4718333333333333, |
| "grad_norm": 2.5625, |
| "learning_rate": 1.1220991376656016e-05, |
| "loss": 0.071, |
| "step": 28310 |
| }, |
| { |
| "epoch": 0.472, |
| "grad_norm": 12.0625, |
| "learning_rate": 1.121568833363477e-05, |
| "loss": 0.0581, |
| "step": 28320 |
| }, |
| { |
| "epoch": 0.4721666666666667, |
| "grad_norm": 8.75, |
| "learning_rate": 1.1210384943583277e-05, |
| "loss": 0.0515, |
| "step": 28330 |
| }, |
| { |
| "epoch": 0.4723333333333333, |
| "grad_norm": 1.8671875, |
| "learning_rate": 1.1205081208015437e-05, |
| "loss": 0.0628, |
| "step": 28340 |
| }, |
| { |
| "epoch": 0.4725, |
| "grad_norm": 41.25, |
| "learning_rate": 1.1199777128445261e-05, |
| "loss": 0.0563, |
| "step": 28350 |
| }, |
| { |
| "epoch": 0.4726666666666667, |
| "grad_norm": 2.3125, |
| "learning_rate": 1.1194472706386843e-05, |
| "loss": 0.054, |
| "step": 28360 |
| }, |
| { |
| "epoch": 0.4728333333333333, |
| "grad_norm": 34.25, |
| "learning_rate": 1.1189167943354389e-05, |
| "loss": 0.0518, |
| "step": 28370 |
| }, |
| { |
| "epoch": 0.473, |
| "grad_norm": 4.71875, |
| "learning_rate": 1.1183862840862194e-05, |
| "loss": 0.0588, |
| "step": 28380 |
| }, |
| { |
| "epoch": 0.4731666666666667, |
| "grad_norm": 12.4375, |
| "learning_rate": 1.1178557400424649e-05, |
| "loss": 0.0653, |
| "step": 28390 |
| }, |
| { |
| "epoch": 0.47333333333333333, |
| "grad_norm": 2.90625, |
| "learning_rate": 1.1173251623556245e-05, |
| "loss": 0.0602, |
| "step": 28400 |
| }, |
| { |
| "epoch": 0.4735, |
| "grad_norm": 4.625, |
| "learning_rate": 1.1167945511771574e-05, |
| "loss": 0.0646, |
| "step": 28410 |
| }, |
| { |
| "epoch": 0.4736666666666667, |
| "grad_norm": 10.0, |
| "learning_rate": 1.1162639066585313e-05, |
| "loss": 0.0538, |
| "step": 28420 |
| }, |
| { |
| "epoch": 0.47383333333333333, |
| "grad_norm": 6.75, |
| "learning_rate": 1.115733228951224e-05, |
| "loss": 0.0552, |
| "step": 28430 |
| }, |
| { |
| "epoch": 0.474, |
| "grad_norm": 32.0, |
| "learning_rate": 1.115202518206723e-05, |
| "loss": 0.0716, |
| "step": 28440 |
| }, |
| { |
| "epoch": 0.4741666666666667, |
| "grad_norm": 14.625, |
| "learning_rate": 1.1146717745765243e-05, |
| "loss": 0.0548, |
| "step": 28450 |
| }, |
| { |
| "epoch": 0.47433333333333333, |
| "grad_norm": 4.53125, |
| "learning_rate": 1.1141409982121342e-05, |
| "loss": 0.0583, |
| "step": 28460 |
| }, |
| { |
| "epoch": 0.4745, |
| "grad_norm": 11.375, |
| "learning_rate": 1.1136101892650685e-05, |
| "loss": 0.065, |
| "step": 28470 |
| }, |
| { |
| "epoch": 0.4746666666666667, |
| "grad_norm": 3.328125, |
| "learning_rate": 1.1130793478868516e-05, |
| "loss": 0.0587, |
| "step": 28480 |
| }, |
| { |
| "epoch": 0.47483333333333333, |
| "grad_norm": 1.9765625, |
| "learning_rate": 1.112548474229017e-05, |
| "loss": 0.0518, |
| "step": 28490 |
| }, |
| { |
| "epoch": 0.475, |
| "grad_norm": 3.671875, |
| "learning_rate": 1.1120175684431082e-05, |
| "loss": 0.061, |
| "step": 28500 |
| }, |
| { |
| "epoch": 0.4751666666666667, |
| "grad_norm": 2.890625, |
| "learning_rate": 1.1114866306806775e-05, |
| "loss": 0.0503, |
| "step": 28510 |
| }, |
| { |
| "epoch": 0.47533333333333333, |
| "grad_norm": 11.9375, |
| "learning_rate": 1.1109556610932866e-05, |
| "loss": 0.0508, |
| "step": 28520 |
| }, |
| { |
| "epoch": 0.4755, |
| "grad_norm": 4.875, |
| "learning_rate": 1.1104246598325053e-05, |
| "loss": 0.0734, |
| "step": 28530 |
| }, |
| { |
| "epoch": 0.4756666666666667, |
| "grad_norm": 17.375, |
| "learning_rate": 1.1098936270499136e-05, |
| "loss": 0.0572, |
| "step": 28540 |
| }, |
| { |
| "epoch": 0.47583333333333333, |
| "grad_norm": 6.625, |
| "learning_rate": 1.1093625628971003e-05, |
| "loss": 0.05, |
| "step": 28550 |
| }, |
| { |
| "epoch": 0.476, |
| "grad_norm": 13.0, |
| "learning_rate": 1.1088314675256624e-05, |
| "loss": 0.0701, |
| "step": 28560 |
| }, |
| { |
| "epoch": 0.4761666666666667, |
| "grad_norm": 5.9375, |
| "learning_rate": 1.1083003410872064e-05, |
| "loss": 0.0664, |
| "step": 28570 |
| }, |
| { |
| "epoch": 0.47633333333333333, |
| "grad_norm": 3.4375, |
| "learning_rate": 1.1077691837333483e-05, |
| "loss": 0.0467, |
| "step": 28580 |
| }, |
| { |
| "epoch": 0.4765, |
| "grad_norm": 9.0625, |
| "learning_rate": 1.1072379956157112e-05, |
| "loss": 0.0524, |
| "step": 28590 |
| }, |
| { |
| "epoch": 0.4766666666666667, |
| "grad_norm": 3.90625, |
| "learning_rate": 1.1067067768859285e-05, |
| "loss": 0.0637, |
| "step": 28600 |
| }, |
| { |
| "epoch": 0.47683333333333333, |
| "grad_norm": 39.25, |
| "learning_rate": 1.106175527695642e-05, |
| "loss": 0.049, |
| "step": 28610 |
| }, |
| { |
| "epoch": 0.477, |
| "grad_norm": 4.09375, |
| "learning_rate": 1.1056442481965014e-05, |
| "loss": 0.0536, |
| "step": 28620 |
| }, |
| { |
| "epoch": 0.4771666666666667, |
| "grad_norm": 8.0, |
| "learning_rate": 1.1051129385401664e-05, |
| "loss": 0.0588, |
| "step": 28630 |
| }, |
| { |
| "epoch": 0.47733333333333333, |
| "grad_norm": 15.4375, |
| "learning_rate": 1.1045815988783045e-05, |
| "loss": 0.0529, |
| "step": 28640 |
| }, |
| { |
| "epoch": 0.4775, |
| "grad_norm": 8.5625, |
| "learning_rate": 1.1040502293625913e-05, |
| "loss": 0.0519, |
| "step": 28650 |
| }, |
| { |
| "epoch": 0.4776666666666667, |
| "grad_norm": 2.265625, |
| "learning_rate": 1.103518830144712e-05, |
| "loss": 0.0457, |
| "step": 28660 |
| }, |
| { |
| "epoch": 0.47783333333333333, |
| "grad_norm": 2.09375, |
| "learning_rate": 1.1029874013763596e-05, |
| "loss": 0.057, |
| "step": 28670 |
| }, |
| { |
| "epoch": 0.478, |
| "grad_norm": 10.5625, |
| "learning_rate": 1.1024559432092356e-05, |
| "loss": 0.0593, |
| "step": 28680 |
| }, |
| { |
| "epoch": 0.4781666666666667, |
| "grad_norm": 4.625, |
| "learning_rate": 1.10192445579505e-05, |
| "loss": 0.0603, |
| "step": 28690 |
| }, |
| { |
| "epoch": 0.47833333333333333, |
| "grad_norm": 10.8125, |
| "learning_rate": 1.1013929392855217e-05, |
| "loss": 0.0453, |
| "step": 28700 |
| }, |
| { |
| "epoch": 0.4785, |
| "grad_norm": 10.0625, |
| "learning_rate": 1.1008613938323765e-05, |
| "loss": 0.0579, |
| "step": 28710 |
| }, |
| { |
| "epoch": 0.4786666666666667, |
| "grad_norm": 2.296875, |
| "learning_rate": 1.1003298195873496e-05, |
| "loss": 0.0573, |
| "step": 28720 |
| }, |
| { |
| "epoch": 0.47883333333333333, |
| "grad_norm": 6.53125, |
| "learning_rate": 1.0997982167021839e-05, |
| "loss": 0.0544, |
| "step": 28730 |
| }, |
| { |
| "epoch": 0.479, |
| "grad_norm": 3.515625, |
| "learning_rate": 1.0992665853286315e-05, |
| "loss": 0.0547, |
| "step": 28740 |
| }, |
| { |
| "epoch": 0.4791666666666667, |
| "grad_norm": 3.359375, |
| "learning_rate": 1.0987349256184511e-05, |
| "loss": 0.0562, |
| "step": 28750 |
| }, |
| { |
| "epoch": 0.47933333333333333, |
| "grad_norm": 14.25, |
| "learning_rate": 1.0982032377234104e-05, |
| "loss": 0.0638, |
| "step": 28760 |
| }, |
| { |
| "epoch": 0.4795, |
| "grad_norm": 69.0, |
| "learning_rate": 1.0976715217952852e-05, |
| "loss": 0.0629, |
| "step": 28770 |
| }, |
| { |
| "epoch": 0.4796666666666667, |
| "grad_norm": 2.421875, |
| "learning_rate": 1.0971397779858586e-05, |
| "loss": 0.0523, |
| "step": 28780 |
| }, |
| { |
| "epoch": 0.47983333333333333, |
| "grad_norm": 5.90625, |
| "learning_rate": 1.0966080064469225e-05, |
| "loss": 0.059, |
| "step": 28790 |
| }, |
| { |
| "epoch": 0.48, |
| "grad_norm": 37.75, |
| "learning_rate": 1.096076207330276e-05, |
| "loss": 0.0531, |
| "step": 28800 |
| }, |
| { |
| "epoch": 0.4801666666666667, |
| "grad_norm": 18.5, |
| "learning_rate": 1.0955443807877268e-05, |
| "loss": 0.0597, |
| "step": 28810 |
| }, |
| { |
| "epoch": 0.48033333333333333, |
| "grad_norm": 2.234375, |
| "learning_rate": 1.09501252697109e-05, |
| "loss": 0.0647, |
| "step": 28820 |
| }, |
| { |
| "epoch": 0.4805, |
| "grad_norm": 25.875, |
| "learning_rate": 1.0944806460321882e-05, |
| "loss": 0.0714, |
| "step": 28830 |
| }, |
| { |
| "epoch": 0.4806666666666667, |
| "grad_norm": 11.5625, |
| "learning_rate": 1.0939487381228522e-05, |
| "loss": 0.0573, |
| "step": 28840 |
| }, |
| { |
| "epoch": 0.48083333333333333, |
| "grad_norm": 7.03125, |
| "learning_rate": 1.0934168033949208e-05, |
| "loss": 0.0622, |
| "step": 28850 |
| }, |
| { |
| "epoch": 0.481, |
| "grad_norm": 5.4375, |
| "learning_rate": 1.0928848420002394e-05, |
| "loss": 0.0601, |
| "step": 28860 |
| }, |
| { |
| "epoch": 0.4811666666666667, |
| "grad_norm": 3.796875, |
| "learning_rate": 1.0923528540906619e-05, |
| "loss": 0.055, |
| "step": 28870 |
| }, |
| { |
| "epoch": 0.48133333333333334, |
| "grad_norm": 10.8125, |
| "learning_rate": 1.0918208398180497e-05, |
| "loss": 0.0584, |
| "step": 28880 |
| }, |
| { |
| "epoch": 0.4815, |
| "grad_norm": 5.125, |
| "learning_rate": 1.0912887993342711e-05, |
| "loss": 0.0507, |
| "step": 28890 |
| }, |
| { |
| "epoch": 0.4816666666666667, |
| "grad_norm": 2.953125, |
| "learning_rate": 1.0907567327912026e-05, |
| "loss": 0.0506, |
| "step": 28900 |
| }, |
| { |
| "epoch": 0.48183333333333334, |
| "grad_norm": 39.75, |
| "learning_rate": 1.0902246403407279e-05, |
| "loss": 0.0545, |
| "step": 28910 |
| }, |
| { |
| "epoch": 0.482, |
| "grad_norm": 2.953125, |
| "learning_rate": 1.089692522134738e-05, |
| "loss": 0.059, |
| "step": 28920 |
| }, |
| { |
| "epoch": 0.4821666666666667, |
| "grad_norm": 5.0625, |
| "learning_rate": 1.089160378325131e-05, |
| "loss": 0.0568, |
| "step": 28930 |
| }, |
| { |
| "epoch": 0.48233333333333334, |
| "grad_norm": 20.5, |
| "learning_rate": 1.0886282090638131e-05, |
| "loss": 0.0609, |
| "step": 28940 |
| }, |
| { |
| "epoch": 0.4825, |
| "grad_norm": 19.125, |
| "learning_rate": 1.088096014502697e-05, |
| "loss": 0.0575, |
| "step": 28950 |
| }, |
| { |
| "epoch": 0.4826666666666667, |
| "grad_norm": 16.875, |
| "learning_rate": 1.0875637947937027e-05, |
| "loss": 0.048, |
| "step": 28960 |
| }, |
| { |
| "epoch": 0.48283333333333334, |
| "grad_norm": 45.5, |
| "learning_rate": 1.0870315500887583e-05, |
| "loss": 0.0681, |
| "step": 28970 |
| }, |
| { |
| "epoch": 0.483, |
| "grad_norm": 19.75, |
| "learning_rate": 1.0864992805397976e-05, |
| "loss": 0.0758, |
| "step": 28980 |
| }, |
| { |
| "epoch": 0.4831666666666667, |
| "grad_norm": 6.34375, |
| "learning_rate": 1.0859669862987625e-05, |
| "loss": 0.0691, |
| "step": 28990 |
| }, |
| { |
| "epoch": 0.48333333333333334, |
| "grad_norm": 15.75, |
| "learning_rate": 1.0854346675176015e-05, |
| "loss": 0.0535, |
| "step": 29000 |
| }, |
| { |
| "epoch": 0.4835, |
| "grad_norm": 5.53125, |
| "learning_rate": 1.08490232434827e-05, |
| "loss": 0.0628, |
| "step": 29010 |
| }, |
| { |
| "epoch": 0.4836666666666667, |
| "grad_norm": 5.4375, |
| "learning_rate": 1.0843699569427314e-05, |
| "loss": 0.0621, |
| "step": 29020 |
| }, |
| { |
| "epoch": 0.48383333333333334, |
| "grad_norm": 7.78125, |
| "learning_rate": 1.0838375654529547e-05, |
| "loss": 0.0712, |
| "step": 29030 |
| }, |
| { |
| "epoch": 0.484, |
| "grad_norm": 17.25, |
| "learning_rate": 1.0833051500309164e-05, |
| "loss": 0.0686, |
| "step": 29040 |
| }, |
| { |
| "epoch": 0.4841666666666667, |
| "grad_norm": 2.34375, |
| "learning_rate": 1.0827727108285998e-05, |
| "loss": 0.0561, |
| "step": 29050 |
| }, |
| { |
| "epoch": 0.48433333333333334, |
| "grad_norm": 1.7890625, |
| "learning_rate": 1.0822402479979948e-05, |
| "loss": 0.0551, |
| "step": 29060 |
| }, |
| { |
| "epoch": 0.4845, |
| "grad_norm": 2.28125, |
| "learning_rate": 1.081707761691098e-05, |
| "loss": 0.069, |
| "step": 29070 |
| }, |
| { |
| "epoch": 0.4846666666666667, |
| "grad_norm": 2.09375, |
| "learning_rate": 1.0811752520599137e-05, |
| "loss": 0.0705, |
| "step": 29080 |
| }, |
| { |
| "epoch": 0.48483333333333334, |
| "grad_norm": 34.75, |
| "learning_rate": 1.0806427192564512e-05, |
| "loss": 0.0588, |
| "step": 29090 |
| }, |
| { |
| "epoch": 0.485, |
| "grad_norm": 10.4375, |
| "learning_rate": 1.0801101634327274e-05, |
| "loss": 0.0576, |
| "step": 29100 |
| }, |
| { |
| "epoch": 0.4851666666666667, |
| "grad_norm": 2.71875, |
| "learning_rate": 1.0795775847407659e-05, |
| "loss": 0.0562, |
| "step": 29110 |
| }, |
| { |
| "epoch": 0.48533333333333334, |
| "grad_norm": 6.8125, |
| "learning_rate": 1.0790449833325962e-05, |
| "loss": 0.054, |
| "step": 29120 |
| }, |
| { |
| "epoch": 0.4855, |
| "grad_norm": 16.625, |
| "learning_rate": 1.0785123593602549e-05, |
| "loss": 0.0551, |
| "step": 29130 |
| }, |
| { |
| "epoch": 0.4856666666666667, |
| "grad_norm": 4.5, |
| "learning_rate": 1.077979712975785e-05, |
| "loss": 0.0612, |
| "step": 29140 |
| }, |
| { |
| "epoch": 0.48583333333333334, |
| "grad_norm": 17.5, |
| "learning_rate": 1.0774470443312353e-05, |
| "loss": 0.0543, |
| "step": 29150 |
| }, |
| { |
| "epoch": 0.486, |
| "grad_norm": 14.9375, |
| "learning_rate": 1.0769143535786612e-05, |
| "loss": 0.0607, |
| "step": 29160 |
| }, |
| { |
| "epoch": 0.4861666666666667, |
| "grad_norm": 6.09375, |
| "learning_rate": 1.0763816408701248e-05, |
| "loss": 0.0554, |
| "step": 29170 |
| }, |
| { |
| "epoch": 0.48633333333333334, |
| "grad_norm": 7.09375, |
| "learning_rate": 1.075848906357694e-05, |
| "loss": 0.0627, |
| "step": 29180 |
| }, |
| { |
| "epoch": 0.4865, |
| "grad_norm": 2.265625, |
| "learning_rate": 1.0753161501934437e-05, |
| "loss": 0.0663, |
| "step": 29190 |
| }, |
| { |
| "epoch": 0.4866666666666667, |
| "grad_norm": 6.9375, |
| "learning_rate": 1.0747833725294537e-05, |
| "loss": 0.0678, |
| "step": 29200 |
| }, |
| { |
| "epoch": 0.48683333333333334, |
| "grad_norm": 5.03125, |
| "learning_rate": 1.0742505735178113e-05, |
| "loss": 0.0543, |
| "step": 29210 |
| }, |
| { |
| "epoch": 0.487, |
| "grad_norm": 3.375, |
| "learning_rate": 1.0737177533106087e-05, |
| "loss": 0.0578, |
| "step": 29220 |
| }, |
| { |
| "epoch": 0.4871666666666667, |
| "grad_norm": 17.125, |
| "learning_rate": 1.0731849120599447e-05, |
| "loss": 0.0634, |
| "step": 29230 |
| }, |
| { |
| "epoch": 0.48733333333333334, |
| "grad_norm": 30.375, |
| "learning_rate": 1.0726520499179243e-05, |
| "loss": 0.0565, |
| "step": 29240 |
| }, |
| { |
| "epoch": 0.4875, |
| "grad_norm": 8.1875, |
| "learning_rate": 1.0721191670366584e-05, |
| "loss": 0.0592, |
| "step": 29250 |
| }, |
| { |
| "epoch": 0.4876666666666667, |
| "grad_norm": 2.203125, |
| "learning_rate": 1.0715862635682636e-05, |
| "loss": 0.07, |
| "step": 29260 |
| }, |
| { |
| "epoch": 0.48783333333333334, |
| "grad_norm": 1.640625, |
| "learning_rate": 1.0710533396648623e-05, |
| "loss": 0.05, |
| "step": 29270 |
| }, |
| { |
| "epoch": 0.488, |
| "grad_norm": 27.625, |
| "learning_rate": 1.0705203954785832e-05, |
| "loss": 0.059, |
| "step": 29280 |
| }, |
| { |
| "epoch": 0.4881666666666667, |
| "grad_norm": 4.875, |
| "learning_rate": 1.0699874311615601e-05, |
| "loss": 0.0737, |
| "step": 29290 |
| }, |
| { |
| "epoch": 0.48833333333333334, |
| "grad_norm": 7.78125, |
| "learning_rate": 1.069454446865933e-05, |
| "loss": 0.0487, |
| "step": 29300 |
| }, |
| { |
| "epoch": 0.4885, |
| "grad_norm": 11.3125, |
| "learning_rate": 1.068921442743848e-05, |
| "loss": 0.0665, |
| "step": 29310 |
| }, |
| { |
| "epoch": 0.4886666666666667, |
| "grad_norm": 7.21875, |
| "learning_rate": 1.0683884189474557e-05, |
| "loss": 0.054, |
| "step": 29320 |
| }, |
| { |
| "epoch": 0.48883333333333334, |
| "grad_norm": 5.21875, |
| "learning_rate": 1.0678553756289133e-05, |
| "loss": 0.0537, |
| "step": 29330 |
| }, |
| { |
| "epoch": 0.489, |
| "grad_norm": 2.328125, |
| "learning_rate": 1.0673223129403837e-05, |
| "loss": 0.0655, |
| "step": 29340 |
| }, |
| { |
| "epoch": 0.4891666666666667, |
| "grad_norm": 65.5, |
| "learning_rate": 1.0667892310340342e-05, |
| "loss": 0.064, |
| "step": 29350 |
| }, |
| { |
| "epoch": 0.48933333333333334, |
| "grad_norm": 12.125, |
| "learning_rate": 1.066256130062039e-05, |
| "loss": 0.0637, |
| "step": 29360 |
| }, |
| { |
| "epoch": 0.4895, |
| "grad_norm": 4.0, |
| "learning_rate": 1.0657230101765763e-05, |
| "loss": 0.0585, |
| "step": 29370 |
| }, |
| { |
| "epoch": 0.48966666666666664, |
| "grad_norm": 10.0, |
| "learning_rate": 1.0651898715298312e-05, |
| "loss": 0.0549, |
| "step": 29380 |
| }, |
| { |
| "epoch": 0.48983333333333334, |
| "grad_norm": 12.5625, |
| "learning_rate": 1.0646567142739928e-05, |
| "loss": 0.0665, |
| "step": 29390 |
| }, |
| { |
| "epoch": 0.49, |
| "grad_norm": 4.28125, |
| "learning_rate": 1.0641235385612562e-05, |
| "loss": 0.0681, |
| "step": 29400 |
| }, |
| { |
| "epoch": 0.49016666666666664, |
| "grad_norm": 9.4375, |
| "learning_rate": 1.0635903445438222e-05, |
| "loss": 0.064, |
| "step": 29410 |
| }, |
| { |
| "epoch": 0.49033333333333334, |
| "grad_norm": 4.3125, |
| "learning_rate": 1.0630571323738959e-05, |
| "loss": 0.0616, |
| "step": 29420 |
| }, |
| { |
| "epoch": 0.4905, |
| "grad_norm": 5.125, |
| "learning_rate": 1.0625239022036878e-05, |
| "loss": 0.0472, |
| "step": 29430 |
| }, |
| { |
| "epoch": 0.49066666666666664, |
| "grad_norm": 3.09375, |
| "learning_rate": 1.0619906541854137e-05, |
| "loss": 0.0548, |
| "step": 29440 |
| }, |
| { |
| "epoch": 0.49083333333333334, |
| "grad_norm": 2.765625, |
| "learning_rate": 1.0614573884712948e-05, |
| "loss": 0.0548, |
| "step": 29450 |
| }, |
| { |
| "epoch": 0.491, |
| "grad_norm": 37.0, |
| "learning_rate": 1.0609241052135573e-05, |
| "loss": 0.0589, |
| "step": 29460 |
| }, |
| { |
| "epoch": 0.49116666666666664, |
| "grad_norm": 5.8125, |
| "learning_rate": 1.0603908045644316e-05, |
| "loss": 0.0539, |
| "step": 29470 |
| }, |
| { |
| "epoch": 0.49133333333333334, |
| "grad_norm": 29.0, |
| "learning_rate": 1.0598574866761542e-05, |
| "loss": 0.0593, |
| "step": 29480 |
| }, |
| { |
| "epoch": 0.4915, |
| "grad_norm": 20.625, |
| "learning_rate": 1.0593241517009656e-05, |
| "loss": 0.0654, |
| "step": 29490 |
| }, |
| { |
| "epoch": 0.49166666666666664, |
| "grad_norm": 5.03125, |
| "learning_rate": 1.0587907997911116e-05, |
| "loss": 0.0742, |
| "step": 29500 |
| }, |
| { |
| "epoch": 0.49183333333333334, |
| "grad_norm": 4.53125, |
| "learning_rate": 1.0582574310988424e-05, |
| "loss": 0.058, |
| "step": 29510 |
| }, |
| { |
| "epoch": 0.492, |
| "grad_norm": 24.75, |
| "learning_rate": 1.0577240457764142e-05, |
| "loss": 0.0642, |
| "step": 29520 |
| }, |
| { |
| "epoch": 0.49216666666666664, |
| "grad_norm": 6.96875, |
| "learning_rate": 1.0571906439760866e-05, |
| "loss": 0.0603, |
| "step": 29530 |
| }, |
| { |
| "epoch": 0.49233333333333335, |
| "grad_norm": 4.15625, |
| "learning_rate": 1.0566572258501245e-05, |
| "loss": 0.0629, |
| "step": 29540 |
| }, |
| { |
| "epoch": 0.4925, |
| "grad_norm": 10.6875, |
| "learning_rate": 1.0561237915507974e-05, |
| "loss": 0.0671, |
| "step": 29550 |
| }, |
| { |
| "epoch": 0.49266666666666664, |
| "grad_norm": 57.25, |
| "learning_rate": 1.055590341230379e-05, |
| "loss": 0.0719, |
| "step": 29560 |
| }, |
| { |
| "epoch": 0.49283333333333335, |
| "grad_norm": 10.1875, |
| "learning_rate": 1.0550568750411485e-05, |
| "loss": 0.0536, |
| "step": 29570 |
| }, |
| { |
| "epoch": 0.493, |
| "grad_norm": 9.625, |
| "learning_rate": 1.054523393135389e-05, |
| "loss": 0.0543, |
| "step": 29580 |
| }, |
| { |
| "epoch": 0.49316666666666664, |
| "grad_norm": 3.125, |
| "learning_rate": 1.0539898956653883e-05, |
| "loss": 0.0571, |
| "step": 29590 |
| }, |
| { |
| "epoch": 0.49333333333333335, |
| "grad_norm": 42.5, |
| "learning_rate": 1.053456382783438e-05, |
| "loss": 0.064, |
| "step": 29600 |
| }, |
| { |
| "epoch": 0.4935, |
| "grad_norm": 8.625, |
| "learning_rate": 1.0529228546418351e-05, |
| "loss": 0.0538, |
| "step": 29610 |
| }, |
| { |
| "epoch": 0.49366666666666664, |
| "grad_norm": 2.53125, |
| "learning_rate": 1.05238931139288e-05, |
| "loss": 0.057, |
| "step": 29620 |
| }, |
| { |
| "epoch": 0.49383333333333335, |
| "grad_norm": 2.359375, |
| "learning_rate": 1.0518557531888786e-05, |
| "loss": 0.072, |
| "step": 29630 |
| }, |
| { |
| "epoch": 0.494, |
| "grad_norm": 2.625, |
| "learning_rate": 1.0513221801821399e-05, |
| "loss": 0.0539, |
| "step": 29640 |
| }, |
| { |
| "epoch": 0.49416666666666664, |
| "grad_norm": 33.0, |
| "learning_rate": 1.0507885925249776e-05, |
| "loss": 0.0636, |
| "step": 29650 |
| }, |
| { |
| "epoch": 0.49433333333333335, |
| "grad_norm": 18.0, |
| "learning_rate": 1.0502549903697097e-05, |
| "loss": 0.0604, |
| "step": 29660 |
| }, |
| { |
| "epoch": 0.4945, |
| "grad_norm": 11.625, |
| "learning_rate": 1.049721373868658e-05, |
| "loss": 0.0584, |
| "step": 29670 |
| }, |
| { |
| "epoch": 0.49466666666666664, |
| "grad_norm": 6.84375, |
| "learning_rate": 1.0491877431741488e-05, |
| "loss": 0.062, |
| "step": 29680 |
| }, |
| { |
| "epoch": 0.49483333333333335, |
| "grad_norm": 4.46875, |
| "learning_rate": 1.0486540984385123e-05, |
| "loss": 0.0646, |
| "step": 29690 |
| }, |
| { |
| "epoch": 0.495, |
| "grad_norm": 6.625, |
| "learning_rate": 1.0481204398140827e-05, |
| "loss": 0.0603, |
| "step": 29700 |
| }, |
| { |
| "epoch": 0.49516666666666664, |
| "grad_norm": 4.90625, |
| "learning_rate": 1.0475867674531976e-05, |
| "loss": 0.0683, |
| "step": 29710 |
| }, |
| { |
| "epoch": 0.49533333333333335, |
| "grad_norm": 2.171875, |
| "learning_rate": 1.0470530815081998e-05, |
| "loss": 0.066, |
| "step": 29720 |
| }, |
| { |
| "epoch": 0.4955, |
| "grad_norm": 1.484375, |
| "learning_rate": 1.0465193821314347e-05, |
| "loss": 0.0629, |
| "step": 29730 |
| }, |
| { |
| "epoch": 0.49566666666666664, |
| "grad_norm": 12.125, |
| "learning_rate": 1.0459856694752521e-05, |
| "loss": 0.0568, |
| "step": 29740 |
| }, |
| { |
| "epoch": 0.49583333333333335, |
| "grad_norm": 12.125, |
| "learning_rate": 1.045451943692006e-05, |
| "loss": 0.057, |
| "step": 29750 |
| }, |
| { |
| "epoch": 0.496, |
| "grad_norm": 17.25, |
| "learning_rate": 1.0449182049340534e-05, |
| "loss": 0.0596, |
| "step": 29760 |
| }, |
| { |
| "epoch": 0.49616666666666664, |
| "grad_norm": 4.75, |
| "learning_rate": 1.0443844533537551e-05, |
| "loss": 0.0694, |
| "step": 29770 |
| }, |
| { |
| "epoch": 0.49633333333333335, |
| "grad_norm": 5.9375, |
| "learning_rate": 1.043850689103476e-05, |
| "loss": 0.0583, |
| "step": 29780 |
| }, |
| { |
| "epoch": 0.4965, |
| "grad_norm": 2.0, |
| "learning_rate": 1.0433169123355845e-05, |
| "loss": 0.0639, |
| "step": 29790 |
| }, |
| { |
| "epoch": 0.49666666666666665, |
| "grad_norm": 17.75, |
| "learning_rate": 1.0427831232024522e-05, |
| "loss": 0.0494, |
| "step": 29800 |
| }, |
| { |
| "epoch": 0.49683333333333335, |
| "grad_norm": 3.140625, |
| "learning_rate": 1.0422493218564543e-05, |
| "loss": 0.0658, |
| "step": 29810 |
| }, |
| { |
| "epoch": 0.497, |
| "grad_norm": 10.3125, |
| "learning_rate": 1.0417155084499701e-05, |
| "loss": 0.0684, |
| "step": 29820 |
| }, |
| { |
| "epoch": 0.49716666666666665, |
| "grad_norm": 15.75, |
| "learning_rate": 1.041181683135382e-05, |
| "loss": 0.0541, |
| "step": 29830 |
| }, |
| { |
| "epoch": 0.49733333333333335, |
| "grad_norm": 3.015625, |
| "learning_rate": 1.0406478460650751e-05, |
| "loss": 0.0596, |
| "step": 29840 |
| }, |
| { |
| "epoch": 0.4975, |
| "grad_norm": 10.25, |
| "learning_rate": 1.040113997391439e-05, |
| "loss": 0.0505, |
| "step": 29850 |
| }, |
| { |
| "epoch": 0.49766666666666665, |
| "grad_norm": 2.9375, |
| "learning_rate": 1.039580137266866e-05, |
| "loss": 0.067, |
| "step": 29860 |
| }, |
| { |
| "epoch": 0.49783333333333335, |
| "grad_norm": 17.5, |
| "learning_rate": 1.0390462658437515e-05, |
| "loss": 0.0523, |
| "step": 29870 |
| }, |
| { |
| "epoch": 0.498, |
| "grad_norm": 14.1875, |
| "learning_rate": 1.0385123832744946e-05, |
| "loss": 0.0565, |
| "step": 29880 |
| }, |
| { |
| "epoch": 0.49816666666666665, |
| "grad_norm": 6.1875, |
| "learning_rate": 1.0379784897114974e-05, |
| "loss": 0.0566, |
| "step": 29890 |
| }, |
| { |
| "epoch": 0.49833333333333335, |
| "grad_norm": 14.25, |
| "learning_rate": 1.0374445853071648e-05, |
| "loss": 0.0548, |
| "step": 29900 |
| }, |
| { |
| "epoch": 0.4985, |
| "grad_norm": 8.125, |
| "learning_rate": 1.0369106702139051e-05, |
| "loss": 0.0555, |
| "step": 29910 |
| }, |
| { |
| "epoch": 0.49866666666666665, |
| "grad_norm": 5.59375, |
| "learning_rate": 1.0363767445841301e-05, |
| "loss": 0.0692, |
| "step": 29920 |
| }, |
| { |
| "epoch": 0.49883333333333335, |
| "grad_norm": 9.0625, |
| "learning_rate": 1.0358428085702542e-05, |
| "loss": 0.0533, |
| "step": 29930 |
| }, |
| { |
| "epoch": 0.499, |
| "grad_norm": 8.25, |
| "learning_rate": 1.0353088623246939e-05, |
| "loss": 0.052, |
| "step": 29940 |
| }, |
| { |
| "epoch": 0.49916666666666665, |
| "grad_norm": 2.46875, |
| "learning_rate": 1.03477490599987e-05, |
| "loss": 0.0528, |
| "step": 29950 |
| }, |
| { |
| "epoch": 0.49933333333333335, |
| "grad_norm": 6.875, |
| "learning_rate": 1.0342409397482054e-05, |
| "loss": 0.0591, |
| "step": 29960 |
| }, |
| { |
| "epoch": 0.4995, |
| "grad_norm": 6.3125, |
| "learning_rate": 1.0337069637221265e-05, |
| "loss": 0.0657, |
| "step": 29970 |
| }, |
| { |
| "epoch": 0.49966666666666665, |
| "grad_norm": 3.4375, |
| "learning_rate": 1.033172978074061e-05, |
| "loss": 0.0548, |
| "step": 29980 |
| }, |
| { |
| "epoch": 0.49983333333333335, |
| "grad_norm": 5.34375, |
| "learning_rate": 1.0326389829564419e-05, |
| "loss": 0.0658, |
| "step": 29990 |
| }, |
| { |
| "epoch": 0.5, |
| "grad_norm": 2.25, |
| "learning_rate": 1.0321049785217024e-05, |
| "loss": 0.0525, |
| "step": 30000 |
| } |
| ], |
| "logging_steps": 10, |
| "max_steps": 60000, |
| "num_input_tokens_seen": 0, |
| "num_train_epochs": 1, |
| "save_steps": 10000, |
| "stateful_callbacks": { |
| "TrainerControl": { |
| "args": { |
| "should_epoch_stop": false, |
| "should_evaluate": false, |
| "should_log": false, |
| "should_save": true, |
| "should_training_stop": false |
| }, |
| "attributes": {} |
| } |
| }, |
| "total_flos": 2.009186640592896e+18, |
| "train_batch_size": 1, |
| "trial_name": null, |
| "trial_params": null |
| } |
|
|