| { |
| "best_global_step": null, |
| "best_metric": null, |
| "best_model_checkpoint": null, |
| "epoch": 2.0, |
| "eval_steps": 500, |
| "global_step": 750, |
| "is_hyper_param_search": false, |
| "is_local_process_zero": true, |
| "is_world_process_zero": true, |
| "log_history": [ |
| { |
| "epoch": 0.005333333333333333, |
| "grad_norm": 0.5234375, |
| "learning_rate": 1.0000000000000001e-07, |
| "loss": 1.3918027877807617, |
| "step": 2 |
| }, |
| { |
| "epoch": 0.010666666666666666, |
| "grad_norm": 1.3203125, |
| "learning_rate": 3.0000000000000004e-07, |
| "loss": 2.0975496768951416, |
| "step": 4 |
| }, |
| { |
| "epoch": 0.016, |
| "grad_norm": 1.671875, |
| "learning_rate": 5e-07, |
| "loss": 2.0533759593963623, |
| "step": 6 |
| }, |
| { |
| "epoch": 0.021333333333333333, |
| "grad_norm": 0.60546875, |
| "learning_rate": 7.000000000000001e-07, |
| "loss": 1.4977960586547852, |
| "step": 8 |
| }, |
| { |
| "epoch": 0.02666666666666667, |
| "grad_norm": 1.28125, |
| "learning_rate": 9e-07, |
| "loss": 1.8092024326324463, |
| "step": 10 |
| }, |
| { |
| "epoch": 0.032, |
| "grad_norm": 0.82421875, |
| "learning_rate": 1.1e-06, |
| "loss": 2.0490243434906006, |
| "step": 12 |
| }, |
| { |
| "epoch": 0.037333333333333336, |
| "grad_norm": 1.671875, |
| "learning_rate": 1.3e-06, |
| "loss": 2.2412607669830322, |
| "step": 14 |
| }, |
| { |
| "epoch": 0.042666666666666665, |
| "grad_norm": 0.8828125, |
| "learning_rate": 1.5e-06, |
| "loss": 1.9627114534378052, |
| "step": 16 |
| }, |
| { |
| "epoch": 0.048, |
| "grad_norm": 2.390625, |
| "learning_rate": 1.7e-06, |
| "loss": 1.8048596382141113, |
| "step": 18 |
| }, |
| { |
| "epoch": 0.05333333333333334, |
| "grad_norm": 1.3046875, |
| "learning_rate": 1.9000000000000002e-06, |
| "loss": 1.9537056684494019, |
| "step": 20 |
| }, |
| { |
| "epoch": 0.058666666666666666, |
| "grad_norm": 1.09375, |
| "learning_rate": 2.1000000000000002e-06, |
| "loss": 1.7351176738739014, |
| "step": 22 |
| }, |
| { |
| "epoch": 0.064, |
| "grad_norm": 0.93359375, |
| "learning_rate": 2.3e-06, |
| "loss": 2.1719343662261963, |
| "step": 24 |
| }, |
| { |
| "epoch": 0.06933333333333333, |
| "grad_norm": 0.73828125, |
| "learning_rate": 2.4999999999999998e-06, |
| "loss": 2.0036661624908447, |
| "step": 26 |
| }, |
| { |
| "epoch": 0.07466666666666667, |
| "grad_norm": 0.6328125, |
| "learning_rate": 2.7e-06, |
| "loss": 1.4876424074172974, |
| "step": 28 |
| }, |
| { |
| "epoch": 0.08, |
| "grad_norm": 0.93359375, |
| "learning_rate": 2.9e-06, |
| "loss": 1.7595216035842896, |
| "step": 30 |
| }, |
| { |
| "epoch": 0.08533333333333333, |
| "grad_norm": 0.92578125, |
| "learning_rate": 3.1e-06, |
| "loss": 1.7543615102767944, |
| "step": 32 |
| }, |
| { |
| "epoch": 0.09066666666666667, |
| "grad_norm": 0.703125, |
| "learning_rate": 3.3e-06, |
| "loss": 1.6767919063568115, |
| "step": 34 |
| }, |
| { |
| "epoch": 0.096, |
| "grad_norm": 0.7265625, |
| "learning_rate": 3.5e-06, |
| "loss": 1.9044243097305298, |
| "step": 36 |
| }, |
| { |
| "epoch": 0.10133333333333333, |
| "grad_norm": 0.78125, |
| "learning_rate": 3.7e-06, |
| "loss": 1.9992799758911133, |
| "step": 38 |
| }, |
| { |
| "epoch": 0.10666666666666667, |
| "grad_norm": 0.2021484375, |
| "learning_rate": 3.9e-06, |
| "loss": 1.4217664003372192, |
| "step": 40 |
| }, |
| { |
| "epoch": 0.112, |
| "grad_norm": 1.0859375, |
| "learning_rate": 4.1e-06, |
| "loss": 2.2651872634887695, |
| "step": 42 |
| }, |
| { |
| "epoch": 0.11733333333333333, |
| "grad_norm": 1.015625, |
| "learning_rate": 4.3e-06, |
| "loss": 1.8020230531692505, |
| "step": 44 |
| }, |
| { |
| "epoch": 0.12266666666666666, |
| "grad_norm": 0.6328125, |
| "learning_rate": 4.5e-06, |
| "loss": 2.057128667831421, |
| "step": 46 |
| }, |
| { |
| "epoch": 0.128, |
| "grad_norm": 0.287109375, |
| "learning_rate": 4.700000000000001e-06, |
| "loss": 1.7972444295883179, |
| "step": 48 |
| }, |
| { |
| "epoch": 0.13333333333333333, |
| "grad_norm": 1.1328125, |
| "learning_rate": 4.9e-06, |
| "loss": 1.585660696029663, |
| "step": 50 |
| }, |
| { |
| "epoch": 0.13866666666666666, |
| "grad_norm": 1.4140625, |
| "learning_rate": 5.1e-06, |
| "loss": 1.5591168403625488, |
| "step": 52 |
| }, |
| { |
| "epoch": 0.144, |
| "grad_norm": 0.2119140625, |
| "learning_rate": 5.3e-06, |
| "loss": 1.2894660234451294, |
| "step": 54 |
| }, |
| { |
| "epoch": 0.14933333333333335, |
| "grad_norm": 0.73046875, |
| "learning_rate": 5.5e-06, |
| "loss": 1.8333218097686768, |
| "step": 56 |
| }, |
| { |
| "epoch": 0.15466666666666667, |
| "grad_norm": 1.1015625, |
| "learning_rate": 5.7000000000000005e-06, |
| "loss": 1.5420780181884766, |
| "step": 58 |
| }, |
| { |
| "epoch": 0.16, |
| "grad_norm": 0.828125, |
| "learning_rate": 5.899999999999999e-06, |
| "loss": 1.8294118642807007, |
| "step": 60 |
| }, |
| { |
| "epoch": 0.16533333333333333, |
| "grad_norm": 0.3515625, |
| "learning_rate": 6.1e-06, |
| "loss": 1.5082216262817383, |
| "step": 62 |
| }, |
| { |
| "epoch": 0.17066666666666666, |
| "grad_norm": 0.314453125, |
| "learning_rate": 6.3e-06, |
| "loss": 1.7252726554870605, |
| "step": 64 |
| }, |
| { |
| "epoch": 0.176, |
| "grad_norm": 0.435546875, |
| "learning_rate": 6.5000000000000004e-06, |
| "loss": 1.56448233127594, |
| "step": 66 |
| }, |
| { |
| "epoch": 0.18133333333333335, |
| "grad_norm": 1.1015625, |
| "learning_rate": 6.7e-06, |
| "loss": 1.87124502658844, |
| "step": 68 |
| }, |
| { |
| "epoch": 0.18666666666666668, |
| "grad_norm": 0.5859375, |
| "learning_rate": 6.900000000000001e-06, |
| "loss": 1.4997594356536865, |
| "step": 70 |
| }, |
| { |
| "epoch": 0.192, |
| "grad_norm": 0.609375, |
| "learning_rate": 7.1e-06, |
| "loss": 1.9693466424942017, |
| "step": 72 |
| }, |
| { |
| "epoch": 0.19733333333333333, |
| "grad_norm": 0.95703125, |
| "learning_rate": 7.3e-06, |
| "loss": 1.5585707426071167, |
| "step": 74 |
| }, |
| { |
| "epoch": 0.20266666666666666, |
| "grad_norm": 1.859375, |
| "learning_rate": 7.5e-06, |
| "loss": 1.7230855226516724, |
| "step": 76 |
| }, |
| { |
| "epoch": 0.208, |
| "grad_norm": 0.38671875, |
| "learning_rate": 7.4998619077668045e-06, |
| "loss": 1.7421209812164307, |
| "step": 78 |
| }, |
| { |
| "epoch": 0.21333333333333335, |
| "grad_norm": 0.466796875, |
| "learning_rate": 7.499447643032373e-06, |
| "loss": 1.8539875745773315, |
| "step": 80 |
| }, |
| { |
| "epoch": 0.21866666666666668, |
| "grad_norm": 0.2734375, |
| "learning_rate": 7.498757241691129e-06, |
| "loss": 1.410808801651001, |
| "step": 82 |
| }, |
| { |
| "epoch": 0.224, |
| "grad_norm": 0.39453125, |
| "learning_rate": 7.497790763563665e-06, |
| "loss": 1.5474530458450317, |
| "step": 84 |
| }, |
| { |
| "epoch": 0.22933333333333333, |
| "grad_norm": 0.69921875, |
| "learning_rate": 7.496548292391548e-06, |
| "loss": 1.8224376440048218, |
| "step": 86 |
| }, |
| { |
| "epoch": 0.23466666666666666, |
| "grad_norm": 1.265625, |
| "learning_rate": 7.4950299358300644e-06, |
| "loss": 1.5387835502624512, |
| "step": 88 |
| }, |
| { |
| "epoch": 0.24, |
| "grad_norm": 0.1806640625, |
| "learning_rate": 7.493235825438903e-06, |
| "loss": 1.4174927473068237, |
| "step": 90 |
| }, |
| { |
| "epoch": 0.24533333333333332, |
| "grad_norm": 0.53125, |
| "learning_rate": 7.491166116670744e-06, |
| "loss": 1.3185020685195923, |
| "step": 92 |
| }, |
| { |
| "epoch": 0.25066666666666665, |
| "grad_norm": 2.078125, |
| "learning_rate": 7.488820988857795e-06, |
| "loss": 1.3037068843841553, |
| "step": 94 |
| }, |
| { |
| "epoch": 0.256, |
| "grad_norm": 0.330078125, |
| "learning_rate": 7.486200645196252e-06, |
| "loss": 1.7521201372146606, |
| "step": 96 |
| }, |
| { |
| "epoch": 0.2613333333333333, |
| "grad_norm": 0.71875, |
| "learning_rate": 7.483305312728692e-06, |
| "loss": 1.2269163131713867, |
| "step": 98 |
| }, |
| { |
| "epoch": 0.26666666666666666, |
| "grad_norm": 0.41796875, |
| "learning_rate": 7.480135242324401e-06, |
| "loss": 1.4020113945007324, |
| "step": 100 |
| }, |
| { |
| "epoch": 0.272, |
| "grad_norm": 0.1875, |
| "learning_rate": 7.476690708657641e-06, |
| "loss": 1.236190915107727, |
| "step": 102 |
| }, |
| { |
| "epoch": 0.2773333333333333, |
| "grad_norm": 0.765625, |
| "learning_rate": 7.472972010183844e-06, |
| "loss": 1.3339173793792725, |
| "step": 104 |
| }, |
| { |
| "epoch": 0.2826666666666667, |
| "grad_norm": 1.6640625, |
| "learning_rate": 7.468979469113756e-06, |
| "loss": 1.5956217050552368, |
| "step": 106 |
| }, |
| { |
| "epoch": 0.288, |
| "grad_norm": 0.2119140625, |
| "learning_rate": 7.4647134313855186e-06, |
| "loss": 1.2588270902633667, |
| "step": 108 |
| }, |
| { |
| "epoch": 0.29333333333333333, |
| "grad_norm": 0.52734375, |
| "learning_rate": 7.4601742666346926e-06, |
| "loss": 1.6625038385391235, |
| "step": 110 |
| }, |
| { |
| "epoch": 0.2986666666666667, |
| "grad_norm": 0.7109375, |
| "learning_rate": 7.455362368162235e-06, |
| "loss": 1.3837028741836548, |
| "step": 112 |
| }, |
| { |
| "epoch": 0.304, |
| "grad_norm": 0.283203125, |
| "learning_rate": 7.450278152900414e-06, |
| "loss": 1.5355887413024902, |
| "step": 114 |
| }, |
| { |
| "epoch": 0.30933333333333335, |
| "grad_norm": 0.65625, |
| "learning_rate": 7.4449220613766924e-06, |
| "loss": 1.6411131620407104, |
| "step": 116 |
| }, |
| { |
| "epoch": 0.31466666666666665, |
| "grad_norm": 1.6484375, |
| "learning_rate": 7.439294557675548e-06, |
| "loss": 1.5240530967712402, |
| "step": 118 |
| }, |
| { |
| "epoch": 0.32, |
| "grad_norm": 0.609375, |
| "learning_rate": 7.43339612939827e-06, |
| "loss": 1.1345856189727783, |
| "step": 120 |
| }, |
| { |
| "epoch": 0.3253333333333333, |
| "grad_norm": 0.373046875, |
| "learning_rate": 7.427227287620707e-06, |
| "loss": 1.1475586891174316, |
| "step": 122 |
| }, |
| { |
| "epoch": 0.33066666666666666, |
| "grad_norm": 0.52734375, |
| "learning_rate": 7.420788566848982e-06, |
| "loss": 1.5467785596847534, |
| "step": 124 |
| }, |
| { |
| "epoch": 0.336, |
| "grad_norm": 0.287109375, |
| "learning_rate": 7.414080524973188e-06, |
| "loss": 1.6301590204238892, |
| "step": 126 |
| }, |
| { |
| "epoch": 0.3413333333333333, |
| "grad_norm": 0.57421875, |
| "learning_rate": 7.407103743219038e-06, |
| "loss": 1.4552572965621948, |
| "step": 128 |
| }, |
| { |
| "epoch": 0.3466666666666667, |
| "grad_norm": 0.73046875, |
| "learning_rate": 7.399858826097512e-06, |
| "loss": 1.7707996368408203, |
| "step": 130 |
| }, |
| { |
| "epoch": 0.352, |
| "grad_norm": 0.64453125, |
| "learning_rate": 7.392346401352474e-06, |
| "loss": 1.4176101684570312, |
| "step": 132 |
| }, |
| { |
| "epoch": 0.35733333333333334, |
| "grad_norm": 0.61328125, |
| "learning_rate": 7.3845671199062815e-06, |
| "loss": 1.4162875413894653, |
| "step": 134 |
| }, |
| { |
| "epoch": 0.3626666666666667, |
| "grad_norm": 0.55859375, |
| "learning_rate": 7.376521655803392e-06, |
| "loss": 1.4608713388442993, |
| "step": 136 |
| }, |
| { |
| "epoch": 0.368, |
| "grad_norm": 0.392578125, |
| "learning_rate": 7.368210706151946e-06, |
| "loss": 1.4052457809448242, |
| "step": 138 |
| }, |
| { |
| "epoch": 0.37333333333333335, |
| "grad_norm": 0.427734375, |
| "learning_rate": 7.359634991063379e-06, |
| "loss": 1.137465476989746, |
| "step": 140 |
| }, |
| { |
| "epoch": 0.37866666666666665, |
| "grad_norm": 0.8359375, |
| "learning_rate": 7.350795253590018e-06, |
| "loss": 1.4206374883651733, |
| "step": 142 |
| }, |
| { |
| "epoch": 0.384, |
| "grad_norm": 0.11474609375, |
| "learning_rate": 7.3416922596607055e-06, |
| "loss": 1.020829439163208, |
| "step": 144 |
| }, |
| { |
| "epoch": 0.3893333333333333, |
| "grad_norm": 0.2421875, |
| "learning_rate": 7.332326798014425e-06, |
| "loss": 1.558069109916687, |
| "step": 146 |
| }, |
| { |
| "epoch": 0.39466666666666667, |
| "grad_norm": 0.26171875, |
| "learning_rate": 7.322699680131971e-06, |
| "loss": 1.5617731809616089, |
| "step": 148 |
| }, |
| { |
| "epoch": 0.4, |
| "grad_norm": 0.40234375, |
| "learning_rate": 7.312811740165632e-06, |
| "loss": 1.3473962545394897, |
| "step": 150 |
| }, |
| { |
| "epoch": 0.4053333333333333, |
| "grad_norm": 0.71875, |
| "learning_rate": 7.302663834866909e-06, |
| "loss": 1.4550005197525024, |
| "step": 152 |
| }, |
| { |
| "epoch": 0.4106666666666667, |
| "grad_norm": 0.4140625, |
| "learning_rate": 7.2922568435122956e-06, |
| "loss": 1.2182159423828125, |
| "step": 154 |
| }, |
| { |
| "epoch": 0.416, |
| "grad_norm": 0.515625, |
| "learning_rate": 7.281591667827079e-06, |
| "loss": 1.1797568798065186, |
| "step": 156 |
| }, |
| { |
| "epoch": 0.42133333333333334, |
| "grad_norm": 0.50390625, |
| "learning_rate": 7.270669231907212e-06, |
| "loss": 1.3810535669326782, |
| "step": 158 |
| }, |
| { |
| "epoch": 0.4266666666666667, |
| "grad_norm": 0.412109375, |
| "learning_rate": 7.2594904821392485e-06, |
| "loss": 1.286556363105774, |
| "step": 160 |
| }, |
| { |
| "epoch": 0.432, |
| "grad_norm": 0.419921875, |
| "learning_rate": 7.248056387118338e-06, |
| "loss": 1.4289522171020508, |
| "step": 162 |
| }, |
| { |
| "epoch": 0.43733333333333335, |
| "grad_norm": 0.66015625, |
| "learning_rate": 7.236367937564302e-06, |
| "loss": 1.243101716041565, |
| "step": 164 |
| }, |
| { |
| "epoch": 0.44266666666666665, |
| "grad_norm": 0.283203125, |
| "learning_rate": 7.224426146235791e-06, |
| "loss": 1.0999314785003662, |
| "step": 166 |
| }, |
| { |
| "epoch": 0.448, |
| "grad_norm": 0.3046875, |
| "learning_rate": 7.212232047842537e-06, |
| "loss": 1.4978009462356567, |
| "step": 168 |
| }, |
| { |
| "epoch": 0.4533333333333333, |
| "grad_norm": 5.53125, |
| "learning_rate": 7.199786698955697e-06, |
| "loss": 1.4373788833618164, |
| "step": 170 |
| }, |
| { |
| "epoch": 0.45866666666666667, |
| "grad_norm": 0.69921875, |
| "learning_rate": 7.187091177916301e-06, |
| "loss": 1.4840056896209717, |
| "step": 172 |
| }, |
| { |
| "epoch": 0.464, |
| "grad_norm": 0.2021484375, |
| "learning_rate": 7.174146584741825e-06, |
| "loss": 1.2911632061004639, |
| "step": 174 |
| }, |
| { |
| "epoch": 0.4693333333333333, |
| "grad_norm": 0.279296875, |
| "learning_rate": 7.160954041030877e-06, |
| "loss": 1.3464269638061523, |
| "step": 176 |
| }, |
| { |
| "epoch": 0.4746666666666667, |
| "grad_norm": 0.357421875, |
| "learning_rate": 7.1475146898660116e-06, |
| "loss": 1.4491277933120728, |
| "step": 178 |
| }, |
| { |
| "epoch": 0.48, |
| "grad_norm": 0.349609375, |
| "learning_rate": 7.133829695714688e-06, |
| "loss": 1.318329930305481, |
| "step": 180 |
| }, |
| { |
| "epoch": 0.48533333333333334, |
| "grad_norm": 0.78515625, |
| "learning_rate": 7.1199002443283776e-06, |
| "loss": 1.089525580406189, |
| "step": 182 |
| }, |
| { |
| "epoch": 0.49066666666666664, |
| "grad_norm": 0.263671875, |
| "learning_rate": 7.1057275426398146e-06, |
| "loss": 1.356623888015747, |
| "step": 184 |
| }, |
| { |
| "epoch": 0.496, |
| "grad_norm": 0.51171875, |
| "learning_rate": 7.09131281865843e-06, |
| "loss": 1.5700266361236572, |
| "step": 186 |
| }, |
| { |
| "epoch": 0.5013333333333333, |
| "grad_norm": 0.45703125, |
| "learning_rate": 7.0766573213639404e-06, |
| "loss": 1.12882661819458, |
| "step": 188 |
| }, |
| { |
| "epoch": 0.5066666666666667, |
| "grad_norm": 0.53125, |
| "learning_rate": 7.061762320598134e-06, |
| "loss": 1.3883382081985474, |
| "step": 190 |
| }, |
| { |
| "epoch": 0.512, |
| "grad_norm": 0.263671875, |
| "learning_rate": 7.0466291069548415e-06, |
| "loss": 1.1575868129730225, |
| "step": 192 |
| }, |
| { |
| "epoch": 0.5173333333333333, |
| "grad_norm": 0.291015625, |
| "learning_rate": 7.031258991668114e-06, |
| "loss": 1.458404302597046, |
| "step": 194 |
| }, |
| { |
| "epoch": 0.5226666666666666, |
| "grad_norm": 0.5703125, |
| "learning_rate": 7.015653306498608e-06, |
| "loss": 1.7165433168411255, |
| "step": 196 |
| }, |
| { |
| "epoch": 0.528, |
| "grad_norm": 0.486328125, |
| "learning_rate": 6.99981340361819e-06, |
| "loss": 1.5549272298812866, |
| "step": 198 |
| }, |
| { |
| "epoch": 0.5333333333333333, |
| "grad_norm": 0.70703125, |
| "learning_rate": 6.983740655492783e-06, |
| "loss": 1.6522574424743652, |
| "step": 200 |
| }, |
| { |
| "epoch": 0.5386666666666666, |
| "grad_norm": 0.84375, |
| "learning_rate": 6.967436454763442e-06, |
| "loss": 1.5417842864990234, |
| "step": 202 |
| }, |
| { |
| "epoch": 0.544, |
| "grad_norm": 0.58203125, |
| "learning_rate": 6.950902214125689e-06, |
| "loss": 1.279434323310852, |
| "step": 204 |
| }, |
| { |
| "epoch": 0.5493333333333333, |
| "grad_norm": 0.474609375, |
| "learning_rate": 6.9341393662071115e-06, |
| "loss": 1.5310899019241333, |
| "step": 206 |
| }, |
| { |
| "epoch": 0.5546666666666666, |
| "grad_norm": 0.4375, |
| "learning_rate": 6.9171493634432225e-06, |
| "loss": 1.1565041542053223, |
| "step": 208 |
| }, |
| { |
| "epoch": 0.56, |
| "grad_norm": 0.3828125, |
| "learning_rate": 6.899933677951622e-06, |
| "loss": 1.3370246887207031, |
| "step": 210 |
| }, |
| { |
| "epoch": 0.5653333333333334, |
| "grad_norm": 0.37890625, |
| "learning_rate": 6.882493801404442e-06, |
| "loss": 1.330797791481018, |
| "step": 212 |
| }, |
| { |
| "epoch": 0.5706666666666667, |
| "grad_norm": 0.81640625, |
| "learning_rate": 6.8648312448990875e-06, |
| "loss": 1.4331892728805542, |
| "step": 214 |
| }, |
| { |
| "epoch": 0.576, |
| "grad_norm": 1.6875, |
| "learning_rate": 6.846947538827327e-06, |
| "loss": 1.5132179260253906, |
| "step": 216 |
| }, |
| { |
| "epoch": 0.5813333333333334, |
| "grad_norm": 1.46875, |
| "learning_rate": 6.828844232742671e-06, |
| "loss": 1.2577152252197266, |
| "step": 218 |
| }, |
| { |
| "epoch": 0.5866666666666667, |
| "grad_norm": 0.9453125, |
| "learning_rate": 6.810522895226115e-06, |
| "loss": 1.45955491065979, |
| "step": 220 |
| }, |
| { |
| "epoch": 0.592, |
| "grad_norm": 0.2470703125, |
| "learning_rate": 6.791985113750234e-06, |
| "loss": 1.2781492471694946, |
| "step": 222 |
| }, |
| { |
| "epoch": 0.5973333333333334, |
| "grad_norm": 0.40625, |
| "learning_rate": 6.773232494541625e-06, |
| "loss": 1.3114062547683716, |
| "step": 224 |
| }, |
| { |
| "epoch": 0.6026666666666667, |
| "grad_norm": 1.0546875, |
| "learning_rate": 6.754266662441742e-06, |
| "loss": 1.4861233234405518, |
| "step": 226 |
| }, |
| { |
| "epoch": 0.608, |
| "grad_norm": 0.671875, |
| "learning_rate": 6.735089260766105e-06, |
| "loss": 1.6322368383407593, |
| "step": 228 |
| }, |
| { |
| "epoch": 0.6133333333333333, |
| "grad_norm": 0.7421875, |
| "learning_rate": 6.7157019511619145e-06, |
| "loss": 1.5255112648010254, |
| "step": 230 |
| }, |
| { |
| "epoch": 0.6186666666666667, |
| "grad_norm": 0.56640625, |
| "learning_rate": 6.696106413464071e-06, |
| "loss": 1.2472528219223022, |
| "step": 232 |
| }, |
| { |
| "epoch": 0.624, |
| "grad_norm": 0.5625, |
| "learning_rate": 6.676304345549635e-06, |
| "loss": 1.5083709955215454, |
| "step": 234 |
| }, |
| { |
| "epoch": 0.6293333333333333, |
| "grad_norm": 0.62890625, |
| "learning_rate": 6.656297463190704e-06, |
| "loss": 1.216172218322754, |
| "step": 236 |
| }, |
| { |
| "epoch": 0.6346666666666667, |
| "grad_norm": 0.5859375, |
| "learning_rate": 6.63608749990575e-06, |
| "loss": 1.2348906993865967, |
| "step": 238 |
| }, |
| { |
| "epoch": 0.64, |
| "grad_norm": 0.345703125, |
| "learning_rate": 6.615676206809415e-06, |
| "loss": 1.3027633428573608, |
| "step": 240 |
| }, |
| { |
| "epoch": 0.6453333333333333, |
| "grad_norm": 0.38671875, |
| "learning_rate": 6.595065352460786e-06, |
| "loss": 1.1347825527191162, |
| "step": 242 |
| }, |
| { |
| "epoch": 0.6506666666666666, |
| "grad_norm": 0.5625, |
| "learning_rate": 6.574256722710161e-06, |
| "loss": 1.271606206893921, |
| "step": 244 |
| }, |
| { |
| "epoch": 0.656, |
| "grad_norm": 0.69921875, |
| "learning_rate": 6.553252120544297e-06, |
| "loss": 1.297676682472229, |
| "step": 246 |
| }, |
| { |
| "epoch": 0.6613333333333333, |
| "grad_norm": 0.357421875, |
| "learning_rate": 6.5320533659302055e-06, |
| "loss": 1.3999580144882202, |
| "step": 248 |
| }, |
| { |
| "epoch": 0.6666666666666666, |
| "grad_norm": 0.498046875, |
| "learning_rate": 6.510662295657448e-06, |
| "loss": 1.4784775972366333, |
| "step": 250 |
| }, |
| { |
| "epoch": 0.672, |
| "grad_norm": 0.33984375, |
| "learning_rate": 6.489080763178991e-06, |
| "loss": 1.3089486360549927, |
| "step": 252 |
| }, |
| { |
| "epoch": 0.6773333333333333, |
| "grad_norm": 0.451171875, |
| "learning_rate": 6.467310638450608e-06, |
| "loss": 1.5869042873382568, |
| "step": 254 |
| }, |
| { |
| "epoch": 0.6826666666666666, |
| "grad_norm": 0.5390625, |
| "learning_rate": 6.44535380776886e-06, |
| "loss": 1.491261601448059, |
| "step": 256 |
| }, |
| { |
| "epoch": 0.688, |
| "grad_norm": 0.53125, |
| "learning_rate": 6.42321217360765e-06, |
| "loss": 1.3518444299697876, |
| "step": 258 |
| }, |
| { |
| "epoch": 0.6933333333333334, |
| "grad_norm": 0.408203125, |
| "learning_rate": 6.40088765445338e-06, |
| "loss": 1.1858634948730469, |
| "step": 260 |
| }, |
| { |
| "epoch": 0.6986666666666667, |
| "grad_norm": 0.44921875, |
| "learning_rate": 6.37838218463873e-06, |
| "loss": 1.3287537097930908, |
| "step": 262 |
| }, |
| { |
| "epoch": 0.704, |
| "grad_norm": 0.478515625, |
| "learning_rate": 6.355697714175047e-06, |
| "loss": 1.0604113340377808, |
| "step": 264 |
| }, |
| { |
| "epoch": 0.7093333333333334, |
| "grad_norm": 0.9453125, |
| "learning_rate": 6.332836208583389e-06, |
| "loss": 1.5299183130264282, |
| "step": 266 |
| }, |
| { |
| "epoch": 0.7146666666666667, |
| "grad_norm": 0.421875, |
| "learning_rate": 6.309799648724218e-06, |
| "loss": 1.2309736013412476, |
| "step": 268 |
| }, |
| { |
| "epoch": 0.72, |
| "grad_norm": 0.7265625, |
| "learning_rate": 6.2865900306257665e-06, |
| "loss": 1.0823864936828613, |
| "step": 270 |
| }, |
| { |
| "epoch": 0.7253333333333334, |
| "grad_norm": 0.435546875, |
| "learning_rate": 6.263209365311089e-06, |
| "loss": 1.2900185585021973, |
| "step": 272 |
| }, |
| { |
| "epoch": 0.7306666666666667, |
| "grad_norm": 0.6875, |
| "learning_rate": 6.2396596786238205e-06, |
| "loss": 1.2881044149398804, |
| "step": 274 |
| }, |
| { |
| "epoch": 0.736, |
| "grad_norm": 1.03125, |
| "learning_rate": 6.215943011052632e-06, |
| "loss": 1.3503191471099854, |
| "step": 276 |
| }, |
| { |
| "epoch": 0.7413333333333333, |
| "grad_norm": 0.63671875, |
| "learning_rate": 6.192061417554441e-06, |
| "loss": 1.33072030544281, |
| "step": 278 |
| }, |
| { |
| "epoch": 0.7466666666666667, |
| "grad_norm": 0.42578125, |
| "learning_rate": 6.16801696737636e-06, |
| "loss": 1.2632883787155151, |
| "step": 280 |
| }, |
| { |
| "epoch": 0.752, |
| "grad_norm": 0.349609375, |
| "learning_rate": 6.143811743876392e-06, |
| "loss": 1.285319447517395, |
| "step": 282 |
| }, |
| { |
| "epoch": 0.7573333333333333, |
| "grad_norm": 0.287109375, |
| "learning_rate": 6.119447844342924e-06, |
| "loss": 1.0543291568756104, |
| "step": 284 |
| }, |
| { |
| "epoch": 0.7626666666666667, |
| "grad_norm": 1.0, |
| "learning_rate": 6.094927379813005e-06, |
| "loss": 1.5204623937606812, |
| "step": 286 |
| }, |
| { |
| "epoch": 0.768, |
| "grad_norm": 0.5390625, |
| "learning_rate": 6.070252474889433e-06, |
| "loss": 0.9127747416496277, |
| "step": 288 |
| }, |
| { |
| "epoch": 0.7733333333333333, |
| "grad_norm": 0.279296875, |
| "learning_rate": 6.045425267556659e-06, |
| "loss": 1.2986137866973877, |
| "step": 290 |
| }, |
| { |
| "epoch": 0.7786666666666666, |
| "grad_norm": 0.58984375, |
| "learning_rate": 6.020447908995551e-06, |
| "loss": 1.482648253440857, |
| "step": 292 |
| }, |
| { |
| "epoch": 0.784, |
| "grad_norm": 0.39453125, |
| "learning_rate": 5.995322563396996e-06, |
| "loss": 1.1602120399475098, |
| "step": 294 |
| }, |
| { |
| "epoch": 0.7893333333333333, |
| "grad_norm": 1.0859375, |
| "learning_rate": 5.970051407774374e-06, |
| "loss": 1.2999836206436157, |
| "step": 296 |
| }, |
| { |
| "epoch": 0.7946666666666666, |
| "grad_norm": 0.31640625, |
| "learning_rate": 5.9446366317749464e-06, |
| "loss": 1.464931607246399, |
| "step": 298 |
| }, |
| { |
| "epoch": 0.8, |
| "grad_norm": 3.78125, |
| "learning_rate": 5.919080437490115e-06, |
| "loss": 1.494107961654663, |
| "step": 300 |
| }, |
| { |
| "epoch": 0.8053333333333333, |
| "grad_norm": 0.45703125, |
| "learning_rate": 5.893385039264628e-06, |
| "loss": 1.3205267190933228, |
| "step": 302 |
| }, |
| { |
| "epoch": 0.8106666666666666, |
| "grad_norm": 0.306640625, |
| "learning_rate": 5.867552663504711e-06, |
| "loss": 1.392236351966858, |
| "step": 304 |
| }, |
| { |
| "epoch": 0.816, |
| "grad_norm": 2.109375, |
| "learning_rate": 5.841585548485161e-06, |
| "loss": 1.054479718208313, |
| "step": 306 |
| }, |
| { |
| "epoch": 0.8213333333333334, |
| "grad_norm": 0.474609375, |
| "learning_rate": 5.815485944155406e-06, |
| "loss": 1.4559931755065918, |
| "step": 308 |
| }, |
| { |
| "epoch": 0.8266666666666667, |
| "grad_norm": 1.6484375, |
| "learning_rate": 5.78925611194456e-06, |
| "loss": 1.2822375297546387, |
| "step": 310 |
| }, |
| { |
| "epoch": 0.832, |
| "grad_norm": 0.5234375, |
| "learning_rate": 5.762898324565472e-06, |
| "loss": 1.1534578800201416, |
| "step": 312 |
| }, |
| { |
| "epoch": 0.8373333333333334, |
| "grad_norm": 0.40234375, |
| "learning_rate": 5.7364148658178136e-06, |
| "loss": 1.4816879034042358, |
| "step": 314 |
| }, |
| { |
| "epoch": 0.8426666666666667, |
| "grad_norm": 0.48828125, |
| "learning_rate": 5.7098080303901845e-06, |
| "loss": 1.3202126026153564, |
| "step": 316 |
| }, |
| { |
| "epoch": 0.848, |
| "grad_norm": 0.57421875, |
| "learning_rate": 5.683080123661299e-06, |
| "loss": 1.548636794090271, |
| "step": 318 |
| }, |
| { |
| "epoch": 0.8533333333333334, |
| "grad_norm": 0.18359375, |
| "learning_rate": 5.656233461500226e-06, |
| "loss": 1.1134190559387207, |
| "step": 320 |
| }, |
| { |
| "epoch": 0.8586666666666667, |
| "grad_norm": 0.369140625, |
| "learning_rate": 5.6292703700657276e-06, |
| "loss": 1.427626132965088, |
| "step": 322 |
| }, |
| { |
| "epoch": 0.864, |
| "grad_norm": 0.66796875, |
| "learning_rate": 5.602193185604715e-06, |
| "loss": 1.2644096612930298, |
| "step": 324 |
| }, |
| { |
| "epoch": 0.8693333333333333, |
| "grad_norm": 0.419921875, |
| "learning_rate": 5.575004254249812e-06, |
| "loss": 1.0416737794876099, |
| "step": 326 |
| }, |
| { |
| "epoch": 0.8746666666666667, |
| "grad_norm": 0.32421875, |
| "learning_rate": 5.547705931816078e-06, |
| "loss": 1.113074779510498, |
| "step": 328 |
| }, |
| { |
| "epoch": 0.88, |
| "grad_norm": 1.2578125, |
| "learning_rate": 5.520300583596882e-06, |
| "loss": 1.0335323810577393, |
| "step": 330 |
| }, |
| { |
| "epoch": 0.8853333333333333, |
| "grad_norm": 0.3125, |
| "learning_rate": 5.49279058415896e-06, |
| "loss": 1.1414536237716675, |
| "step": 332 |
| }, |
| { |
| "epoch": 0.8906666666666667, |
| "grad_norm": 0.37890625, |
| "learning_rate": 5.465178317136669e-06, |
| "loss": 0.8871914148330688, |
| "step": 334 |
| }, |
| { |
| "epoch": 0.896, |
| "grad_norm": 0.578125, |
| "learning_rate": 5.437466175025457e-06, |
| "loss": 1.3287149667739868, |
| "step": 336 |
| }, |
| { |
| "epoch": 0.9013333333333333, |
| "grad_norm": 0.59765625, |
| "learning_rate": 5.4096565589745565e-06, |
| "loss": 1.3277924060821533, |
| "step": 338 |
| }, |
| { |
| "epoch": 0.9066666666666666, |
| "grad_norm": 0.55078125, |
| "learning_rate": 5.3817518785789386e-06, |
| "loss": 1.6219979524612427, |
| "step": 340 |
| }, |
| { |
| "epoch": 0.912, |
| "grad_norm": 0.337890625, |
| "learning_rate": 5.3537545516705285e-06, |
| "loss": 1.1041191816329956, |
| "step": 342 |
| }, |
| { |
| "epoch": 0.9173333333333333, |
| "grad_norm": 0.54296875, |
| "learning_rate": 5.325667004108713e-06, |
| "loss": 1.5842766761779785, |
| "step": 344 |
| }, |
| { |
| "epoch": 0.9226666666666666, |
| "grad_norm": 0.77734375, |
| "learning_rate": 5.297491669570145e-06, |
| "loss": 1.5403611660003662, |
| "step": 346 |
| }, |
| { |
| "epoch": 0.928, |
| "grad_norm": 0.39453125, |
| "learning_rate": 5.2692309893378806e-06, |
| "loss": 1.387043833732605, |
| "step": 348 |
| }, |
| { |
| "epoch": 0.9333333333333333, |
| "grad_norm": 0.376953125, |
| "learning_rate": 5.240887412089846e-06, |
| "loss": 1.1895140409469604, |
| "step": 350 |
| }, |
| { |
| "epoch": 0.9386666666666666, |
| "grad_norm": 0.7734375, |
| "learning_rate": 5.2124633936866694e-06, |
| "loss": 1.45750892162323, |
| "step": 352 |
| }, |
| { |
| "epoch": 0.944, |
| "grad_norm": 0.48828125, |
| "learning_rate": 5.183961396958894e-06, |
| "loss": 1.2903810739517212, |
| "step": 354 |
| }, |
| { |
| "epoch": 0.9493333333333334, |
| "grad_norm": 0.365234375, |
| "learning_rate": 5.155383891493582e-06, |
| "loss": 1.0638062953948975, |
| "step": 356 |
| }, |
| { |
| "epoch": 0.9546666666666667, |
| "grad_norm": 0.392578125, |
| "learning_rate": 5.126733353420332e-06, |
| "loss": 1.1334384679794312, |
| "step": 358 |
| }, |
| { |
| "epoch": 0.96, |
| "grad_norm": 0.8671875, |
| "learning_rate": 5.098012265196735e-06, |
| "loss": 1.616370677947998, |
| "step": 360 |
| }, |
| { |
| "epoch": 0.9653333333333334, |
| "grad_norm": 0.458984375, |
| "learning_rate": 5.069223115393278e-06, |
| "loss": 1.2166802883148193, |
| "step": 362 |
| }, |
| { |
| "epoch": 0.9706666666666667, |
| "grad_norm": 0.439453125, |
| "learning_rate": 5.0403683984777156e-06, |
| "loss": 1.460686206817627, |
| "step": 364 |
| }, |
| { |
| "epoch": 0.976, |
| "grad_norm": 0.412109375, |
| "learning_rate": 5.011450614598942e-06, |
| "loss": 1.5133981704711914, |
| "step": 366 |
| }, |
| { |
| "epoch": 0.9813333333333333, |
| "grad_norm": 0.51953125, |
| "learning_rate": 4.982472269370356e-06, |
| "loss": 1.3987483978271484, |
| "step": 368 |
| }, |
| { |
| "epoch": 0.9866666666666667, |
| "grad_norm": 0.5, |
| "learning_rate": 4.9534358736527624e-06, |
| "loss": 1.187402606010437, |
| "step": 370 |
| }, |
| { |
| "epoch": 0.992, |
| "grad_norm": 0.388671875, |
| "learning_rate": 4.924343943336814e-06, |
| "loss": 1.3969718217849731, |
| "step": 372 |
| }, |
| { |
| "epoch": 0.9973333333333333, |
| "grad_norm": 0.5078125, |
| "learning_rate": 4.895198999125022e-06, |
| "loss": 1.1329926252365112, |
| "step": 374 |
| }, |
| { |
| "epoch": 1.0026666666666666, |
| "grad_norm": 0.76953125, |
| "learning_rate": 4.866003566313341e-06, |
| "loss": 1.426386833190918, |
| "step": 376 |
| }, |
| { |
| "epoch": 1.008, |
| "grad_norm": 0.5859375, |
| "learning_rate": 4.83676017457237e-06, |
| "loss": 1.2209362983703613, |
| "step": 378 |
| }, |
| { |
| "epoch": 1.0133333333333334, |
| "grad_norm": 0.59375, |
| "learning_rate": 4.807471357728167e-06, |
| "loss": 1.1464167833328247, |
| "step": 380 |
| }, |
| { |
| "epoch": 1.0186666666666666, |
| "grad_norm": 1.0078125, |
| "learning_rate": 4.778139653542688e-06, |
| "loss": 1.229437232017517, |
| "step": 382 |
| }, |
| { |
| "epoch": 1.024, |
| "grad_norm": 0.337890625, |
| "learning_rate": 4.7487676034939156e-06, |
| "loss": 0.9976918697357178, |
| "step": 384 |
| }, |
| { |
| "epoch": 1.0293333333333334, |
| "grad_norm": 0.310546875, |
| "learning_rate": 4.719357752555646e-06, |
| "loss": 1.025425672531128, |
| "step": 386 |
| }, |
| { |
| "epoch": 1.0346666666666666, |
| "grad_norm": 0.2216796875, |
| "learning_rate": 4.689912648976973e-06, |
| "loss": 1.0078941583633423, |
| "step": 388 |
| }, |
| { |
| "epoch": 1.04, |
| "grad_norm": 0.4296875, |
| "learning_rate": 4.660434844061493e-06, |
| "loss": 1.1683357954025269, |
| "step": 390 |
| }, |
| { |
| "epoch": 1.0453333333333332, |
| "grad_norm": 0.51953125, |
| "learning_rate": 4.630926891946251e-06, |
| "loss": 1.126926302909851, |
| "step": 392 |
| }, |
| { |
| "epoch": 1.0506666666666666, |
| "grad_norm": 0.5, |
| "learning_rate": 4.601391349380425e-06, |
| "loss": 1.2865811586380005, |
| "step": 394 |
| }, |
| { |
| "epoch": 1.056, |
| "grad_norm": 0.7734375, |
| "learning_rate": 4.571830775503799e-06, |
| "loss": 1.5480324029922485, |
| "step": 396 |
| }, |
| { |
| "epoch": 1.0613333333333332, |
| "grad_norm": 0.55859375, |
| "learning_rate": 4.542247731625022e-06, |
| "loss": 1.2431285381317139, |
| "step": 398 |
| }, |
| { |
| "epoch": 1.0666666666666667, |
| "grad_norm": 0.546875, |
| "learning_rate": 4.512644780999687e-06, |
| "loss": 1.4781147241592407, |
| "step": 400 |
| }, |
| { |
| "epoch": 1.072, |
| "grad_norm": 2.515625, |
| "learning_rate": 4.48302448860822e-06, |
| "loss": 1.0834038257598877, |
| "step": 402 |
| }, |
| { |
| "epoch": 1.0773333333333333, |
| "grad_norm": 0.6328125, |
| "learning_rate": 4.453389420933649e-06, |
| "loss": 1.366401195526123, |
| "step": 404 |
| }, |
| { |
| "epoch": 1.0826666666666667, |
| "grad_norm": 0.271484375, |
| "learning_rate": 4.423742145739222e-06, |
| "loss": 1.0470842123031616, |
| "step": 406 |
| }, |
| { |
| "epoch": 1.088, |
| "grad_norm": 0.431640625, |
| "learning_rate": 4.394085231845921e-06, |
| "loss": 1.0181280374526978, |
| "step": 408 |
| }, |
| { |
| "epoch": 1.0933333333333333, |
| "grad_norm": 0.65625, |
| "learning_rate": 4.364421248909884e-06, |
| "loss": 1.034490704536438, |
| "step": 410 |
| }, |
| { |
| "epoch": 1.0986666666666667, |
| "grad_norm": 0.70703125, |
| "learning_rate": 4.334752767199752e-06, |
| "loss": 1.3856372833251953, |
| "step": 412 |
| }, |
| { |
| "epoch": 1.104, |
| "grad_norm": 0.373046875, |
| "learning_rate": 4.305082357373971e-06, |
| "loss": 1.139554500579834, |
| "step": 414 |
| }, |
| { |
| "epoch": 1.1093333333333333, |
| "grad_norm": 0.51171875, |
| "learning_rate": 4.275412590258048e-06, |
| "loss": 1.3391931056976318, |
| "step": 416 |
| }, |
| { |
| "epoch": 1.1146666666666667, |
| "grad_norm": 0.349609375, |
| "learning_rate": 4.2457460366218e-06, |
| "loss": 1.5631487369537354, |
| "step": 418 |
| }, |
| { |
| "epoch": 1.12, |
| "grad_norm": 0.6875, |
| "learning_rate": 4.2160852669566135e-06, |
| "loss": 1.3829050064086914, |
| "step": 420 |
| }, |
| { |
| "epoch": 1.1253333333333333, |
| "grad_norm": 0.97265625, |
| "learning_rate": 4.1864328512527115e-06, |
| "loss": 1.0705004930496216, |
| "step": 422 |
| }, |
| { |
| "epoch": 1.1306666666666667, |
| "grad_norm": 0.68359375, |
| "learning_rate": 4.156791358776483e-06, |
| "loss": 1.4946973323822021, |
| "step": 424 |
| }, |
| { |
| "epoch": 1.1360000000000001, |
| "grad_norm": 0.384765625, |
| "learning_rate": 4.127163357847858e-06, |
| "loss": 1.3657976388931274, |
| "step": 426 |
| }, |
| { |
| "epoch": 1.1413333333333333, |
| "grad_norm": 0.447265625, |
| "learning_rate": 4.09755141561778e-06, |
| "loss": 1.211698055267334, |
| "step": 428 |
| }, |
| { |
| "epoch": 1.1466666666666667, |
| "grad_norm": 12.8125, |
| "learning_rate": 4.0679580978457656e-06, |
| "loss": 1.5211821794509888, |
| "step": 430 |
| }, |
| { |
| "epoch": 1.152, |
| "grad_norm": 0.46875, |
| "learning_rate": 4.038385968677596e-06, |
| "loss": 1.0360568761825562, |
| "step": 432 |
| }, |
| { |
| "epoch": 1.1573333333333333, |
| "grad_norm": 1.3125, |
| "learning_rate": 4.008837590423144e-06, |
| "loss": 1.6035184860229492, |
| "step": 434 |
| }, |
| { |
| "epoch": 1.1626666666666667, |
| "grad_norm": 0.48828125, |
| "learning_rate": 3.979315523334355e-06, |
| "loss": 1.157009243965149, |
| "step": 436 |
| }, |
| { |
| "epoch": 1.168, |
| "grad_norm": 0.458984375, |
| "learning_rate": 3.9498223253834165e-06, |
| "loss": 1.4968481063842773, |
| "step": 438 |
| }, |
| { |
| "epoch": 1.1733333333333333, |
| "grad_norm": 0.5234375, |
| "learning_rate": 3.9203605520411165e-06, |
| "loss": 1.229710340499878, |
| "step": 440 |
| }, |
| { |
| "epoch": 1.1786666666666668, |
| "grad_norm": 0.734375, |
| "learning_rate": 3.890932756055422e-06, |
| "loss": 1.5977742671966553, |
| "step": 442 |
| }, |
| { |
| "epoch": 1.184, |
| "grad_norm": 0.75390625, |
| "learning_rate": 3.861541487230299e-06, |
| "loss": 1.2765097618103027, |
| "step": 444 |
| }, |
| { |
| "epoch": 1.1893333333333334, |
| "grad_norm": 0.59765625, |
| "learning_rate": 3.832189292204773e-06, |
| "loss": 1.3562519550323486, |
| "step": 446 |
| }, |
| { |
| "epoch": 1.1946666666666665, |
| "grad_norm": 0.4453125, |
| "learning_rate": 3.802878714232277e-06, |
| "loss": 1.6301568746566772, |
| "step": 448 |
| }, |
| { |
| "epoch": 1.2, |
| "grad_norm": 0.47265625, |
| "learning_rate": 3.7736122929602887e-06, |
| "loss": 1.264549732208252, |
| "step": 450 |
| }, |
| { |
| "epoch": 1.2053333333333334, |
| "grad_norm": 0.443359375, |
| "learning_rate": 3.744392564210283e-06, |
| "loss": 1.4258700609207153, |
| "step": 452 |
| }, |
| { |
| "epoch": 1.2106666666666666, |
| "grad_norm": 0.56640625, |
| "learning_rate": 3.7152220597580023e-06, |
| "loss": 1.4381071329116821, |
| "step": 454 |
| }, |
| { |
| "epoch": 1.216, |
| "grad_norm": 0.42578125, |
| "learning_rate": 3.686103307114104e-06, |
| "loss": 1.4425290822982788, |
| "step": 456 |
| }, |
| { |
| "epoch": 1.2213333333333334, |
| "grad_norm": 0.419921875, |
| "learning_rate": 3.6570388293051458e-06, |
| "loss": 1.2543679475784302, |
| "step": 458 |
| }, |
| { |
| "epoch": 1.2266666666666666, |
| "grad_norm": 0.392578125, |
| "learning_rate": 3.628031144654986e-06, |
| "loss": 1.3114312887191772, |
| "step": 460 |
| }, |
| { |
| "epoch": 1.232, |
| "grad_norm": 0.53125, |
| "learning_rate": 3.5990827665665756e-06, |
| "loss": 1.4582160711288452, |
| "step": 462 |
| }, |
| { |
| "epoch": 1.2373333333333334, |
| "grad_norm": 0.53125, |
| "learning_rate": 3.570196203304182e-06, |
| "loss": 0.9986866116523743, |
| "step": 464 |
| }, |
| { |
| "epoch": 1.2426666666666666, |
| "grad_norm": 0.8984375, |
| "learning_rate": 3.541373957776059e-06, |
| "loss": 1.124342918395996, |
| "step": 466 |
| }, |
| { |
| "epoch": 1.248, |
| "grad_norm": 0.62109375, |
| "learning_rate": 3.512618527317581e-06, |
| "loss": 1.3204665184020996, |
| "step": 468 |
| }, |
| { |
| "epoch": 1.2533333333333334, |
| "grad_norm": 0.349609375, |
| "learning_rate": 3.483932403474856e-06, |
| "loss": 1.1635738611221313, |
| "step": 470 |
| }, |
| { |
| "epoch": 1.2586666666666666, |
| "grad_norm": 0.52734375, |
| "learning_rate": 3.4553180717888407e-06, |
| "loss": 1.0901280641555786, |
| "step": 472 |
| }, |
| { |
| "epoch": 1.264, |
| "grad_norm": 0.41015625, |
| "learning_rate": 3.4267780115799846e-06, |
| "loss": 1.0830848217010498, |
| "step": 474 |
| }, |
| { |
| "epoch": 1.2693333333333334, |
| "grad_norm": 0.310546875, |
| "learning_rate": 3.398314695733401e-06, |
| "loss": 1.3727480173110962, |
| "step": 476 |
| }, |
| { |
| "epoch": 1.2746666666666666, |
| "grad_norm": 0.578125, |
| "learning_rate": 3.3699305904846027e-06, |
| "loss": 1.6773924827575684, |
| "step": 478 |
| }, |
| { |
| "epoch": 1.28, |
| "grad_norm": 0.55078125, |
| "learning_rate": 3.341628155205811e-06, |
| "loss": 1.2972683906555176, |
| "step": 480 |
| }, |
| { |
| "epoch": 1.2853333333333334, |
| "grad_norm": 0.71875, |
| "learning_rate": 3.3134098421928692e-06, |
| "loss": 1.2166887521743774, |
| "step": 482 |
| }, |
| { |
| "epoch": 1.2906666666666666, |
| "grad_norm": 1.5078125, |
| "learning_rate": 3.2852780964527466e-06, |
| "loss": 1.3262923955917358, |
| "step": 484 |
| }, |
| { |
| "epoch": 1.296, |
| "grad_norm": 0.2216796875, |
| "learning_rate": 3.2572353554916966e-06, |
| "loss": 1.2588746547698975, |
| "step": 486 |
| }, |
| { |
| "epoch": 1.3013333333333335, |
| "grad_norm": 0.43359375, |
| "learning_rate": 3.229284049104057e-06, |
| "loss": 0.8871427774429321, |
| "step": 488 |
| }, |
| { |
| "epoch": 1.3066666666666666, |
| "grad_norm": 0.259765625, |
| "learning_rate": 3.2014265991617147e-06, |
| "loss": 1.3596696853637695, |
| "step": 490 |
| }, |
| { |
| "epoch": 1.312, |
| "grad_norm": 0.62890625, |
| "learning_rate": 3.17366541940426e-06, |
| "loss": 1.5204687118530273, |
| "step": 492 |
| }, |
| { |
| "epoch": 1.3173333333333335, |
| "grad_norm": 0.32421875, |
| "learning_rate": 3.1460029152298484e-06, |
| "loss": 1.2328211069107056, |
| "step": 494 |
| }, |
| { |
| "epoch": 1.3226666666666667, |
| "grad_norm": 0.43359375, |
| "learning_rate": 3.1184414834867804e-06, |
| "loss": 1.2612500190734863, |
| "step": 496 |
| }, |
| { |
| "epoch": 1.328, |
| "grad_norm": 0.328125, |
| "learning_rate": 3.0909835122658214e-06, |
| "loss": 1.230236291885376, |
| "step": 498 |
| }, |
| { |
| "epoch": 1.3333333333333333, |
| "grad_norm": 0.8046875, |
| "learning_rate": 3.063631380693286e-06, |
| "loss": 1.016282558441162, |
| "step": 500 |
| }, |
| { |
| "epoch": 1.3386666666666667, |
| "grad_norm": 0.451171875, |
| "learning_rate": 3.036387458724898e-06, |
| "loss": 1.2729389667510986, |
| "step": 502 |
| }, |
| { |
| "epoch": 1.3439999999999999, |
| "grad_norm": 0.396484375, |
| "learning_rate": 3.009254106940435e-06, |
| "loss": 1.2068243026733398, |
| "step": 504 |
| }, |
| { |
| "epoch": 1.3493333333333333, |
| "grad_norm": 0.51953125, |
| "learning_rate": 2.982233676339206e-06, |
| "loss": 1.28195321559906, |
| "step": 506 |
| }, |
| { |
| "epoch": 1.3546666666666667, |
| "grad_norm": 0.275390625, |
| "learning_rate": 2.9553285081363308e-06, |
| "loss": 1.1186037063598633, |
| "step": 508 |
| }, |
| { |
| "epoch": 1.3599999999999999, |
| "grad_norm": 0.2255859375, |
| "learning_rate": 2.9285409335598982e-06, |
| "loss": 1.1410784721374512, |
| "step": 510 |
| }, |
| { |
| "epoch": 1.3653333333333333, |
| "grad_norm": 0.59765625, |
| "learning_rate": 2.9018732736489615e-06, |
| "loss": 1.3254414796829224, |
| "step": 512 |
| }, |
| { |
| "epoch": 1.3706666666666667, |
| "grad_norm": 0.515625, |
| "learning_rate": 2.87532783905244e-06, |
| "loss": 1.5107591152191162, |
| "step": 514 |
| }, |
| { |
| "epoch": 1.376, |
| "grad_norm": 0.46484375, |
| "learning_rate": 2.8489069298288992e-06, |
| "loss": 1.2509578466415405, |
| "step": 516 |
| }, |
| { |
| "epoch": 1.3813333333333333, |
| "grad_norm": 0.40234375, |
| "learning_rate": 2.8226128352472747e-06, |
| "loss": 1.3889421224594116, |
| "step": 518 |
| }, |
| { |
| "epoch": 1.3866666666666667, |
| "grad_norm": 0.9140625, |
| "learning_rate": 2.796447833588497e-06, |
| "loss": 1.4837677478790283, |
| "step": 520 |
| }, |
| { |
| "epoch": 1.392, |
| "grad_norm": 0.359375, |
| "learning_rate": 2.7704141919481057e-06, |
| "loss": 1.4461725950241089, |
| "step": 522 |
| }, |
| { |
| "epoch": 1.3973333333333333, |
| "grad_norm": 0.625, |
| "learning_rate": 2.7445141660397996e-06, |
| "loss": 1.299829363822937, |
| "step": 524 |
| }, |
| { |
| "epoch": 1.4026666666666667, |
| "grad_norm": 0.5234375, |
| "learning_rate": 2.7187500000000004e-06, |
| "loss": 1.0224652290344238, |
| "step": 526 |
| }, |
| { |
| "epoch": 1.408, |
| "grad_norm": 0.53515625, |
| "learning_rate": 2.6931239261933957e-06, |
| "loss": 1.4109441041946411, |
| "step": 528 |
| }, |
| { |
| "epoch": 1.4133333333333333, |
| "grad_norm": 0.40234375, |
| "learning_rate": 2.6676381650195224e-06, |
| "loss": 1.3534106016159058, |
| "step": 530 |
| }, |
| { |
| "epoch": 1.4186666666666667, |
| "grad_norm": 0.89453125, |
| "learning_rate": 2.6422949247203735e-06, |
| "loss": 1.5593756437301636, |
| "step": 532 |
| }, |
| { |
| "epoch": 1.424, |
| "grad_norm": 0.45703125, |
| "learning_rate": 2.61709640118906e-06, |
| "loss": 1.290115475654602, |
| "step": 534 |
| }, |
| { |
| "epoch": 1.4293333333333333, |
| "grad_norm": 0.8125, |
| "learning_rate": 2.5920447777795537e-06, |
| "loss": 1.11957585811615, |
| "step": 536 |
| }, |
| { |
| "epoch": 1.4346666666666668, |
| "grad_norm": 4.375, |
| "learning_rate": 2.5671422251174963e-06, |
| "loss": 1.0493898391723633, |
| "step": 538 |
| }, |
| { |
| "epoch": 1.44, |
| "grad_norm": 0.78515625, |
| "learning_rate": 2.5423909009121363e-06, |
| "loss": 1.2276326417922974, |
| "step": 540 |
| }, |
| { |
| "epoch": 1.4453333333333334, |
| "grad_norm": 0.28125, |
| "learning_rate": 2.517792949769358e-06, |
| "loss": 1.2422417402267456, |
| "step": 542 |
| }, |
| { |
| "epoch": 1.4506666666666668, |
| "grad_norm": 0.8359375, |
| "learning_rate": 2.4933505030058744e-06, |
| "loss": 1.4107698202133179, |
| "step": 544 |
| }, |
| { |
| "epoch": 1.456, |
| "grad_norm": 0.357421875, |
| "learning_rate": 2.4690656784645434e-06, |
| "loss": 1.0884898900985718, |
| "step": 546 |
| }, |
| { |
| "epoch": 1.4613333333333334, |
| "grad_norm": 0.408203125, |
| "learning_rate": 2.444940580330874e-06, |
| "loss": 1.4010899066925049, |
| "step": 548 |
| }, |
| { |
| "epoch": 1.4666666666666668, |
| "grad_norm": 1.03125, |
| "learning_rate": 2.420977298950702e-06, |
| "loss": 1.2208497524261475, |
| "step": 550 |
| }, |
| { |
| "epoch": 1.472, |
| "grad_norm": 0.41796875, |
| "learning_rate": 2.397177910649074e-06, |
| "loss": 1.2561097145080566, |
| "step": 552 |
| }, |
| { |
| "epoch": 1.4773333333333334, |
| "grad_norm": 0.52734375, |
| "learning_rate": 2.3735444775503344e-06, |
| "loss": 1.585281491279602, |
| "step": 554 |
| }, |
| { |
| "epoch": 1.4826666666666668, |
| "grad_norm": 1.1875, |
| "learning_rate": 2.350079047399464e-06, |
| "loss": 1.4287792444229126, |
| "step": 556 |
| }, |
| { |
| "epoch": 1.488, |
| "grad_norm": 0.87890625, |
| "learning_rate": 2.3267836533846328e-06, |
| "loss": 1.0933114290237427, |
| "step": 558 |
| }, |
| { |
| "epoch": 1.4933333333333334, |
| "grad_norm": 0.8359375, |
| "learning_rate": 2.3036603139610482e-06, |
| "loss": 1.1171455383300781, |
| "step": 560 |
| }, |
| { |
| "epoch": 1.4986666666666666, |
| "grad_norm": 0.64453125, |
| "learning_rate": 2.2807110326760515e-06, |
| "loss": 1.2635574340820312, |
| "step": 562 |
| }, |
| { |
| "epoch": 1.504, |
| "grad_norm": 1.015625, |
| "learning_rate": 2.25793779799553e-06, |
| "loss": 1.4870187044143677, |
| "step": 564 |
| }, |
| { |
| "epoch": 1.5093333333333332, |
| "grad_norm": 0.197265625, |
| "learning_rate": 2.2353425831316116e-06, |
| "loss": 1.1228148937225342, |
| "step": 566 |
| }, |
| { |
| "epoch": 1.5146666666666668, |
| "grad_norm": 0.462890625, |
| "learning_rate": 2.2129273458717058e-06, |
| "loss": 1.393061876296997, |
| "step": 568 |
| }, |
| { |
| "epoch": 1.52, |
| "grad_norm": 0.45703125, |
| "learning_rate": 2.1906940284088615e-06, |
| "loss": 1.0268428325653076, |
| "step": 570 |
| }, |
| { |
| "epoch": 1.5253333333333332, |
| "grad_norm": 0.80859375, |
| "learning_rate": 2.1686445571734825e-06, |
| "loss": 1.3282322883605957, |
| "step": 572 |
| }, |
| { |
| "epoch": 1.5306666666666666, |
| "grad_norm": 0.390625, |
| "learning_rate": 2.146780842666417e-06, |
| "loss": 1.2435400485992432, |
| "step": 574 |
| }, |
| { |
| "epoch": 1.536, |
| "grad_norm": 0.61328125, |
| "learning_rate": 2.1251047792934116e-06, |
| "loss": 1.3963842391967773, |
| "step": 576 |
| }, |
| { |
| "epoch": 1.5413333333333332, |
| "grad_norm": 0.40234375, |
| "learning_rate": 2.1036182452009777e-06, |
| "loss": 1.2569538354873657, |
| "step": 578 |
| }, |
| { |
| "epoch": 1.5466666666666666, |
| "grad_norm": 0.58203125, |
| "learning_rate": 2.082323102113647e-06, |
| "loss": 1.3759268522262573, |
| "step": 580 |
| }, |
| { |
| "epoch": 1.552, |
| "grad_norm": 0.4140625, |
| "learning_rate": 2.0612211951726712e-06, |
| "loss": 1.1200230121612549, |
| "step": 582 |
| }, |
| { |
| "epoch": 1.5573333333333332, |
| "grad_norm": 0.51171875, |
| "learning_rate": 2.040314352776137e-06, |
| "loss": 1.6027384996414185, |
| "step": 584 |
| }, |
| { |
| "epoch": 1.5626666666666666, |
| "grad_norm": 0.66015625, |
| "learning_rate": 2.01960438642055e-06, |
| "loss": 1.5927393436431885, |
| "step": 586 |
| }, |
| { |
| "epoch": 1.568, |
| "grad_norm": 0.306640625, |
| "learning_rate": 1.9990930905438733e-06, |
| "loss": 1.0526584386825562, |
| "step": 588 |
| }, |
| { |
| "epoch": 1.5733333333333333, |
| "grad_norm": 0.65625, |
| "learning_rate": 1.978782242370046e-06, |
| "loss": 1.4229958057403564, |
| "step": 590 |
| }, |
| { |
| "epoch": 1.5786666666666667, |
| "grad_norm": 0.2392578125, |
| "learning_rate": 1.958673601754995e-06, |
| "loss": 1.2796956300735474, |
| "step": 592 |
| }, |
| { |
| "epoch": 1.584, |
| "grad_norm": 0.57421875, |
| "learning_rate": 1.9387689110341494e-06, |
| "loss": 1.5249470472335815, |
| "step": 594 |
| }, |
| { |
| "epoch": 1.5893333333333333, |
| "grad_norm": 0.37890625, |
| "learning_rate": 1.9190698948714714e-06, |
| "loss": 1.0016456842422485, |
| "step": 596 |
| }, |
| { |
| "epoch": 1.5946666666666667, |
| "grad_norm": 0.29296875, |
| "learning_rate": 1.899578260110027e-06, |
| "loss": 1.4921225309371948, |
| "step": 598 |
| }, |
| { |
| "epoch": 1.6, |
| "grad_norm": 0.5625, |
| "learning_rate": 1.8802956956240875e-06, |
| "loss": 1.3857101202011108, |
| "step": 600 |
| }, |
| { |
| "epoch": 1.6053333333333333, |
| "grad_norm": 0.376953125, |
| "learning_rate": 1.8612238721728026e-06, |
| "loss": 1.0772466659545898, |
| "step": 602 |
| }, |
| { |
| "epoch": 1.6106666666666667, |
| "grad_norm": 0.69921875, |
| "learning_rate": 1.8423644422554278e-06, |
| "loss": 1.374086618423462, |
| "step": 604 |
| }, |
| { |
| "epoch": 1.616, |
| "grad_norm": 0.2392578125, |
| "learning_rate": 1.8237190399681486e-06, |
| "loss": 1.1497209072113037, |
| "step": 606 |
| }, |
| { |
| "epoch": 1.6213333333333333, |
| "grad_norm": 0.31640625, |
| "learning_rate": 1.8052892808624892e-06, |
| "loss": 1.1666005849838257, |
| "step": 608 |
| }, |
| { |
| "epoch": 1.6266666666666667, |
| "grad_norm": 0.5390625, |
| "learning_rate": 1.78707676180533e-06, |
| "loss": 1.4539345502853394, |
| "step": 610 |
| }, |
| { |
| "epoch": 1.6320000000000001, |
| "grad_norm": 0.62890625, |
| "learning_rate": 1.7690830608405475e-06, |
| "loss": 1.2192360162734985, |
| "step": 612 |
| }, |
| { |
| "epoch": 1.6373333333333333, |
| "grad_norm": 0.40234375, |
| "learning_rate": 1.7513097370522843e-06, |
| "loss": 1.2787443399429321, |
| "step": 614 |
| }, |
| { |
| "epoch": 1.6426666666666667, |
| "grad_norm": 0.8203125, |
| "learning_rate": 1.7337583304298553e-06, |
| "loss": 1.4955127239227295, |
| "step": 616 |
| }, |
| { |
| "epoch": 1.6480000000000001, |
| "grad_norm": 0.8359375, |
| "learning_rate": 1.7164303617343188e-06, |
| "loss": 1.5240033864974976, |
| "step": 618 |
| }, |
| { |
| "epoch": 1.6533333333333333, |
| "grad_norm": 0.333984375, |
| "learning_rate": 1.6993273323667077e-06, |
| "loss": 1.186129093170166, |
| "step": 620 |
| }, |
| { |
| "epoch": 1.6586666666666665, |
| "grad_norm": 0.65234375, |
| "learning_rate": 1.6824507242379345e-06, |
| "loss": 1.2840181589126587, |
| "step": 622 |
| }, |
| { |
| "epoch": 1.6640000000000001, |
| "grad_norm": 0.5390625, |
| "learning_rate": 1.6658019996403958e-06, |
| "loss": 1.5434945821762085, |
| "step": 624 |
| }, |
| { |
| "epoch": 1.6693333333333333, |
| "grad_norm": 0.68359375, |
| "learning_rate": 1.6493826011212656e-06, |
| "loss": 1.5949230194091797, |
| "step": 626 |
| }, |
| { |
| "epoch": 1.6746666666666665, |
| "grad_norm": 0.5, |
| "learning_rate": 1.6331939513575066e-06, |
| "loss": 1.1981688737869263, |
| "step": 628 |
| }, |
| { |
| "epoch": 1.6800000000000002, |
| "grad_norm": 0.6953125, |
| "learning_rate": 1.6172374530326001e-06, |
| "loss": 1.3873530626296997, |
| "step": 630 |
| }, |
| { |
| "epoch": 1.6853333333333333, |
| "grad_norm": 0.5703125, |
| "learning_rate": 1.60151448871501e-06, |
| "loss": 1.1224573850631714, |
| "step": 632 |
| }, |
| { |
| "epoch": 1.6906666666666665, |
| "grad_norm": 0.640625, |
| "learning_rate": 1.5860264207383851e-06, |
| "loss": 1.0328835248947144, |
| "step": 634 |
| }, |
| { |
| "epoch": 1.696, |
| "grad_norm": 0.9375, |
| "learning_rate": 1.5707745910835233e-06, |
| "loss": 1.5136065483093262, |
| "step": 636 |
| }, |
| { |
| "epoch": 1.7013333333333334, |
| "grad_norm": 1.2421875, |
| "learning_rate": 1.5557603212620889e-06, |
| "loss": 1.5170190334320068, |
| "step": 638 |
| }, |
| { |
| "epoch": 1.7066666666666666, |
| "grad_norm": 0.41015625, |
| "learning_rate": 1.5409849122021144e-06, |
| "loss": 1.4020171165466309, |
| "step": 640 |
| }, |
| { |
| "epoch": 1.712, |
| "grad_norm": 0.60546875, |
| "learning_rate": 1.5264496441352748e-06, |
| "loss": 1.5551862716674805, |
| "step": 642 |
| }, |
| { |
| "epoch": 1.7173333333333334, |
| "grad_norm": 0.396484375, |
| "learning_rate": 1.5121557764859648e-06, |
| "loss": 1.3862305879592896, |
| "step": 644 |
| }, |
| { |
| "epoch": 1.7226666666666666, |
| "grad_norm": 0.41015625, |
| "learning_rate": 1.4981045477621702e-06, |
| "loss": 0.922488272190094, |
| "step": 646 |
| }, |
| { |
| "epoch": 1.728, |
| "grad_norm": 0.318359375, |
| "learning_rate": 1.4842971754481615e-06, |
| "loss": 1.240954041481018, |
| "step": 648 |
| }, |
| { |
| "epoch": 1.7333333333333334, |
| "grad_norm": 0.24609375, |
| "learning_rate": 1.4707348558989974e-06, |
| "loss": 1.0813591480255127, |
| "step": 650 |
| }, |
| { |
| "epoch": 1.7386666666666666, |
| "grad_norm": 0.63671875, |
| "learning_rate": 1.4574187642368714e-06, |
| "loss": 1.4775949716567993, |
| "step": 652 |
| }, |
| { |
| "epoch": 1.744, |
| "grad_norm": 0.30859375, |
| "learning_rate": 1.444350054249288e-06, |
| "loss": 1.2168411016464233, |
| "step": 654 |
| }, |
| { |
| "epoch": 1.7493333333333334, |
| "grad_norm": 0.5625, |
| "learning_rate": 1.431529858289091e-06, |
| "loss": 1.4125171899795532, |
| "step": 656 |
| }, |
| { |
| "epoch": 1.7546666666666666, |
| "grad_norm": 0.53125, |
| "learning_rate": 1.418959287176354e-06, |
| "loss": 1.414473056793213, |
| "step": 658 |
| }, |
| { |
| "epoch": 1.76, |
| "grad_norm": 0.486328125, |
| "learning_rate": 1.406639430102127e-06, |
| "loss": 1.220368504524231, |
| "step": 660 |
| }, |
| { |
| "epoch": 1.7653333333333334, |
| "grad_norm": 0.4921875, |
| "learning_rate": 1.3945713545340668e-06, |
| "loss": 1.2297767400741577, |
| "step": 662 |
| }, |
| { |
| "epoch": 1.7706666666666666, |
| "grad_norm": 0.2412109375, |
| "learning_rate": 1.3827561061239403e-06, |
| "loss": 1.3291184902191162, |
| "step": 664 |
| }, |
| { |
| "epoch": 1.776, |
| "grad_norm": 0.65625, |
| "learning_rate": 1.3711947086170277e-06, |
| "loss": 1.0460172891616821, |
| "step": 666 |
| }, |
| { |
| "epoch": 1.7813333333333334, |
| "grad_norm": 0.40234375, |
| "learning_rate": 1.359888163763415e-06, |
| "loss": 1.3426827192306519, |
| "step": 668 |
| }, |
| { |
| "epoch": 1.7866666666666666, |
| "grad_norm": 0.3984375, |
| "learning_rate": 1.3488374512311988e-06, |
| "loss": 1.1144654750823975, |
| "step": 670 |
| }, |
| { |
| "epoch": 1.792, |
| "grad_norm": 0.5546875, |
| "learning_rate": 1.3380435285216006e-06, |
| "loss": 1.2571556568145752, |
| "step": 672 |
| }, |
| { |
| "epoch": 1.7973333333333334, |
| "grad_norm": 0.6953125, |
| "learning_rate": 1.327507330886004e-06, |
| "loss": 1.454203486442566, |
| "step": 674 |
| }, |
| { |
| "epoch": 1.8026666666666666, |
| "grad_norm": 0.48046875, |
| "learning_rate": 1.3172297712449172e-06, |
| "loss": 1.4048188924789429, |
| "step": 676 |
| }, |
| { |
| "epoch": 1.808, |
| "grad_norm": 0.58984375, |
| "learning_rate": 1.3072117401088736e-06, |
| "loss": 1.0630518198013306, |
| "step": 678 |
| }, |
| { |
| "epoch": 1.8133333333333335, |
| "grad_norm": 0.9609375, |
| "learning_rate": 1.2974541055012725e-06, |
| "loss": 1.1879171133041382, |
| "step": 680 |
| }, |
| { |
| "epoch": 1.8186666666666667, |
| "grad_norm": 0.734375, |
| "learning_rate": 1.2879577128831673e-06, |
| "loss": 1.380265235900879, |
| "step": 682 |
| }, |
| { |
| "epoch": 1.8239999999999998, |
| "grad_norm": 0.36328125, |
| "learning_rate": 1.278723385080009e-06, |
| "loss": 0.971758246421814, |
| "step": 684 |
| }, |
| { |
| "epoch": 1.8293333333333335, |
| "grad_norm": 0.5390625, |
| "learning_rate": 1.2697519222103545e-06, |
| "loss": 1.512132167816162, |
| "step": 686 |
| }, |
| { |
| "epoch": 1.8346666666666667, |
| "grad_norm": 0.431640625, |
| "learning_rate": 1.2610441016165355e-06, |
| "loss": 1.005048155784607, |
| "step": 688 |
| }, |
| { |
| "epoch": 1.8399999999999999, |
| "grad_norm": 0.294921875, |
| "learning_rate": 1.2526006777973084e-06, |
| "loss": 1.371572732925415, |
| "step": 690 |
| }, |
| { |
| "epoch": 1.8453333333333335, |
| "grad_norm": 0.5703125, |
| "learning_rate": 1.2444223823424778e-06, |
| "loss": 1.332929253578186, |
| "step": 692 |
| }, |
| { |
| "epoch": 1.8506666666666667, |
| "grad_norm": 0.30078125, |
| "learning_rate": 1.2365099238695073e-06, |
| "loss": 1.0624377727508545, |
| "step": 694 |
| }, |
| { |
| "epoch": 1.8559999999999999, |
| "grad_norm": 0.60546875, |
| "learning_rate": 1.2288639879621216e-06, |
| "loss": 1.4434648752212524, |
| "step": 696 |
| }, |
| { |
| "epoch": 1.8613333333333333, |
| "grad_norm": 0.59375, |
| "learning_rate": 1.2214852371109014e-06, |
| "loss": 1.115839958190918, |
| "step": 698 |
| }, |
| { |
| "epoch": 1.8666666666666667, |
| "grad_norm": 0.294921875, |
| "learning_rate": 1.214374310655884e-06, |
| "loss": 1.3425531387329102, |
| "step": 700 |
| }, |
| { |
| "epoch": 1.8719999999999999, |
| "grad_norm": 0.41015625, |
| "learning_rate": 1.207531824731164e-06, |
| "loss": 1.2544267177581787, |
| "step": 702 |
| }, |
| { |
| "epoch": 1.8773333333333333, |
| "grad_norm": 0.48828125, |
| "learning_rate": 1.2009583722115107e-06, |
| "loss": 1.2201001644134521, |
| "step": 704 |
| }, |
| { |
| "epoch": 1.8826666666666667, |
| "grad_norm": 0.5859375, |
| "learning_rate": 1.1946545226609944e-06, |
| "loss": 1.1109111309051514, |
| "step": 706 |
| }, |
| { |
| "epoch": 1.888, |
| "grad_norm": 0.62109375, |
| "learning_rate": 1.1886208222836388e-06, |
| "loss": 1.2960035800933838, |
| "step": 708 |
| }, |
| { |
| "epoch": 1.8933333333333333, |
| "grad_norm": 0.62890625, |
| "learning_rate": 1.1828577938760926e-06, |
| "loss": 1.3226895332336426, |
| "step": 710 |
| }, |
| { |
| "epoch": 1.8986666666666667, |
| "grad_norm": 0.4296875, |
| "learning_rate": 1.1773659367823326e-06, |
| "loss": 1.459092140197754, |
| "step": 712 |
| }, |
| { |
| "epoch": 1.904, |
| "grad_norm": 0.263671875, |
| "learning_rate": 1.1721457268503963e-06, |
| "loss": 0.9945974349975586, |
| "step": 714 |
| }, |
| { |
| "epoch": 1.9093333333333333, |
| "grad_norm": 1.4921875, |
| "learning_rate": 1.1671976163911537e-06, |
| "loss": 1.3499224185943604, |
| "step": 716 |
| }, |
| { |
| "epoch": 1.9146666666666667, |
| "grad_norm": 0.5, |
| "learning_rate": 1.162522034139113e-06, |
| "loss": 1.203792929649353, |
| "step": 718 |
| }, |
| { |
| "epoch": 1.92, |
| "grad_norm": 0.357421875, |
| "learning_rate": 1.1581193852152746e-06, |
| "loss": 1.432945728302002, |
| "step": 720 |
| }, |
| { |
| "epoch": 1.9253333333333333, |
| "grad_norm": 0.64453125, |
| "learning_rate": 1.1539900510920285e-06, |
| "loss": 1.4233765602111816, |
| "step": 722 |
| }, |
| { |
| "epoch": 1.9306666666666668, |
| "grad_norm": 0.83984375, |
| "learning_rate": 1.1501343895601022e-06, |
| "loss": 1.5078463554382324, |
| "step": 724 |
| }, |
| { |
| "epoch": 1.936, |
| "grad_norm": 0.298828125, |
| "learning_rate": 1.1465527346975566e-06, |
| "loss": 1.041426658630371, |
| "step": 726 |
| }, |
| { |
| "epoch": 1.9413333333333334, |
| "grad_norm": 0.87890625, |
| "learning_rate": 1.1432453968408437e-06, |
| "loss": 1.1554670333862305, |
| "step": 728 |
| }, |
| { |
| "epoch": 1.9466666666666668, |
| "grad_norm": 0.66015625, |
| "learning_rate": 1.1402126625579132e-06, |
| "loss": 1.238165020942688, |
| "step": 730 |
| }, |
| { |
| "epoch": 1.952, |
| "grad_norm": 0.25, |
| "learning_rate": 1.1374547946233843e-06, |
| "loss": 1.2469568252563477, |
| "step": 732 |
| }, |
| { |
| "epoch": 1.9573333333333334, |
| "grad_norm": 0.94921875, |
| "learning_rate": 1.1349720319957783e-06, |
| "loss": 1.100600004196167, |
| "step": 734 |
| }, |
| { |
| "epoch": 1.9626666666666668, |
| "grad_norm": 0.287109375, |
| "learning_rate": 1.1327645897968104e-06, |
| "loss": 1.256953239440918, |
| "step": 736 |
| }, |
| { |
| "epoch": 1.968, |
| "grad_norm": 0.408203125, |
| "learning_rate": 1.1308326592927547e-06, |
| "loss": 1.0144098997116089, |
| "step": 738 |
| }, |
| { |
| "epoch": 1.9733333333333334, |
| "grad_norm": 0.5234375, |
| "learning_rate": 1.1291764078778685e-06, |
| "loss": 1.1728276014328003, |
| "step": 740 |
| }, |
| { |
| "epoch": 1.9786666666666668, |
| "grad_norm": 0.70703125, |
| "learning_rate": 1.127795979059889e-06, |
| "loss": 1.084470272064209, |
| "step": 742 |
| }, |
| { |
| "epoch": 1.984, |
| "grad_norm": 0.625, |
| "learning_rate": 1.1266914924475997e-06, |
| "loss": 1.2899092435836792, |
| "step": 744 |
| }, |
| { |
| "epoch": 1.9893333333333332, |
| "grad_norm": 1.0390625, |
| "learning_rate": 1.1258630437404658e-06, |
| "loss": 1.3732484579086304, |
| "step": 746 |
| }, |
| { |
| "epoch": 1.9946666666666668, |
| "grad_norm": 0.42578125, |
| "learning_rate": 1.1253107047203428e-06, |
| "loss": 1.2392138242721558, |
| "step": 748 |
| }, |
| { |
| "epoch": 2.0, |
| "grad_norm": 0.375, |
| "learning_rate": 1.1250345232452565e-06, |
| "loss": 1.4283043146133423, |
| "step": 750 |
| }, |
| { |
| "epoch": 2.0, |
| "step": 750, |
| "total_flos": 2.55147477658973e+18, |
| "train_loss": 1.3643777534166972, |
| "train_runtime": 10437.131, |
| "train_samples_per_second": 2.299, |
| "train_steps_per_second": 0.072 |
| } |
| ], |
| "logging_steps": 2, |
| "max_steps": 750, |
| "num_input_tokens_seen": 0, |
| "num_train_epochs": 2, |
| "save_steps": 99999, |
| "stateful_callbacks": { |
| "TrainerControl": { |
| "args": { |
| "should_epoch_stop": false, |
| "should_evaluate": false, |
| "should_log": false, |
| "should_save": true, |
| "should_training_stop": true |
| }, |
| "attributes": {} |
| } |
| }, |
| "total_flos": 2.55147477658973e+18, |
| "train_batch_size": 1, |
| "trial_name": null, |
| "trial_params": null |
| } |
|
|