{ "best_global_step": null, "best_metric": null, "best_model_checkpoint": null, "epoch": 2.0, "eval_steps": 500, "global_step": 750, "is_hyper_param_search": false, "is_local_process_zero": true, "is_world_process_zero": true, "log_history": [ { "epoch": 0.005333333333333333, "grad_norm": 0.5234375, "learning_rate": 1.0000000000000001e-07, "loss": 1.3918027877807617, "step": 2 }, { "epoch": 0.010666666666666666, "grad_norm": 1.3203125, "learning_rate": 3.0000000000000004e-07, "loss": 2.0975496768951416, "step": 4 }, { "epoch": 0.016, "grad_norm": 1.671875, "learning_rate": 5e-07, "loss": 2.0533759593963623, "step": 6 }, { "epoch": 0.021333333333333333, "grad_norm": 0.60546875, "learning_rate": 7.000000000000001e-07, "loss": 1.4977960586547852, "step": 8 }, { "epoch": 0.02666666666666667, "grad_norm": 1.28125, "learning_rate": 9e-07, "loss": 1.8092024326324463, "step": 10 }, { "epoch": 0.032, "grad_norm": 0.82421875, "learning_rate": 1.1e-06, "loss": 2.0490243434906006, "step": 12 }, { "epoch": 0.037333333333333336, "grad_norm": 1.671875, "learning_rate": 1.3e-06, "loss": 2.2412607669830322, "step": 14 }, { "epoch": 0.042666666666666665, "grad_norm": 0.8828125, "learning_rate": 1.5e-06, "loss": 1.9627114534378052, "step": 16 }, { "epoch": 0.048, "grad_norm": 2.390625, "learning_rate": 1.7e-06, "loss": 1.8048596382141113, "step": 18 }, { "epoch": 0.05333333333333334, "grad_norm": 1.3046875, "learning_rate": 1.9000000000000002e-06, "loss": 1.9537056684494019, "step": 20 }, { "epoch": 0.058666666666666666, "grad_norm": 1.09375, "learning_rate": 2.1000000000000002e-06, "loss": 1.7351176738739014, "step": 22 }, { "epoch": 0.064, "grad_norm": 0.93359375, "learning_rate": 2.3e-06, "loss": 2.1719343662261963, "step": 24 }, { "epoch": 0.06933333333333333, "grad_norm": 0.73828125, "learning_rate": 2.4999999999999998e-06, "loss": 2.0036661624908447, "step": 26 }, { "epoch": 0.07466666666666667, "grad_norm": 0.6328125, "learning_rate": 2.7e-06, "loss": 1.4876424074172974, "step": 28 }, { "epoch": 0.08, "grad_norm": 0.93359375, "learning_rate": 2.9e-06, "loss": 1.7595216035842896, "step": 30 }, { "epoch": 0.08533333333333333, "grad_norm": 0.92578125, "learning_rate": 3.1e-06, "loss": 1.7543615102767944, "step": 32 }, { "epoch": 0.09066666666666667, "grad_norm": 0.703125, "learning_rate": 3.3e-06, "loss": 1.6767919063568115, "step": 34 }, { "epoch": 0.096, "grad_norm": 0.7265625, "learning_rate": 3.5e-06, "loss": 1.9044243097305298, "step": 36 }, { "epoch": 0.10133333333333333, "grad_norm": 0.78125, "learning_rate": 3.7e-06, "loss": 1.9992799758911133, "step": 38 }, { "epoch": 0.10666666666666667, "grad_norm": 0.2021484375, "learning_rate": 3.9e-06, "loss": 1.4217664003372192, "step": 40 }, { "epoch": 0.112, "grad_norm": 1.0859375, "learning_rate": 4.1e-06, "loss": 2.2651872634887695, "step": 42 }, { "epoch": 0.11733333333333333, "grad_norm": 1.015625, "learning_rate": 4.3e-06, "loss": 1.8020230531692505, "step": 44 }, { "epoch": 0.12266666666666666, "grad_norm": 0.6328125, "learning_rate": 4.5e-06, "loss": 2.057128667831421, "step": 46 }, { "epoch": 0.128, "grad_norm": 0.287109375, "learning_rate": 4.700000000000001e-06, "loss": 1.7972444295883179, "step": 48 }, { "epoch": 0.13333333333333333, "grad_norm": 1.1328125, "learning_rate": 4.9e-06, "loss": 1.585660696029663, "step": 50 }, { "epoch": 0.13866666666666666, "grad_norm": 1.4140625, "learning_rate": 5.1e-06, "loss": 1.5591168403625488, "step": 52 }, { "epoch": 0.144, "grad_norm": 0.2119140625, "learning_rate": 5.3e-06, "loss": 1.2894660234451294, "step": 54 }, { "epoch": 0.14933333333333335, "grad_norm": 0.73046875, "learning_rate": 5.5e-06, "loss": 1.8333218097686768, "step": 56 }, { "epoch": 0.15466666666666667, "grad_norm": 1.1015625, "learning_rate": 5.7000000000000005e-06, "loss": 1.5420780181884766, "step": 58 }, { "epoch": 0.16, "grad_norm": 0.828125, "learning_rate": 5.899999999999999e-06, "loss": 1.8294118642807007, "step": 60 }, { "epoch": 0.16533333333333333, "grad_norm": 0.3515625, "learning_rate": 6.1e-06, "loss": 1.5082216262817383, "step": 62 }, { "epoch": 0.17066666666666666, "grad_norm": 0.314453125, "learning_rate": 6.3e-06, "loss": 1.7252726554870605, "step": 64 }, { "epoch": 0.176, "grad_norm": 0.435546875, "learning_rate": 6.5000000000000004e-06, "loss": 1.56448233127594, "step": 66 }, { "epoch": 0.18133333333333335, "grad_norm": 1.1015625, "learning_rate": 6.7e-06, "loss": 1.87124502658844, "step": 68 }, { "epoch": 0.18666666666666668, "grad_norm": 0.5859375, "learning_rate": 6.900000000000001e-06, "loss": 1.4997594356536865, "step": 70 }, { "epoch": 0.192, "grad_norm": 0.609375, "learning_rate": 7.1e-06, "loss": 1.9693466424942017, "step": 72 }, { "epoch": 0.19733333333333333, "grad_norm": 0.95703125, "learning_rate": 7.3e-06, "loss": 1.5585707426071167, "step": 74 }, { "epoch": 0.20266666666666666, "grad_norm": 1.859375, "learning_rate": 7.5e-06, "loss": 1.7230855226516724, "step": 76 }, { "epoch": 0.208, "grad_norm": 0.38671875, "learning_rate": 7.4998619077668045e-06, "loss": 1.7421209812164307, "step": 78 }, { "epoch": 0.21333333333333335, "grad_norm": 0.466796875, "learning_rate": 7.499447643032373e-06, "loss": 1.8539875745773315, "step": 80 }, { "epoch": 0.21866666666666668, "grad_norm": 0.2734375, "learning_rate": 7.498757241691129e-06, "loss": 1.410808801651001, "step": 82 }, { "epoch": 0.224, "grad_norm": 0.39453125, "learning_rate": 7.497790763563665e-06, "loss": 1.5474530458450317, "step": 84 }, { "epoch": 0.22933333333333333, "grad_norm": 0.69921875, "learning_rate": 7.496548292391548e-06, "loss": 1.8224376440048218, "step": 86 }, { "epoch": 0.23466666666666666, "grad_norm": 1.265625, "learning_rate": 7.4950299358300644e-06, "loss": 1.5387835502624512, "step": 88 }, { "epoch": 0.24, "grad_norm": 0.1806640625, "learning_rate": 7.493235825438903e-06, "loss": 1.4174927473068237, "step": 90 }, { "epoch": 0.24533333333333332, "grad_norm": 0.53125, "learning_rate": 7.491166116670744e-06, "loss": 1.3185020685195923, "step": 92 }, { "epoch": 0.25066666666666665, "grad_norm": 2.078125, "learning_rate": 7.488820988857795e-06, "loss": 1.3037068843841553, "step": 94 }, { "epoch": 0.256, "grad_norm": 0.330078125, "learning_rate": 7.486200645196252e-06, "loss": 1.7521201372146606, "step": 96 }, { "epoch": 0.2613333333333333, "grad_norm": 0.71875, "learning_rate": 7.483305312728692e-06, "loss": 1.2269163131713867, "step": 98 }, { "epoch": 0.26666666666666666, "grad_norm": 0.41796875, "learning_rate": 7.480135242324401e-06, "loss": 1.4020113945007324, "step": 100 }, { "epoch": 0.272, "grad_norm": 0.1875, "learning_rate": 7.476690708657641e-06, "loss": 1.236190915107727, "step": 102 }, { "epoch": 0.2773333333333333, "grad_norm": 0.765625, "learning_rate": 7.472972010183844e-06, "loss": 1.3339173793792725, "step": 104 }, { "epoch": 0.2826666666666667, "grad_norm": 1.6640625, "learning_rate": 7.468979469113756e-06, "loss": 1.5956217050552368, "step": 106 }, { "epoch": 0.288, "grad_norm": 0.2119140625, "learning_rate": 7.4647134313855186e-06, "loss": 1.2588270902633667, "step": 108 }, { "epoch": 0.29333333333333333, "grad_norm": 0.52734375, "learning_rate": 7.4601742666346926e-06, "loss": 1.6625038385391235, "step": 110 }, { "epoch": 0.2986666666666667, "grad_norm": 0.7109375, "learning_rate": 7.455362368162235e-06, "loss": 1.3837028741836548, "step": 112 }, { "epoch": 0.304, "grad_norm": 0.283203125, "learning_rate": 7.450278152900414e-06, "loss": 1.5355887413024902, "step": 114 }, { "epoch": 0.30933333333333335, "grad_norm": 0.65625, "learning_rate": 7.4449220613766924e-06, "loss": 1.6411131620407104, "step": 116 }, { "epoch": 0.31466666666666665, "grad_norm": 1.6484375, "learning_rate": 7.439294557675548e-06, "loss": 1.5240530967712402, "step": 118 }, { "epoch": 0.32, "grad_norm": 0.609375, "learning_rate": 7.43339612939827e-06, "loss": 1.1345856189727783, "step": 120 }, { "epoch": 0.3253333333333333, "grad_norm": 0.373046875, "learning_rate": 7.427227287620707e-06, "loss": 1.1475586891174316, "step": 122 }, { "epoch": 0.33066666666666666, "grad_norm": 0.52734375, "learning_rate": 7.420788566848982e-06, "loss": 1.5467785596847534, "step": 124 }, { "epoch": 0.336, "grad_norm": 0.287109375, "learning_rate": 7.414080524973188e-06, "loss": 1.6301590204238892, "step": 126 }, { "epoch": 0.3413333333333333, "grad_norm": 0.57421875, "learning_rate": 7.407103743219038e-06, "loss": 1.4552572965621948, "step": 128 }, { "epoch": 0.3466666666666667, "grad_norm": 0.73046875, "learning_rate": 7.399858826097512e-06, "loss": 1.7707996368408203, "step": 130 }, { "epoch": 0.352, "grad_norm": 0.64453125, "learning_rate": 7.392346401352474e-06, "loss": 1.4176101684570312, "step": 132 }, { "epoch": 0.35733333333333334, "grad_norm": 0.61328125, "learning_rate": 7.3845671199062815e-06, "loss": 1.4162875413894653, "step": 134 }, { "epoch": 0.3626666666666667, "grad_norm": 0.55859375, "learning_rate": 7.376521655803392e-06, "loss": 1.4608713388442993, "step": 136 }, { "epoch": 0.368, "grad_norm": 0.392578125, "learning_rate": 7.368210706151946e-06, "loss": 1.4052457809448242, "step": 138 }, { "epoch": 0.37333333333333335, "grad_norm": 0.427734375, "learning_rate": 7.359634991063379e-06, "loss": 1.137465476989746, "step": 140 }, { "epoch": 0.37866666666666665, "grad_norm": 0.8359375, "learning_rate": 7.350795253590018e-06, "loss": 1.4206374883651733, "step": 142 }, { "epoch": 0.384, "grad_norm": 0.11474609375, "learning_rate": 7.3416922596607055e-06, "loss": 1.020829439163208, "step": 144 }, { "epoch": 0.3893333333333333, "grad_norm": 0.2421875, "learning_rate": 7.332326798014425e-06, "loss": 1.558069109916687, "step": 146 }, { "epoch": 0.39466666666666667, "grad_norm": 0.26171875, "learning_rate": 7.322699680131971e-06, "loss": 1.5617731809616089, "step": 148 }, { "epoch": 0.4, "grad_norm": 0.40234375, "learning_rate": 7.312811740165632e-06, "loss": 1.3473962545394897, "step": 150 }, { "epoch": 0.4053333333333333, "grad_norm": 0.71875, "learning_rate": 7.302663834866909e-06, "loss": 1.4550005197525024, "step": 152 }, { "epoch": 0.4106666666666667, "grad_norm": 0.4140625, "learning_rate": 7.2922568435122956e-06, "loss": 1.2182159423828125, "step": 154 }, { "epoch": 0.416, "grad_norm": 0.515625, "learning_rate": 7.281591667827079e-06, "loss": 1.1797568798065186, "step": 156 }, { "epoch": 0.42133333333333334, "grad_norm": 0.50390625, "learning_rate": 7.270669231907212e-06, "loss": 1.3810535669326782, "step": 158 }, { "epoch": 0.4266666666666667, "grad_norm": 0.412109375, "learning_rate": 7.2594904821392485e-06, "loss": 1.286556363105774, "step": 160 }, { "epoch": 0.432, "grad_norm": 0.419921875, "learning_rate": 7.248056387118338e-06, "loss": 1.4289522171020508, "step": 162 }, { "epoch": 0.43733333333333335, "grad_norm": 0.66015625, "learning_rate": 7.236367937564302e-06, "loss": 1.243101716041565, "step": 164 }, { "epoch": 0.44266666666666665, "grad_norm": 0.283203125, "learning_rate": 7.224426146235791e-06, "loss": 1.0999314785003662, "step": 166 }, { "epoch": 0.448, "grad_norm": 0.3046875, "learning_rate": 7.212232047842537e-06, "loss": 1.4978009462356567, "step": 168 }, { "epoch": 0.4533333333333333, "grad_norm": 5.53125, "learning_rate": 7.199786698955697e-06, "loss": 1.4373788833618164, "step": 170 }, { "epoch": 0.45866666666666667, "grad_norm": 0.69921875, "learning_rate": 7.187091177916301e-06, "loss": 1.4840056896209717, "step": 172 }, { "epoch": 0.464, "grad_norm": 0.2021484375, "learning_rate": 7.174146584741825e-06, "loss": 1.2911632061004639, "step": 174 }, { "epoch": 0.4693333333333333, "grad_norm": 0.279296875, "learning_rate": 7.160954041030877e-06, "loss": 1.3464269638061523, "step": 176 }, { "epoch": 0.4746666666666667, "grad_norm": 0.357421875, "learning_rate": 7.1475146898660116e-06, "loss": 1.4491277933120728, "step": 178 }, { "epoch": 0.48, "grad_norm": 0.349609375, "learning_rate": 7.133829695714688e-06, "loss": 1.318329930305481, "step": 180 }, { "epoch": 0.48533333333333334, "grad_norm": 0.78515625, "learning_rate": 7.1199002443283776e-06, "loss": 1.089525580406189, "step": 182 }, { "epoch": 0.49066666666666664, "grad_norm": 0.263671875, "learning_rate": 7.1057275426398146e-06, "loss": 1.356623888015747, "step": 184 }, { "epoch": 0.496, "grad_norm": 0.51171875, "learning_rate": 7.09131281865843e-06, "loss": 1.5700266361236572, "step": 186 }, { "epoch": 0.5013333333333333, "grad_norm": 0.45703125, "learning_rate": 7.0766573213639404e-06, "loss": 1.12882661819458, "step": 188 }, { "epoch": 0.5066666666666667, "grad_norm": 0.53125, "learning_rate": 7.061762320598134e-06, "loss": 1.3883382081985474, "step": 190 }, { "epoch": 0.512, "grad_norm": 0.263671875, "learning_rate": 7.0466291069548415e-06, "loss": 1.1575868129730225, "step": 192 }, { "epoch": 0.5173333333333333, "grad_norm": 0.291015625, "learning_rate": 7.031258991668114e-06, "loss": 1.458404302597046, "step": 194 }, { "epoch": 0.5226666666666666, "grad_norm": 0.5703125, "learning_rate": 7.015653306498608e-06, "loss": 1.7165433168411255, "step": 196 }, { "epoch": 0.528, "grad_norm": 0.486328125, "learning_rate": 6.99981340361819e-06, "loss": 1.5549272298812866, "step": 198 }, { "epoch": 0.5333333333333333, "grad_norm": 0.70703125, "learning_rate": 6.983740655492783e-06, "loss": 1.6522574424743652, "step": 200 }, { "epoch": 0.5386666666666666, "grad_norm": 0.84375, "learning_rate": 6.967436454763442e-06, "loss": 1.5417842864990234, "step": 202 }, { "epoch": 0.544, "grad_norm": 0.58203125, "learning_rate": 6.950902214125689e-06, "loss": 1.279434323310852, "step": 204 }, { "epoch": 0.5493333333333333, "grad_norm": 0.474609375, "learning_rate": 6.9341393662071115e-06, "loss": 1.5310899019241333, "step": 206 }, { "epoch": 0.5546666666666666, "grad_norm": 0.4375, "learning_rate": 6.9171493634432225e-06, "loss": 1.1565041542053223, "step": 208 }, { "epoch": 0.56, "grad_norm": 0.3828125, "learning_rate": 6.899933677951622e-06, "loss": 1.3370246887207031, "step": 210 }, { "epoch": 0.5653333333333334, "grad_norm": 0.37890625, "learning_rate": 6.882493801404442e-06, "loss": 1.330797791481018, "step": 212 }, { "epoch": 0.5706666666666667, "grad_norm": 0.81640625, "learning_rate": 6.8648312448990875e-06, "loss": 1.4331892728805542, "step": 214 }, { "epoch": 0.576, "grad_norm": 1.6875, "learning_rate": 6.846947538827327e-06, "loss": 1.5132179260253906, "step": 216 }, { "epoch": 0.5813333333333334, "grad_norm": 1.46875, "learning_rate": 6.828844232742671e-06, "loss": 1.2577152252197266, "step": 218 }, { "epoch": 0.5866666666666667, "grad_norm": 0.9453125, "learning_rate": 6.810522895226115e-06, "loss": 1.45955491065979, "step": 220 }, { "epoch": 0.592, "grad_norm": 0.2470703125, "learning_rate": 6.791985113750234e-06, "loss": 1.2781492471694946, "step": 222 }, { "epoch": 0.5973333333333334, "grad_norm": 0.40625, "learning_rate": 6.773232494541625e-06, "loss": 1.3114062547683716, "step": 224 }, { "epoch": 0.6026666666666667, "grad_norm": 1.0546875, "learning_rate": 6.754266662441742e-06, "loss": 1.4861233234405518, "step": 226 }, { "epoch": 0.608, "grad_norm": 0.671875, "learning_rate": 6.735089260766105e-06, "loss": 1.6322368383407593, "step": 228 }, { "epoch": 0.6133333333333333, "grad_norm": 0.7421875, "learning_rate": 6.7157019511619145e-06, "loss": 1.5255112648010254, "step": 230 }, { "epoch": 0.6186666666666667, "grad_norm": 0.56640625, "learning_rate": 6.696106413464071e-06, "loss": 1.2472528219223022, "step": 232 }, { "epoch": 0.624, "grad_norm": 0.5625, "learning_rate": 6.676304345549635e-06, "loss": 1.5083709955215454, "step": 234 }, { "epoch": 0.6293333333333333, "grad_norm": 0.62890625, "learning_rate": 6.656297463190704e-06, "loss": 1.216172218322754, "step": 236 }, { "epoch": 0.6346666666666667, "grad_norm": 0.5859375, "learning_rate": 6.63608749990575e-06, "loss": 1.2348906993865967, "step": 238 }, { "epoch": 0.64, "grad_norm": 0.345703125, "learning_rate": 6.615676206809415e-06, "loss": 1.3027633428573608, "step": 240 }, { "epoch": 0.6453333333333333, "grad_norm": 0.38671875, "learning_rate": 6.595065352460786e-06, "loss": 1.1347825527191162, "step": 242 }, { "epoch": 0.6506666666666666, "grad_norm": 0.5625, "learning_rate": 6.574256722710161e-06, "loss": 1.271606206893921, "step": 244 }, { "epoch": 0.656, "grad_norm": 0.69921875, "learning_rate": 6.553252120544297e-06, "loss": 1.297676682472229, "step": 246 }, { "epoch": 0.6613333333333333, "grad_norm": 0.357421875, "learning_rate": 6.5320533659302055e-06, "loss": 1.3999580144882202, "step": 248 }, { "epoch": 0.6666666666666666, "grad_norm": 0.498046875, "learning_rate": 6.510662295657448e-06, "loss": 1.4784775972366333, "step": 250 }, { "epoch": 0.672, "grad_norm": 0.33984375, "learning_rate": 6.489080763178991e-06, "loss": 1.3089486360549927, "step": 252 }, { "epoch": 0.6773333333333333, "grad_norm": 0.451171875, "learning_rate": 6.467310638450608e-06, "loss": 1.5869042873382568, "step": 254 }, { "epoch": 0.6826666666666666, "grad_norm": 0.5390625, "learning_rate": 6.44535380776886e-06, "loss": 1.491261601448059, "step": 256 }, { "epoch": 0.688, "grad_norm": 0.53125, "learning_rate": 6.42321217360765e-06, "loss": 1.3518444299697876, "step": 258 }, { "epoch": 0.6933333333333334, "grad_norm": 0.408203125, "learning_rate": 6.40088765445338e-06, "loss": 1.1858634948730469, "step": 260 }, { "epoch": 0.6986666666666667, "grad_norm": 0.44921875, "learning_rate": 6.37838218463873e-06, "loss": 1.3287537097930908, "step": 262 }, { "epoch": 0.704, "grad_norm": 0.478515625, "learning_rate": 6.355697714175047e-06, "loss": 1.0604113340377808, "step": 264 }, { "epoch": 0.7093333333333334, "grad_norm": 0.9453125, "learning_rate": 6.332836208583389e-06, "loss": 1.5299183130264282, "step": 266 }, { "epoch": 0.7146666666666667, "grad_norm": 0.421875, "learning_rate": 6.309799648724218e-06, "loss": 1.2309736013412476, "step": 268 }, { "epoch": 0.72, "grad_norm": 0.7265625, "learning_rate": 6.2865900306257665e-06, "loss": 1.0823864936828613, "step": 270 }, { "epoch": 0.7253333333333334, "grad_norm": 0.435546875, "learning_rate": 6.263209365311089e-06, "loss": 1.2900185585021973, "step": 272 }, { "epoch": 0.7306666666666667, "grad_norm": 0.6875, "learning_rate": 6.2396596786238205e-06, "loss": 1.2881044149398804, "step": 274 }, { "epoch": 0.736, "grad_norm": 1.03125, "learning_rate": 6.215943011052632e-06, "loss": 1.3503191471099854, "step": 276 }, { "epoch": 0.7413333333333333, "grad_norm": 0.63671875, "learning_rate": 6.192061417554441e-06, "loss": 1.33072030544281, "step": 278 }, { "epoch": 0.7466666666666667, "grad_norm": 0.42578125, "learning_rate": 6.16801696737636e-06, "loss": 1.2632883787155151, "step": 280 }, { "epoch": 0.752, "grad_norm": 0.349609375, "learning_rate": 6.143811743876392e-06, "loss": 1.285319447517395, "step": 282 }, { "epoch": 0.7573333333333333, "grad_norm": 0.287109375, "learning_rate": 6.119447844342924e-06, "loss": 1.0543291568756104, "step": 284 }, { "epoch": 0.7626666666666667, "grad_norm": 1.0, "learning_rate": 6.094927379813005e-06, "loss": 1.5204623937606812, "step": 286 }, { "epoch": 0.768, "grad_norm": 0.5390625, "learning_rate": 6.070252474889433e-06, "loss": 0.9127747416496277, "step": 288 }, { "epoch": 0.7733333333333333, "grad_norm": 0.279296875, "learning_rate": 6.045425267556659e-06, "loss": 1.2986137866973877, "step": 290 }, { "epoch": 0.7786666666666666, "grad_norm": 0.58984375, "learning_rate": 6.020447908995551e-06, "loss": 1.482648253440857, "step": 292 }, { "epoch": 0.784, "grad_norm": 0.39453125, "learning_rate": 5.995322563396996e-06, "loss": 1.1602120399475098, "step": 294 }, { "epoch": 0.7893333333333333, "grad_norm": 1.0859375, "learning_rate": 5.970051407774374e-06, "loss": 1.2999836206436157, "step": 296 }, { "epoch": 0.7946666666666666, "grad_norm": 0.31640625, "learning_rate": 5.9446366317749464e-06, "loss": 1.464931607246399, "step": 298 }, { "epoch": 0.8, "grad_norm": 3.78125, "learning_rate": 5.919080437490115e-06, "loss": 1.494107961654663, "step": 300 }, { "epoch": 0.8053333333333333, "grad_norm": 0.45703125, "learning_rate": 5.893385039264628e-06, "loss": 1.3205267190933228, "step": 302 }, { "epoch": 0.8106666666666666, "grad_norm": 0.306640625, "learning_rate": 5.867552663504711e-06, "loss": 1.392236351966858, "step": 304 }, { "epoch": 0.816, "grad_norm": 2.109375, "learning_rate": 5.841585548485161e-06, "loss": 1.054479718208313, "step": 306 }, { "epoch": 0.8213333333333334, "grad_norm": 0.474609375, "learning_rate": 5.815485944155406e-06, "loss": 1.4559931755065918, "step": 308 }, { "epoch": 0.8266666666666667, "grad_norm": 1.6484375, "learning_rate": 5.78925611194456e-06, "loss": 1.2822375297546387, "step": 310 }, { "epoch": 0.832, "grad_norm": 0.5234375, "learning_rate": 5.762898324565472e-06, "loss": 1.1534578800201416, "step": 312 }, { "epoch": 0.8373333333333334, "grad_norm": 0.40234375, "learning_rate": 5.7364148658178136e-06, "loss": 1.4816879034042358, "step": 314 }, { "epoch": 0.8426666666666667, "grad_norm": 0.48828125, "learning_rate": 5.7098080303901845e-06, "loss": 1.3202126026153564, "step": 316 }, { "epoch": 0.848, "grad_norm": 0.57421875, "learning_rate": 5.683080123661299e-06, "loss": 1.548636794090271, "step": 318 }, { "epoch": 0.8533333333333334, "grad_norm": 0.18359375, "learning_rate": 5.656233461500226e-06, "loss": 1.1134190559387207, "step": 320 }, { "epoch": 0.8586666666666667, "grad_norm": 0.369140625, "learning_rate": 5.6292703700657276e-06, "loss": 1.427626132965088, "step": 322 }, { "epoch": 0.864, "grad_norm": 0.66796875, "learning_rate": 5.602193185604715e-06, "loss": 1.2644096612930298, "step": 324 }, { "epoch": 0.8693333333333333, "grad_norm": 0.419921875, "learning_rate": 5.575004254249812e-06, "loss": 1.0416737794876099, "step": 326 }, { "epoch": 0.8746666666666667, "grad_norm": 0.32421875, "learning_rate": 5.547705931816078e-06, "loss": 1.113074779510498, "step": 328 }, { "epoch": 0.88, "grad_norm": 1.2578125, "learning_rate": 5.520300583596882e-06, "loss": 1.0335323810577393, "step": 330 }, { "epoch": 0.8853333333333333, "grad_norm": 0.3125, "learning_rate": 5.49279058415896e-06, "loss": 1.1414536237716675, "step": 332 }, { "epoch": 0.8906666666666667, "grad_norm": 0.37890625, "learning_rate": 5.465178317136669e-06, "loss": 0.8871914148330688, "step": 334 }, { "epoch": 0.896, "grad_norm": 0.578125, "learning_rate": 5.437466175025457e-06, "loss": 1.3287149667739868, "step": 336 }, { "epoch": 0.9013333333333333, "grad_norm": 0.59765625, "learning_rate": 5.4096565589745565e-06, "loss": 1.3277924060821533, "step": 338 }, { "epoch": 0.9066666666666666, "grad_norm": 0.55078125, "learning_rate": 5.3817518785789386e-06, "loss": 1.6219979524612427, "step": 340 }, { "epoch": 0.912, "grad_norm": 0.337890625, "learning_rate": 5.3537545516705285e-06, "loss": 1.1041191816329956, "step": 342 }, { "epoch": 0.9173333333333333, "grad_norm": 0.54296875, "learning_rate": 5.325667004108713e-06, "loss": 1.5842766761779785, "step": 344 }, { "epoch": 0.9226666666666666, "grad_norm": 0.77734375, "learning_rate": 5.297491669570145e-06, "loss": 1.5403611660003662, "step": 346 }, { "epoch": 0.928, "grad_norm": 0.39453125, "learning_rate": 5.2692309893378806e-06, "loss": 1.387043833732605, "step": 348 }, { "epoch": 0.9333333333333333, "grad_norm": 0.376953125, "learning_rate": 5.240887412089846e-06, "loss": 1.1895140409469604, "step": 350 }, { "epoch": 0.9386666666666666, "grad_norm": 0.7734375, "learning_rate": 5.2124633936866694e-06, "loss": 1.45750892162323, "step": 352 }, { "epoch": 0.944, "grad_norm": 0.48828125, "learning_rate": 5.183961396958894e-06, "loss": 1.2903810739517212, "step": 354 }, { "epoch": 0.9493333333333334, "grad_norm": 0.365234375, "learning_rate": 5.155383891493582e-06, "loss": 1.0638062953948975, "step": 356 }, { "epoch": 0.9546666666666667, "grad_norm": 0.392578125, "learning_rate": 5.126733353420332e-06, "loss": 1.1334384679794312, "step": 358 }, { "epoch": 0.96, "grad_norm": 0.8671875, "learning_rate": 5.098012265196735e-06, "loss": 1.616370677947998, "step": 360 }, { "epoch": 0.9653333333333334, "grad_norm": 0.458984375, "learning_rate": 5.069223115393278e-06, "loss": 1.2166802883148193, "step": 362 }, { "epoch": 0.9706666666666667, "grad_norm": 0.439453125, "learning_rate": 5.0403683984777156e-06, "loss": 1.460686206817627, "step": 364 }, { "epoch": 0.976, "grad_norm": 0.412109375, "learning_rate": 5.011450614598942e-06, "loss": 1.5133981704711914, "step": 366 }, { "epoch": 0.9813333333333333, "grad_norm": 0.51953125, "learning_rate": 4.982472269370356e-06, "loss": 1.3987483978271484, "step": 368 }, { "epoch": 0.9866666666666667, "grad_norm": 0.5, "learning_rate": 4.9534358736527624e-06, "loss": 1.187402606010437, "step": 370 }, { "epoch": 0.992, "grad_norm": 0.388671875, "learning_rate": 4.924343943336814e-06, "loss": 1.3969718217849731, "step": 372 }, { "epoch": 0.9973333333333333, "grad_norm": 0.5078125, "learning_rate": 4.895198999125022e-06, "loss": 1.1329926252365112, "step": 374 }, { "epoch": 1.0026666666666666, "grad_norm": 0.76953125, "learning_rate": 4.866003566313341e-06, "loss": 1.426386833190918, "step": 376 }, { "epoch": 1.008, "grad_norm": 0.5859375, "learning_rate": 4.83676017457237e-06, "loss": 1.2209362983703613, "step": 378 }, { "epoch": 1.0133333333333334, "grad_norm": 0.59375, "learning_rate": 4.807471357728167e-06, "loss": 1.1464167833328247, "step": 380 }, { "epoch": 1.0186666666666666, "grad_norm": 1.0078125, "learning_rate": 4.778139653542688e-06, "loss": 1.229437232017517, "step": 382 }, { "epoch": 1.024, "grad_norm": 0.337890625, "learning_rate": 4.7487676034939156e-06, "loss": 0.9976918697357178, "step": 384 }, { "epoch": 1.0293333333333334, "grad_norm": 0.310546875, "learning_rate": 4.719357752555646e-06, "loss": 1.025425672531128, "step": 386 }, { "epoch": 1.0346666666666666, "grad_norm": 0.2216796875, "learning_rate": 4.689912648976973e-06, "loss": 1.0078941583633423, "step": 388 }, { "epoch": 1.04, "grad_norm": 0.4296875, "learning_rate": 4.660434844061493e-06, "loss": 1.1683357954025269, "step": 390 }, { "epoch": 1.0453333333333332, "grad_norm": 0.51953125, "learning_rate": 4.630926891946251e-06, "loss": 1.126926302909851, "step": 392 }, { "epoch": 1.0506666666666666, "grad_norm": 0.5, "learning_rate": 4.601391349380425e-06, "loss": 1.2865811586380005, "step": 394 }, { "epoch": 1.056, "grad_norm": 0.7734375, "learning_rate": 4.571830775503799e-06, "loss": 1.5480324029922485, "step": 396 }, { "epoch": 1.0613333333333332, "grad_norm": 0.55859375, "learning_rate": 4.542247731625022e-06, "loss": 1.2431285381317139, "step": 398 }, { "epoch": 1.0666666666666667, "grad_norm": 0.546875, "learning_rate": 4.512644780999687e-06, "loss": 1.4781147241592407, "step": 400 }, { "epoch": 1.072, "grad_norm": 2.515625, "learning_rate": 4.48302448860822e-06, "loss": 1.0834038257598877, "step": 402 }, { "epoch": 1.0773333333333333, "grad_norm": 0.6328125, "learning_rate": 4.453389420933649e-06, "loss": 1.366401195526123, "step": 404 }, { "epoch": 1.0826666666666667, "grad_norm": 0.271484375, "learning_rate": 4.423742145739222e-06, "loss": 1.0470842123031616, "step": 406 }, { "epoch": 1.088, "grad_norm": 0.431640625, "learning_rate": 4.394085231845921e-06, "loss": 1.0181280374526978, "step": 408 }, { "epoch": 1.0933333333333333, "grad_norm": 0.65625, "learning_rate": 4.364421248909884e-06, "loss": 1.034490704536438, "step": 410 }, { "epoch": 1.0986666666666667, "grad_norm": 0.70703125, "learning_rate": 4.334752767199752e-06, "loss": 1.3856372833251953, "step": 412 }, { "epoch": 1.104, "grad_norm": 0.373046875, "learning_rate": 4.305082357373971e-06, "loss": 1.139554500579834, "step": 414 }, { "epoch": 1.1093333333333333, "grad_norm": 0.51171875, "learning_rate": 4.275412590258048e-06, "loss": 1.3391931056976318, "step": 416 }, { "epoch": 1.1146666666666667, "grad_norm": 0.349609375, "learning_rate": 4.2457460366218e-06, "loss": 1.5631487369537354, "step": 418 }, { "epoch": 1.12, "grad_norm": 0.6875, "learning_rate": 4.2160852669566135e-06, "loss": 1.3829050064086914, "step": 420 }, { "epoch": 1.1253333333333333, "grad_norm": 0.97265625, "learning_rate": 4.1864328512527115e-06, "loss": 1.0705004930496216, "step": 422 }, { "epoch": 1.1306666666666667, "grad_norm": 0.68359375, "learning_rate": 4.156791358776483e-06, "loss": 1.4946973323822021, "step": 424 }, { "epoch": 1.1360000000000001, "grad_norm": 0.384765625, "learning_rate": 4.127163357847858e-06, "loss": 1.3657976388931274, "step": 426 }, { "epoch": 1.1413333333333333, "grad_norm": 0.447265625, "learning_rate": 4.09755141561778e-06, "loss": 1.211698055267334, "step": 428 }, { "epoch": 1.1466666666666667, "grad_norm": 12.8125, "learning_rate": 4.0679580978457656e-06, "loss": 1.5211821794509888, "step": 430 }, { "epoch": 1.152, "grad_norm": 0.46875, "learning_rate": 4.038385968677596e-06, "loss": 1.0360568761825562, "step": 432 }, { "epoch": 1.1573333333333333, "grad_norm": 1.3125, "learning_rate": 4.008837590423144e-06, "loss": 1.6035184860229492, "step": 434 }, { "epoch": 1.1626666666666667, "grad_norm": 0.48828125, "learning_rate": 3.979315523334355e-06, "loss": 1.157009243965149, "step": 436 }, { "epoch": 1.168, "grad_norm": 0.458984375, "learning_rate": 3.9498223253834165e-06, "loss": 1.4968481063842773, "step": 438 }, { "epoch": 1.1733333333333333, "grad_norm": 0.5234375, "learning_rate": 3.9203605520411165e-06, "loss": 1.229710340499878, "step": 440 }, { "epoch": 1.1786666666666668, "grad_norm": 0.734375, "learning_rate": 3.890932756055422e-06, "loss": 1.5977742671966553, "step": 442 }, { "epoch": 1.184, "grad_norm": 0.75390625, "learning_rate": 3.861541487230299e-06, "loss": 1.2765097618103027, "step": 444 }, { "epoch": 1.1893333333333334, "grad_norm": 0.59765625, "learning_rate": 3.832189292204773e-06, "loss": 1.3562519550323486, "step": 446 }, { "epoch": 1.1946666666666665, "grad_norm": 0.4453125, "learning_rate": 3.802878714232277e-06, "loss": 1.6301568746566772, "step": 448 }, { "epoch": 1.2, "grad_norm": 0.47265625, "learning_rate": 3.7736122929602887e-06, "loss": 1.264549732208252, "step": 450 }, { "epoch": 1.2053333333333334, "grad_norm": 0.443359375, "learning_rate": 3.744392564210283e-06, "loss": 1.4258700609207153, "step": 452 }, { "epoch": 1.2106666666666666, "grad_norm": 0.56640625, "learning_rate": 3.7152220597580023e-06, "loss": 1.4381071329116821, "step": 454 }, { "epoch": 1.216, "grad_norm": 0.42578125, "learning_rate": 3.686103307114104e-06, "loss": 1.4425290822982788, "step": 456 }, { "epoch": 1.2213333333333334, "grad_norm": 0.419921875, "learning_rate": 3.6570388293051458e-06, "loss": 1.2543679475784302, "step": 458 }, { "epoch": 1.2266666666666666, "grad_norm": 0.392578125, "learning_rate": 3.628031144654986e-06, "loss": 1.3114312887191772, "step": 460 }, { "epoch": 1.232, "grad_norm": 0.53125, "learning_rate": 3.5990827665665756e-06, "loss": 1.4582160711288452, "step": 462 }, { "epoch": 1.2373333333333334, "grad_norm": 0.53125, "learning_rate": 3.570196203304182e-06, "loss": 0.9986866116523743, "step": 464 }, { "epoch": 1.2426666666666666, "grad_norm": 0.8984375, "learning_rate": 3.541373957776059e-06, "loss": 1.124342918395996, "step": 466 }, { "epoch": 1.248, "grad_norm": 0.62109375, "learning_rate": 3.512618527317581e-06, "loss": 1.3204665184020996, "step": 468 }, { "epoch": 1.2533333333333334, "grad_norm": 0.349609375, "learning_rate": 3.483932403474856e-06, "loss": 1.1635738611221313, "step": 470 }, { "epoch": 1.2586666666666666, "grad_norm": 0.52734375, "learning_rate": 3.4553180717888407e-06, "loss": 1.0901280641555786, "step": 472 }, { "epoch": 1.264, "grad_norm": 0.41015625, "learning_rate": 3.4267780115799846e-06, "loss": 1.0830848217010498, "step": 474 }, { "epoch": 1.2693333333333334, "grad_norm": 0.310546875, "learning_rate": 3.398314695733401e-06, "loss": 1.3727480173110962, "step": 476 }, { "epoch": 1.2746666666666666, "grad_norm": 0.578125, "learning_rate": 3.3699305904846027e-06, "loss": 1.6773924827575684, "step": 478 }, { "epoch": 1.28, "grad_norm": 0.55078125, "learning_rate": 3.341628155205811e-06, "loss": 1.2972683906555176, "step": 480 }, { "epoch": 1.2853333333333334, "grad_norm": 0.71875, "learning_rate": 3.3134098421928692e-06, "loss": 1.2166887521743774, "step": 482 }, { "epoch": 1.2906666666666666, "grad_norm": 1.5078125, "learning_rate": 3.2852780964527466e-06, "loss": 1.3262923955917358, "step": 484 }, { "epoch": 1.296, "grad_norm": 0.2216796875, "learning_rate": 3.2572353554916966e-06, "loss": 1.2588746547698975, "step": 486 }, { "epoch": 1.3013333333333335, "grad_norm": 0.43359375, "learning_rate": 3.229284049104057e-06, "loss": 0.8871427774429321, "step": 488 }, { "epoch": 1.3066666666666666, "grad_norm": 0.259765625, "learning_rate": 3.2014265991617147e-06, "loss": 1.3596696853637695, "step": 490 }, { "epoch": 1.312, "grad_norm": 0.62890625, "learning_rate": 3.17366541940426e-06, "loss": 1.5204687118530273, "step": 492 }, { "epoch": 1.3173333333333335, "grad_norm": 0.32421875, "learning_rate": 3.1460029152298484e-06, "loss": 1.2328211069107056, "step": 494 }, { "epoch": 1.3226666666666667, "grad_norm": 0.43359375, "learning_rate": 3.1184414834867804e-06, "loss": 1.2612500190734863, "step": 496 }, { "epoch": 1.328, "grad_norm": 0.328125, "learning_rate": 3.0909835122658214e-06, "loss": 1.230236291885376, "step": 498 }, { "epoch": 1.3333333333333333, "grad_norm": 0.8046875, "learning_rate": 3.063631380693286e-06, "loss": 1.016282558441162, "step": 500 }, { "epoch": 1.3386666666666667, "grad_norm": 0.451171875, "learning_rate": 3.036387458724898e-06, "loss": 1.2729389667510986, "step": 502 }, { "epoch": 1.3439999999999999, "grad_norm": 0.396484375, "learning_rate": 3.009254106940435e-06, "loss": 1.2068243026733398, "step": 504 }, { "epoch": 1.3493333333333333, "grad_norm": 0.51953125, "learning_rate": 2.982233676339206e-06, "loss": 1.28195321559906, "step": 506 }, { "epoch": 1.3546666666666667, "grad_norm": 0.275390625, "learning_rate": 2.9553285081363308e-06, "loss": 1.1186037063598633, "step": 508 }, { "epoch": 1.3599999999999999, "grad_norm": 0.2255859375, "learning_rate": 2.9285409335598982e-06, "loss": 1.1410784721374512, "step": 510 }, { "epoch": 1.3653333333333333, "grad_norm": 0.59765625, "learning_rate": 2.9018732736489615e-06, "loss": 1.3254414796829224, "step": 512 }, { "epoch": 1.3706666666666667, "grad_norm": 0.515625, "learning_rate": 2.87532783905244e-06, "loss": 1.5107591152191162, "step": 514 }, { "epoch": 1.376, "grad_norm": 0.46484375, "learning_rate": 2.8489069298288992e-06, "loss": 1.2509578466415405, "step": 516 }, { "epoch": 1.3813333333333333, "grad_norm": 0.40234375, "learning_rate": 2.8226128352472747e-06, "loss": 1.3889421224594116, "step": 518 }, { "epoch": 1.3866666666666667, "grad_norm": 0.9140625, "learning_rate": 2.796447833588497e-06, "loss": 1.4837677478790283, "step": 520 }, { "epoch": 1.392, "grad_norm": 0.359375, "learning_rate": 2.7704141919481057e-06, "loss": 1.4461725950241089, "step": 522 }, { "epoch": 1.3973333333333333, "grad_norm": 0.625, "learning_rate": 2.7445141660397996e-06, "loss": 1.299829363822937, "step": 524 }, { "epoch": 1.4026666666666667, "grad_norm": 0.5234375, "learning_rate": 2.7187500000000004e-06, "loss": 1.0224652290344238, "step": 526 }, { "epoch": 1.408, "grad_norm": 0.53515625, "learning_rate": 2.6931239261933957e-06, "loss": 1.4109441041946411, "step": 528 }, { "epoch": 1.4133333333333333, "grad_norm": 0.40234375, "learning_rate": 2.6676381650195224e-06, "loss": 1.3534106016159058, "step": 530 }, { "epoch": 1.4186666666666667, "grad_norm": 0.89453125, "learning_rate": 2.6422949247203735e-06, "loss": 1.5593756437301636, "step": 532 }, { "epoch": 1.424, "grad_norm": 0.45703125, "learning_rate": 2.61709640118906e-06, "loss": 1.290115475654602, "step": 534 }, { "epoch": 1.4293333333333333, "grad_norm": 0.8125, "learning_rate": 2.5920447777795537e-06, "loss": 1.11957585811615, "step": 536 }, { "epoch": 1.4346666666666668, "grad_norm": 4.375, "learning_rate": 2.5671422251174963e-06, "loss": 1.0493898391723633, "step": 538 }, { "epoch": 1.44, "grad_norm": 0.78515625, "learning_rate": 2.5423909009121363e-06, "loss": 1.2276326417922974, "step": 540 }, { "epoch": 1.4453333333333334, "grad_norm": 0.28125, "learning_rate": 2.517792949769358e-06, "loss": 1.2422417402267456, "step": 542 }, { "epoch": 1.4506666666666668, "grad_norm": 0.8359375, "learning_rate": 2.4933505030058744e-06, "loss": 1.4107698202133179, "step": 544 }, { "epoch": 1.456, "grad_norm": 0.357421875, "learning_rate": 2.4690656784645434e-06, "loss": 1.0884898900985718, "step": 546 }, { "epoch": 1.4613333333333334, "grad_norm": 0.408203125, "learning_rate": 2.444940580330874e-06, "loss": 1.4010899066925049, "step": 548 }, { "epoch": 1.4666666666666668, "grad_norm": 1.03125, "learning_rate": 2.420977298950702e-06, "loss": 1.2208497524261475, "step": 550 }, { "epoch": 1.472, "grad_norm": 0.41796875, "learning_rate": 2.397177910649074e-06, "loss": 1.2561097145080566, "step": 552 }, { "epoch": 1.4773333333333334, "grad_norm": 0.52734375, "learning_rate": 2.3735444775503344e-06, "loss": 1.585281491279602, "step": 554 }, { "epoch": 1.4826666666666668, "grad_norm": 1.1875, "learning_rate": 2.350079047399464e-06, "loss": 1.4287792444229126, "step": 556 }, { "epoch": 1.488, "grad_norm": 0.87890625, "learning_rate": 2.3267836533846328e-06, "loss": 1.0933114290237427, "step": 558 }, { "epoch": 1.4933333333333334, "grad_norm": 0.8359375, "learning_rate": 2.3036603139610482e-06, "loss": 1.1171455383300781, "step": 560 }, { "epoch": 1.4986666666666666, "grad_norm": 0.64453125, "learning_rate": 2.2807110326760515e-06, "loss": 1.2635574340820312, "step": 562 }, { "epoch": 1.504, "grad_norm": 1.015625, "learning_rate": 2.25793779799553e-06, "loss": 1.4870187044143677, "step": 564 }, { "epoch": 1.5093333333333332, "grad_norm": 0.197265625, "learning_rate": 2.2353425831316116e-06, "loss": 1.1228148937225342, "step": 566 }, { "epoch": 1.5146666666666668, "grad_norm": 0.462890625, "learning_rate": 2.2129273458717058e-06, "loss": 1.393061876296997, "step": 568 }, { "epoch": 1.52, "grad_norm": 0.45703125, "learning_rate": 2.1906940284088615e-06, "loss": 1.0268428325653076, "step": 570 }, { "epoch": 1.5253333333333332, "grad_norm": 0.80859375, "learning_rate": 2.1686445571734825e-06, "loss": 1.3282322883605957, "step": 572 }, { "epoch": 1.5306666666666666, "grad_norm": 0.390625, "learning_rate": 2.146780842666417e-06, "loss": 1.2435400485992432, "step": 574 }, { "epoch": 1.536, "grad_norm": 0.61328125, "learning_rate": 2.1251047792934116e-06, "loss": 1.3963842391967773, "step": 576 }, { "epoch": 1.5413333333333332, "grad_norm": 0.40234375, "learning_rate": 2.1036182452009777e-06, "loss": 1.2569538354873657, "step": 578 }, { "epoch": 1.5466666666666666, "grad_norm": 0.58203125, "learning_rate": 2.082323102113647e-06, "loss": 1.3759268522262573, "step": 580 }, { "epoch": 1.552, "grad_norm": 0.4140625, "learning_rate": 2.0612211951726712e-06, "loss": 1.1200230121612549, "step": 582 }, { "epoch": 1.5573333333333332, "grad_norm": 0.51171875, "learning_rate": 2.040314352776137e-06, "loss": 1.6027384996414185, "step": 584 }, { "epoch": 1.5626666666666666, "grad_norm": 0.66015625, "learning_rate": 2.01960438642055e-06, "loss": 1.5927393436431885, "step": 586 }, { "epoch": 1.568, "grad_norm": 0.306640625, "learning_rate": 1.9990930905438733e-06, "loss": 1.0526584386825562, "step": 588 }, { "epoch": 1.5733333333333333, "grad_norm": 0.65625, "learning_rate": 1.978782242370046e-06, "loss": 1.4229958057403564, "step": 590 }, { "epoch": 1.5786666666666667, "grad_norm": 0.2392578125, "learning_rate": 1.958673601754995e-06, "loss": 1.2796956300735474, "step": 592 }, { "epoch": 1.584, "grad_norm": 0.57421875, "learning_rate": 1.9387689110341494e-06, "loss": 1.5249470472335815, "step": 594 }, { "epoch": 1.5893333333333333, "grad_norm": 0.37890625, "learning_rate": 1.9190698948714714e-06, "loss": 1.0016456842422485, "step": 596 }, { "epoch": 1.5946666666666667, "grad_norm": 0.29296875, "learning_rate": 1.899578260110027e-06, "loss": 1.4921225309371948, "step": 598 }, { "epoch": 1.6, "grad_norm": 0.5625, "learning_rate": 1.8802956956240875e-06, "loss": 1.3857101202011108, "step": 600 }, { "epoch": 1.6053333333333333, "grad_norm": 0.376953125, "learning_rate": 1.8612238721728026e-06, "loss": 1.0772466659545898, "step": 602 }, { "epoch": 1.6106666666666667, "grad_norm": 0.69921875, "learning_rate": 1.8423644422554278e-06, "loss": 1.374086618423462, "step": 604 }, { "epoch": 1.616, "grad_norm": 0.2392578125, "learning_rate": 1.8237190399681486e-06, "loss": 1.1497209072113037, "step": 606 }, { "epoch": 1.6213333333333333, "grad_norm": 0.31640625, "learning_rate": 1.8052892808624892e-06, "loss": 1.1666005849838257, "step": 608 }, { "epoch": 1.6266666666666667, "grad_norm": 0.5390625, "learning_rate": 1.78707676180533e-06, "loss": 1.4539345502853394, "step": 610 }, { "epoch": 1.6320000000000001, "grad_norm": 0.62890625, "learning_rate": 1.7690830608405475e-06, "loss": 1.2192360162734985, "step": 612 }, { "epoch": 1.6373333333333333, "grad_norm": 0.40234375, "learning_rate": 1.7513097370522843e-06, "loss": 1.2787443399429321, "step": 614 }, { "epoch": 1.6426666666666667, "grad_norm": 0.8203125, "learning_rate": 1.7337583304298553e-06, "loss": 1.4955127239227295, "step": 616 }, { "epoch": 1.6480000000000001, "grad_norm": 0.8359375, "learning_rate": 1.7164303617343188e-06, "loss": 1.5240033864974976, "step": 618 }, { "epoch": 1.6533333333333333, "grad_norm": 0.333984375, "learning_rate": 1.6993273323667077e-06, "loss": 1.186129093170166, "step": 620 }, { "epoch": 1.6586666666666665, "grad_norm": 0.65234375, "learning_rate": 1.6824507242379345e-06, "loss": 1.2840181589126587, "step": 622 }, { "epoch": 1.6640000000000001, "grad_norm": 0.5390625, "learning_rate": 1.6658019996403958e-06, "loss": 1.5434945821762085, "step": 624 }, { "epoch": 1.6693333333333333, "grad_norm": 0.68359375, "learning_rate": 1.6493826011212656e-06, "loss": 1.5949230194091797, "step": 626 }, { "epoch": 1.6746666666666665, "grad_norm": 0.5, "learning_rate": 1.6331939513575066e-06, "loss": 1.1981688737869263, "step": 628 }, { "epoch": 1.6800000000000002, "grad_norm": 0.6953125, "learning_rate": 1.6172374530326001e-06, "loss": 1.3873530626296997, "step": 630 }, { "epoch": 1.6853333333333333, "grad_norm": 0.5703125, "learning_rate": 1.60151448871501e-06, "loss": 1.1224573850631714, "step": 632 }, { "epoch": 1.6906666666666665, "grad_norm": 0.640625, "learning_rate": 1.5860264207383851e-06, "loss": 1.0328835248947144, "step": 634 }, { "epoch": 1.696, "grad_norm": 0.9375, "learning_rate": 1.5707745910835233e-06, "loss": 1.5136065483093262, "step": 636 }, { "epoch": 1.7013333333333334, "grad_norm": 1.2421875, "learning_rate": 1.5557603212620889e-06, "loss": 1.5170190334320068, "step": 638 }, { "epoch": 1.7066666666666666, "grad_norm": 0.41015625, "learning_rate": 1.5409849122021144e-06, "loss": 1.4020171165466309, "step": 640 }, { "epoch": 1.712, "grad_norm": 0.60546875, "learning_rate": 1.5264496441352748e-06, "loss": 1.5551862716674805, "step": 642 }, { "epoch": 1.7173333333333334, "grad_norm": 0.396484375, "learning_rate": 1.5121557764859648e-06, "loss": 1.3862305879592896, "step": 644 }, { "epoch": 1.7226666666666666, "grad_norm": 0.41015625, "learning_rate": 1.4981045477621702e-06, "loss": 0.922488272190094, "step": 646 }, { "epoch": 1.728, "grad_norm": 0.318359375, "learning_rate": 1.4842971754481615e-06, "loss": 1.240954041481018, "step": 648 }, { "epoch": 1.7333333333333334, "grad_norm": 0.24609375, "learning_rate": 1.4707348558989974e-06, "loss": 1.0813591480255127, "step": 650 }, { "epoch": 1.7386666666666666, "grad_norm": 0.63671875, "learning_rate": 1.4574187642368714e-06, "loss": 1.4775949716567993, "step": 652 }, { "epoch": 1.744, "grad_norm": 0.30859375, "learning_rate": 1.444350054249288e-06, "loss": 1.2168411016464233, "step": 654 }, { "epoch": 1.7493333333333334, "grad_norm": 0.5625, "learning_rate": 1.431529858289091e-06, "loss": 1.4125171899795532, "step": 656 }, { "epoch": 1.7546666666666666, "grad_norm": 0.53125, "learning_rate": 1.418959287176354e-06, "loss": 1.414473056793213, "step": 658 }, { "epoch": 1.76, "grad_norm": 0.486328125, "learning_rate": 1.406639430102127e-06, "loss": 1.220368504524231, "step": 660 }, { "epoch": 1.7653333333333334, "grad_norm": 0.4921875, "learning_rate": 1.3945713545340668e-06, "loss": 1.2297767400741577, "step": 662 }, { "epoch": 1.7706666666666666, "grad_norm": 0.2412109375, "learning_rate": 1.3827561061239403e-06, "loss": 1.3291184902191162, "step": 664 }, { "epoch": 1.776, "grad_norm": 0.65625, "learning_rate": 1.3711947086170277e-06, "loss": 1.0460172891616821, "step": 666 }, { "epoch": 1.7813333333333334, "grad_norm": 0.40234375, "learning_rate": 1.359888163763415e-06, "loss": 1.3426827192306519, "step": 668 }, { "epoch": 1.7866666666666666, "grad_norm": 0.3984375, "learning_rate": 1.3488374512311988e-06, "loss": 1.1144654750823975, "step": 670 }, { "epoch": 1.792, "grad_norm": 0.5546875, "learning_rate": 1.3380435285216006e-06, "loss": 1.2571556568145752, "step": 672 }, { "epoch": 1.7973333333333334, "grad_norm": 0.6953125, "learning_rate": 1.327507330886004e-06, "loss": 1.454203486442566, "step": 674 }, { "epoch": 1.8026666666666666, "grad_norm": 0.48046875, "learning_rate": 1.3172297712449172e-06, "loss": 1.4048188924789429, "step": 676 }, { "epoch": 1.808, "grad_norm": 0.58984375, "learning_rate": 1.3072117401088736e-06, "loss": 1.0630518198013306, "step": 678 }, { "epoch": 1.8133333333333335, "grad_norm": 0.9609375, "learning_rate": 1.2974541055012725e-06, "loss": 1.1879171133041382, "step": 680 }, { "epoch": 1.8186666666666667, "grad_norm": 0.734375, "learning_rate": 1.2879577128831673e-06, "loss": 1.380265235900879, "step": 682 }, { "epoch": 1.8239999999999998, "grad_norm": 0.36328125, "learning_rate": 1.278723385080009e-06, "loss": 0.971758246421814, "step": 684 }, { "epoch": 1.8293333333333335, "grad_norm": 0.5390625, "learning_rate": 1.2697519222103545e-06, "loss": 1.512132167816162, "step": 686 }, { "epoch": 1.8346666666666667, "grad_norm": 0.431640625, "learning_rate": 1.2610441016165355e-06, "loss": 1.005048155784607, "step": 688 }, { "epoch": 1.8399999999999999, "grad_norm": 0.294921875, "learning_rate": 1.2526006777973084e-06, "loss": 1.371572732925415, "step": 690 }, { "epoch": 1.8453333333333335, "grad_norm": 0.5703125, "learning_rate": 1.2444223823424778e-06, "loss": 1.332929253578186, "step": 692 }, { "epoch": 1.8506666666666667, "grad_norm": 0.30078125, "learning_rate": 1.2365099238695073e-06, "loss": 1.0624377727508545, "step": 694 }, { "epoch": 1.8559999999999999, "grad_norm": 0.60546875, "learning_rate": 1.2288639879621216e-06, "loss": 1.4434648752212524, "step": 696 }, { "epoch": 1.8613333333333333, "grad_norm": 0.59375, "learning_rate": 1.2214852371109014e-06, "loss": 1.115839958190918, "step": 698 }, { "epoch": 1.8666666666666667, "grad_norm": 0.294921875, "learning_rate": 1.214374310655884e-06, "loss": 1.3425531387329102, "step": 700 }, { "epoch": 1.8719999999999999, "grad_norm": 0.41015625, "learning_rate": 1.207531824731164e-06, "loss": 1.2544267177581787, "step": 702 }, { "epoch": 1.8773333333333333, "grad_norm": 0.48828125, "learning_rate": 1.2009583722115107e-06, "loss": 1.2201001644134521, "step": 704 }, { "epoch": 1.8826666666666667, "grad_norm": 0.5859375, "learning_rate": 1.1946545226609944e-06, "loss": 1.1109111309051514, "step": 706 }, { "epoch": 1.888, "grad_norm": 0.62109375, "learning_rate": 1.1886208222836388e-06, "loss": 1.2960035800933838, "step": 708 }, { "epoch": 1.8933333333333333, "grad_norm": 0.62890625, "learning_rate": 1.1828577938760926e-06, "loss": 1.3226895332336426, "step": 710 }, { "epoch": 1.8986666666666667, "grad_norm": 0.4296875, "learning_rate": 1.1773659367823326e-06, "loss": 1.459092140197754, "step": 712 }, { "epoch": 1.904, "grad_norm": 0.263671875, "learning_rate": 1.1721457268503963e-06, "loss": 0.9945974349975586, "step": 714 }, { "epoch": 1.9093333333333333, "grad_norm": 1.4921875, "learning_rate": 1.1671976163911537e-06, "loss": 1.3499224185943604, "step": 716 }, { "epoch": 1.9146666666666667, "grad_norm": 0.5, "learning_rate": 1.162522034139113e-06, "loss": 1.203792929649353, "step": 718 }, { "epoch": 1.92, "grad_norm": 0.357421875, "learning_rate": 1.1581193852152746e-06, "loss": 1.432945728302002, "step": 720 }, { "epoch": 1.9253333333333333, "grad_norm": 0.64453125, "learning_rate": 1.1539900510920285e-06, "loss": 1.4233765602111816, "step": 722 }, { "epoch": 1.9306666666666668, "grad_norm": 0.83984375, "learning_rate": 1.1501343895601022e-06, "loss": 1.5078463554382324, "step": 724 }, { "epoch": 1.936, "grad_norm": 0.298828125, "learning_rate": 1.1465527346975566e-06, "loss": 1.041426658630371, "step": 726 }, { "epoch": 1.9413333333333334, "grad_norm": 0.87890625, "learning_rate": 1.1432453968408437e-06, "loss": 1.1554670333862305, "step": 728 }, { "epoch": 1.9466666666666668, "grad_norm": 0.66015625, "learning_rate": 1.1402126625579132e-06, "loss": 1.238165020942688, "step": 730 }, { "epoch": 1.952, "grad_norm": 0.25, "learning_rate": 1.1374547946233843e-06, "loss": 1.2469568252563477, "step": 732 }, { "epoch": 1.9573333333333334, "grad_norm": 0.94921875, "learning_rate": 1.1349720319957783e-06, "loss": 1.100600004196167, "step": 734 }, { "epoch": 1.9626666666666668, "grad_norm": 0.287109375, "learning_rate": 1.1327645897968104e-06, "loss": 1.256953239440918, "step": 736 }, { "epoch": 1.968, "grad_norm": 0.408203125, "learning_rate": 1.1308326592927547e-06, "loss": 1.0144098997116089, "step": 738 }, { "epoch": 1.9733333333333334, "grad_norm": 0.5234375, "learning_rate": 1.1291764078778685e-06, "loss": 1.1728276014328003, "step": 740 }, { "epoch": 1.9786666666666668, "grad_norm": 0.70703125, "learning_rate": 1.127795979059889e-06, "loss": 1.084470272064209, "step": 742 }, { "epoch": 1.984, "grad_norm": 0.625, "learning_rate": 1.1266914924475997e-06, "loss": 1.2899092435836792, "step": 744 }, { "epoch": 1.9893333333333332, "grad_norm": 1.0390625, "learning_rate": 1.1258630437404658e-06, "loss": 1.3732484579086304, "step": 746 }, { "epoch": 1.9946666666666668, "grad_norm": 0.42578125, "learning_rate": 1.1253107047203428e-06, "loss": 1.2392138242721558, "step": 748 }, { "epoch": 2.0, "grad_norm": 0.375, "learning_rate": 1.1250345232452565e-06, "loss": 1.4283043146133423, "step": 750 }, { "epoch": 2.0, "step": 750, "total_flos": 2.55147477658973e+18, "train_loss": 1.3643777534166972, "train_runtime": 10437.131, "train_samples_per_second": 2.299, "train_steps_per_second": 0.072 } ], "logging_steps": 2, "max_steps": 750, "num_input_tokens_seen": 0, "num_train_epochs": 2, "save_steps": 99999, "stateful_callbacks": { "TrainerControl": { "args": { "should_epoch_stop": false, "should_evaluate": false, "should_log": false, "should_save": true, "should_training_stop": true }, "attributes": {} } }, "total_flos": 2.55147477658973e+18, "train_batch_size": 1, "trial_name": null, "trial_params": null }