9b-dci / trainer_state.json
furproxy's picture
Upload folder using huggingface_hub
ddefa79 verified
{
"best_global_step": null,
"best_metric": null,
"best_model_checkpoint": null,
"epoch": 2.0,
"eval_steps": 500,
"global_step": 750,
"is_hyper_param_search": false,
"is_local_process_zero": true,
"is_world_process_zero": true,
"log_history": [
{
"epoch": 0.005333333333333333,
"grad_norm": 0.5234375,
"learning_rate": 1.0000000000000001e-07,
"loss": 1.3918027877807617,
"step": 2
},
{
"epoch": 0.010666666666666666,
"grad_norm": 1.3203125,
"learning_rate": 3.0000000000000004e-07,
"loss": 2.0975496768951416,
"step": 4
},
{
"epoch": 0.016,
"grad_norm": 1.671875,
"learning_rate": 5e-07,
"loss": 2.0533759593963623,
"step": 6
},
{
"epoch": 0.021333333333333333,
"grad_norm": 0.60546875,
"learning_rate": 7.000000000000001e-07,
"loss": 1.4977960586547852,
"step": 8
},
{
"epoch": 0.02666666666666667,
"grad_norm": 1.28125,
"learning_rate": 9e-07,
"loss": 1.8092024326324463,
"step": 10
},
{
"epoch": 0.032,
"grad_norm": 0.82421875,
"learning_rate": 1.1e-06,
"loss": 2.0490243434906006,
"step": 12
},
{
"epoch": 0.037333333333333336,
"grad_norm": 1.671875,
"learning_rate": 1.3e-06,
"loss": 2.2412607669830322,
"step": 14
},
{
"epoch": 0.042666666666666665,
"grad_norm": 0.8828125,
"learning_rate": 1.5e-06,
"loss": 1.9627114534378052,
"step": 16
},
{
"epoch": 0.048,
"grad_norm": 2.390625,
"learning_rate": 1.7e-06,
"loss": 1.8048596382141113,
"step": 18
},
{
"epoch": 0.05333333333333334,
"grad_norm": 1.3046875,
"learning_rate": 1.9000000000000002e-06,
"loss": 1.9537056684494019,
"step": 20
},
{
"epoch": 0.058666666666666666,
"grad_norm": 1.09375,
"learning_rate": 2.1000000000000002e-06,
"loss": 1.7351176738739014,
"step": 22
},
{
"epoch": 0.064,
"grad_norm": 0.93359375,
"learning_rate": 2.3e-06,
"loss": 2.1719343662261963,
"step": 24
},
{
"epoch": 0.06933333333333333,
"grad_norm": 0.73828125,
"learning_rate": 2.4999999999999998e-06,
"loss": 2.0036661624908447,
"step": 26
},
{
"epoch": 0.07466666666666667,
"grad_norm": 0.6328125,
"learning_rate": 2.7e-06,
"loss": 1.4876424074172974,
"step": 28
},
{
"epoch": 0.08,
"grad_norm": 0.93359375,
"learning_rate": 2.9e-06,
"loss": 1.7595216035842896,
"step": 30
},
{
"epoch": 0.08533333333333333,
"grad_norm": 0.92578125,
"learning_rate": 3.1e-06,
"loss": 1.7543615102767944,
"step": 32
},
{
"epoch": 0.09066666666666667,
"grad_norm": 0.703125,
"learning_rate": 3.3e-06,
"loss": 1.6767919063568115,
"step": 34
},
{
"epoch": 0.096,
"grad_norm": 0.7265625,
"learning_rate": 3.5e-06,
"loss": 1.9044243097305298,
"step": 36
},
{
"epoch": 0.10133333333333333,
"grad_norm": 0.78125,
"learning_rate": 3.7e-06,
"loss": 1.9992799758911133,
"step": 38
},
{
"epoch": 0.10666666666666667,
"grad_norm": 0.2021484375,
"learning_rate": 3.9e-06,
"loss": 1.4217664003372192,
"step": 40
},
{
"epoch": 0.112,
"grad_norm": 1.0859375,
"learning_rate": 4.1e-06,
"loss": 2.2651872634887695,
"step": 42
},
{
"epoch": 0.11733333333333333,
"grad_norm": 1.015625,
"learning_rate": 4.3e-06,
"loss": 1.8020230531692505,
"step": 44
},
{
"epoch": 0.12266666666666666,
"grad_norm": 0.6328125,
"learning_rate": 4.5e-06,
"loss": 2.057128667831421,
"step": 46
},
{
"epoch": 0.128,
"grad_norm": 0.287109375,
"learning_rate": 4.700000000000001e-06,
"loss": 1.7972444295883179,
"step": 48
},
{
"epoch": 0.13333333333333333,
"grad_norm": 1.1328125,
"learning_rate": 4.9e-06,
"loss": 1.585660696029663,
"step": 50
},
{
"epoch": 0.13866666666666666,
"grad_norm": 1.4140625,
"learning_rate": 5.1e-06,
"loss": 1.5591168403625488,
"step": 52
},
{
"epoch": 0.144,
"grad_norm": 0.2119140625,
"learning_rate": 5.3e-06,
"loss": 1.2894660234451294,
"step": 54
},
{
"epoch": 0.14933333333333335,
"grad_norm": 0.73046875,
"learning_rate": 5.5e-06,
"loss": 1.8333218097686768,
"step": 56
},
{
"epoch": 0.15466666666666667,
"grad_norm": 1.1015625,
"learning_rate": 5.7000000000000005e-06,
"loss": 1.5420780181884766,
"step": 58
},
{
"epoch": 0.16,
"grad_norm": 0.828125,
"learning_rate": 5.899999999999999e-06,
"loss": 1.8294118642807007,
"step": 60
},
{
"epoch": 0.16533333333333333,
"grad_norm": 0.3515625,
"learning_rate": 6.1e-06,
"loss": 1.5082216262817383,
"step": 62
},
{
"epoch": 0.17066666666666666,
"grad_norm": 0.314453125,
"learning_rate": 6.3e-06,
"loss": 1.7252726554870605,
"step": 64
},
{
"epoch": 0.176,
"grad_norm": 0.435546875,
"learning_rate": 6.5000000000000004e-06,
"loss": 1.56448233127594,
"step": 66
},
{
"epoch": 0.18133333333333335,
"grad_norm": 1.1015625,
"learning_rate": 6.7e-06,
"loss": 1.87124502658844,
"step": 68
},
{
"epoch": 0.18666666666666668,
"grad_norm": 0.5859375,
"learning_rate": 6.900000000000001e-06,
"loss": 1.4997594356536865,
"step": 70
},
{
"epoch": 0.192,
"grad_norm": 0.609375,
"learning_rate": 7.1e-06,
"loss": 1.9693466424942017,
"step": 72
},
{
"epoch": 0.19733333333333333,
"grad_norm": 0.95703125,
"learning_rate": 7.3e-06,
"loss": 1.5585707426071167,
"step": 74
},
{
"epoch": 0.20266666666666666,
"grad_norm": 1.859375,
"learning_rate": 7.5e-06,
"loss": 1.7230855226516724,
"step": 76
},
{
"epoch": 0.208,
"grad_norm": 0.38671875,
"learning_rate": 7.4998619077668045e-06,
"loss": 1.7421209812164307,
"step": 78
},
{
"epoch": 0.21333333333333335,
"grad_norm": 0.466796875,
"learning_rate": 7.499447643032373e-06,
"loss": 1.8539875745773315,
"step": 80
},
{
"epoch": 0.21866666666666668,
"grad_norm": 0.2734375,
"learning_rate": 7.498757241691129e-06,
"loss": 1.410808801651001,
"step": 82
},
{
"epoch": 0.224,
"grad_norm": 0.39453125,
"learning_rate": 7.497790763563665e-06,
"loss": 1.5474530458450317,
"step": 84
},
{
"epoch": 0.22933333333333333,
"grad_norm": 0.69921875,
"learning_rate": 7.496548292391548e-06,
"loss": 1.8224376440048218,
"step": 86
},
{
"epoch": 0.23466666666666666,
"grad_norm": 1.265625,
"learning_rate": 7.4950299358300644e-06,
"loss": 1.5387835502624512,
"step": 88
},
{
"epoch": 0.24,
"grad_norm": 0.1806640625,
"learning_rate": 7.493235825438903e-06,
"loss": 1.4174927473068237,
"step": 90
},
{
"epoch": 0.24533333333333332,
"grad_norm": 0.53125,
"learning_rate": 7.491166116670744e-06,
"loss": 1.3185020685195923,
"step": 92
},
{
"epoch": 0.25066666666666665,
"grad_norm": 2.078125,
"learning_rate": 7.488820988857795e-06,
"loss": 1.3037068843841553,
"step": 94
},
{
"epoch": 0.256,
"grad_norm": 0.330078125,
"learning_rate": 7.486200645196252e-06,
"loss": 1.7521201372146606,
"step": 96
},
{
"epoch": 0.2613333333333333,
"grad_norm": 0.71875,
"learning_rate": 7.483305312728692e-06,
"loss": 1.2269163131713867,
"step": 98
},
{
"epoch": 0.26666666666666666,
"grad_norm": 0.41796875,
"learning_rate": 7.480135242324401e-06,
"loss": 1.4020113945007324,
"step": 100
},
{
"epoch": 0.272,
"grad_norm": 0.1875,
"learning_rate": 7.476690708657641e-06,
"loss": 1.236190915107727,
"step": 102
},
{
"epoch": 0.2773333333333333,
"grad_norm": 0.765625,
"learning_rate": 7.472972010183844e-06,
"loss": 1.3339173793792725,
"step": 104
},
{
"epoch": 0.2826666666666667,
"grad_norm": 1.6640625,
"learning_rate": 7.468979469113756e-06,
"loss": 1.5956217050552368,
"step": 106
},
{
"epoch": 0.288,
"grad_norm": 0.2119140625,
"learning_rate": 7.4647134313855186e-06,
"loss": 1.2588270902633667,
"step": 108
},
{
"epoch": 0.29333333333333333,
"grad_norm": 0.52734375,
"learning_rate": 7.4601742666346926e-06,
"loss": 1.6625038385391235,
"step": 110
},
{
"epoch": 0.2986666666666667,
"grad_norm": 0.7109375,
"learning_rate": 7.455362368162235e-06,
"loss": 1.3837028741836548,
"step": 112
},
{
"epoch": 0.304,
"grad_norm": 0.283203125,
"learning_rate": 7.450278152900414e-06,
"loss": 1.5355887413024902,
"step": 114
},
{
"epoch": 0.30933333333333335,
"grad_norm": 0.65625,
"learning_rate": 7.4449220613766924e-06,
"loss": 1.6411131620407104,
"step": 116
},
{
"epoch": 0.31466666666666665,
"grad_norm": 1.6484375,
"learning_rate": 7.439294557675548e-06,
"loss": 1.5240530967712402,
"step": 118
},
{
"epoch": 0.32,
"grad_norm": 0.609375,
"learning_rate": 7.43339612939827e-06,
"loss": 1.1345856189727783,
"step": 120
},
{
"epoch": 0.3253333333333333,
"grad_norm": 0.373046875,
"learning_rate": 7.427227287620707e-06,
"loss": 1.1475586891174316,
"step": 122
},
{
"epoch": 0.33066666666666666,
"grad_norm": 0.52734375,
"learning_rate": 7.420788566848982e-06,
"loss": 1.5467785596847534,
"step": 124
},
{
"epoch": 0.336,
"grad_norm": 0.287109375,
"learning_rate": 7.414080524973188e-06,
"loss": 1.6301590204238892,
"step": 126
},
{
"epoch": 0.3413333333333333,
"grad_norm": 0.57421875,
"learning_rate": 7.407103743219038e-06,
"loss": 1.4552572965621948,
"step": 128
},
{
"epoch": 0.3466666666666667,
"grad_norm": 0.73046875,
"learning_rate": 7.399858826097512e-06,
"loss": 1.7707996368408203,
"step": 130
},
{
"epoch": 0.352,
"grad_norm": 0.64453125,
"learning_rate": 7.392346401352474e-06,
"loss": 1.4176101684570312,
"step": 132
},
{
"epoch": 0.35733333333333334,
"grad_norm": 0.61328125,
"learning_rate": 7.3845671199062815e-06,
"loss": 1.4162875413894653,
"step": 134
},
{
"epoch": 0.3626666666666667,
"grad_norm": 0.55859375,
"learning_rate": 7.376521655803392e-06,
"loss": 1.4608713388442993,
"step": 136
},
{
"epoch": 0.368,
"grad_norm": 0.392578125,
"learning_rate": 7.368210706151946e-06,
"loss": 1.4052457809448242,
"step": 138
},
{
"epoch": 0.37333333333333335,
"grad_norm": 0.427734375,
"learning_rate": 7.359634991063379e-06,
"loss": 1.137465476989746,
"step": 140
},
{
"epoch": 0.37866666666666665,
"grad_norm": 0.8359375,
"learning_rate": 7.350795253590018e-06,
"loss": 1.4206374883651733,
"step": 142
},
{
"epoch": 0.384,
"grad_norm": 0.11474609375,
"learning_rate": 7.3416922596607055e-06,
"loss": 1.020829439163208,
"step": 144
},
{
"epoch": 0.3893333333333333,
"grad_norm": 0.2421875,
"learning_rate": 7.332326798014425e-06,
"loss": 1.558069109916687,
"step": 146
},
{
"epoch": 0.39466666666666667,
"grad_norm": 0.26171875,
"learning_rate": 7.322699680131971e-06,
"loss": 1.5617731809616089,
"step": 148
},
{
"epoch": 0.4,
"grad_norm": 0.40234375,
"learning_rate": 7.312811740165632e-06,
"loss": 1.3473962545394897,
"step": 150
},
{
"epoch": 0.4053333333333333,
"grad_norm": 0.71875,
"learning_rate": 7.302663834866909e-06,
"loss": 1.4550005197525024,
"step": 152
},
{
"epoch": 0.4106666666666667,
"grad_norm": 0.4140625,
"learning_rate": 7.2922568435122956e-06,
"loss": 1.2182159423828125,
"step": 154
},
{
"epoch": 0.416,
"grad_norm": 0.515625,
"learning_rate": 7.281591667827079e-06,
"loss": 1.1797568798065186,
"step": 156
},
{
"epoch": 0.42133333333333334,
"grad_norm": 0.50390625,
"learning_rate": 7.270669231907212e-06,
"loss": 1.3810535669326782,
"step": 158
},
{
"epoch": 0.4266666666666667,
"grad_norm": 0.412109375,
"learning_rate": 7.2594904821392485e-06,
"loss": 1.286556363105774,
"step": 160
},
{
"epoch": 0.432,
"grad_norm": 0.419921875,
"learning_rate": 7.248056387118338e-06,
"loss": 1.4289522171020508,
"step": 162
},
{
"epoch": 0.43733333333333335,
"grad_norm": 0.66015625,
"learning_rate": 7.236367937564302e-06,
"loss": 1.243101716041565,
"step": 164
},
{
"epoch": 0.44266666666666665,
"grad_norm": 0.283203125,
"learning_rate": 7.224426146235791e-06,
"loss": 1.0999314785003662,
"step": 166
},
{
"epoch": 0.448,
"grad_norm": 0.3046875,
"learning_rate": 7.212232047842537e-06,
"loss": 1.4978009462356567,
"step": 168
},
{
"epoch": 0.4533333333333333,
"grad_norm": 5.53125,
"learning_rate": 7.199786698955697e-06,
"loss": 1.4373788833618164,
"step": 170
},
{
"epoch": 0.45866666666666667,
"grad_norm": 0.69921875,
"learning_rate": 7.187091177916301e-06,
"loss": 1.4840056896209717,
"step": 172
},
{
"epoch": 0.464,
"grad_norm": 0.2021484375,
"learning_rate": 7.174146584741825e-06,
"loss": 1.2911632061004639,
"step": 174
},
{
"epoch": 0.4693333333333333,
"grad_norm": 0.279296875,
"learning_rate": 7.160954041030877e-06,
"loss": 1.3464269638061523,
"step": 176
},
{
"epoch": 0.4746666666666667,
"grad_norm": 0.357421875,
"learning_rate": 7.1475146898660116e-06,
"loss": 1.4491277933120728,
"step": 178
},
{
"epoch": 0.48,
"grad_norm": 0.349609375,
"learning_rate": 7.133829695714688e-06,
"loss": 1.318329930305481,
"step": 180
},
{
"epoch": 0.48533333333333334,
"grad_norm": 0.78515625,
"learning_rate": 7.1199002443283776e-06,
"loss": 1.089525580406189,
"step": 182
},
{
"epoch": 0.49066666666666664,
"grad_norm": 0.263671875,
"learning_rate": 7.1057275426398146e-06,
"loss": 1.356623888015747,
"step": 184
},
{
"epoch": 0.496,
"grad_norm": 0.51171875,
"learning_rate": 7.09131281865843e-06,
"loss": 1.5700266361236572,
"step": 186
},
{
"epoch": 0.5013333333333333,
"grad_norm": 0.45703125,
"learning_rate": 7.0766573213639404e-06,
"loss": 1.12882661819458,
"step": 188
},
{
"epoch": 0.5066666666666667,
"grad_norm": 0.53125,
"learning_rate": 7.061762320598134e-06,
"loss": 1.3883382081985474,
"step": 190
},
{
"epoch": 0.512,
"grad_norm": 0.263671875,
"learning_rate": 7.0466291069548415e-06,
"loss": 1.1575868129730225,
"step": 192
},
{
"epoch": 0.5173333333333333,
"grad_norm": 0.291015625,
"learning_rate": 7.031258991668114e-06,
"loss": 1.458404302597046,
"step": 194
},
{
"epoch": 0.5226666666666666,
"grad_norm": 0.5703125,
"learning_rate": 7.015653306498608e-06,
"loss": 1.7165433168411255,
"step": 196
},
{
"epoch": 0.528,
"grad_norm": 0.486328125,
"learning_rate": 6.99981340361819e-06,
"loss": 1.5549272298812866,
"step": 198
},
{
"epoch": 0.5333333333333333,
"grad_norm": 0.70703125,
"learning_rate": 6.983740655492783e-06,
"loss": 1.6522574424743652,
"step": 200
},
{
"epoch": 0.5386666666666666,
"grad_norm": 0.84375,
"learning_rate": 6.967436454763442e-06,
"loss": 1.5417842864990234,
"step": 202
},
{
"epoch": 0.544,
"grad_norm": 0.58203125,
"learning_rate": 6.950902214125689e-06,
"loss": 1.279434323310852,
"step": 204
},
{
"epoch": 0.5493333333333333,
"grad_norm": 0.474609375,
"learning_rate": 6.9341393662071115e-06,
"loss": 1.5310899019241333,
"step": 206
},
{
"epoch": 0.5546666666666666,
"grad_norm": 0.4375,
"learning_rate": 6.9171493634432225e-06,
"loss": 1.1565041542053223,
"step": 208
},
{
"epoch": 0.56,
"grad_norm": 0.3828125,
"learning_rate": 6.899933677951622e-06,
"loss": 1.3370246887207031,
"step": 210
},
{
"epoch": 0.5653333333333334,
"grad_norm": 0.37890625,
"learning_rate": 6.882493801404442e-06,
"loss": 1.330797791481018,
"step": 212
},
{
"epoch": 0.5706666666666667,
"grad_norm": 0.81640625,
"learning_rate": 6.8648312448990875e-06,
"loss": 1.4331892728805542,
"step": 214
},
{
"epoch": 0.576,
"grad_norm": 1.6875,
"learning_rate": 6.846947538827327e-06,
"loss": 1.5132179260253906,
"step": 216
},
{
"epoch": 0.5813333333333334,
"grad_norm": 1.46875,
"learning_rate": 6.828844232742671e-06,
"loss": 1.2577152252197266,
"step": 218
},
{
"epoch": 0.5866666666666667,
"grad_norm": 0.9453125,
"learning_rate": 6.810522895226115e-06,
"loss": 1.45955491065979,
"step": 220
},
{
"epoch": 0.592,
"grad_norm": 0.2470703125,
"learning_rate": 6.791985113750234e-06,
"loss": 1.2781492471694946,
"step": 222
},
{
"epoch": 0.5973333333333334,
"grad_norm": 0.40625,
"learning_rate": 6.773232494541625e-06,
"loss": 1.3114062547683716,
"step": 224
},
{
"epoch": 0.6026666666666667,
"grad_norm": 1.0546875,
"learning_rate": 6.754266662441742e-06,
"loss": 1.4861233234405518,
"step": 226
},
{
"epoch": 0.608,
"grad_norm": 0.671875,
"learning_rate": 6.735089260766105e-06,
"loss": 1.6322368383407593,
"step": 228
},
{
"epoch": 0.6133333333333333,
"grad_norm": 0.7421875,
"learning_rate": 6.7157019511619145e-06,
"loss": 1.5255112648010254,
"step": 230
},
{
"epoch": 0.6186666666666667,
"grad_norm": 0.56640625,
"learning_rate": 6.696106413464071e-06,
"loss": 1.2472528219223022,
"step": 232
},
{
"epoch": 0.624,
"grad_norm": 0.5625,
"learning_rate": 6.676304345549635e-06,
"loss": 1.5083709955215454,
"step": 234
},
{
"epoch": 0.6293333333333333,
"grad_norm": 0.62890625,
"learning_rate": 6.656297463190704e-06,
"loss": 1.216172218322754,
"step": 236
},
{
"epoch": 0.6346666666666667,
"grad_norm": 0.5859375,
"learning_rate": 6.63608749990575e-06,
"loss": 1.2348906993865967,
"step": 238
},
{
"epoch": 0.64,
"grad_norm": 0.345703125,
"learning_rate": 6.615676206809415e-06,
"loss": 1.3027633428573608,
"step": 240
},
{
"epoch": 0.6453333333333333,
"grad_norm": 0.38671875,
"learning_rate": 6.595065352460786e-06,
"loss": 1.1347825527191162,
"step": 242
},
{
"epoch": 0.6506666666666666,
"grad_norm": 0.5625,
"learning_rate": 6.574256722710161e-06,
"loss": 1.271606206893921,
"step": 244
},
{
"epoch": 0.656,
"grad_norm": 0.69921875,
"learning_rate": 6.553252120544297e-06,
"loss": 1.297676682472229,
"step": 246
},
{
"epoch": 0.6613333333333333,
"grad_norm": 0.357421875,
"learning_rate": 6.5320533659302055e-06,
"loss": 1.3999580144882202,
"step": 248
},
{
"epoch": 0.6666666666666666,
"grad_norm": 0.498046875,
"learning_rate": 6.510662295657448e-06,
"loss": 1.4784775972366333,
"step": 250
},
{
"epoch": 0.672,
"grad_norm": 0.33984375,
"learning_rate": 6.489080763178991e-06,
"loss": 1.3089486360549927,
"step": 252
},
{
"epoch": 0.6773333333333333,
"grad_norm": 0.451171875,
"learning_rate": 6.467310638450608e-06,
"loss": 1.5869042873382568,
"step": 254
},
{
"epoch": 0.6826666666666666,
"grad_norm": 0.5390625,
"learning_rate": 6.44535380776886e-06,
"loss": 1.491261601448059,
"step": 256
},
{
"epoch": 0.688,
"grad_norm": 0.53125,
"learning_rate": 6.42321217360765e-06,
"loss": 1.3518444299697876,
"step": 258
},
{
"epoch": 0.6933333333333334,
"grad_norm": 0.408203125,
"learning_rate": 6.40088765445338e-06,
"loss": 1.1858634948730469,
"step": 260
},
{
"epoch": 0.6986666666666667,
"grad_norm": 0.44921875,
"learning_rate": 6.37838218463873e-06,
"loss": 1.3287537097930908,
"step": 262
},
{
"epoch": 0.704,
"grad_norm": 0.478515625,
"learning_rate": 6.355697714175047e-06,
"loss": 1.0604113340377808,
"step": 264
},
{
"epoch": 0.7093333333333334,
"grad_norm": 0.9453125,
"learning_rate": 6.332836208583389e-06,
"loss": 1.5299183130264282,
"step": 266
},
{
"epoch": 0.7146666666666667,
"grad_norm": 0.421875,
"learning_rate": 6.309799648724218e-06,
"loss": 1.2309736013412476,
"step": 268
},
{
"epoch": 0.72,
"grad_norm": 0.7265625,
"learning_rate": 6.2865900306257665e-06,
"loss": 1.0823864936828613,
"step": 270
},
{
"epoch": 0.7253333333333334,
"grad_norm": 0.435546875,
"learning_rate": 6.263209365311089e-06,
"loss": 1.2900185585021973,
"step": 272
},
{
"epoch": 0.7306666666666667,
"grad_norm": 0.6875,
"learning_rate": 6.2396596786238205e-06,
"loss": 1.2881044149398804,
"step": 274
},
{
"epoch": 0.736,
"grad_norm": 1.03125,
"learning_rate": 6.215943011052632e-06,
"loss": 1.3503191471099854,
"step": 276
},
{
"epoch": 0.7413333333333333,
"grad_norm": 0.63671875,
"learning_rate": 6.192061417554441e-06,
"loss": 1.33072030544281,
"step": 278
},
{
"epoch": 0.7466666666666667,
"grad_norm": 0.42578125,
"learning_rate": 6.16801696737636e-06,
"loss": 1.2632883787155151,
"step": 280
},
{
"epoch": 0.752,
"grad_norm": 0.349609375,
"learning_rate": 6.143811743876392e-06,
"loss": 1.285319447517395,
"step": 282
},
{
"epoch": 0.7573333333333333,
"grad_norm": 0.287109375,
"learning_rate": 6.119447844342924e-06,
"loss": 1.0543291568756104,
"step": 284
},
{
"epoch": 0.7626666666666667,
"grad_norm": 1.0,
"learning_rate": 6.094927379813005e-06,
"loss": 1.5204623937606812,
"step": 286
},
{
"epoch": 0.768,
"grad_norm": 0.5390625,
"learning_rate": 6.070252474889433e-06,
"loss": 0.9127747416496277,
"step": 288
},
{
"epoch": 0.7733333333333333,
"grad_norm": 0.279296875,
"learning_rate": 6.045425267556659e-06,
"loss": 1.2986137866973877,
"step": 290
},
{
"epoch": 0.7786666666666666,
"grad_norm": 0.58984375,
"learning_rate": 6.020447908995551e-06,
"loss": 1.482648253440857,
"step": 292
},
{
"epoch": 0.784,
"grad_norm": 0.39453125,
"learning_rate": 5.995322563396996e-06,
"loss": 1.1602120399475098,
"step": 294
},
{
"epoch": 0.7893333333333333,
"grad_norm": 1.0859375,
"learning_rate": 5.970051407774374e-06,
"loss": 1.2999836206436157,
"step": 296
},
{
"epoch": 0.7946666666666666,
"grad_norm": 0.31640625,
"learning_rate": 5.9446366317749464e-06,
"loss": 1.464931607246399,
"step": 298
},
{
"epoch": 0.8,
"grad_norm": 3.78125,
"learning_rate": 5.919080437490115e-06,
"loss": 1.494107961654663,
"step": 300
},
{
"epoch": 0.8053333333333333,
"grad_norm": 0.45703125,
"learning_rate": 5.893385039264628e-06,
"loss": 1.3205267190933228,
"step": 302
},
{
"epoch": 0.8106666666666666,
"grad_norm": 0.306640625,
"learning_rate": 5.867552663504711e-06,
"loss": 1.392236351966858,
"step": 304
},
{
"epoch": 0.816,
"grad_norm": 2.109375,
"learning_rate": 5.841585548485161e-06,
"loss": 1.054479718208313,
"step": 306
},
{
"epoch": 0.8213333333333334,
"grad_norm": 0.474609375,
"learning_rate": 5.815485944155406e-06,
"loss": 1.4559931755065918,
"step": 308
},
{
"epoch": 0.8266666666666667,
"grad_norm": 1.6484375,
"learning_rate": 5.78925611194456e-06,
"loss": 1.2822375297546387,
"step": 310
},
{
"epoch": 0.832,
"grad_norm": 0.5234375,
"learning_rate": 5.762898324565472e-06,
"loss": 1.1534578800201416,
"step": 312
},
{
"epoch": 0.8373333333333334,
"grad_norm": 0.40234375,
"learning_rate": 5.7364148658178136e-06,
"loss": 1.4816879034042358,
"step": 314
},
{
"epoch": 0.8426666666666667,
"grad_norm": 0.48828125,
"learning_rate": 5.7098080303901845e-06,
"loss": 1.3202126026153564,
"step": 316
},
{
"epoch": 0.848,
"grad_norm": 0.57421875,
"learning_rate": 5.683080123661299e-06,
"loss": 1.548636794090271,
"step": 318
},
{
"epoch": 0.8533333333333334,
"grad_norm": 0.18359375,
"learning_rate": 5.656233461500226e-06,
"loss": 1.1134190559387207,
"step": 320
},
{
"epoch": 0.8586666666666667,
"grad_norm": 0.369140625,
"learning_rate": 5.6292703700657276e-06,
"loss": 1.427626132965088,
"step": 322
},
{
"epoch": 0.864,
"grad_norm": 0.66796875,
"learning_rate": 5.602193185604715e-06,
"loss": 1.2644096612930298,
"step": 324
},
{
"epoch": 0.8693333333333333,
"grad_norm": 0.419921875,
"learning_rate": 5.575004254249812e-06,
"loss": 1.0416737794876099,
"step": 326
},
{
"epoch": 0.8746666666666667,
"grad_norm": 0.32421875,
"learning_rate": 5.547705931816078e-06,
"loss": 1.113074779510498,
"step": 328
},
{
"epoch": 0.88,
"grad_norm": 1.2578125,
"learning_rate": 5.520300583596882e-06,
"loss": 1.0335323810577393,
"step": 330
},
{
"epoch": 0.8853333333333333,
"grad_norm": 0.3125,
"learning_rate": 5.49279058415896e-06,
"loss": 1.1414536237716675,
"step": 332
},
{
"epoch": 0.8906666666666667,
"grad_norm": 0.37890625,
"learning_rate": 5.465178317136669e-06,
"loss": 0.8871914148330688,
"step": 334
},
{
"epoch": 0.896,
"grad_norm": 0.578125,
"learning_rate": 5.437466175025457e-06,
"loss": 1.3287149667739868,
"step": 336
},
{
"epoch": 0.9013333333333333,
"grad_norm": 0.59765625,
"learning_rate": 5.4096565589745565e-06,
"loss": 1.3277924060821533,
"step": 338
},
{
"epoch": 0.9066666666666666,
"grad_norm": 0.55078125,
"learning_rate": 5.3817518785789386e-06,
"loss": 1.6219979524612427,
"step": 340
},
{
"epoch": 0.912,
"grad_norm": 0.337890625,
"learning_rate": 5.3537545516705285e-06,
"loss": 1.1041191816329956,
"step": 342
},
{
"epoch": 0.9173333333333333,
"grad_norm": 0.54296875,
"learning_rate": 5.325667004108713e-06,
"loss": 1.5842766761779785,
"step": 344
},
{
"epoch": 0.9226666666666666,
"grad_norm": 0.77734375,
"learning_rate": 5.297491669570145e-06,
"loss": 1.5403611660003662,
"step": 346
},
{
"epoch": 0.928,
"grad_norm": 0.39453125,
"learning_rate": 5.2692309893378806e-06,
"loss": 1.387043833732605,
"step": 348
},
{
"epoch": 0.9333333333333333,
"grad_norm": 0.376953125,
"learning_rate": 5.240887412089846e-06,
"loss": 1.1895140409469604,
"step": 350
},
{
"epoch": 0.9386666666666666,
"grad_norm": 0.7734375,
"learning_rate": 5.2124633936866694e-06,
"loss": 1.45750892162323,
"step": 352
},
{
"epoch": 0.944,
"grad_norm": 0.48828125,
"learning_rate": 5.183961396958894e-06,
"loss": 1.2903810739517212,
"step": 354
},
{
"epoch": 0.9493333333333334,
"grad_norm": 0.365234375,
"learning_rate": 5.155383891493582e-06,
"loss": 1.0638062953948975,
"step": 356
},
{
"epoch": 0.9546666666666667,
"grad_norm": 0.392578125,
"learning_rate": 5.126733353420332e-06,
"loss": 1.1334384679794312,
"step": 358
},
{
"epoch": 0.96,
"grad_norm": 0.8671875,
"learning_rate": 5.098012265196735e-06,
"loss": 1.616370677947998,
"step": 360
},
{
"epoch": 0.9653333333333334,
"grad_norm": 0.458984375,
"learning_rate": 5.069223115393278e-06,
"loss": 1.2166802883148193,
"step": 362
},
{
"epoch": 0.9706666666666667,
"grad_norm": 0.439453125,
"learning_rate": 5.0403683984777156e-06,
"loss": 1.460686206817627,
"step": 364
},
{
"epoch": 0.976,
"grad_norm": 0.412109375,
"learning_rate": 5.011450614598942e-06,
"loss": 1.5133981704711914,
"step": 366
},
{
"epoch": 0.9813333333333333,
"grad_norm": 0.51953125,
"learning_rate": 4.982472269370356e-06,
"loss": 1.3987483978271484,
"step": 368
},
{
"epoch": 0.9866666666666667,
"grad_norm": 0.5,
"learning_rate": 4.9534358736527624e-06,
"loss": 1.187402606010437,
"step": 370
},
{
"epoch": 0.992,
"grad_norm": 0.388671875,
"learning_rate": 4.924343943336814e-06,
"loss": 1.3969718217849731,
"step": 372
},
{
"epoch": 0.9973333333333333,
"grad_norm": 0.5078125,
"learning_rate": 4.895198999125022e-06,
"loss": 1.1329926252365112,
"step": 374
},
{
"epoch": 1.0026666666666666,
"grad_norm": 0.76953125,
"learning_rate": 4.866003566313341e-06,
"loss": 1.426386833190918,
"step": 376
},
{
"epoch": 1.008,
"grad_norm": 0.5859375,
"learning_rate": 4.83676017457237e-06,
"loss": 1.2209362983703613,
"step": 378
},
{
"epoch": 1.0133333333333334,
"grad_norm": 0.59375,
"learning_rate": 4.807471357728167e-06,
"loss": 1.1464167833328247,
"step": 380
},
{
"epoch": 1.0186666666666666,
"grad_norm": 1.0078125,
"learning_rate": 4.778139653542688e-06,
"loss": 1.229437232017517,
"step": 382
},
{
"epoch": 1.024,
"grad_norm": 0.337890625,
"learning_rate": 4.7487676034939156e-06,
"loss": 0.9976918697357178,
"step": 384
},
{
"epoch": 1.0293333333333334,
"grad_norm": 0.310546875,
"learning_rate": 4.719357752555646e-06,
"loss": 1.025425672531128,
"step": 386
},
{
"epoch": 1.0346666666666666,
"grad_norm": 0.2216796875,
"learning_rate": 4.689912648976973e-06,
"loss": 1.0078941583633423,
"step": 388
},
{
"epoch": 1.04,
"grad_norm": 0.4296875,
"learning_rate": 4.660434844061493e-06,
"loss": 1.1683357954025269,
"step": 390
},
{
"epoch": 1.0453333333333332,
"grad_norm": 0.51953125,
"learning_rate": 4.630926891946251e-06,
"loss": 1.126926302909851,
"step": 392
},
{
"epoch": 1.0506666666666666,
"grad_norm": 0.5,
"learning_rate": 4.601391349380425e-06,
"loss": 1.2865811586380005,
"step": 394
},
{
"epoch": 1.056,
"grad_norm": 0.7734375,
"learning_rate": 4.571830775503799e-06,
"loss": 1.5480324029922485,
"step": 396
},
{
"epoch": 1.0613333333333332,
"grad_norm": 0.55859375,
"learning_rate": 4.542247731625022e-06,
"loss": 1.2431285381317139,
"step": 398
},
{
"epoch": 1.0666666666666667,
"grad_norm": 0.546875,
"learning_rate": 4.512644780999687e-06,
"loss": 1.4781147241592407,
"step": 400
},
{
"epoch": 1.072,
"grad_norm": 2.515625,
"learning_rate": 4.48302448860822e-06,
"loss": 1.0834038257598877,
"step": 402
},
{
"epoch": 1.0773333333333333,
"grad_norm": 0.6328125,
"learning_rate": 4.453389420933649e-06,
"loss": 1.366401195526123,
"step": 404
},
{
"epoch": 1.0826666666666667,
"grad_norm": 0.271484375,
"learning_rate": 4.423742145739222e-06,
"loss": 1.0470842123031616,
"step": 406
},
{
"epoch": 1.088,
"grad_norm": 0.431640625,
"learning_rate": 4.394085231845921e-06,
"loss": 1.0181280374526978,
"step": 408
},
{
"epoch": 1.0933333333333333,
"grad_norm": 0.65625,
"learning_rate": 4.364421248909884e-06,
"loss": 1.034490704536438,
"step": 410
},
{
"epoch": 1.0986666666666667,
"grad_norm": 0.70703125,
"learning_rate": 4.334752767199752e-06,
"loss": 1.3856372833251953,
"step": 412
},
{
"epoch": 1.104,
"grad_norm": 0.373046875,
"learning_rate": 4.305082357373971e-06,
"loss": 1.139554500579834,
"step": 414
},
{
"epoch": 1.1093333333333333,
"grad_norm": 0.51171875,
"learning_rate": 4.275412590258048e-06,
"loss": 1.3391931056976318,
"step": 416
},
{
"epoch": 1.1146666666666667,
"grad_norm": 0.349609375,
"learning_rate": 4.2457460366218e-06,
"loss": 1.5631487369537354,
"step": 418
},
{
"epoch": 1.12,
"grad_norm": 0.6875,
"learning_rate": 4.2160852669566135e-06,
"loss": 1.3829050064086914,
"step": 420
},
{
"epoch": 1.1253333333333333,
"grad_norm": 0.97265625,
"learning_rate": 4.1864328512527115e-06,
"loss": 1.0705004930496216,
"step": 422
},
{
"epoch": 1.1306666666666667,
"grad_norm": 0.68359375,
"learning_rate": 4.156791358776483e-06,
"loss": 1.4946973323822021,
"step": 424
},
{
"epoch": 1.1360000000000001,
"grad_norm": 0.384765625,
"learning_rate": 4.127163357847858e-06,
"loss": 1.3657976388931274,
"step": 426
},
{
"epoch": 1.1413333333333333,
"grad_norm": 0.447265625,
"learning_rate": 4.09755141561778e-06,
"loss": 1.211698055267334,
"step": 428
},
{
"epoch": 1.1466666666666667,
"grad_norm": 12.8125,
"learning_rate": 4.0679580978457656e-06,
"loss": 1.5211821794509888,
"step": 430
},
{
"epoch": 1.152,
"grad_norm": 0.46875,
"learning_rate": 4.038385968677596e-06,
"loss": 1.0360568761825562,
"step": 432
},
{
"epoch": 1.1573333333333333,
"grad_norm": 1.3125,
"learning_rate": 4.008837590423144e-06,
"loss": 1.6035184860229492,
"step": 434
},
{
"epoch": 1.1626666666666667,
"grad_norm": 0.48828125,
"learning_rate": 3.979315523334355e-06,
"loss": 1.157009243965149,
"step": 436
},
{
"epoch": 1.168,
"grad_norm": 0.458984375,
"learning_rate": 3.9498223253834165e-06,
"loss": 1.4968481063842773,
"step": 438
},
{
"epoch": 1.1733333333333333,
"grad_norm": 0.5234375,
"learning_rate": 3.9203605520411165e-06,
"loss": 1.229710340499878,
"step": 440
},
{
"epoch": 1.1786666666666668,
"grad_norm": 0.734375,
"learning_rate": 3.890932756055422e-06,
"loss": 1.5977742671966553,
"step": 442
},
{
"epoch": 1.184,
"grad_norm": 0.75390625,
"learning_rate": 3.861541487230299e-06,
"loss": 1.2765097618103027,
"step": 444
},
{
"epoch": 1.1893333333333334,
"grad_norm": 0.59765625,
"learning_rate": 3.832189292204773e-06,
"loss": 1.3562519550323486,
"step": 446
},
{
"epoch": 1.1946666666666665,
"grad_norm": 0.4453125,
"learning_rate": 3.802878714232277e-06,
"loss": 1.6301568746566772,
"step": 448
},
{
"epoch": 1.2,
"grad_norm": 0.47265625,
"learning_rate": 3.7736122929602887e-06,
"loss": 1.264549732208252,
"step": 450
},
{
"epoch": 1.2053333333333334,
"grad_norm": 0.443359375,
"learning_rate": 3.744392564210283e-06,
"loss": 1.4258700609207153,
"step": 452
},
{
"epoch": 1.2106666666666666,
"grad_norm": 0.56640625,
"learning_rate": 3.7152220597580023e-06,
"loss": 1.4381071329116821,
"step": 454
},
{
"epoch": 1.216,
"grad_norm": 0.42578125,
"learning_rate": 3.686103307114104e-06,
"loss": 1.4425290822982788,
"step": 456
},
{
"epoch": 1.2213333333333334,
"grad_norm": 0.419921875,
"learning_rate": 3.6570388293051458e-06,
"loss": 1.2543679475784302,
"step": 458
},
{
"epoch": 1.2266666666666666,
"grad_norm": 0.392578125,
"learning_rate": 3.628031144654986e-06,
"loss": 1.3114312887191772,
"step": 460
},
{
"epoch": 1.232,
"grad_norm": 0.53125,
"learning_rate": 3.5990827665665756e-06,
"loss": 1.4582160711288452,
"step": 462
},
{
"epoch": 1.2373333333333334,
"grad_norm": 0.53125,
"learning_rate": 3.570196203304182e-06,
"loss": 0.9986866116523743,
"step": 464
},
{
"epoch": 1.2426666666666666,
"grad_norm": 0.8984375,
"learning_rate": 3.541373957776059e-06,
"loss": 1.124342918395996,
"step": 466
},
{
"epoch": 1.248,
"grad_norm": 0.62109375,
"learning_rate": 3.512618527317581e-06,
"loss": 1.3204665184020996,
"step": 468
},
{
"epoch": 1.2533333333333334,
"grad_norm": 0.349609375,
"learning_rate": 3.483932403474856e-06,
"loss": 1.1635738611221313,
"step": 470
},
{
"epoch": 1.2586666666666666,
"grad_norm": 0.52734375,
"learning_rate": 3.4553180717888407e-06,
"loss": 1.0901280641555786,
"step": 472
},
{
"epoch": 1.264,
"grad_norm": 0.41015625,
"learning_rate": 3.4267780115799846e-06,
"loss": 1.0830848217010498,
"step": 474
},
{
"epoch": 1.2693333333333334,
"grad_norm": 0.310546875,
"learning_rate": 3.398314695733401e-06,
"loss": 1.3727480173110962,
"step": 476
},
{
"epoch": 1.2746666666666666,
"grad_norm": 0.578125,
"learning_rate": 3.3699305904846027e-06,
"loss": 1.6773924827575684,
"step": 478
},
{
"epoch": 1.28,
"grad_norm": 0.55078125,
"learning_rate": 3.341628155205811e-06,
"loss": 1.2972683906555176,
"step": 480
},
{
"epoch": 1.2853333333333334,
"grad_norm": 0.71875,
"learning_rate": 3.3134098421928692e-06,
"loss": 1.2166887521743774,
"step": 482
},
{
"epoch": 1.2906666666666666,
"grad_norm": 1.5078125,
"learning_rate": 3.2852780964527466e-06,
"loss": 1.3262923955917358,
"step": 484
},
{
"epoch": 1.296,
"grad_norm": 0.2216796875,
"learning_rate": 3.2572353554916966e-06,
"loss": 1.2588746547698975,
"step": 486
},
{
"epoch": 1.3013333333333335,
"grad_norm": 0.43359375,
"learning_rate": 3.229284049104057e-06,
"loss": 0.8871427774429321,
"step": 488
},
{
"epoch": 1.3066666666666666,
"grad_norm": 0.259765625,
"learning_rate": 3.2014265991617147e-06,
"loss": 1.3596696853637695,
"step": 490
},
{
"epoch": 1.312,
"grad_norm": 0.62890625,
"learning_rate": 3.17366541940426e-06,
"loss": 1.5204687118530273,
"step": 492
},
{
"epoch": 1.3173333333333335,
"grad_norm": 0.32421875,
"learning_rate": 3.1460029152298484e-06,
"loss": 1.2328211069107056,
"step": 494
},
{
"epoch": 1.3226666666666667,
"grad_norm": 0.43359375,
"learning_rate": 3.1184414834867804e-06,
"loss": 1.2612500190734863,
"step": 496
},
{
"epoch": 1.328,
"grad_norm": 0.328125,
"learning_rate": 3.0909835122658214e-06,
"loss": 1.230236291885376,
"step": 498
},
{
"epoch": 1.3333333333333333,
"grad_norm": 0.8046875,
"learning_rate": 3.063631380693286e-06,
"loss": 1.016282558441162,
"step": 500
},
{
"epoch": 1.3386666666666667,
"grad_norm": 0.451171875,
"learning_rate": 3.036387458724898e-06,
"loss": 1.2729389667510986,
"step": 502
},
{
"epoch": 1.3439999999999999,
"grad_norm": 0.396484375,
"learning_rate": 3.009254106940435e-06,
"loss": 1.2068243026733398,
"step": 504
},
{
"epoch": 1.3493333333333333,
"grad_norm": 0.51953125,
"learning_rate": 2.982233676339206e-06,
"loss": 1.28195321559906,
"step": 506
},
{
"epoch": 1.3546666666666667,
"grad_norm": 0.275390625,
"learning_rate": 2.9553285081363308e-06,
"loss": 1.1186037063598633,
"step": 508
},
{
"epoch": 1.3599999999999999,
"grad_norm": 0.2255859375,
"learning_rate": 2.9285409335598982e-06,
"loss": 1.1410784721374512,
"step": 510
},
{
"epoch": 1.3653333333333333,
"grad_norm": 0.59765625,
"learning_rate": 2.9018732736489615e-06,
"loss": 1.3254414796829224,
"step": 512
},
{
"epoch": 1.3706666666666667,
"grad_norm": 0.515625,
"learning_rate": 2.87532783905244e-06,
"loss": 1.5107591152191162,
"step": 514
},
{
"epoch": 1.376,
"grad_norm": 0.46484375,
"learning_rate": 2.8489069298288992e-06,
"loss": 1.2509578466415405,
"step": 516
},
{
"epoch": 1.3813333333333333,
"grad_norm": 0.40234375,
"learning_rate": 2.8226128352472747e-06,
"loss": 1.3889421224594116,
"step": 518
},
{
"epoch": 1.3866666666666667,
"grad_norm": 0.9140625,
"learning_rate": 2.796447833588497e-06,
"loss": 1.4837677478790283,
"step": 520
},
{
"epoch": 1.392,
"grad_norm": 0.359375,
"learning_rate": 2.7704141919481057e-06,
"loss": 1.4461725950241089,
"step": 522
},
{
"epoch": 1.3973333333333333,
"grad_norm": 0.625,
"learning_rate": 2.7445141660397996e-06,
"loss": 1.299829363822937,
"step": 524
},
{
"epoch": 1.4026666666666667,
"grad_norm": 0.5234375,
"learning_rate": 2.7187500000000004e-06,
"loss": 1.0224652290344238,
"step": 526
},
{
"epoch": 1.408,
"grad_norm": 0.53515625,
"learning_rate": 2.6931239261933957e-06,
"loss": 1.4109441041946411,
"step": 528
},
{
"epoch": 1.4133333333333333,
"grad_norm": 0.40234375,
"learning_rate": 2.6676381650195224e-06,
"loss": 1.3534106016159058,
"step": 530
},
{
"epoch": 1.4186666666666667,
"grad_norm": 0.89453125,
"learning_rate": 2.6422949247203735e-06,
"loss": 1.5593756437301636,
"step": 532
},
{
"epoch": 1.424,
"grad_norm": 0.45703125,
"learning_rate": 2.61709640118906e-06,
"loss": 1.290115475654602,
"step": 534
},
{
"epoch": 1.4293333333333333,
"grad_norm": 0.8125,
"learning_rate": 2.5920447777795537e-06,
"loss": 1.11957585811615,
"step": 536
},
{
"epoch": 1.4346666666666668,
"grad_norm": 4.375,
"learning_rate": 2.5671422251174963e-06,
"loss": 1.0493898391723633,
"step": 538
},
{
"epoch": 1.44,
"grad_norm": 0.78515625,
"learning_rate": 2.5423909009121363e-06,
"loss": 1.2276326417922974,
"step": 540
},
{
"epoch": 1.4453333333333334,
"grad_norm": 0.28125,
"learning_rate": 2.517792949769358e-06,
"loss": 1.2422417402267456,
"step": 542
},
{
"epoch": 1.4506666666666668,
"grad_norm": 0.8359375,
"learning_rate": 2.4933505030058744e-06,
"loss": 1.4107698202133179,
"step": 544
},
{
"epoch": 1.456,
"grad_norm": 0.357421875,
"learning_rate": 2.4690656784645434e-06,
"loss": 1.0884898900985718,
"step": 546
},
{
"epoch": 1.4613333333333334,
"grad_norm": 0.408203125,
"learning_rate": 2.444940580330874e-06,
"loss": 1.4010899066925049,
"step": 548
},
{
"epoch": 1.4666666666666668,
"grad_norm": 1.03125,
"learning_rate": 2.420977298950702e-06,
"loss": 1.2208497524261475,
"step": 550
},
{
"epoch": 1.472,
"grad_norm": 0.41796875,
"learning_rate": 2.397177910649074e-06,
"loss": 1.2561097145080566,
"step": 552
},
{
"epoch": 1.4773333333333334,
"grad_norm": 0.52734375,
"learning_rate": 2.3735444775503344e-06,
"loss": 1.585281491279602,
"step": 554
},
{
"epoch": 1.4826666666666668,
"grad_norm": 1.1875,
"learning_rate": 2.350079047399464e-06,
"loss": 1.4287792444229126,
"step": 556
},
{
"epoch": 1.488,
"grad_norm": 0.87890625,
"learning_rate": 2.3267836533846328e-06,
"loss": 1.0933114290237427,
"step": 558
},
{
"epoch": 1.4933333333333334,
"grad_norm": 0.8359375,
"learning_rate": 2.3036603139610482e-06,
"loss": 1.1171455383300781,
"step": 560
},
{
"epoch": 1.4986666666666666,
"grad_norm": 0.64453125,
"learning_rate": 2.2807110326760515e-06,
"loss": 1.2635574340820312,
"step": 562
},
{
"epoch": 1.504,
"grad_norm": 1.015625,
"learning_rate": 2.25793779799553e-06,
"loss": 1.4870187044143677,
"step": 564
},
{
"epoch": 1.5093333333333332,
"grad_norm": 0.197265625,
"learning_rate": 2.2353425831316116e-06,
"loss": 1.1228148937225342,
"step": 566
},
{
"epoch": 1.5146666666666668,
"grad_norm": 0.462890625,
"learning_rate": 2.2129273458717058e-06,
"loss": 1.393061876296997,
"step": 568
},
{
"epoch": 1.52,
"grad_norm": 0.45703125,
"learning_rate": 2.1906940284088615e-06,
"loss": 1.0268428325653076,
"step": 570
},
{
"epoch": 1.5253333333333332,
"grad_norm": 0.80859375,
"learning_rate": 2.1686445571734825e-06,
"loss": 1.3282322883605957,
"step": 572
},
{
"epoch": 1.5306666666666666,
"grad_norm": 0.390625,
"learning_rate": 2.146780842666417e-06,
"loss": 1.2435400485992432,
"step": 574
},
{
"epoch": 1.536,
"grad_norm": 0.61328125,
"learning_rate": 2.1251047792934116e-06,
"loss": 1.3963842391967773,
"step": 576
},
{
"epoch": 1.5413333333333332,
"grad_norm": 0.40234375,
"learning_rate": 2.1036182452009777e-06,
"loss": 1.2569538354873657,
"step": 578
},
{
"epoch": 1.5466666666666666,
"grad_norm": 0.58203125,
"learning_rate": 2.082323102113647e-06,
"loss": 1.3759268522262573,
"step": 580
},
{
"epoch": 1.552,
"grad_norm": 0.4140625,
"learning_rate": 2.0612211951726712e-06,
"loss": 1.1200230121612549,
"step": 582
},
{
"epoch": 1.5573333333333332,
"grad_norm": 0.51171875,
"learning_rate": 2.040314352776137e-06,
"loss": 1.6027384996414185,
"step": 584
},
{
"epoch": 1.5626666666666666,
"grad_norm": 0.66015625,
"learning_rate": 2.01960438642055e-06,
"loss": 1.5927393436431885,
"step": 586
},
{
"epoch": 1.568,
"grad_norm": 0.306640625,
"learning_rate": 1.9990930905438733e-06,
"loss": 1.0526584386825562,
"step": 588
},
{
"epoch": 1.5733333333333333,
"grad_norm": 0.65625,
"learning_rate": 1.978782242370046e-06,
"loss": 1.4229958057403564,
"step": 590
},
{
"epoch": 1.5786666666666667,
"grad_norm": 0.2392578125,
"learning_rate": 1.958673601754995e-06,
"loss": 1.2796956300735474,
"step": 592
},
{
"epoch": 1.584,
"grad_norm": 0.57421875,
"learning_rate": 1.9387689110341494e-06,
"loss": 1.5249470472335815,
"step": 594
},
{
"epoch": 1.5893333333333333,
"grad_norm": 0.37890625,
"learning_rate": 1.9190698948714714e-06,
"loss": 1.0016456842422485,
"step": 596
},
{
"epoch": 1.5946666666666667,
"grad_norm": 0.29296875,
"learning_rate": 1.899578260110027e-06,
"loss": 1.4921225309371948,
"step": 598
},
{
"epoch": 1.6,
"grad_norm": 0.5625,
"learning_rate": 1.8802956956240875e-06,
"loss": 1.3857101202011108,
"step": 600
},
{
"epoch": 1.6053333333333333,
"grad_norm": 0.376953125,
"learning_rate": 1.8612238721728026e-06,
"loss": 1.0772466659545898,
"step": 602
},
{
"epoch": 1.6106666666666667,
"grad_norm": 0.69921875,
"learning_rate": 1.8423644422554278e-06,
"loss": 1.374086618423462,
"step": 604
},
{
"epoch": 1.616,
"grad_norm": 0.2392578125,
"learning_rate": 1.8237190399681486e-06,
"loss": 1.1497209072113037,
"step": 606
},
{
"epoch": 1.6213333333333333,
"grad_norm": 0.31640625,
"learning_rate": 1.8052892808624892e-06,
"loss": 1.1666005849838257,
"step": 608
},
{
"epoch": 1.6266666666666667,
"grad_norm": 0.5390625,
"learning_rate": 1.78707676180533e-06,
"loss": 1.4539345502853394,
"step": 610
},
{
"epoch": 1.6320000000000001,
"grad_norm": 0.62890625,
"learning_rate": 1.7690830608405475e-06,
"loss": 1.2192360162734985,
"step": 612
},
{
"epoch": 1.6373333333333333,
"grad_norm": 0.40234375,
"learning_rate": 1.7513097370522843e-06,
"loss": 1.2787443399429321,
"step": 614
},
{
"epoch": 1.6426666666666667,
"grad_norm": 0.8203125,
"learning_rate": 1.7337583304298553e-06,
"loss": 1.4955127239227295,
"step": 616
},
{
"epoch": 1.6480000000000001,
"grad_norm": 0.8359375,
"learning_rate": 1.7164303617343188e-06,
"loss": 1.5240033864974976,
"step": 618
},
{
"epoch": 1.6533333333333333,
"grad_norm": 0.333984375,
"learning_rate": 1.6993273323667077e-06,
"loss": 1.186129093170166,
"step": 620
},
{
"epoch": 1.6586666666666665,
"grad_norm": 0.65234375,
"learning_rate": 1.6824507242379345e-06,
"loss": 1.2840181589126587,
"step": 622
},
{
"epoch": 1.6640000000000001,
"grad_norm": 0.5390625,
"learning_rate": 1.6658019996403958e-06,
"loss": 1.5434945821762085,
"step": 624
},
{
"epoch": 1.6693333333333333,
"grad_norm": 0.68359375,
"learning_rate": 1.6493826011212656e-06,
"loss": 1.5949230194091797,
"step": 626
},
{
"epoch": 1.6746666666666665,
"grad_norm": 0.5,
"learning_rate": 1.6331939513575066e-06,
"loss": 1.1981688737869263,
"step": 628
},
{
"epoch": 1.6800000000000002,
"grad_norm": 0.6953125,
"learning_rate": 1.6172374530326001e-06,
"loss": 1.3873530626296997,
"step": 630
},
{
"epoch": 1.6853333333333333,
"grad_norm": 0.5703125,
"learning_rate": 1.60151448871501e-06,
"loss": 1.1224573850631714,
"step": 632
},
{
"epoch": 1.6906666666666665,
"grad_norm": 0.640625,
"learning_rate": 1.5860264207383851e-06,
"loss": 1.0328835248947144,
"step": 634
},
{
"epoch": 1.696,
"grad_norm": 0.9375,
"learning_rate": 1.5707745910835233e-06,
"loss": 1.5136065483093262,
"step": 636
},
{
"epoch": 1.7013333333333334,
"grad_norm": 1.2421875,
"learning_rate": 1.5557603212620889e-06,
"loss": 1.5170190334320068,
"step": 638
},
{
"epoch": 1.7066666666666666,
"grad_norm": 0.41015625,
"learning_rate": 1.5409849122021144e-06,
"loss": 1.4020171165466309,
"step": 640
},
{
"epoch": 1.712,
"grad_norm": 0.60546875,
"learning_rate": 1.5264496441352748e-06,
"loss": 1.5551862716674805,
"step": 642
},
{
"epoch": 1.7173333333333334,
"grad_norm": 0.396484375,
"learning_rate": 1.5121557764859648e-06,
"loss": 1.3862305879592896,
"step": 644
},
{
"epoch": 1.7226666666666666,
"grad_norm": 0.41015625,
"learning_rate": 1.4981045477621702e-06,
"loss": 0.922488272190094,
"step": 646
},
{
"epoch": 1.728,
"grad_norm": 0.318359375,
"learning_rate": 1.4842971754481615e-06,
"loss": 1.240954041481018,
"step": 648
},
{
"epoch": 1.7333333333333334,
"grad_norm": 0.24609375,
"learning_rate": 1.4707348558989974e-06,
"loss": 1.0813591480255127,
"step": 650
},
{
"epoch": 1.7386666666666666,
"grad_norm": 0.63671875,
"learning_rate": 1.4574187642368714e-06,
"loss": 1.4775949716567993,
"step": 652
},
{
"epoch": 1.744,
"grad_norm": 0.30859375,
"learning_rate": 1.444350054249288e-06,
"loss": 1.2168411016464233,
"step": 654
},
{
"epoch": 1.7493333333333334,
"grad_norm": 0.5625,
"learning_rate": 1.431529858289091e-06,
"loss": 1.4125171899795532,
"step": 656
},
{
"epoch": 1.7546666666666666,
"grad_norm": 0.53125,
"learning_rate": 1.418959287176354e-06,
"loss": 1.414473056793213,
"step": 658
},
{
"epoch": 1.76,
"grad_norm": 0.486328125,
"learning_rate": 1.406639430102127e-06,
"loss": 1.220368504524231,
"step": 660
},
{
"epoch": 1.7653333333333334,
"grad_norm": 0.4921875,
"learning_rate": 1.3945713545340668e-06,
"loss": 1.2297767400741577,
"step": 662
},
{
"epoch": 1.7706666666666666,
"grad_norm": 0.2412109375,
"learning_rate": 1.3827561061239403e-06,
"loss": 1.3291184902191162,
"step": 664
},
{
"epoch": 1.776,
"grad_norm": 0.65625,
"learning_rate": 1.3711947086170277e-06,
"loss": 1.0460172891616821,
"step": 666
},
{
"epoch": 1.7813333333333334,
"grad_norm": 0.40234375,
"learning_rate": 1.359888163763415e-06,
"loss": 1.3426827192306519,
"step": 668
},
{
"epoch": 1.7866666666666666,
"grad_norm": 0.3984375,
"learning_rate": 1.3488374512311988e-06,
"loss": 1.1144654750823975,
"step": 670
},
{
"epoch": 1.792,
"grad_norm": 0.5546875,
"learning_rate": 1.3380435285216006e-06,
"loss": 1.2571556568145752,
"step": 672
},
{
"epoch": 1.7973333333333334,
"grad_norm": 0.6953125,
"learning_rate": 1.327507330886004e-06,
"loss": 1.454203486442566,
"step": 674
},
{
"epoch": 1.8026666666666666,
"grad_norm": 0.48046875,
"learning_rate": 1.3172297712449172e-06,
"loss": 1.4048188924789429,
"step": 676
},
{
"epoch": 1.808,
"grad_norm": 0.58984375,
"learning_rate": 1.3072117401088736e-06,
"loss": 1.0630518198013306,
"step": 678
},
{
"epoch": 1.8133333333333335,
"grad_norm": 0.9609375,
"learning_rate": 1.2974541055012725e-06,
"loss": 1.1879171133041382,
"step": 680
},
{
"epoch": 1.8186666666666667,
"grad_norm": 0.734375,
"learning_rate": 1.2879577128831673e-06,
"loss": 1.380265235900879,
"step": 682
},
{
"epoch": 1.8239999999999998,
"grad_norm": 0.36328125,
"learning_rate": 1.278723385080009e-06,
"loss": 0.971758246421814,
"step": 684
},
{
"epoch": 1.8293333333333335,
"grad_norm": 0.5390625,
"learning_rate": 1.2697519222103545e-06,
"loss": 1.512132167816162,
"step": 686
},
{
"epoch": 1.8346666666666667,
"grad_norm": 0.431640625,
"learning_rate": 1.2610441016165355e-06,
"loss": 1.005048155784607,
"step": 688
},
{
"epoch": 1.8399999999999999,
"grad_norm": 0.294921875,
"learning_rate": 1.2526006777973084e-06,
"loss": 1.371572732925415,
"step": 690
},
{
"epoch": 1.8453333333333335,
"grad_norm": 0.5703125,
"learning_rate": 1.2444223823424778e-06,
"loss": 1.332929253578186,
"step": 692
},
{
"epoch": 1.8506666666666667,
"grad_norm": 0.30078125,
"learning_rate": 1.2365099238695073e-06,
"loss": 1.0624377727508545,
"step": 694
},
{
"epoch": 1.8559999999999999,
"grad_norm": 0.60546875,
"learning_rate": 1.2288639879621216e-06,
"loss": 1.4434648752212524,
"step": 696
},
{
"epoch": 1.8613333333333333,
"grad_norm": 0.59375,
"learning_rate": 1.2214852371109014e-06,
"loss": 1.115839958190918,
"step": 698
},
{
"epoch": 1.8666666666666667,
"grad_norm": 0.294921875,
"learning_rate": 1.214374310655884e-06,
"loss": 1.3425531387329102,
"step": 700
},
{
"epoch": 1.8719999999999999,
"grad_norm": 0.41015625,
"learning_rate": 1.207531824731164e-06,
"loss": 1.2544267177581787,
"step": 702
},
{
"epoch": 1.8773333333333333,
"grad_norm": 0.48828125,
"learning_rate": 1.2009583722115107e-06,
"loss": 1.2201001644134521,
"step": 704
},
{
"epoch": 1.8826666666666667,
"grad_norm": 0.5859375,
"learning_rate": 1.1946545226609944e-06,
"loss": 1.1109111309051514,
"step": 706
},
{
"epoch": 1.888,
"grad_norm": 0.62109375,
"learning_rate": 1.1886208222836388e-06,
"loss": 1.2960035800933838,
"step": 708
},
{
"epoch": 1.8933333333333333,
"grad_norm": 0.62890625,
"learning_rate": 1.1828577938760926e-06,
"loss": 1.3226895332336426,
"step": 710
},
{
"epoch": 1.8986666666666667,
"grad_norm": 0.4296875,
"learning_rate": 1.1773659367823326e-06,
"loss": 1.459092140197754,
"step": 712
},
{
"epoch": 1.904,
"grad_norm": 0.263671875,
"learning_rate": 1.1721457268503963e-06,
"loss": 0.9945974349975586,
"step": 714
},
{
"epoch": 1.9093333333333333,
"grad_norm": 1.4921875,
"learning_rate": 1.1671976163911537e-06,
"loss": 1.3499224185943604,
"step": 716
},
{
"epoch": 1.9146666666666667,
"grad_norm": 0.5,
"learning_rate": 1.162522034139113e-06,
"loss": 1.203792929649353,
"step": 718
},
{
"epoch": 1.92,
"grad_norm": 0.357421875,
"learning_rate": 1.1581193852152746e-06,
"loss": 1.432945728302002,
"step": 720
},
{
"epoch": 1.9253333333333333,
"grad_norm": 0.64453125,
"learning_rate": 1.1539900510920285e-06,
"loss": 1.4233765602111816,
"step": 722
},
{
"epoch": 1.9306666666666668,
"grad_norm": 0.83984375,
"learning_rate": 1.1501343895601022e-06,
"loss": 1.5078463554382324,
"step": 724
},
{
"epoch": 1.936,
"grad_norm": 0.298828125,
"learning_rate": 1.1465527346975566e-06,
"loss": 1.041426658630371,
"step": 726
},
{
"epoch": 1.9413333333333334,
"grad_norm": 0.87890625,
"learning_rate": 1.1432453968408437e-06,
"loss": 1.1554670333862305,
"step": 728
},
{
"epoch": 1.9466666666666668,
"grad_norm": 0.66015625,
"learning_rate": 1.1402126625579132e-06,
"loss": 1.238165020942688,
"step": 730
},
{
"epoch": 1.952,
"grad_norm": 0.25,
"learning_rate": 1.1374547946233843e-06,
"loss": 1.2469568252563477,
"step": 732
},
{
"epoch": 1.9573333333333334,
"grad_norm": 0.94921875,
"learning_rate": 1.1349720319957783e-06,
"loss": 1.100600004196167,
"step": 734
},
{
"epoch": 1.9626666666666668,
"grad_norm": 0.287109375,
"learning_rate": 1.1327645897968104e-06,
"loss": 1.256953239440918,
"step": 736
},
{
"epoch": 1.968,
"grad_norm": 0.408203125,
"learning_rate": 1.1308326592927547e-06,
"loss": 1.0144098997116089,
"step": 738
},
{
"epoch": 1.9733333333333334,
"grad_norm": 0.5234375,
"learning_rate": 1.1291764078778685e-06,
"loss": 1.1728276014328003,
"step": 740
},
{
"epoch": 1.9786666666666668,
"grad_norm": 0.70703125,
"learning_rate": 1.127795979059889e-06,
"loss": 1.084470272064209,
"step": 742
},
{
"epoch": 1.984,
"grad_norm": 0.625,
"learning_rate": 1.1266914924475997e-06,
"loss": 1.2899092435836792,
"step": 744
},
{
"epoch": 1.9893333333333332,
"grad_norm": 1.0390625,
"learning_rate": 1.1258630437404658e-06,
"loss": 1.3732484579086304,
"step": 746
},
{
"epoch": 1.9946666666666668,
"grad_norm": 0.42578125,
"learning_rate": 1.1253107047203428e-06,
"loss": 1.2392138242721558,
"step": 748
},
{
"epoch": 2.0,
"grad_norm": 0.375,
"learning_rate": 1.1250345232452565e-06,
"loss": 1.4283043146133423,
"step": 750
},
{
"epoch": 2.0,
"step": 750,
"total_flos": 2.55147477658973e+18,
"train_loss": 1.3643777534166972,
"train_runtime": 10437.131,
"train_samples_per_second": 2.299,
"train_steps_per_second": 0.072
}
],
"logging_steps": 2,
"max_steps": 750,
"num_input_tokens_seen": 0,
"num_train_epochs": 2,
"save_steps": 99999,
"stateful_callbacks": {
"TrainerControl": {
"args": {
"should_epoch_stop": false,
"should_evaluate": false,
"should_log": false,
"should_save": true,
"should_training_stop": true
},
"attributes": {}
}
},
"total_flos": 2.55147477658973e+18,
"train_batch_size": 1,
"trial_name": null,
"trial_params": null
}