| { |
| "best_metric": null, |
| "best_model_checkpoint": null, |
| "epoch": 2.0, |
| "eval_steps": 500, |
| "global_step": 15000, |
| "is_hyper_param_search": false, |
| "is_local_process_zero": true, |
| "is_world_process_zero": true, |
| "log_history": [ |
| { |
| "epoch": 0.02666666666666667, |
| "grad_norm": 1.8224557638168335, |
| "learning_rate": 0.00019895986131484198, |
| "loss": 0.5652, |
| "step": 200 |
| }, |
| { |
| "epoch": 0.05333333333333334, |
| "grad_norm": 1.010162353515625, |
| "learning_rate": 0.00019789305240698761, |
| "loss": 0.5615, |
| "step": 400 |
| }, |
| { |
| "epoch": 0.08, |
| "grad_norm": 0.7284229397773743, |
| "learning_rate": 0.00019682624349913323, |
| "loss": 0.5847, |
| "step": 600 |
| }, |
| { |
| "epoch": 0.10666666666666667, |
| "grad_norm": 0.9393308758735657, |
| "learning_rate": 0.00019575943459127886, |
| "loss": 0.5545, |
| "step": 800 |
| }, |
| { |
| "epoch": 0.13333333333333333, |
| "grad_norm": 0.915951669216156, |
| "learning_rate": 0.00019469262568342445, |
| "loss": 0.5794, |
| "step": 1000 |
| }, |
| { |
| "epoch": 0.16, |
| "grad_norm": 0.9032522439956665, |
| "learning_rate": 0.0001936258167755701, |
| "loss": 0.6067, |
| "step": 1200 |
| }, |
| { |
| "epoch": 0.18666666666666668, |
| "grad_norm": 0.6736401915550232, |
| "learning_rate": 0.0001925590078677157, |
| "loss": 0.5701, |
| "step": 1400 |
| }, |
| { |
| "epoch": 0.21333333333333335, |
| "grad_norm": 1.775130271911621, |
| "learning_rate": 0.0001914921989598613, |
| "loss": 0.5895, |
| "step": 1600 |
| }, |
| { |
| "epoch": 0.24, |
| "grad_norm": 1.1148632764816284, |
| "learning_rate": 0.00019042539005200695, |
| "loss": 0.6095, |
| "step": 1800 |
| }, |
| { |
| "epoch": 0.26666666666666666, |
| "grad_norm": 0.9489474296569824, |
| "learning_rate": 0.00018935858114415256, |
| "loss": 0.6109, |
| "step": 2000 |
| }, |
| { |
| "epoch": 0.29333333333333333, |
| "grad_norm": 0.783237874507904, |
| "learning_rate": 0.0001882917722362982, |
| "loss": 0.5866, |
| "step": 2200 |
| }, |
| { |
| "epoch": 0.32, |
| "grad_norm": 1.6665730476379395, |
| "learning_rate": 0.00018722496332844378, |
| "loss": 0.5762, |
| "step": 2400 |
| }, |
| { |
| "epoch": 0.3466666666666667, |
| "grad_norm": 1.291765570640564, |
| "learning_rate": 0.00018615815442058942, |
| "loss": 0.6123, |
| "step": 2600 |
| }, |
| { |
| "epoch": 0.37333333333333335, |
| "grad_norm": 1.536110520362854, |
| "learning_rate": 0.00018509134551273503, |
| "loss": 0.5878, |
| "step": 2800 |
| }, |
| { |
| "epoch": 0.4, |
| "grad_norm": 2.170196771621704, |
| "learning_rate": 0.00018402453660488067, |
| "loss": 0.5954, |
| "step": 3000 |
| }, |
| { |
| "epoch": 0.4266666666666667, |
| "grad_norm": 0.9499145150184631, |
| "learning_rate": 0.00018295772769702628, |
| "loss": 0.6159, |
| "step": 3200 |
| }, |
| { |
| "epoch": 0.4533333333333333, |
| "grad_norm": 1.2118113040924072, |
| "learning_rate": 0.0001818909187891719, |
| "loss": 0.639, |
| "step": 3400 |
| }, |
| { |
| "epoch": 0.48, |
| "grad_norm": 0.9366052150726318, |
| "learning_rate": 0.00018082410988131753, |
| "loss": 0.6232, |
| "step": 3600 |
| }, |
| { |
| "epoch": 0.5066666666666667, |
| "grad_norm": 1.1474961042404175, |
| "learning_rate": 0.00017975730097346312, |
| "loss": 0.5993, |
| "step": 3800 |
| }, |
| { |
| "epoch": 0.5333333333333333, |
| "grad_norm": 1.5155959129333496, |
| "learning_rate": 0.00017869049206560876, |
| "loss": 0.6139, |
| "step": 4000 |
| }, |
| { |
| "epoch": 0.56, |
| "grad_norm": 2.1921544075012207, |
| "learning_rate": 0.00017762368315775437, |
| "loss": 0.6352, |
| "step": 4200 |
| }, |
| { |
| "epoch": 0.5866666666666667, |
| "grad_norm": 1.1144263744354248, |
| "learning_rate": 0.0001765568742499, |
| "loss": 0.6004, |
| "step": 4400 |
| }, |
| { |
| "epoch": 0.6133333333333333, |
| "grad_norm": 1.6893116235733032, |
| "learning_rate": 0.00017549006534204562, |
| "loss": 0.6312, |
| "step": 4600 |
| }, |
| { |
| "epoch": 0.64, |
| "grad_norm": 1.4080637693405151, |
| "learning_rate": 0.00017442325643419123, |
| "loss": 0.6002, |
| "step": 4800 |
| }, |
| { |
| "epoch": 0.6666666666666666, |
| "grad_norm": 0.4908393621444702, |
| "learning_rate": 0.00017335644752633687, |
| "loss": 0.603, |
| "step": 5000 |
| }, |
| { |
| "epoch": 0.6933333333333334, |
| "grad_norm": 0.5237169861793518, |
| "learning_rate": 0.00017228963861848245, |
| "loss": 0.6179, |
| "step": 5200 |
| }, |
| { |
| "epoch": 0.72, |
| "grad_norm": 0.4859675168991089, |
| "learning_rate": 0.0001712228297106281, |
| "loss": 0.6421, |
| "step": 5400 |
| }, |
| { |
| "epoch": 0.7466666666666667, |
| "grad_norm": 1.4541916847229004, |
| "learning_rate": 0.0001701560208027737, |
| "loss": 0.615, |
| "step": 5600 |
| }, |
| { |
| "epoch": 0.7733333333333333, |
| "grad_norm": 2.2076306343078613, |
| "learning_rate": 0.00016908921189491934, |
| "loss": 0.6419, |
| "step": 5800 |
| }, |
| { |
| "epoch": 0.8, |
| "grad_norm": 1.6922993659973145, |
| "learning_rate": 0.00016802240298706495, |
| "loss": 0.6234, |
| "step": 6000 |
| }, |
| { |
| "epoch": 0.8266666666666667, |
| "grad_norm": 0.6677654385566711, |
| "learning_rate": 0.00016695559407921057, |
| "loss": 0.5954, |
| "step": 6200 |
| }, |
| { |
| "epoch": 0.8533333333333334, |
| "grad_norm": 0.704343855381012, |
| "learning_rate": 0.0001658887851713562, |
| "loss": 0.6175, |
| "step": 6400 |
| }, |
| { |
| "epoch": 0.88, |
| "grad_norm": 0.9924121499061584, |
| "learning_rate": 0.0001648219762635018, |
| "loss": 0.6172, |
| "step": 6600 |
| }, |
| { |
| "epoch": 0.9066666666666666, |
| "grad_norm": 1.5889892578125, |
| "learning_rate": 0.00016375516735564743, |
| "loss": 0.6131, |
| "step": 6800 |
| }, |
| { |
| "epoch": 0.9333333333333333, |
| "grad_norm": 1.3223360776901245, |
| "learning_rate": 0.00016268835844779304, |
| "loss": 0.632, |
| "step": 7000 |
| }, |
| { |
| "epoch": 0.96, |
| "grad_norm": 0.9497195482254028, |
| "learning_rate": 0.00016162154953993868, |
| "loss": 0.6314, |
| "step": 7200 |
| }, |
| { |
| "epoch": 0.9866666666666667, |
| "grad_norm": 1.2201488018035889, |
| "learning_rate": 0.0001605547406320843, |
| "loss": 0.6003, |
| "step": 7400 |
| }, |
| { |
| "epoch": 1.0133333333333334, |
| "grad_norm": 0.9246127605438232, |
| "learning_rate": 0.0001594879317242299, |
| "loss": 0.5296, |
| "step": 7600 |
| }, |
| { |
| "epoch": 1.04, |
| "grad_norm": 0.8949518203735352, |
| "learning_rate": 0.00015842112281637554, |
| "loss": 0.4514, |
| "step": 7800 |
| }, |
| { |
| "epoch": 1.0666666666666667, |
| "grad_norm": 0.639042317867279, |
| "learning_rate": 0.00015735431390852112, |
| "loss": 0.4582, |
| "step": 8000 |
| }, |
| { |
| "epoch": 1.0933333333333333, |
| "grad_norm": 0.9326872229576111, |
| "learning_rate": 0.00015628750500066676, |
| "loss": 0.4339, |
| "step": 8200 |
| }, |
| { |
| "epoch": 1.12, |
| "grad_norm": 1.5695537328720093, |
| "learning_rate": 0.00015522069609281237, |
| "loss": 0.4511, |
| "step": 8400 |
| }, |
| { |
| "epoch": 1.1466666666666667, |
| "grad_norm": 0.8884285092353821, |
| "learning_rate": 0.000154153887184958, |
| "loss": 0.4151, |
| "step": 8600 |
| }, |
| { |
| "epoch": 1.1733333333333333, |
| "grad_norm": 0.9930616617202759, |
| "learning_rate": 0.00015308707827710362, |
| "loss": 0.4551, |
| "step": 8800 |
| }, |
| { |
| "epoch": 1.2, |
| "grad_norm": 1.1548641920089722, |
| "learning_rate": 0.00015202026936924923, |
| "loss": 0.4594, |
| "step": 9000 |
| }, |
| { |
| "epoch": 1.2266666666666666, |
| "grad_norm": 0.7928484082221985, |
| "learning_rate": 0.00015095346046139487, |
| "loss": 0.4704, |
| "step": 9200 |
| }, |
| { |
| "epoch": 1.2533333333333334, |
| "grad_norm": 2.5043861865997314, |
| "learning_rate": 0.00014988665155354046, |
| "loss": 0.5059, |
| "step": 9400 |
| }, |
| { |
| "epoch": 1.28, |
| "grad_norm": 1.363883376121521, |
| "learning_rate": 0.0001488198426456861, |
| "loss": 0.4488, |
| "step": 9600 |
| }, |
| { |
| "epoch": 1.3066666666666666, |
| "grad_norm": 1.1422014236450195, |
| "learning_rate": 0.0001477530337378317, |
| "loss": 0.4636, |
| "step": 9800 |
| }, |
| { |
| "epoch": 1.3333333333333333, |
| "grad_norm": 0.7344350218772888, |
| "learning_rate": 0.00014668622482997735, |
| "loss": 0.4694, |
| "step": 10000 |
| }, |
| { |
| "epoch": 1.3599999999999999, |
| "grad_norm": 2.64691162109375, |
| "learning_rate": 0.00014561941592212296, |
| "loss": 0.4494, |
| "step": 10200 |
| }, |
| { |
| "epoch": 1.3866666666666667, |
| "grad_norm": 0.8812822103500366, |
| "learning_rate": 0.00014455260701426857, |
| "loss": 0.4881, |
| "step": 10400 |
| }, |
| { |
| "epoch": 1.4133333333333333, |
| "grad_norm": 2.2142817974090576, |
| "learning_rate": 0.0001434857981064142, |
| "loss": 0.4651, |
| "step": 10600 |
| }, |
| { |
| "epoch": 1.44, |
| "grad_norm": 1.6976217031478882, |
| "learning_rate": 0.0001424189891985598, |
| "loss": 0.4591, |
| "step": 10800 |
| }, |
| { |
| "epoch": 1.4666666666666668, |
| "grad_norm": 1.3944759368896484, |
| "learning_rate": 0.00014135218029070543, |
| "loss": 0.475, |
| "step": 11000 |
| }, |
| { |
| "epoch": 1.4933333333333334, |
| "grad_norm": 1.502564787864685, |
| "learning_rate": 0.00014028537138285104, |
| "loss": 0.4752, |
| "step": 11200 |
| }, |
| { |
| "epoch": 1.52, |
| "grad_norm": 0.7984268069267273, |
| "learning_rate": 0.00013921856247499668, |
| "loss": 0.4641, |
| "step": 11400 |
| }, |
| { |
| "epoch": 1.5466666666666666, |
| "grad_norm": 1.7251499891281128, |
| "learning_rate": 0.0001381517535671423, |
| "loss": 0.4791, |
| "step": 11600 |
| }, |
| { |
| "epoch": 1.5733333333333333, |
| "grad_norm": 1.0267277956008911, |
| "learning_rate": 0.0001370849446592879, |
| "loss": 0.4511, |
| "step": 11800 |
| }, |
| { |
| "epoch": 1.6, |
| "grad_norm": 2.1689605712890625, |
| "learning_rate": 0.00013601813575143354, |
| "loss": 0.4613, |
| "step": 12000 |
| }, |
| { |
| "epoch": 1.6266666666666667, |
| "grad_norm": 1.6752183437347412, |
| "learning_rate": 0.00013495132684357913, |
| "loss": 0.4765, |
| "step": 12200 |
| }, |
| { |
| "epoch": 1.6533333333333333, |
| "grad_norm": 0.49789512157440186, |
| "learning_rate": 0.00013388451793572477, |
| "loss": 0.4735, |
| "step": 12400 |
| }, |
| { |
| "epoch": 1.6800000000000002, |
| "grad_norm": 0.8861690759658813, |
| "learning_rate": 0.00013281770902787038, |
| "loss": 0.4647, |
| "step": 12600 |
| }, |
| { |
| "epoch": 1.7066666666666666, |
| "grad_norm": 1.4024194478988647, |
| "learning_rate": 0.00013175090012001602, |
| "loss": 0.4566, |
| "step": 12800 |
| }, |
| { |
| "epoch": 1.7333333333333334, |
| "grad_norm": 1.691872239112854, |
| "learning_rate": 0.00013068409121216163, |
| "loss": 0.4646, |
| "step": 13000 |
| }, |
| { |
| "epoch": 1.76, |
| "grad_norm": 1.8841276168823242, |
| "learning_rate": 0.00012961728230430724, |
| "loss": 0.47, |
| "step": 13200 |
| }, |
| { |
| "epoch": 1.7866666666666666, |
| "grad_norm": 2.0173470973968506, |
| "learning_rate": 0.00012855047339645288, |
| "loss": 0.5013, |
| "step": 13400 |
| }, |
| { |
| "epoch": 1.8133333333333335, |
| "grad_norm": 0.7734861373901367, |
| "learning_rate": 0.00012748366448859846, |
| "loss": 0.474, |
| "step": 13600 |
| }, |
| { |
| "epoch": 1.8399999999999999, |
| "grad_norm": 0.8500189781188965, |
| "learning_rate": 0.0001264168555807441, |
| "loss": 0.4881, |
| "step": 13800 |
| }, |
| { |
| "epoch": 1.8666666666666667, |
| "grad_norm": 1.2855855226516724, |
| "learning_rate": 0.0001253500466728897, |
| "loss": 0.4784, |
| "step": 14000 |
| }, |
| { |
| "epoch": 1.8933333333333333, |
| "grad_norm": 2.410865306854248, |
| "learning_rate": 0.00012428323776503535, |
| "loss": 0.4673, |
| "step": 14200 |
| }, |
| { |
| "epoch": 1.92, |
| "grad_norm": 0.5624301433563232, |
| "learning_rate": 0.00012321642885718096, |
| "loss": 0.4781, |
| "step": 14400 |
| }, |
| { |
| "epoch": 1.9466666666666668, |
| "grad_norm": 2.08925461769104, |
| "learning_rate": 0.0001221496199493266, |
| "loss": 0.4613, |
| "step": 14600 |
| }, |
| { |
| "epoch": 1.9733333333333334, |
| "grad_norm": 2.586411476135254, |
| "learning_rate": 0.00012108281104147221, |
| "loss": 0.5001, |
| "step": 14800 |
| }, |
| { |
| "epoch": 2.0, |
| "grad_norm": 1.7612062692642212, |
| "learning_rate": 0.00012001600213361781, |
| "loss": 0.4566, |
| "step": 15000 |
| } |
| ], |
| "logging_steps": 200, |
| "max_steps": 37500, |
| "num_input_tokens_seen": 0, |
| "num_train_epochs": 5, |
| "save_steps": 500, |
| "stateful_callbacks": { |
| "TrainerControl": { |
| "args": { |
| "should_epoch_stop": false, |
| "should_evaluate": false, |
| "should_log": false, |
| "should_save": true, |
| "should_training_stop": false |
| }, |
| "attributes": {} |
| } |
| }, |
| "total_flos": 1.1669474815034573e+17, |
| "train_batch_size": 1, |
| "trial_name": null, |
| "trial_params": null |
| } |
|
|