|
{ |
|
"best_metric": null, |
|
"best_model_checkpoint": null, |
|
"epoch": 0.6166666666666667, |
|
"eval_steps": 2000, |
|
"global_step": 18500, |
|
"is_hyper_param_search": false, |
|
"is_local_process_zero": true, |
|
"is_world_process_zero": true, |
|
"log_history": [ |
|
{ |
|
"epoch": 3.3333333333333335e-05, |
|
"eval_accuracy": 0.016437927663734114, |
|
"eval_loss": 10.702861785888672, |
|
"eval_runtime": 53.5239, |
|
"eval_samples_per_second": 93.416, |
|
"eval_steps_per_second": 2.933, |
|
"step": 1 |
|
}, |
|
{ |
|
"epoch": 6.666666666666667e-05, |
|
"eval_accuracy": 0.049564027370478984, |
|
"eval_loss": 10.533119201660156, |
|
"eval_runtime": 53.3666, |
|
"eval_samples_per_second": 93.692, |
|
"eval_steps_per_second": 2.942, |
|
"step": 2 |
|
}, |
|
{ |
|
"epoch": 0.00013333333333333334, |
|
"eval_accuracy": 0.05325317693059629, |
|
"eval_loss": 10.302159309387207, |
|
"eval_runtime": 53.3789, |
|
"eval_samples_per_second": 93.67, |
|
"eval_steps_per_second": 2.941, |
|
"step": 4 |
|
}, |
|
{ |
|
"epoch": 0.0002666666666666667, |
|
"eval_accuracy": 0.053565591397849464, |
|
"eval_loss": 10.023477554321289, |
|
"eval_runtime": 53.6667, |
|
"eval_samples_per_second": 93.168, |
|
"eval_steps_per_second": 2.925, |
|
"step": 8 |
|
}, |
|
{ |
|
"epoch": 0.0005333333333333334, |
|
"eval_accuracy": 0.06345063538611925, |
|
"eval_loss": 9.653569221496582, |
|
"eval_runtime": 53.2342, |
|
"eval_samples_per_second": 93.925, |
|
"eval_steps_per_second": 2.949, |
|
"step": 16 |
|
}, |
|
{ |
|
"epoch": 0.0010666666666666667, |
|
"eval_accuracy": 0.07593020527859237, |
|
"eval_loss": 9.028414726257324, |
|
"eval_runtime": 53.4229, |
|
"eval_samples_per_second": 93.593, |
|
"eval_steps_per_second": 2.939, |
|
"step": 32 |
|
}, |
|
{ |
|
"epoch": 0.0021333333333333334, |
|
"eval_accuracy": 0.08323401759530792, |
|
"eval_loss": 8.02489185333252, |
|
"eval_runtime": 53.5928, |
|
"eval_samples_per_second": 93.296, |
|
"eval_steps_per_second": 2.929, |
|
"step": 64 |
|
}, |
|
{ |
|
"epoch": 0.004266666666666667, |
|
"eval_accuracy": 0.11289071358748778, |
|
"eval_loss": 6.917232990264893, |
|
"eval_runtime": 53.9308, |
|
"eval_samples_per_second": 92.711, |
|
"eval_steps_per_second": 2.911, |
|
"step": 128 |
|
}, |
|
{ |
|
"epoch": 0.008533333333333334, |
|
"eval_accuracy": 0.15581857282502443, |
|
"eval_loss": 6.162940502166748, |
|
"eval_runtime": 53.873, |
|
"eval_samples_per_second": 92.811, |
|
"eval_steps_per_second": 2.914, |
|
"step": 256 |
|
}, |
|
{ |
|
"epoch": 0.017066666666666667, |
|
"eval_accuracy": 0.18169071358748778, |
|
"eval_loss": 5.580474376678467, |
|
"eval_runtime": 53.993, |
|
"eval_samples_per_second": 92.605, |
|
"eval_steps_per_second": 2.908, |
|
"step": 512 |
|
}, |
|
{ |
|
"epoch": 0.034133333333333335, |
|
"eval_accuracy": 0.20284437927663734, |
|
"eval_loss": 5.123527526855469, |
|
"eval_runtime": 53.733, |
|
"eval_samples_per_second": 93.053, |
|
"eval_steps_per_second": 2.922, |
|
"step": 1024 |
|
}, |
|
{ |
|
"epoch": 0.06666666666666667, |
|
"grad_norm": 0.9611704349517822, |
|
"learning_rate": 4.666666666666667e-05, |
|
"loss": 5.4529, |
|
"step": 2000 |
|
}, |
|
{ |
|
"epoch": 0.06666666666666667, |
|
"eval_accuracy": 0.2264314760508309, |
|
"eval_loss": 4.761301517486572, |
|
"eval_runtime": 55.2965, |
|
"eval_samples_per_second": 90.422, |
|
"eval_steps_per_second": 2.839, |
|
"step": 2000 |
|
}, |
|
{ |
|
"epoch": 0.06826666666666667, |
|
"eval_accuracy": 0.22808172043010752, |
|
"eval_loss": 4.7480597496032715, |
|
"eval_runtime": 54.5009, |
|
"eval_samples_per_second": 91.742, |
|
"eval_steps_per_second": 2.881, |
|
"step": 2048 |
|
}, |
|
{ |
|
"epoch": 0.13333333333333333, |
|
"grad_norm": 0.9782880544662476, |
|
"learning_rate": 4.3333333333333334e-05, |
|
"loss": 4.5765, |
|
"step": 4000 |
|
}, |
|
{ |
|
"epoch": 0.13333333333333333, |
|
"eval_accuracy": 0.2610080156402737, |
|
"eval_loss": 4.412333011627197, |
|
"eval_runtime": 55.0769, |
|
"eval_samples_per_second": 90.782, |
|
"eval_steps_per_second": 2.851, |
|
"step": 4000 |
|
}, |
|
{ |
|
"epoch": 0.13653333333333334, |
|
"eval_accuracy": 0.2625071358748778, |
|
"eval_loss": 4.404272556304932, |
|
"eval_runtime": 54.9058, |
|
"eval_samples_per_second": 91.065, |
|
"eval_steps_per_second": 2.859, |
|
"step": 4096 |
|
}, |
|
{ |
|
"epoch": 0.2, |
|
"grad_norm": 1.0245925188064575, |
|
"learning_rate": 4e-05, |
|
"loss": 4.3252, |
|
"step": 6000 |
|
}, |
|
{ |
|
"epoch": 0.2, |
|
"eval_accuracy": 0.2826778103616813, |
|
"eval_loss": 4.222066879272461, |
|
"eval_runtime": 55.0772, |
|
"eval_samples_per_second": 90.782, |
|
"eval_steps_per_second": 2.851, |
|
"step": 6000 |
|
}, |
|
{ |
|
"epoch": 0.26666666666666666, |
|
"grad_norm": 1.9592970609664917, |
|
"learning_rate": 3.6666666666666666e-05, |
|
"loss": 4.146, |
|
"step": 8000 |
|
}, |
|
{ |
|
"epoch": 0.26666666666666666, |
|
"eval_accuracy": 0.3098099706744868, |
|
"eval_loss": 4.0350446701049805, |
|
"eval_runtime": 54.3944, |
|
"eval_samples_per_second": 91.921, |
|
"eval_steps_per_second": 2.886, |
|
"step": 8000 |
|
}, |
|
{ |
|
"epoch": 0.2730666666666667, |
|
"eval_accuracy": 0.31292649071358747, |
|
"eval_loss": 4.013375759124756, |
|
"eval_runtime": 54.918, |
|
"eval_samples_per_second": 91.045, |
|
"eval_steps_per_second": 2.859, |
|
"step": 8192 |
|
}, |
|
{ |
|
"epoch": 0.3333333333333333, |
|
"grad_norm": 1.1236926317214966, |
|
"learning_rate": 3.3333333333333335e-05, |
|
"loss": 3.9652, |
|
"step": 10000 |
|
}, |
|
{ |
|
"epoch": 0.3333333333333333, |
|
"eval_accuracy": 0.3303505376344086, |
|
"eval_loss": 3.885976552963257, |
|
"eval_runtime": 54.6579, |
|
"eval_samples_per_second": 91.478, |
|
"eval_steps_per_second": 2.872, |
|
"step": 10000 |
|
}, |
|
{ |
|
"epoch": 0.4, |
|
"grad_norm": 1.4833592176437378, |
|
"learning_rate": 3e-05, |
|
"loss": 3.8441, |
|
"step": 12000 |
|
}, |
|
{ |
|
"epoch": 0.4, |
|
"eval_accuracy": 0.34179745845552295, |
|
"eval_loss": 3.800518274307251, |
|
"eval_runtime": 55.3363, |
|
"eval_samples_per_second": 90.357, |
|
"eval_steps_per_second": 2.837, |
|
"step": 12000 |
|
}, |
|
{ |
|
"epoch": 0.4666666666666667, |
|
"grad_norm": 1.413355827331543, |
|
"learning_rate": 2.6666666666666667e-05, |
|
"loss": 3.7739, |
|
"step": 14000 |
|
}, |
|
{ |
|
"epoch": 0.4666666666666667, |
|
"eval_accuracy": 0.3503352883675464, |
|
"eval_loss": 3.7315235137939453, |
|
"eval_runtime": 54.617, |
|
"eval_samples_per_second": 91.547, |
|
"eval_steps_per_second": 2.875, |
|
"step": 14000 |
|
}, |
|
{ |
|
"epoch": 0.5333333333333333, |
|
"grad_norm": 1.4252855777740479, |
|
"learning_rate": 2.3333333333333336e-05, |
|
"loss": 3.72, |
|
"step": 16000 |
|
}, |
|
{ |
|
"epoch": 0.5333333333333333, |
|
"eval_accuracy": 0.35525493646138806, |
|
"eval_loss": 3.688023328781128, |
|
"eval_runtime": 54.7137, |
|
"eval_samples_per_second": 91.385, |
|
"eval_steps_per_second": 2.869, |
|
"step": 16000 |
|
}, |
|
{ |
|
"epoch": 0.5461333333333334, |
|
"eval_accuracy": 0.356411339198436, |
|
"eval_loss": 3.6776843070983887, |
|
"eval_runtime": 55.1644, |
|
"eval_samples_per_second": 90.638, |
|
"eval_steps_per_second": 2.846, |
|
"step": 16384 |
|
}, |
|
{ |
|
"epoch": 0.6, |
|
"grad_norm": 1.4446940422058105, |
|
"learning_rate": 2e-05, |
|
"loss": 3.6718, |
|
"step": 18000 |
|
}, |
|
{ |
|
"epoch": 0.6, |
|
"eval_accuracy": 0.3592500488758553, |
|
"eval_loss": 3.6533164978027344, |
|
"eval_runtime": 53.9881, |
|
"eval_samples_per_second": 92.613, |
|
"eval_steps_per_second": 2.908, |
|
"step": 18000 |
|
} |
|
], |
|
"logging_steps": 2000, |
|
"max_steps": 30000, |
|
"num_input_tokens_seen": 0, |
|
"num_train_epochs": 9223372036854775807, |
|
"save_steps": 500, |
|
"stateful_callbacks": { |
|
"TrainerControl": { |
|
"args": { |
|
"should_epoch_stop": false, |
|
"should_evaluate": false, |
|
"should_log": false, |
|
"should_save": true, |
|
"should_training_stop": false |
|
}, |
|
"attributes": {} |
|
} |
|
}, |
|
"total_flos": 1.62479418114048e+17, |
|
"train_batch_size": 32, |
|
"trial_name": null, |
|
"trial_params": null |
|
} |
|
|