|
{ |
|
"best_metric": 0.9571428571428572, |
|
"best_model_checkpoint": "videomae-base-finetuned-ucf101-subset/checkpoint-1200", |
|
"epoch": 3.25, |
|
"eval_steps": 500, |
|
"global_step": 1200, |
|
"is_hyper_param_search": false, |
|
"is_local_process_zero": true, |
|
"is_world_process_zero": true, |
|
"log_history": [ |
|
{ |
|
"epoch": 0.008333333333333333, |
|
"grad_norm": 0.08776669204235077, |
|
"learning_rate": 4.166666666666667e-06, |
|
"loss": 0.0044, |
|
"step": 10 |
|
}, |
|
{ |
|
"epoch": 0.016666666666666666, |
|
"grad_norm": 0.10609115660190582, |
|
"learning_rate": 8.333333333333334e-06, |
|
"loss": 0.0098, |
|
"step": 20 |
|
}, |
|
{ |
|
"epoch": 0.025, |
|
"grad_norm": 0.039322689175605774, |
|
"learning_rate": 1.25e-05, |
|
"loss": 0.0175, |
|
"step": 30 |
|
}, |
|
{ |
|
"epoch": 0.03333333333333333, |
|
"grad_norm": 1.638411521911621, |
|
"learning_rate": 1.6666666666666667e-05, |
|
"loss": 0.0178, |
|
"step": 40 |
|
}, |
|
{ |
|
"epoch": 0.041666666666666664, |
|
"grad_norm": 0.029751434922218323, |
|
"learning_rate": 2.0833333333333336e-05, |
|
"loss": 0.0025, |
|
"step": 50 |
|
}, |
|
{ |
|
"epoch": 0.05, |
|
"grad_norm": 284.7745666503906, |
|
"learning_rate": 2.5e-05, |
|
"loss": 1.2598, |
|
"step": 60 |
|
}, |
|
{ |
|
"epoch": 0.058333333333333334, |
|
"grad_norm": 0.3732018768787384, |
|
"learning_rate": 2.916666666666667e-05, |
|
"loss": 0.0533, |
|
"step": 70 |
|
}, |
|
{ |
|
"epoch": 0.06666666666666667, |
|
"grad_norm": 0.24458427727222443, |
|
"learning_rate": 3.3333333333333335e-05, |
|
"loss": 0.004, |
|
"step": 80 |
|
}, |
|
{ |
|
"epoch": 0.075, |
|
"grad_norm": 0.026858733966946602, |
|
"learning_rate": 3.7500000000000003e-05, |
|
"loss": 0.5548, |
|
"step": 90 |
|
}, |
|
{ |
|
"epoch": 0.08333333333333333, |
|
"grad_norm": 0.048257455229759216, |
|
"learning_rate": 4.166666666666667e-05, |
|
"loss": 0.0268, |
|
"step": 100 |
|
}, |
|
{ |
|
"epoch": 0.09166666666666666, |
|
"grad_norm": 0.10955332964658737, |
|
"learning_rate": 4.5833333333333334e-05, |
|
"loss": 0.5109, |
|
"step": 110 |
|
}, |
|
{ |
|
"epoch": 0.1, |
|
"grad_norm": 95.87146759033203, |
|
"learning_rate": 5e-05, |
|
"loss": 1.9592, |
|
"step": 120 |
|
}, |
|
{ |
|
"epoch": 0.10833333333333334, |
|
"grad_norm": 72.32891845703125, |
|
"learning_rate": 4.9537037037037035e-05, |
|
"loss": 1.2616, |
|
"step": 130 |
|
}, |
|
{ |
|
"epoch": 0.11666666666666667, |
|
"grad_norm": 0.10425172001123428, |
|
"learning_rate": 4.9074074074074075e-05, |
|
"loss": 0.8833, |
|
"step": 140 |
|
}, |
|
{ |
|
"epoch": 0.125, |
|
"grad_norm": 0.05005308613181114, |
|
"learning_rate": 4.8611111111111115e-05, |
|
"loss": 0.0453, |
|
"step": 150 |
|
}, |
|
{ |
|
"epoch": 0.13333333333333333, |
|
"grad_norm": 0.0716172307729721, |
|
"learning_rate": 4.814814814814815e-05, |
|
"loss": 0.5129, |
|
"step": 160 |
|
}, |
|
{ |
|
"epoch": 0.14166666666666666, |
|
"grad_norm": 0.5777818560600281, |
|
"learning_rate": 4.768518518518519e-05, |
|
"loss": 1.3475, |
|
"step": 170 |
|
}, |
|
{ |
|
"epoch": 0.15, |
|
"grad_norm": 0.08046792447566986, |
|
"learning_rate": 4.722222222222222e-05, |
|
"loss": 0.5816, |
|
"step": 180 |
|
}, |
|
{ |
|
"epoch": 0.15833333333333333, |
|
"grad_norm": 0.09820335358381271, |
|
"learning_rate": 4.675925925925926e-05, |
|
"loss": 0.4123, |
|
"step": 190 |
|
}, |
|
{ |
|
"epoch": 0.16666666666666666, |
|
"grad_norm": 6.09475564956665, |
|
"learning_rate": 4.62962962962963e-05, |
|
"loss": 0.5958, |
|
"step": 200 |
|
}, |
|
{ |
|
"epoch": 0.175, |
|
"grad_norm": 0.13853392004966736, |
|
"learning_rate": 4.5833333333333334e-05, |
|
"loss": 0.7088, |
|
"step": 210 |
|
}, |
|
{ |
|
"epoch": 0.18333333333333332, |
|
"grad_norm": 0.07782676070928574, |
|
"learning_rate": 4.5370370370370374e-05, |
|
"loss": 0.5622, |
|
"step": 220 |
|
}, |
|
{ |
|
"epoch": 0.19166666666666668, |
|
"grad_norm": 0.12386655807495117, |
|
"learning_rate": 4.490740740740741e-05, |
|
"loss": 0.0172, |
|
"step": 230 |
|
}, |
|
{ |
|
"epoch": 0.2, |
|
"grad_norm": 0.051147669553756714, |
|
"learning_rate": 4.4444444444444447e-05, |
|
"loss": 0.6997, |
|
"step": 240 |
|
}, |
|
{ |
|
"epoch": 0.20833333333333334, |
|
"grad_norm": 0.05646497383713722, |
|
"learning_rate": 4.3981481481481486e-05, |
|
"loss": 1.7743, |
|
"step": 250 |
|
}, |
|
{ |
|
"epoch": 0.21666666666666667, |
|
"grad_norm": 0.045062363147735596, |
|
"learning_rate": 4.351851851851852e-05, |
|
"loss": 0.4785, |
|
"step": 260 |
|
}, |
|
{ |
|
"epoch": 0.225, |
|
"grad_norm": 0.08551105111837387, |
|
"learning_rate": 4.305555555555556e-05, |
|
"loss": 0.5858, |
|
"step": 270 |
|
}, |
|
{ |
|
"epoch": 0.23333333333333334, |
|
"grad_norm": 4.1990180015563965, |
|
"learning_rate": 4.259259259259259e-05, |
|
"loss": 0.0122, |
|
"step": 280 |
|
}, |
|
{ |
|
"epoch": 0.24166666666666667, |
|
"grad_norm": 0.053991395980119705, |
|
"learning_rate": 4.212962962962963e-05, |
|
"loss": 0.3535, |
|
"step": 290 |
|
}, |
|
{ |
|
"epoch": 0.25, |
|
"grad_norm": 0.044836413115262985, |
|
"learning_rate": 4.166666666666667e-05, |
|
"loss": 0.5168, |
|
"step": 300 |
|
}, |
|
{ |
|
"epoch": 0.25, |
|
"eval_accuracy": 0.7285714285714285, |
|
"eval_loss": 1.0007292032241821, |
|
"eval_runtime": 17.1894, |
|
"eval_samples_per_second": 4.072, |
|
"eval_steps_per_second": 4.072, |
|
"step": 300 |
|
}, |
|
{ |
|
"epoch": 1.0083333333333333, |
|
"grad_norm": 16.938940048217773, |
|
"learning_rate": 4.1203703703703705e-05, |
|
"loss": 0.3022, |
|
"step": 310 |
|
}, |
|
{ |
|
"epoch": 1.0166666666666666, |
|
"grad_norm": 1.0992032289505005, |
|
"learning_rate": 4.074074074074074e-05, |
|
"loss": 1.0882, |
|
"step": 320 |
|
}, |
|
{ |
|
"epoch": 1.025, |
|
"grad_norm": 57.53459167480469, |
|
"learning_rate": 4.027777777777778e-05, |
|
"loss": 1.2905, |
|
"step": 330 |
|
}, |
|
{ |
|
"epoch": 1.0333333333333334, |
|
"grad_norm": 2.6743972301483154, |
|
"learning_rate": 3.981481481481482e-05, |
|
"loss": 1.1033, |
|
"step": 340 |
|
}, |
|
{ |
|
"epoch": 1.0416666666666667, |
|
"grad_norm": 0.5914178490638733, |
|
"learning_rate": 3.935185185185186e-05, |
|
"loss": 0.0169, |
|
"step": 350 |
|
}, |
|
{ |
|
"epoch": 1.05, |
|
"grad_norm": 0.060226812958717346, |
|
"learning_rate": 3.888888888888889e-05, |
|
"loss": 1.5546, |
|
"step": 360 |
|
}, |
|
{ |
|
"epoch": 1.0583333333333333, |
|
"grad_norm": 0.0624733604490757, |
|
"learning_rate": 3.8425925925925924e-05, |
|
"loss": 0.0465, |
|
"step": 370 |
|
}, |
|
{ |
|
"epoch": 1.0666666666666667, |
|
"grad_norm": 0.07191382348537445, |
|
"learning_rate": 3.7962962962962964e-05, |
|
"loss": 0.7688, |
|
"step": 380 |
|
}, |
|
{ |
|
"epoch": 1.075, |
|
"grad_norm": 0.16842015087604523, |
|
"learning_rate": 3.7500000000000003e-05, |
|
"loss": 1.1628, |
|
"step": 390 |
|
}, |
|
{ |
|
"epoch": 1.0833333333333333, |
|
"grad_norm": 0.06259853392839432, |
|
"learning_rate": 3.7037037037037037e-05, |
|
"loss": 0.638, |
|
"step": 400 |
|
}, |
|
{ |
|
"epoch": 1.0916666666666666, |
|
"grad_norm": 0.1838100403547287, |
|
"learning_rate": 3.6574074074074076e-05, |
|
"loss": 0.2668, |
|
"step": 410 |
|
}, |
|
{ |
|
"epoch": 1.1, |
|
"grad_norm": 0.0318886935710907, |
|
"learning_rate": 3.611111111111111e-05, |
|
"loss": 0.0047, |
|
"step": 420 |
|
}, |
|
{ |
|
"epoch": 1.1083333333333334, |
|
"grad_norm": 144.97027587890625, |
|
"learning_rate": 3.564814814814815e-05, |
|
"loss": 1.3268, |
|
"step": 430 |
|
}, |
|
{ |
|
"epoch": 1.1166666666666667, |
|
"grad_norm": 0.037272289395332336, |
|
"learning_rate": 3.518518518518519e-05, |
|
"loss": 0.8798, |
|
"step": 440 |
|
}, |
|
{ |
|
"epoch": 1.125, |
|
"grad_norm": 0.09740515798330307, |
|
"learning_rate": 3.472222222222222e-05, |
|
"loss": 0.0052, |
|
"step": 450 |
|
}, |
|
{ |
|
"epoch": 1.1333333333333333, |
|
"grad_norm": 0.04809391126036644, |
|
"learning_rate": 3.425925925925926e-05, |
|
"loss": 0.2586, |
|
"step": 460 |
|
}, |
|
{ |
|
"epoch": 1.1416666666666666, |
|
"grad_norm": 0.03862062841653824, |
|
"learning_rate": 3.3796296296296295e-05, |
|
"loss": 0.0116, |
|
"step": 470 |
|
}, |
|
{ |
|
"epoch": 1.15, |
|
"grad_norm": 3.043313503265381, |
|
"learning_rate": 3.3333333333333335e-05, |
|
"loss": 1.3695, |
|
"step": 480 |
|
}, |
|
{ |
|
"epoch": 1.1583333333333332, |
|
"grad_norm": 0.12630701065063477, |
|
"learning_rate": 3.2870370370370375e-05, |
|
"loss": 1.927, |
|
"step": 490 |
|
}, |
|
{ |
|
"epoch": 1.1666666666666667, |
|
"grad_norm": 0.055767785757780075, |
|
"learning_rate": 3.240740740740741e-05, |
|
"loss": 1.1378, |
|
"step": 500 |
|
}, |
|
{ |
|
"epoch": 1.175, |
|
"grad_norm": 0.10942547023296356, |
|
"learning_rate": 3.194444444444444e-05, |
|
"loss": 0.0031, |
|
"step": 510 |
|
}, |
|
{ |
|
"epoch": 1.1833333333333333, |
|
"grad_norm": 0.051390085369348526, |
|
"learning_rate": 3.148148148148148e-05, |
|
"loss": 0.4721, |
|
"step": 520 |
|
}, |
|
{ |
|
"epoch": 1.1916666666666667, |
|
"grad_norm": 0.06892615556716919, |
|
"learning_rate": 3.101851851851852e-05, |
|
"loss": 0.0027, |
|
"step": 530 |
|
}, |
|
{ |
|
"epoch": 1.2, |
|
"grad_norm": 0.04774286970496178, |
|
"learning_rate": 3.055555555555556e-05, |
|
"loss": 0.0031, |
|
"step": 540 |
|
}, |
|
{ |
|
"epoch": 1.2083333333333333, |
|
"grad_norm": 0.03237196058034897, |
|
"learning_rate": 3.0092592592592593e-05, |
|
"loss": 0.1311, |
|
"step": 550 |
|
}, |
|
{ |
|
"epoch": 1.2166666666666668, |
|
"grad_norm": 0.15961219370365143, |
|
"learning_rate": 2.962962962962963e-05, |
|
"loss": 0.6527, |
|
"step": 560 |
|
}, |
|
{ |
|
"epoch": 1.225, |
|
"grad_norm": 0.02654307894408703, |
|
"learning_rate": 2.916666666666667e-05, |
|
"loss": 0.0067, |
|
"step": 570 |
|
}, |
|
{ |
|
"epoch": 1.2333333333333334, |
|
"grad_norm": 0.17477066814899445, |
|
"learning_rate": 2.8703703703703706e-05, |
|
"loss": 0.2515, |
|
"step": 580 |
|
}, |
|
{ |
|
"epoch": 1.2416666666666667, |
|
"grad_norm": 22.36062240600586, |
|
"learning_rate": 2.824074074074074e-05, |
|
"loss": 0.0185, |
|
"step": 590 |
|
}, |
|
{ |
|
"epoch": 1.25, |
|
"grad_norm": 0.024808431044220924, |
|
"learning_rate": 2.777777777777778e-05, |
|
"loss": 0.0043, |
|
"step": 600 |
|
}, |
|
{ |
|
"epoch": 1.25, |
|
"eval_accuracy": 0.8, |
|
"eval_loss": 0.9436095952987671, |
|
"eval_runtime": 18.656, |
|
"eval_samples_per_second": 3.752, |
|
"eval_steps_per_second": 3.752, |
|
"step": 600 |
|
}, |
|
{ |
|
"epoch": 2.0083333333333333, |
|
"grad_norm": 0.03887341916561127, |
|
"learning_rate": 2.7314814814814816e-05, |
|
"loss": 0.0026, |
|
"step": 610 |
|
}, |
|
{ |
|
"epoch": 2.0166666666666666, |
|
"grad_norm": 0.08683337271213531, |
|
"learning_rate": 2.6851851851851855e-05, |
|
"loss": 0.0022, |
|
"step": 620 |
|
}, |
|
{ |
|
"epoch": 2.025, |
|
"grad_norm": 10.116005897521973, |
|
"learning_rate": 2.6388888888888892e-05, |
|
"loss": 0.0079, |
|
"step": 630 |
|
}, |
|
{ |
|
"epoch": 2.033333333333333, |
|
"grad_norm": 4.991815567016602, |
|
"learning_rate": 2.5925925925925925e-05, |
|
"loss": 0.011, |
|
"step": 640 |
|
}, |
|
{ |
|
"epoch": 2.0416666666666665, |
|
"grad_norm": 0.0498613677918911, |
|
"learning_rate": 2.5462962962962965e-05, |
|
"loss": 0.0017, |
|
"step": 650 |
|
}, |
|
{ |
|
"epoch": 2.05, |
|
"grad_norm": 0.027869325131177902, |
|
"learning_rate": 2.5e-05, |
|
"loss": 0.002, |
|
"step": 660 |
|
}, |
|
{ |
|
"epoch": 2.058333333333333, |
|
"grad_norm": 0.06317030638456345, |
|
"learning_rate": 2.4537037037037038e-05, |
|
"loss": 0.002, |
|
"step": 670 |
|
}, |
|
{ |
|
"epoch": 2.066666666666667, |
|
"grad_norm": 0.028183745220303535, |
|
"learning_rate": 2.4074074074074074e-05, |
|
"loss": 0.0034, |
|
"step": 680 |
|
}, |
|
{ |
|
"epoch": 2.075, |
|
"grad_norm": 0.02327241562306881, |
|
"learning_rate": 2.361111111111111e-05, |
|
"loss": 0.0014, |
|
"step": 690 |
|
}, |
|
{ |
|
"epoch": 2.0833333333333335, |
|
"grad_norm": 0.01833372190594673, |
|
"learning_rate": 2.314814814814815e-05, |
|
"loss": 0.0019, |
|
"step": 700 |
|
}, |
|
{ |
|
"epoch": 2.091666666666667, |
|
"grad_norm": 0.01496677752584219, |
|
"learning_rate": 2.2685185185185187e-05, |
|
"loss": 0.0013, |
|
"step": 710 |
|
}, |
|
{ |
|
"epoch": 2.1, |
|
"grad_norm": 0.04015077278017998, |
|
"learning_rate": 2.2222222222222223e-05, |
|
"loss": 0.6056, |
|
"step": 720 |
|
}, |
|
{ |
|
"epoch": 2.1083333333333334, |
|
"grad_norm": 1.2390908002853394, |
|
"learning_rate": 2.175925925925926e-05, |
|
"loss": 0.0034, |
|
"step": 730 |
|
}, |
|
{ |
|
"epoch": 2.1166666666666667, |
|
"grad_norm": 0.21794559061527252, |
|
"learning_rate": 2.1296296296296296e-05, |
|
"loss": 0.0036, |
|
"step": 740 |
|
}, |
|
{ |
|
"epoch": 2.125, |
|
"grad_norm": 0.045341383665800095, |
|
"learning_rate": 2.0833333333333336e-05, |
|
"loss": 0.3484, |
|
"step": 750 |
|
}, |
|
{ |
|
"epoch": 2.1333333333333333, |
|
"grad_norm": 0.018182676285505295, |
|
"learning_rate": 2.037037037037037e-05, |
|
"loss": 0.0942, |
|
"step": 760 |
|
}, |
|
{ |
|
"epoch": 2.1416666666666666, |
|
"grad_norm": 0.16174434125423431, |
|
"learning_rate": 1.990740740740741e-05, |
|
"loss": 0.3284, |
|
"step": 770 |
|
}, |
|
{ |
|
"epoch": 2.15, |
|
"grad_norm": 0.09966699779033661, |
|
"learning_rate": 1.9444444444444445e-05, |
|
"loss": 0.0255, |
|
"step": 780 |
|
}, |
|
{ |
|
"epoch": 2.158333333333333, |
|
"grad_norm": 0.03474051132798195, |
|
"learning_rate": 1.8981481481481482e-05, |
|
"loss": 0.0014, |
|
"step": 790 |
|
}, |
|
{ |
|
"epoch": 2.1666666666666665, |
|
"grad_norm": 2.9179279804229736, |
|
"learning_rate": 1.8518518518518518e-05, |
|
"loss": 0.0037, |
|
"step": 800 |
|
}, |
|
{ |
|
"epoch": 2.175, |
|
"grad_norm": 0.025611592456698418, |
|
"learning_rate": 1.8055555555555555e-05, |
|
"loss": 0.0276, |
|
"step": 810 |
|
}, |
|
{ |
|
"epoch": 2.183333333333333, |
|
"grad_norm": 0.014121219515800476, |
|
"learning_rate": 1.7592592592592595e-05, |
|
"loss": 0.0169, |
|
"step": 820 |
|
}, |
|
{ |
|
"epoch": 2.191666666666667, |
|
"grad_norm": 0.021932382136583328, |
|
"learning_rate": 1.712962962962963e-05, |
|
"loss": 0.002, |
|
"step": 830 |
|
}, |
|
{ |
|
"epoch": 2.2, |
|
"grad_norm": 0.02423691935837269, |
|
"learning_rate": 1.6666666666666667e-05, |
|
"loss": 0.0018, |
|
"step": 840 |
|
}, |
|
{ |
|
"epoch": 2.2083333333333335, |
|
"grad_norm": 0.027564480900764465, |
|
"learning_rate": 1.6203703703703704e-05, |
|
"loss": 0.0014, |
|
"step": 850 |
|
}, |
|
{ |
|
"epoch": 2.216666666666667, |
|
"grad_norm": 0.015944598242640495, |
|
"learning_rate": 1.574074074074074e-05, |
|
"loss": 0.0015, |
|
"step": 860 |
|
}, |
|
{ |
|
"epoch": 2.225, |
|
"grad_norm": 0.032627858221530914, |
|
"learning_rate": 1.527777777777778e-05, |
|
"loss": 0.0061, |
|
"step": 870 |
|
}, |
|
{ |
|
"epoch": 2.2333333333333334, |
|
"grad_norm": 0.0206381157040596, |
|
"learning_rate": 1.4814814814814815e-05, |
|
"loss": 0.3605, |
|
"step": 880 |
|
}, |
|
{ |
|
"epoch": 2.2416666666666667, |
|
"grad_norm": 9.500805854797363, |
|
"learning_rate": 1.4351851851851853e-05, |
|
"loss": 0.0088, |
|
"step": 890 |
|
}, |
|
{ |
|
"epoch": 2.25, |
|
"grad_norm": 0.05089261010289192, |
|
"learning_rate": 1.388888888888889e-05, |
|
"loss": 0.0014, |
|
"step": 900 |
|
}, |
|
{ |
|
"epoch": 2.25, |
|
"eval_accuracy": 0.8857142857142857, |
|
"eval_loss": 0.6164959073066711, |
|
"eval_runtime": 15.5122, |
|
"eval_samples_per_second": 4.513, |
|
"eval_steps_per_second": 4.513, |
|
"step": 900 |
|
}, |
|
{ |
|
"epoch": 3.0083333333333333, |
|
"grad_norm": 0.04828188940882683, |
|
"learning_rate": 1.3425925925925928e-05, |
|
"loss": 0.0131, |
|
"step": 910 |
|
}, |
|
{ |
|
"epoch": 3.0166666666666666, |
|
"grad_norm": 0.014868829399347305, |
|
"learning_rate": 1.2962962962962962e-05, |
|
"loss": 0.0499, |
|
"step": 920 |
|
}, |
|
{ |
|
"epoch": 3.025, |
|
"grad_norm": 0.014285319484770298, |
|
"learning_rate": 1.25e-05, |
|
"loss": 0.0014, |
|
"step": 930 |
|
}, |
|
{ |
|
"epoch": 3.033333333333333, |
|
"grad_norm": 0.024037815630435944, |
|
"learning_rate": 1.2037037037037037e-05, |
|
"loss": 0.0013, |
|
"step": 940 |
|
}, |
|
{ |
|
"epoch": 3.0416666666666665, |
|
"grad_norm": 0.33504313230514526, |
|
"learning_rate": 1.1574074074074075e-05, |
|
"loss": 0.3456, |
|
"step": 950 |
|
}, |
|
{ |
|
"epoch": 3.05, |
|
"grad_norm": 0.018692469224333763, |
|
"learning_rate": 1.1111111111111112e-05, |
|
"loss": 0.0015, |
|
"step": 960 |
|
}, |
|
{ |
|
"epoch": 3.058333333333333, |
|
"grad_norm": 0.027780327945947647, |
|
"learning_rate": 1.0648148148148148e-05, |
|
"loss": 0.0072, |
|
"step": 970 |
|
}, |
|
{ |
|
"epoch": 3.066666666666667, |
|
"grad_norm": 0.06906665861606598, |
|
"learning_rate": 1.0185185185185185e-05, |
|
"loss": 0.0014, |
|
"step": 980 |
|
}, |
|
{ |
|
"epoch": 3.075, |
|
"grad_norm": 0.04040588438510895, |
|
"learning_rate": 9.722222222222223e-06, |
|
"loss": 0.5188, |
|
"step": 990 |
|
}, |
|
{ |
|
"epoch": 3.0833333333333335, |
|
"grad_norm": 0.023822806775569916, |
|
"learning_rate": 9.259259259259259e-06, |
|
"loss": 0.0015, |
|
"step": 1000 |
|
}, |
|
{ |
|
"epoch": 3.091666666666667, |
|
"grad_norm": 0.014301207847893238, |
|
"learning_rate": 8.796296296296297e-06, |
|
"loss": 0.0013, |
|
"step": 1010 |
|
}, |
|
{ |
|
"epoch": 3.1, |
|
"grad_norm": 0.02444380149245262, |
|
"learning_rate": 8.333333333333334e-06, |
|
"loss": 0.0075, |
|
"step": 1020 |
|
}, |
|
{ |
|
"epoch": 3.1083333333333334, |
|
"grad_norm": 0.0468875914812088, |
|
"learning_rate": 7.87037037037037e-06, |
|
"loss": 0.0015, |
|
"step": 1030 |
|
}, |
|
{ |
|
"epoch": 3.1166666666666667, |
|
"grad_norm": 0.046051811426877975, |
|
"learning_rate": 7.4074074074074075e-06, |
|
"loss": 0.0016, |
|
"step": 1040 |
|
}, |
|
{ |
|
"epoch": 3.125, |
|
"grad_norm": 0.014749475754797459, |
|
"learning_rate": 6.944444444444445e-06, |
|
"loss": 0.001, |
|
"step": 1050 |
|
}, |
|
{ |
|
"epoch": 3.1333333333333333, |
|
"grad_norm": 50.862606048583984, |
|
"learning_rate": 6.481481481481481e-06, |
|
"loss": 0.0128, |
|
"step": 1060 |
|
}, |
|
{ |
|
"epoch": 3.1416666666666666, |
|
"grad_norm": 0.018480096012353897, |
|
"learning_rate": 6.0185185185185185e-06, |
|
"loss": 0.516, |
|
"step": 1070 |
|
}, |
|
{ |
|
"epoch": 3.15, |
|
"grad_norm": 0.021354831755161285, |
|
"learning_rate": 5.555555555555556e-06, |
|
"loss": 0.0011, |
|
"step": 1080 |
|
}, |
|
{ |
|
"epoch": 3.158333333333333, |
|
"grad_norm": 0.02588307112455368, |
|
"learning_rate": 5.092592592592592e-06, |
|
"loss": 0.0012, |
|
"step": 1090 |
|
}, |
|
{ |
|
"epoch": 3.1666666666666665, |
|
"grad_norm": 0.06310711801052094, |
|
"learning_rate": 4.6296296296296296e-06, |
|
"loss": 0.0058, |
|
"step": 1100 |
|
}, |
|
{ |
|
"epoch": 3.175, |
|
"grad_norm": 0.021003972738981247, |
|
"learning_rate": 4.166666666666667e-06, |
|
"loss": 0.0013, |
|
"step": 1110 |
|
}, |
|
{ |
|
"epoch": 3.183333333333333, |
|
"grad_norm": 0.06817090511322021, |
|
"learning_rate": 3.7037037037037037e-06, |
|
"loss": 0.0019, |
|
"step": 1120 |
|
}, |
|
{ |
|
"epoch": 3.191666666666667, |
|
"grad_norm": 0.018301932141184807, |
|
"learning_rate": 3.2407407407407406e-06, |
|
"loss": 0.0013, |
|
"step": 1130 |
|
}, |
|
{ |
|
"epoch": 3.2, |
|
"grad_norm": 0.024457111954689026, |
|
"learning_rate": 2.777777777777778e-06, |
|
"loss": 0.0013, |
|
"step": 1140 |
|
}, |
|
{ |
|
"epoch": 3.2083333333333335, |
|
"grad_norm": 0.01267792284488678, |
|
"learning_rate": 2.3148148148148148e-06, |
|
"loss": 0.0011, |
|
"step": 1150 |
|
}, |
|
{ |
|
"epoch": 3.216666666666667, |
|
"grad_norm": 0.05946047976613045, |
|
"learning_rate": 1.8518518518518519e-06, |
|
"loss": 0.001, |
|
"step": 1160 |
|
}, |
|
{ |
|
"epoch": 3.225, |
|
"grad_norm": 0.11116979271173477, |
|
"learning_rate": 1.388888888888889e-06, |
|
"loss": 0.0017, |
|
"step": 1170 |
|
}, |
|
{ |
|
"epoch": 3.2333333333333334, |
|
"grad_norm": 0.021623045206069946, |
|
"learning_rate": 9.259259259259259e-07, |
|
"loss": 0.0009, |
|
"step": 1180 |
|
}, |
|
{ |
|
"epoch": 3.2416666666666667, |
|
"grad_norm": 0.030306391417980194, |
|
"learning_rate": 4.6296296296296297e-07, |
|
"loss": 0.0017, |
|
"step": 1190 |
|
}, |
|
{ |
|
"epoch": 3.25, |
|
"grad_norm": 0.023081956431269646, |
|
"learning_rate": 0.0, |
|
"loss": 0.0015, |
|
"step": 1200 |
|
}, |
|
{ |
|
"epoch": 3.25, |
|
"eval_accuracy": 0.9571428571428572, |
|
"eval_loss": 0.26451003551483154, |
|
"eval_runtime": 20.8959, |
|
"eval_samples_per_second": 3.35, |
|
"eval_steps_per_second": 3.35, |
|
"step": 1200 |
|
}, |
|
{ |
|
"epoch": 3.25, |
|
"step": 1200, |
|
"total_flos": 1.4966303416152883e+18, |
|
"train_loss": 0.2988343037928765, |
|
"train_runtime": 822.4408, |
|
"train_samples_per_second": 1.459, |
|
"train_steps_per_second": 1.459 |
|
}, |
|
{ |
|
"epoch": 3.25, |
|
"eval_accuracy": 0.9161290322580645, |
|
"eval_loss": 0.3181881904602051, |
|
"eval_runtime": 46.4922, |
|
"eval_samples_per_second": 3.334, |
|
"eval_steps_per_second": 3.334, |
|
"step": 1200 |
|
}, |
|
{ |
|
"epoch": 3.25, |
|
"eval_accuracy": 0.9161290322580645, |
|
"eval_loss": 0.3181881606578827, |
|
"eval_runtime": 42.0131, |
|
"eval_samples_per_second": 3.689, |
|
"eval_steps_per_second": 3.689, |
|
"step": 1200 |
|
} |
|
], |
|
"logging_steps": 10, |
|
"max_steps": 1200, |
|
"num_input_tokens_seen": 0, |
|
"num_train_epochs": 9223372036854775807, |
|
"save_steps": 500, |
|
"stateful_callbacks": { |
|
"TrainerControl": { |
|
"args": { |
|
"should_epoch_stop": false, |
|
"should_evaluate": false, |
|
"should_log": false, |
|
"should_save": true, |
|
"should_training_stop": true |
|
}, |
|
"attributes": {} |
|
} |
|
}, |
|
"total_flos": 1.4966303416152883e+18, |
|
"train_batch_size": 1, |
|
"trial_name": null, |
|
"trial_params": null |
|
} |
|
|