{ "best_metric": 0.9571428571428572, "best_model_checkpoint": "videomae-base-finetuned-ucf101-subset/checkpoint-1200", "epoch": 3.25, "eval_steps": 500, "global_step": 1200, "is_hyper_param_search": false, "is_local_process_zero": true, "is_world_process_zero": true, "log_history": [ { "epoch": 0.008333333333333333, "grad_norm": 0.08776669204235077, "learning_rate": 4.166666666666667e-06, "loss": 0.0044, "step": 10 }, { "epoch": 0.016666666666666666, "grad_norm": 0.10609115660190582, "learning_rate": 8.333333333333334e-06, "loss": 0.0098, "step": 20 }, { "epoch": 0.025, "grad_norm": 0.039322689175605774, "learning_rate": 1.25e-05, "loss": 0.0175, "step": 30 }, { "epoch": 0.03333333333333333, "grad_norm": 1.638411521911621, "learning_rate": 1.6666666666666667e-05, "loss": 0.0178, "step": 40 }, { "epoch": 0.041666666666666664, "grad_norm": 0.029751434922218323, "learning_rate": 2.0833333333333336e-05, "loss": 0.0025, "step": 50 }, { "epoch": 0.05, "grad_norm": 284.7745666503906, "learning_rate": 2.5e-05, "loss": 1.2598, "step": 60 }, { "epoch": 0.058333333333333334, "grad_norm": 0.3732018768787384, "learning_rate": 2.916666666666667e-05, "loss": 0.0533, "step": 70 }, { "epoch": 0.06666666666666667, "grad_norm": 0.24458427727222443, "learning_rate": 3.3333333333333335e-05, "loss": 0.004, "step": 80 }, { "epoch": 0.075, "grad_norm": 0.026858733966946602, "learning_rate": 3.7500000000000003e-05, "loss": 0.5548, "step": 90 }, { "epoch": 0.08333333333333333, "grad_norm": 0.048257455229759216, "learning_rate": 4.166666666666667e-05, "loss": 0.0268, "step": 100 }, { "epoch": 0.09166666666666666, "grad_norm": 0.10955332964658737, "learning_rate": 4.5833333333333334e-05, "loss": 0.5109, "step": 110 }, { "epoch": 0.1, "grad_norm": 95.87146759033203, "learning_rate": 5e-05, "loss": 1.9592, "step": 120 }, { "epoch": 0.10833333333333334, "grad_norm": 72.32891845703125, "learning_rate": 4.9537037037037035e-05, "loss": 1.2616, "step": 130 }, { "epoch": 0.11666666666666667, "grad_norm": 0.10425172001123428, "learning_rate": 4.9074074074074075e-05, "loss": 0.8833, "step": 140 }, { "epoch": 0.125, "grad_norm": 0.05005308613181114, "learning_rate": 4.8611111111111115e-05, "loss": 0.0453, "step": 150 }, { "epoch": 0.13333333333333333, "grad_norm": 0.0716172307729721, "learning_rate": 4.814814814814815e-05, "loss": 0.5129, "step": 160 }, { "epoch": 0.14166666666666666, "grad_norm": 0.5777818560600281, "learning_rate": 4.768518518518519e-05, "loss": 1.3475, "step": 170 }, { "epoch": 0.15, "grad_norm": 0.08046792447566986, "learning_rate": 4.722222222222222e-05, "loss": 0.5816, "step": 180 }, { "epoch": 0.15833333333333333, "grad_norm": 0.09820335358381271, "learning_rate": 4.675925925925926e-05, "loss": 0.4123, "step": 190 }, { "epoch": 0.16666666666666666, "grad_norm": 6.09475564956665, "learning_rate": 4.62962962962963e-05, "loss": 0.5958, "step": 200 }, { "epoch": 0.175, "grad_norm": 0.13853392004966736, "learning_rate": 4.5833333333333334e-05, "loss": 0.7088, "step": 210 }, { "epoch": 0.18333333333333332, "grad_norm": 0.07782676070928574, "learning_rate": 4.5370370370370374e-05, "loss": 0.5622, "step": 220 }, { "epoch": 0.19166666666666668, "grad_norm": 0.12386655807495117, "learning_rate": 4.490740740740741e-05, "loss": 0.0172, "step": 230 }, { "epoch": 0.2, "grad_norm": 0.051147669553756714, "learning_rate": 4.4444444444444447e-05, "loss": 0.6997, "step": 240 }, { "epoch": 0.20833333333333334, "grad_norm": 0.05646497383713722, "learning_rate": 4.3981481481481486e-05, "loss": 1.7743, "step": 250 }, { "epoch": 0.21666666666666667, "grad_norm": 0.045062363147735596, "learning_rate": 4.351851851851852e-05, "loss": 0.4785, "step": 260 }, { "epoch": 0.225, "grad_norm": 0.08551105111837387, "learning_rate": 4.305555555555556e-05, "loss": 0.5858, "step": 270 }, { "epoch": 0.23333333333333334, "grad_norm": 4.1990180015563965, "learning_rate": 4.259259259259259e-05, "loss": 0.0122, "step": 280 }, { "epoch": 0.24166666666666667, "grad_norm": 0.053991395980119705, "learning_rate": 4.212962962962963e-05, "loss": 0.3535, "step": 290 }, { "epoch": 0.25, "grad_norm": 0.044836413115262985, "learning_rate": 4.166666666666667e-05, "loss": 0.5168, "step": 300 }, { "epoch": 0.25, "eval_accuracy": 0.7285714285714285, "eval_loss": 1.0007292032241821, "eval_runtime": 17.1894, "eval_samples_per_second": 4.072, "eval_steps_per_second": 4.072, "step": 300 }, { "epoch": 1.0083333333333333, "grad_norm": 16.938940048217773, "learning_rate": 4.1203703703703705e-05, "loss": 0.3022, "step": 310 }, { "epoch": 1.0166666666666666, "grad_norm": 1.0992032289505005, "learning_rate": 4.074074074074074e-05, "loss": 1.0882, "step": 320 }, { "epoch": 1.025, "grad_norm": 57.53459167480469, "learning_rate": 4.027777777777778e-05, "loss": 1.2905, "step": 330 }, { "epoch": 1.0333333333333334, "grad_norm": 2.6743972301483154, "learning_rate": 3.981481481481482e-05, "loss": 1.1033, "step": 340 }, { "epoch": 1.0416666666666667, "grad_norm": 0.5914178490638733, "learning_rate": 3.935185185185186e-05, "loss": 0.0169, "step": 350 }, { "epoch": 1.05, "grad_norm": 0.060226812958717346, "learning_rate": 3.888888888888889e-05, "loss": 1.5546, "step": 360 }, { "epoch": 1.0583333333333333, "grad_norm": 0.0624733604490757, "learning_rate": 3.8425925925925924e-05, "loss": 0.0465, "step": 370 }, { "epoch": 1.0666666666666667, "grad_norm": 0.07191382348537445, "learning_rate": 3.7962962962962964e-05, "loss": 0.7688, "step": 380 }, { "epoch": 1.075, "grad_norm": 0.16842015087604523, "learning_rate": 3.7500000000000003e-05, "loss": 1.1628, "step": 390 }, { "epoch": 1.0833333333333333, "grad_norm": 0.06259853392839432, "learning_rate": 3.7037037037037037e-05, "loss": 0.638, "step": 400 }, { "epoch": 1.0916666666666666, "grad_norm": 0.1838100403547287, "learning_rate": 3.6574074074074076e-05, "loss": 0.2668, "step": 410 }, { "epoch": 1.1, "grad_norm": 0.0318886935710907, "learning_rate": 3.611111111111111e-05, "loss": 0.0047, "step": 420 }, { "epoch": 1.1083333333333334, "grad_norm": 144.97027587890625, "learning_rate": 3.564814814814815e-05, "loss": 1.3268, "step": 430 }, { "epoch": 1.1166666666666667, "grad_norm": 0.037272289395332336, "learning_rate": 3.518518518518519e-05, "loss": 0.8798, "step": 440 }, { "epoch": 1.125, "grad_norm": 0.09740515798330307, "learning_rate": 3.472222222222222e-05, "loss": 0.0052, "step": 450 }, { "epoch": 1.1333333333333333, "grad_norm": 0.04809391126036644, "learning_rate": 3.425925925925926e-05, "loss": 0.2586, "step": 460 }, { "epoch": 1.1416666666666666, "grad_norm": 0.03862062841653824, "learning_rate": 3.3796296296296295e-05, "loss": 0.0116, "step": 470 }, { "epoch": 1.15, "grad_norm": 3.043313503265381, "learning_rate": 3.3333333333333335e-05, "loss": 1.3695, "step": 480 }, { "epoch": 1.1583333333333332, "grad_norm": 0.12630701065063477, "learning_rate": 3.2870370370370375e-05, "loss": 1.927, "step": 490 }, { "epoch": 1.1666666666666667, "grad_norm": 0.055767785757780075, "learning_rate": 3.240740740740741e-05, "loss": 1.1378, "step": 500 }, { "epoch": 1.175, "grad_norm": 0.10942547023296356, "learning_rate": 3.194444444444444e-05, "loss": 0.0031, "step": 510 }, { "epoch": 1.1833333333333333, "grad_norm": 0.051390085369348526, "learning_rate": 3.148148148148148e-05, "loss": 0.4721, "step": 520 }, { "epoch": 1.1916666666666667, "grad_norm": 0.06892615556716919, "learning_rate": 3.101851851851852e-05, "loss": 0.0027, "step": 530 }, { "epoch": 1.2, "grad_norm": 0.04774286970496178, "learning_rate": 3.055555555555556e-05, "loss": 0.0031, "step": 540 }, { "epoch": 1.2083333333333333, "grad_norm": 0.03237196058034897, "learning_rate": 3.0092592592592593e-05, "loss": 0.1311, "step": 550 }, { "epoch": 1.2166666666666668, "grad_norm": 0.15961219370365143, "learning_rate": 2.962962962962963e-05, "loss": 0.6527, "step": 560 }, { "epoch": 1.225, "grad_norm": 0.02654307894408703, "learning_rate": 2.916666666666667e-05, "loss": 0.0067, "step": 570 }, { "epoch": 1.2333333333333334, "grad_norm": 0.17477066814899445, "learning_rate": 2.8703703703703706e-05, "loss": 0.2515, "step": 580 }, { "epoch": 1.2416666666666667, "grad_norm": 22.36062240600586, "learning_rate": 2.824074074074074e-05, "loss": 0.0185, "step": 590 }, { "epoch": 1.25, "grad_norm": 0.024808431044220924, "learning_rate": 2.777777777777778e-05, "loss": 0.0043, "step": 600 }, { "epoch": 1.25, "eval_accuracy": 0.8, "eval_loss": 0.9436095952987671, "eval_runtime": 18.656, "eval_samples_per_second": 3.752, "eval_steps_per_second": 3.752, "step": 600 }, { "epoch": 2.0083333333333333, "grad_norm": 0.03887341916561127, "learning_rate": 2.7314814814814816e-05, "loss": 0.0026, "step": 610 }, { "epoch": 2.0166666666666666, "grad_norm": 0.08683337271213531, "learning_rate": 2.6851851851851855e-05, "loss": 0.0022, "step": 620 }, { "epoch": 2.025, "grad_norm": 10.116005897521973, "learning_rate": 2.6388888888888892e-05, "loss": 0.0079, "step": 630 }, { "epoch": 2.033333333333333, "grad_norm": 4.991815567016602, "learning_rate": 2.5925925925925925e-05, "loss": 0.011, "step": 640 }, { "epoch": 2.0416666666666665, "grad_norm": 0.0498613677918911, "learning_rate": 2.5462962962962965e-05, "loss": 0.0017, "step": 650 }, { "epoch": 2.05, "grad_norm": 0.027869325131177902, "learning_rate": 2.5e-05, "loss": 0.002, "step": 660 }, { "epoch": 2.058333333333333, "grad_norm": 0.06317030638456345, "learning_rate": 2.4537037037037038e-05, "loss": 0.002, "step": 670 }, { "epoch": 2.066666666666667, "grad_norm": 0.028183745220303535, "learning_rate": 2.4074074074074074e-05, "loss": 0.0034, "step": 680 }, { "epoch": 2.075, "grad_norm": 0.02327241562306881, "learning_rate": 2.361111111111111e-05, "loss": 0.0014, "step": 690 }, { "epoch": 2.0833333333333335, "grad_norm": 0.01833372190594673, "learning_rate": 2.314814814814815e-05, "loss": 0.0019, "step": 700 }, { "epoch": 2.091666666666667, "grad_norm": 0.01496677752584219, "learning_rate": 2.2685185185185187e-05, "loss": 0.0013, "step": 710 }, { "epoch": 2.1, "grad_norm": 0.04015077278017998, "learning_rate": 2.2222222222222223e-05, "loss": 0.6056, "step": 720 }, { "epoch": 2.1083333333333334, "grad_norm": 1.2390908002853394, "learning_rate": 2.175925925925926e-05, "loss": 0.0034, "step": 730 }, { "epoch": 2.1166666666666667, "grad_norm": 0.21794559061527252, "learning_rate": 2.1296296296296296e-05, "loss": 0.0036, "step": 740 }, { "epoch": 2.125, "grad_norm": 0.045341383665800095, "learning_rate": 2.0833333333333336e-05, "loss": 0.3484, "step": 750 }, { "epoch": 2.1333333333333333, "grad_norm": 0.018182676285505295, "learning_rate": 2.037037037037037e-05, "loss": 0.0942, "step": 760 }, { "epoch": 2.1416666666666666, "grad_norm": 0.16174434125423431, "learning_rate": 1.990740740740741e-05, "loss": 0.3284, "step": 770 }, { "epoch": 2.15, "grad_norm": 0.09966699779033661, "learning_rate": 1.9444444444444445e-05, "loss": 0.0255, "step": 780 }, { "epoch": 2.158333333333333, "grad_norm": 0.03474051132798195, "learning_rate": 1.8981481481481482e-05, "loss": 0.0014, "step": 790 }, { "epoch": 2.1666666666666665, "grad_norm": 2.9179279804229736, "learning_rate": 1.8518518518518518e-05, "loss": 0.0037, "step": 800 }, { "epoch": 2.175, "grad_norm": 0.025611592456698418, "learning_rate": 1.8055555555555555e-05, "loss": 0.0276, "step": 810 }, { "epoch": 2.183333333333333, "grad_norm": 0.014121219515800476, "learning_rate": 1.7592592592592595e-05, "loss": 0.0169, "step": 820 }, { "epoch": 2.191666666666667, "grad_norm": 0.021932382136583328, "learning_rate": 1.712962962962963e-05, "loss": 0.002, "step": 830 }, { "epoch": 2.2, "grad_norm": 0.02423691935837269, "learning_rate": 1.6666666666666667e-05, "loss": 0.0018, "step": 840 }, { "epoch": 2.2083333333333335, "grad_norm": 0.027564480900764465, "learning_rate": 1.6203703703703704e-05, "loss": 0.0014, "step": 850 }, { "epoch": 2.216666666666667, "grad_norm": 0.015944598242640495, "learning_rate": 1.574074074074074e-05, "loss": 0.0015, "step": 860 }, { "epoch": 2.225, "grad_norm": 0.032627858221530914, "learning_rate": 1.527777777777778e-05, "loss": 0.0061, "step": 870 }, { "epoch": 2.2333333333333334, "grad_norm": 0.0206381157040596, "learning_rate": 1.4814814814814815e-05, "loss": 0.3605, "step": 880 }, { "epoch": 2.2416666666666667, "grad_norm": 9.500805854797363, "learning_rate": 1.4351851851851853e-05, "loss": 0.0088, "step": 890 }, { "epoch": 2.25, "grad_norm": 0.05089261010289192, "learning_rate": 1.388888888888889e-05, "loss": 0.0014, "step": 900 }, { "epoch": 2.25, "eval_accuracy": 0.8857142857142857, "eval_loss": 0.6164959073066711, "eval_runtime": 15.5122, "eval_samples_per_second": 4.513, "eval_steps_per_second": 4.513, "step": 900 }, { "epoch": 3.0083333333333333, "grad_norm": 0.04828188940882683, "learning_rate": 1.3425925925925928e-05, "loss": 0.0131, "step": 910 }, { "epoch": 3.0166666666666666, "grad_norm": 0.014868829399347305, "learning_rate": 1.2962962962962962e-05, "loss": 0.0499, "step": 920 }, { "epoch": 3.025, "grad_norm": 0.014285319484770298, "learning_rate": 1.25e-05, "loss": 0.0014, "step": 930 }, { "epoch": 3.033333333333333, "grad_norm": 0.024037815630435944, "learning_rate": 1.2037037037037037e-05, "loss": 0.0013, "step": 940 }, { "epoch": 3.0416666666666665, "grad_norm": 0.33504313230514526, "learning_rate": 1.1574074074074075e-05, "loss": 0.3456, "step": 950 }, { "epoch": 3.05, "grad_norm": 0.018692469224333763, "learning_rate": 1.1111111111111112e-05, "loss": 0.0015, "step": 960 }, { "epoch": 3.058333333333333, "grad_norm": 0.027780327945947647, "learning_rate": 1.0648148148148148e-05, "loss": 0.0072, "step": 970 }, { "epoch": 3.066666666666667, "grad_norm": 0.06906665861606598, "learning_rate": 1.0185185185185185e-05, "loss": 0.0014, "step": 980 }, { "epoch": 3.075, "grad_norm": 0.04040588438510895, "learning_rate": 9.722222222222223e-06, "loss": 0.5188, "step": 990 }, { "epoch": 3.0833333333333335, "grad_norm": 0.023822806775569916, "learning_rate": 9.259259259259259e-06, "loss": 0.0015, "step": 1000 }, { "epoch": 3.091666666666667, "grad_norm": 0.014301207847893238, "learning_rate": 8.796296296296297e-06, "loss": 0.0013, "step": 1010 }, { "epoch": 3.1, "grad_norm": 0.02444380149245262, "learning_rate": 8.333333333333334e-06, "loss": 0.0075, "step": 1020 }, { "epoch": 3.1083333333333334, "grad_norm": 0.0468875914812088, "learning_rate": 7.87037037037037e-06, "loss": 0.0015, "step": 1030 }, { "epoch": 3.1166666666666667, "grad_norm": 0.046051811426877975, "learning_rate": 7.4074074074074075e-06, "loss": 0.0016, "step": 1040 }, { "epoch": 3.125, "grad_norm": 0.014749475754797459, "learning_rate": 6.944444444444445e-06, "loss": 0.001, "step": 1050 }, { "epoch": 3.1333333333333333, "grad_norm": 50.862606048583984, "learning_rate": 6.481481481481481e-06, "loss": 0.0128, "step": 1060 }, { "epoch": 3.1416666666666666, "grad_norm": 0.018480096012353897, "learning_rate": 6.0185185185185185e-06, "loss": 0.516, "step": 1070 }, { "epoch": 3.15, "grad_norm": 0.021354831755161285, "learning_rate": 5.555555555555556e-06, "loss": 0.0011, "step": 1080 }, { "epoch": 3.158333333333333, "grad_norm": 0.02588307112455368, "learning_rate": 5.092592592592592e-06, "loss": 0.0012, "step": 1090 }, { "epoch": 3.1666666666666665, "grad_norm": 0.06310711801052094, "learning_rate": 4.6296296296296296e-06, "loss": 0.0058, "step": 1100 }, { "epoch": 3.175, "grad_norm": 0.021003972738981247, "learning_rate": 4.166666666666667e-06, "loss": 0.0013, "step": 1110 }, { "epoch": 3.183333333333333, "grad_norm": 0.06817090511322021, "learning_rate": 3.7037037037037037e-06, "loss": 0.0019, "step": 1120 }, { "epoch": 3.191666666666667, "grad_norm": 0.018301932141184807, "learning_rate": 3.2407407407407406e-06, "loss": 0.0013, "step": 1130 }, { "epoch": 3.2, "grad_norm": 0.024457111954689026, "learning_rate": 2.777777777777778e-06, "loss": 0.0013, "step": 1140 }, { "epoch": 3.2083333333333335, "grad_norm": 0.01267792284488678, "learning_rate": 2.3148148148148148e-06, "loss": 0.0011, "step": 1150 }, { "epoch": 3.216666666666667, "grad_norm": 0.05946047976613045, "learning_rate": 1.8518518518518519e-06, "loss": 0.001, "step": 1160 }, { "epoch": 3.225, "grad_norm": 0.11116979271173477, "learning_rate": 1.388888888888889e-06, "loss": 0.0017, "step": 1170 }, { "epoch": 3.2333333333333334, "grad_norm": 0.021623045206069946, "learning_rate": 9.259259259259259e-07, "loss": 0.0009, "step": 1180 }, { "epoch": 3.2416666666666667, "grad_norm": 0.030306391417980194, "learning_rate": 4.6296296296296297e-07, "loss": 0.0017, "step": 1190 }, { "epoch": 3.25, "grad_norm": 0.023081956431269646, "learning_rate": 0.0, "loss": 0.0015, "step": 1200 }, { "epoch": 3.25, "eval_accuracy": 0.9571428571428572, "eval_loss": 0.26451003551483154, "eval_runtime": 20.8959, "eval_samples_per_second": 3.35, "eval_steps_per_second": 3.35, "step": 1200 }, { "epoch": 3.25, "step": 1200, "total_flos": 1.4966303416152883e+18, "train_loss": 0.2988343037928765, "train_runtime": 822.4408, "train_samples_per_second": 1.459, "train_steps_per_second": 1.459 }, { "epoch": 3.25, "eval_accuracy": 0.9161290322580645, "eval_loss": 0.3181881904602051, "eval_runtime": 46.4922, "eval_samples_per_second": 3.334, "eval_steps_per_second": 3.334, "step": 1200 }, { "epoch": 3.25, "eval_accuracy": 0.9161290322580645, "eval_loss": 0.3181881606578827, "eval_runtime": 42.0131, "eval_samples_per_second": 3.689, "eval_steps_per_second": 3.689, "step": 1200 } ], "logging_steps": 10, "max_steps": 1200, "num_input_tokens_seen": 0, "num_train_epochs": 9223372036854775807, "save_steps": 500, "stateful_callbacks": { "TrainerControl": { "args": { "should_epoch_stop": false, "should_evaluate": false, "should_log": false, "should_save": true, "should_training_stop": true }, "attributes": {} } }, "total_flos": 1.4966303416152883e+18, "train_batch_size": 1, "trial_name": null, "trial_params": null }