{ "best_metric": 10.320969581604004, "best_model_checkpoint": "miner_id_24/checkpoint-150", "epoch": 0.3125, "eval_steps": 50, "global_step": 150, "is_hyper_param_search": false, "is_local_process_zero": true, "is_world_process_zero": true, "log_history": [ { "epoch": 0.0020833333333333333, "grad_norm": 0.3320043087005615, "learning_rate": 1.0018000000000001e-05, "loss": 20.764, "step": 1 }, { "epoch": 0.0020833333333333333, "eval_loss": 10.377023696899414, "eval_runtime": 0.6227, "eval_samples_per_second": 326.005, "eval_steps_per_second": 81.903, "step": 1 }, { "epoch": 0.004166666666666667, "grad_norm": 0.4273834824562073, "learning_rate": 2.0036000000000003e-05, "loss": 20.7672, "step": 2 }, { "epoch": 0.00625, "grad_norm": 0.4845178425312042, "learning_rate": 3.0054e-05, "loss": 20.7803, "step": 3 }, { "epoch": 0.008333333333333333, "grad_norm": 0.47023308277130127, "learning_rate": 4.0072000000000005e-05, "loss": 20.7556, "step": 4 }, { "epoch": 0.010416666666666666, "grad_norm": 0.43146368861198425, "learning_rate": 5.009e-05, "loss": 20.7536, "step": 5 }, { "epoch": 0.0125, "grad_norm": 0.3475956916809082, "learning_rate": 6.0108e-05, "loss": 20.7392, "step": 6 }, { "epoch": 0.014583333333333334, "grad_norm": 0.319907009601593, "learning_rate": 7.0126e-05, "loss": 20.7374, "step": 7 }, { "epoch": 0.016666666666666666, "grad_norm": 0.4163200855255127, "learning_rate": 8.014400000000001e-05, "loss": 20.7395, "step": 8 }, { "epoch": 0.01875, "grad_norm": 0.37934646010398865, "learning_rate": 9.016200000000001e-05, "loss": 20.7564, "step": 9 }, { "epoch": 0.020833333333333332, "grad_norm": 0.3989284038543701, "learning_rate": 0.00010018, "loss": 20.7552, "step": 10 }, { "epoch": 0.022916666666666665, "grad_norm": 0.344099760055542, "learning_rate": 9.965273684210526e-05, "loss": 20.7507, "step": 11 }, { "epoch": 0.025, "grad_norm": 0.5086721777915955, "learning_rate": 9.912547368421053e-05, "loss": 20.7607, "step": 12 }, { "epoch": 0.027083333333333334, "grad_norm": 0.36622321605682373, "learning_rate": 9.859821052631579e-05, "loss": 20.7382, "step": 13 }, { "epoch": 0.029166666666666667, "grad_norm": 0.3692960739135742, "learning_rate": 9.807094736842106e-05, "loss": 20.7397, "step": 14 }, { "epoch": 0.03125, "grad_norm": 0.40973275899887085, "learning_rate": 9.754368421052633e-05, "loss": 20.7472, "step": 15 }, { "epoch": 0.03333333333333333, "grad_norm": 0.39177048206329346, "learning_rate": 9.701642105263158e-05, "loss": 20.745, "step": 16 }, { "epoch": 0.035416666666666666, "grad_norm": 0.41169026494026184, "learning_rate": 9.648915789473685e-05, "loss": 20.7261, "step": 17 }, { "epoch": 0.0375, "grad_norm": 0.4696851968765259, "learning_rate": 9.596189473684211e-05, "loss": 20.7465, "step": 18 }, { "epoch": 0.03958333333333333, "grad_norm": 0.6268026828765869, "learning_rate": 9.543463157894737e-05, "loss": 20.6962, "step": 19 }, { "epoch": 0.041666666666666664, "grad_norm": 0.44248536229133606, "learning_rate": 9.490736842105264e-05, "loss": 20.7307, "step": 20 }, { "epoch": 0.04375, "grad_norm": 0.5039771199226379, "learning_rate": 9.43801052631579e-05, "loss": 20.7369, "step": 21 }, { "epoch": 0.04583333333333333, "grad_norm": 0.5124672055244446, "learning_rate": 9.385284210526316e-05, "loss": 20.747, "step": 22 }, { "epoch": 0.04791666666666667, "grad_norm": 0.367107629776001, "learning_rate": 9.332557894736843e-05, "loss": 20.7022, "step": 23 }, { "epoch": 0.05, "grad_norm": 0.45262274146080017, "learning_rate": 9.279831578947369e-05, "loss": 20.7233, "step": 24 }, { "epoch": 0.052083333333333336, "grad_norm": 0.4082395136356354, "learning_rate": 9.227105263157896e-05, "loss": 20.7445, "step": 25 }, { "epoch": 0.05416666666666667, "grad_norm": 0.5291843414306641, "learning_rate": 9.174378947368421e-05, "loss": 20.7526, "step": 26 }, { "epoch": 0.05625, "grad_norm": 0.560905396938324, "learning_rate": 9.121652631578948e-05, "loss": 20.7282, "step": 27 }, { "epoch": 0.058333333333333334, "grad_norm": 0.5391399264335632, "learning_rate": 9.068926315789475e-05, "loss": 20.7282, "step": 28 }, { "epoch": 0.06041666666666667, "grad_norm": 0.6353935599327087, "learning_rate": 9.016200000000001e-05, "loss": 20.7292, "step": 29 }, { "epoch": 0.0625, "grad_norm": 0.5819910764694214, "learning_rate": 8.963473684210526e-05, "loss": 20.7381, "step": 30 }, { "epoch": 0.06458333333333334, "grad_norm": 0.6682659387588501, "learning_rate": 8.910747368421053e-05, "loss": 20.732, "step": 31 }, { "epoch": 0.06666666666666667, "grad_norm": 0.8244960904121399, "learning_rate": 8.858021052631579e-05, "loss": 20.736, "step": 32 }, { "epoch": 0.06875, "grad_norm": 0.7241726517677307, "learning_rate": 8.805294736842106e-05, "loss": 20.7416, "step": 33 }, { "epoch": 0.07083333333333333, "grad_norm": 0.6204182505607605, "learning_rate": 8.752568421052633e-05, "loss": 20.7161, "step": 34 }, { "epoch": 0.07291666666666667, "grad_norm": 0.8156778216362, "learning_rate": 8.699842105263159e-05, "loss": 20.7235, "step": 35 }, { "epoch": 0.075, "grad_norm": 0.7850509881973267, "learning_rate": 8.647115789473686e-05, "loss": 20.6887, "step": 36 }, { "epoch": 0.07708333333333334, "grad_norm": 0.6257343292236328, "learning_rate": 8.594389473684211e-05, "loss": 20.6967, "step": 37 }, { "epoch": 0.07916666666666666, "grad_norm": 0.530684769153595, "learning_rate": 8.541663157894737e-05, "loss": 20.712, "step": 38 }, { "epoch": 0.08125, "grad_norm": 0.8555363416671753, "learning_rate": 8.488936842105264e-05, "loss": 20.7033, "step": 39 }, { "epoch": 0.08333333333333333, "grad_norm": 0.8683212995529175, "learning_rate": 8.43621052631579e-05, "loss": 20.7051, "step": 40 }, { "epoch": 0.08541666666666667, "grad_norm": 0.7046140432357788, "learning_rate": 8.383484210526316e-05, "loss": 20.7065, "step": 41 }, { "epoch": 0.0875, "grad_norm": 0.6534966230392456, "learning_rate": 8.330757894736843e-05, "loss": 20.7167, "step": 42 }, { "epoch": 0.08958333333333333, "grad_norm": 0.6379891633987427, "learning_rate": 8.278031578947369e-05, "loss": 20.6602, "step": 43 }, { "epoch": 0.09166666666666666, "grad_norm": 0.7104814648628235, "learning_rate": 8.225305263157896e-05, "loss": 20.6848, "step": 44 }, { "epoch": 0.09375, "grad_norm": 0.7425481677055359, "learning_rate": 8.172578947368422e-05, "loss": 20.6741, "step": 45 }, { "epoch": 0.09583333333333334, "grad_norm": 0.8014410734176636, "learning_rate": 8.119852631578947e-05, "loss": 20.6782, "step": 46 }, { "epoch": 0.09791666666666667, "grad_norm": 0.9794498682022095, "learning_rate": 8.067126315789474e-05, "loss": 20.6851, "step": 47 }, { "epoch": 0.1, "grad_norm": 1.0179678201675415, "learning_rate": 8.014400000000001e-05, "loss": 20.6769, "step": 48 }, { "epoch": 0.10208333333333333, "grad_norm": 0.9656522274017334, "learning_rate": 7.961673684210527e-05, "loss": 20.718, "step": 49 }, { "epoch": 0.10416666666666667, "grad_norm": 0.8807477951049805, "learning_rate": 7.908947368421054e-05, "loss": 20.6957, "step": 50 }, { "epoch": 0.10416666666666667, "eval_loss": 10.334941864013672, "eval_runtime": 0.6042, "eval_samples_per_second": 335.955, "eval_steps_per_second": 84.403, "step": 50 }, { "epoch": 0.10625, "grad_norm": 0.6490017771720886, "learning_rate": 7.856221052631579e-05, "loss": 20.6673, "step": 51 }, { "epoch": 0.10833333333333334, "grad_norm": 0.630286693572998, "learning_rate": 7.803494736842106e-05, "loss": 20.6647, "step": 52 }, { "epoch": 0.11041666666666666, "grad_norm": 0.6416987180709839, "learning_rate": 7.750768421052632e-05, "loss": 20.6656, "step": 53 }, { "epoch": 0.1125, "grad_norm": 0.6955457329750061, "learning_rate": 7.698042105263157e-05, "loss": 20.6674, "step": 54 }, { "epoch": 0.11458333333333333, "grad_norm": 0.5747247338294983, "learning_rate": 7.645315789473686e-05, "loss": 20.6645, "step": 55 }, { "epoch": 0.11666666666666667, "grad_norm": 0.49230244755744934, "learning_rate": 7.592589473684211e-05, "loss": 20.6796, "step": 56 }, { "epoch": 0.11875, "grad_norm": 0.533535361289978, "learning_rate": 7.539863157894737e-05, "loss": 20.6683, "step": 57 }, { "epoch": 0.12083333333333333, "grad_norm": 0.4789166748523712, "learning_rate": 7.487136842105264e-05, "loss": 20.6364, "step": 58 }, { "epoch": 0.12291666666666666, "grad_norm": 0.6608495712280273, "learning_rate": 7.43441052631579e-05, "loss": 20.6344, "step": 59 }, { "epoch": 0.125, "grad_norm": 0.4521493911743164, "learning_rate": 7.381684210526315e-05, "loss": 20.6454, "step": 60 }, { "epoch": 0.12708333333333333, "grad_norm": 0.7000594139099121, "learning_rate": 7.328957894736844e-05, "loss": 20.6656, "step": 61 }, { "epoch": 0.12916666666666668, "grad_norm": 0.5299615859985352, "learning_rate": 7.276231578947369e-05, "loss": 20.6475, "step": 62 }, { "epoch": 0.13125, "grad_norm": 0.6820955872535706, "learning_rate": 7.223505263157895e-05, "loss": 20.6736, "step": 63 }, { "epoch": 0.13333333333333333, "grad_norm": 0.6451751589775085, "learning_rate": 7.170778947368422e-05, "loss": 20.6764, "step": 64 }, { "epoch": 0.13541666666666666, "grad_norm": 0.5937023758888245, "learning_rate": 7.118052631578947e-05, "loss": 20.6626, "step": 65 }, { "epoch": 0.1375, "grad_norm": 0.546812891960144, "learning_rate": 7.065326315789474e-05, "loss": 20.634, "step": 66 }, { "epoch": 0.13958333333333334, "grad_norm": 0.5355703830718994, "learning_rate": 7.0126e-05, "loss": 20.6018, "step": 67 }, { "epoch": 0.14166666666666666, "grad_norm": 0.6867150664329529, "learning_rate": 6.959873684210527e-05, "loss": 20.6088, "step": 68 }, { "epoch": 0.14375, "grad_norm": 0.7034195065498352, "learning_rate": 6.907147368421054e-05, "loss": 20.6284, "step": 69 }, { "epoch": 0.14583333333333334, "grad_norm": 0.6769217252731323, "learning_rate": 6.85442105263158e-05, "loss": 20.6629, "step": 70 }, { "epoch": 0.14791666666666667, "grad_norm": 0.5449651479721069, "learning_rate": 6.801694736842105e-05, "loss": 20.6418, "step": 71 }, { "epoch": 0.15, "grad_norm": 0.5450152158737183, "learning_rate": 6.748968421052632e-05, "loss": 20.6659, "step": 72 }, { "epoch": 0.15208333333333332, "grad_norm": 0.3956001400947571, "learning_rate": 6.696242105263158e-05, "loss": 20.6734, "step": 73 }, { "epoch": 0.15416666666666667, "grad_norm": 0.4960653483867645, "learning_rate": 6.643515789473685e-05, "loss": 20.6529, "step": 74 }, { "epoch": 0.15625, "grad_norm": 0.40670597553253174, "learning_rate": 6.590789473684212e-05, "loss": 20.6723, "step": 75 }, { "epoch": 0.15833333333333333, "grad_norm": 0.40662482380867004, "learning_rate": 6.538063157894737e-05, "loss": 20.659, "step": 76 }, { "epoch": 0.16041666666666668, "grad_norm": 0.4496363699436188, "learning_rate": 6.485336842105264e-05, "loss": 20.6409, "step": 77 }, { "epoch": 0.1625, "grad_norm": 0.5069528222084045, "learning_rate": 6.43261052631579e-05, "loss": 20.6488, "step": 78 }, { "epoch": 0.16458333333333333, "grad_norm": 0.6517645716667175, "learning_rate": 6.379884210526315e-05, "loss": 20.6339, "step": 79 }, { "epoch": 0.16666666666666666, "grad_norm": 0.5706809163093567, "learning_rate": 6.327157894736842e-05, "loss": 20.645, "step": 80 }, { "epoch": 0.16875, "grad_norm": 0.3819289207458496, "learning_rate": 6.274431578947368e-05, "loss": 20.638, "step": 81 }, { "epoch": 0.17083333333333334, "grad_norm": 0.6231030821800232, "learning_rate": 6.221705263157895e-05, "loss": 20.6617, "step": 82 }, { "epoch": 0.17291666666666666, "grad_norm": 0.6574021577835083, "learning_rate": 6.168978947368422e-05, "loss": 20.6723, "step": 83 }, { "epoch": 0.175, "grad_norm": 0.5121121406555176, "learning_rate": 6.116252631578948e-05, "loss": 20.6442, "step": 84 }, { "epoch": 0.17708333333333334, "grad_norm": 0.5453215837478638, "learning_rate": 6.063526315789474e-05, "loss": 20.6276, "step": 85 }, { "epoch": 0.17916666666666667, "grad_norm": 0.5595671534538269, "learning_rate": 6.0108e-05, "loss": 20.6373, "step": 86 }, { "epoch": 0.18125, "grad_norm": 0.4219697117805481, "learning_rate": 5.9580736842105264e-05, "loss": 20.6531, "step": 87 }, { "epoch": 0.18333333333333332, "grad_norm": 0.4789664149284363, "learning_rate": 5.905347368421053e-05, "loss": 20.6505, "step": 88 }, { "epoch": 0.18541666666666667, "grad_norm": 0.5621258616447449, "learning_rate": 5.85262105263158e-05, "loss": 20.6274, "step": 89 }, { "epoch": 0.1875, "grad_norm": 1.0729533433914185, "learning_rate": 5.799894736842106e-05, "loss": 20.6596, "step": 90 }, { "epoch": 0.18958333333333333, "grad_norm": 0.4790107309818268, "learning_rate": 5.747168421052632e-05, "loss": 20.665, "step": 91 }, { "epoch": 0.19166666666666668, "grad_norm": 0.5467313528060913, "learning_rate": 5.694442105263158e-05, "loss": 20.6566, "step": 92 }, { "epoch": 0.19375, "grad_norm": 0.44753512740135193, "learning_rate": 5.641715789473684e-05, "loss": 20.6383, "step": 93 }, { "epoch": 0.19583333333333333, "grad_norm": 0.5728275775909424, "learning_rate": 5.5889894736842104e-05, "loss": 20.6573, "step": 94 }, { "epoch": 0.19791666666666666, "grad_norm": 0.42919114232063293, "learning_rate": 5.5362631578947374e-05, "loss": 20.6165, "step": 95 }, { "epoch": 0.2, "grad_norm": 0.5049256086349487, "learning_rate": 5.483536842105264e-05, "loss": 20.637, "step": 96 }, { "epoch": 0.20208333333333334, "grad_norm": 0.5718994140625, "learning_rate": 5.43081052631579e-05, "loss": 20.6372, "step": 97 }, { "epoch": 0.20416666666666666, "grad_norm": 0.7180155515670776, "learning_rate": 5.378084210526316e-05, "loss": 20.6303, "step": 98 }, { "epoch": 0.20625, "grad_norm": 0.7693624496459961, "learning_rate": 5.3253578947368426e-05, "loss": 20.6645, "step": 99 }, { "epoch": 0.20833333333333334, "grad_norm": 0.6251090168952942, "learning_rate": 5.272631578947368e-05, "loss": 20.6677, "step": 100 }, { "epoch": 0.20833333333333334, "eval_loss": 10.322431564331055, "eval_runtime": 0.62, "eval_samples_per_second": 327.428, "eval_steps_per_second": 82.26, "step": 100 }, { "epoch": 0.21041666666666667, "grad_norm": 0.41412174701690674, "learning_rate": 5.2199052631578945e-05, "loss": 20.6484, "step": 101 }, { "epoch": 0.2125, "grad_norm": 0.3862389326095581, "learning_rate": 5.167178947368422e-05, "loss": 20.6609, "step": 102 }, { "epoch": 0.21458333333333332, "grad_norm": 0.46969911456108093, "learning_rate": 5.114452631578948e-05, "loss": 20.6252, "step": 103 }, { "epoch": 0.21666666666666667, "grad_norm": 0.35917848348617554, "learning_rate": 5.061726315789474e-05, "loss": 20.6513, "step": 104 }, { "epoch": 0.21875, "grad_norm": 0.37505069375038147, "learning_rate": 5.009e-05, "loss": 20.6402, "step": 105 }, { "epoch": 0.22083333333333333, "grad_norm": 0.3769151270389557, "learning_rate": 4.9562736842105266e-05, "loss": 20.6339, "step": 106 }, { "epoch": 0.22291666666666668, "grad_norm": 0.29799339175224304, "learning_rate": 4.903547368421053e-05, "loss": 20.6358, "step": 107 }, { "epoch": 0.225, "grad_norm": 0.3330136239528656, "learning_rate": 4.850821052631579e-05, "loss": 20.6227, "step": 108 }, { "epoch": 0.22708333333333333, "grad_norm": 0.3470037579536438, "learning_rate": 4.7980947368421055e-05, "loss": 20.6434, "step": 109 }, { "epoch": 0.22916666666666666, "grad_norm": 0.4420476257801056, "learning_rate": 4.745368421052632e-05, "loss": 20.6355, "step": 110 }, { "epoch": 0.23125, "grad_norm": 0.40836626291275024, "learning_rate": 4.692642105263158e-05, "loss": 20.6292, "step": 111 }, { "epoch": 0.23333333333333334, "grad_norm": 0.47735828161239624, "learning_rate": 4.6399157894736844e-05, "loss": 20.6173, "step": 112 }, { "epoch": 0.23541666666666666, "grad_norm": 0.4261724054813385, "learning_rate": 4.5871894736842107e-05, "loss": 20.64, "step": 113 }, { "epoch": 0.2375, "grad_norm": 0.543081521987915, "learning_rate": 4.5344631578947376e-05, "loss": 20.6489, "step": 114 }, { "epoch": 0.23958333333333334, "grad_norm": 0.4491605758666992, "learning_rate": 4.481736842105263e-05, "loss": 20.6622, "step": 115 }, { "epoch": 0.24166666666666667, "grad_norm": 0.5000092387199402, "learning_rate": 4.4290105263157895e-05, "loss": 20.6254, "step": 116 }, { "epoch": 0.24375, "grad_norm": 0.590541422367096, "learning_rate": 4.3762842105263165e-05, "loss": 20.6337, "step": 117 }, { "epoch": 0.24583333333333332, "grad_norm": 0.5222097039222717, "learning_rate": 4.323557894736843e-05, "loss": 20.5998, "step": 118 }, { "epoch": 0.24791666666666667, "grad_norm": 0.48261940479278564, "learning_rate": 4.2708315789473684e-05, "loss": 20.6307, "step": 119 }, { "epoch": 0.25, "grad_norm": 0.5766420960426331, "learning_rate": 4.218105263157895e-05, "loss": 20.6471, "step": 120 }, { "epoch": 0.2520833333333333, "grad_norm": 0.6727250218391418, "learning_rate": 4.1653789473684217e-05, "loss": 20.6957, "step": 121 }, { "epoch": 0.25416666666666665, "grad_norm": 0.47250896692276, "learning_rate": 4.112652631578948e-05, "loss": 20.6686, "step": 122 }, { "epoch": 0.25625, "grad_norm": 0.4538274109363556, "learning_rate": 4.0599263157894736e-05, "loss": 20.642, "step": 123 }, { "epoch": 0.25833333333333336, "grad_norm": 0.4601709842681885, "learning_rate": 4.0072000000000005e-05, "loss": 20.6345, "step": 124 }, { "epoch": 0.2604166666666667, "grad_norm": 0.4610661566257477, "learning_rate": 3.954473684210527e-05, "loss": 20.6621, "step": 125 }, { "epoch": 0.2625, "grad_norm": 0.48208266496658325, "learning_rate": 3.901747368421053e-05, "loss": 20.6365, "step": 126 }, { "epoch": 0.26458333333333334, "grad_norm": 0.46704065799713135, "learning_rate": 3.849021052631579e-05, "loss": 20.6328, "step": 127 }, { "epoch": 0.26666666666666666, "grad_norm": 0.46572041511535645, "learning_rate": 3.796294736842106e-05, "loss": 20.636, "step": 128 }, { "epoch": 0.26875, "grad_norm": 0.48403823375701904, "learning_rate": 3.743568421052632e-05, "loss": 20.6381, "step": 129 }, { "epoch": 0.2708333333333333, "grad_norm": 0.3730640411376953, "learning_rate": 3.6908421052631576e-05, "loss": 20.6431, "step": 130 }, { "epoch": 0.27291666666666664, "grad_norm": 0.46503594517707825, "learning_rate": 3.6381157894736846e-05, "loss": 20.6645, "step": 131 }, { "epoch": 0.275, "grad_norm": 0.73885577917099, "learning_rate": 3.585389473684211e-05, "loss": 20.6266, "step": 132 }, { "epoch": 0.27708333333333335, "grad_norm": 0.5339804887771606, "learning_rate": 3.532663157894737e-05, "loss": 20.6432, "step": 133 }, { "epoch": 0.2791666666666667, "grad_norm": 0.6266263127326965, "learning_rate": 3.4799368421052634e-05, "loss": 20.6218, "step": 134 }, { "epoch": 0.28125, "grad_norm": 0.4900444447994232, "learning_rate": 3.42721052631579e-05, "loss": 20.6454, "step": 135 }, { "epoch": 0.2833333333333333, "grad_norm": 0.46520623564720154, "learning_rate": 3.374484210526316e-05, "loss": 20.669, "step": 136 }, { "epoch": 0.28541666666666665, "grad_norm": 0.642386794090271, "learning_rate": 3.321757894736842e-05, "loss": 20.638, "step": 137 }, { "epoch": 0.2875, "grad_norm": 0.760684072971344, "learning_rate": 3.2690315789473686e-05, "loss": 20.6565, "step": 138 }, { "epoch": 0.28958333333333336, "grad_norm": 0.526068389415741, "learning_rate": 3.216305263157895e-05, "loss": 20.6865, "step": 139 }, { "epoch": 0.2916666666666667, "grad_norm": 0.6930481791496277, "learning_rate": 3.163578947368421e-05, "loss": 20.6348, "step": 140 }, { "epoch": 0.29375, "grad_norm": 0.5339356660842896, "learning_rate": 3.1108526315789475e-05, "loss": 20.6561, "step": 141 }, { "epoch": 0.29583333333333334, "grad_norm": 0.424015611410141, "learning_rate": 3.058126315789474e-05, "loss": 20.6676, "step": 142 }, { "epoch": 0.29791666666666666, "grad_norm": 0.4242256283760071, "learning_rate": 3.0054e-05, "loss": 20.6337, "step": 143 }, { "epoch": 0.3, "grad_norm": 0.4056195318698883, "learning_rate": 2.9526736842105263e-05, "loss": 20.6621, "step": 144 }, { "epoch": 0.3020833333333333, "grad_norm": 0.6854588985443115, "learning_rate": 2.899947368421053e-05, "loss": 20.606, "step": 145 }, { "epoch": 0.30416666666666664, "grad_norm": 0.5682480931282043, "learning_rate": 2.847221052631579e-05, "loss": 20.6446, "step": 146 }, { "epoch": 0.30625, "grad_norm": 0.4918515682220459, "learning_rate": 2.7944947368421052e-05, "loss": 20.6395, "step": 147 }, { "epoch": 0.30833333333333335, "grad_norm": 0.5506953001022339, "learning_rate": 2.741768421052632e-05, "loss": 20.6451, "step": 148 }, { "epoch": 0.3104166666666667, "grad_norm": 0.8347042202949524, "learning_rate": 2.689042105263158e-05, "loss": 20.6535, "step": 149 }, { "epoch": 0.3125, "grad_norm": 0.597395658493042, "learning_rate": 2.636315789473684e-05, "loss": 20.6558, "step": 150 }, { "epoch": 0.3125, "eval_loss": 10.320969581604004, "eval_runtime": 0.6166, "eval_samples_per_second": 329.202, "eval_steps_per_second": 82.706, "step": 150 } ], "logging_steps": 1, "max_steps": 200, "num_input_tokens_seen": 0, "num_train_epochs": 1, "save_steps": 50, "stateful_callbacks": { "EarlyStoppingCallback": { "args": { "early_stopping_patience": 5, "early_stopping_threshold": 0.0 }, "attributes": { "early_stopping_patience_counter": 0 } }, "TrainerControl": { "args": { "should_epoch_stop": false, "should_evaluate": false, "should_log": false, "should_save": true, "should_training_stop": false }, "attributes": {} } }, "total_flos": 11143226327040.0, "train_batch_size": 4, "trial_name": null, "trial_params": null }