{ "best_metric": 10.320320129394531, "best_model_checkpoint": "miner_id_24/checkpoint-200", "epoch": 0.4166666666666667, "eval_steps": 50, "global_step": 200, "is_hyper_param_search": false, "is_local_process_zero": true, "is_world_process_zero": true, "log_history": [ { "epoch": 0.0020833333333333333, "grad_norm": 0.3320043087005615, "learning_rate": 1.0018000000000001e-05, "loss": 20.764, "step": 1 }, { "epoch": 0.0020833333333333333, "eval_loss": 10.377023696899414, "eval_runtime": 0.6227, "eval_samples_per_second": 326.005, "eval_steps_per_second": 81.903, "step": 1 }, { "epoch": 0.004166666666666667, "grad_norm": 0.4273834824562073, "learning_rate": 2.0036000000000003e-05, "loss": 20.7672, "step": 2 }, { "epoch": 0.00625, "grad_norm": 0.4845178425312042, "learning_rate": 3.0054e-05, "loss": 20.7803, "step": 3 }, { "epoch": 0.008333333333333333, "grad_norm": 0.47023308277130127, "learning_rate": 4.0072000000000005e-05, "loss": 20.7556, "step": 4 }, { "epoch": 0.010416666666666666, "grad_norm": 0.43146368861198425, "learning_rate": 5.009e-05, "loss": 20.7536, "step": 5 }, { "epoch": 0.0125, "grad_norm": 0.3475956916809082, "learning_rate": 6.0108e-05, "loss": 20.7392, "step": 6 }, { "epoch": 0.014583333333333334, "grad_norm": 0.319907009601593, "learning_rate": 7.0126e-05, "loss": 20.7374, "step": 7 }, { "epoch": 0.016666666666666666, "grad_norm": 0.4163200855255127, "learning_rate": 8.014400000000001e-05, "loss": 20.7395, "step": 8 }, { "epoch": 0.01875, "grad_norm": 0.37934646010398865, "learning_rate": 9.016200000000001e-05, "loss": 20.7564, "step": 9 }, { "epoch": 0.020833333333333332, "grad_norm": 0.3989284038543701, "learning_rate": 0.00010018, "loss": 20.7552, "step": 10 }, { "epoch": 0.022916666666666665, "grad_norm": 0.344099760055542, "learning_rate": 9.965273684210526e-05, "loss": 20.7507, "step": 11 }, { "epoch": 0.025, "grad_norm": 0.5086721777915955, "learning_rate": 9.912547368421053e-05, "loss": 20.7607, "step": 12 }, { "epoch": 0.027083333333333334, "grad_norm": 0.36622321605682373, "learning_rate": 9.859821052631579e-05, "loss": 20.7382, "step": 13 }, { "epoch": 0.029166666666666667, "grad_norm": 0.3692960739135742, "learning_rate": 9.807094736842106e-05, "loss": 20.7397, "step": 14 }, { "epoch": 0.03125, "grad_norm": 0.40973275899887085, "learning_rate": 9.754368421052633e-05, "loss": 20.7472, "step": 15 }, { "epoch": 0.03333333333333333, "grad_norm": 0.39177048206329346, "learning_rate": 9.701642105263158e-05, "loss": 20.745, "step": 16 }, { "epoch": 0.035416666666666666, "grad_norm": 0.41169026494026184, "learning_rate": 9.648915789473685e-05, "loss": 20.7261, "step": 17 }, { "epoch": 0.0375, "grad_norm": 0.4696851968765259, "learning_rate": 9.596189473684211e-05, "loss": 20.7465, "step": 18 }, { "epoch": 0.03958333333333333, "grad_norm": 0.6268026828765869, "learning_rate": 9.543463157894737e-05, "loss": 20.6962, "step": 19 }, { "epoch": 0.041666666666666664, "grad_norm": 0.44248536229133606, "learning_rate": 9.490736842105264e-05, "loss": 20.7307, "step": 20 }, { "epoch": 0.04375, "grad_norm": 0.5039771199226379, "learning_rate": 9.43801052631579e-05, "loss": 20.7369, "step": 21 }, { "epoch": 0.04583333333333333, "grad_norm": 0.5124672055244446, "learning_rate": 9.385284210526316e-05, "loss": 20.747, "step": 22 }, { "epoch": 0.04791666666666667, "grad_norm": 0.367107629776001, "learning_rate": 9.332557894736843e-05, "loss": 20.7022, "step": 23 }, { "epoch": 0.05, "grad_norm": 0.45262274146080017, "learning_rate": 9.279831578947369e-05, "loss": 20.7233, "step": 24 }, { "epoch": 0.052083333333333336, "grad_norm": 0.4082395136356354, "learning_rate": 9.227105263157896e-05, "loss": 20.7445, "step": 25 }, { "epoch": 0.05416666666666667, "grad_norm": 0.5291843414306641, "learning_rate": 9.174378947368421e-05, "loss": 20.7526, "step": 26 }, { "epoch": 0.05625, "grad_norm": 0.560905396938324, "learning_rate": 9.121652631578948e-05, "loss": 20.7282, "step": 27 }, { "epoch": 0.058333333333333334, "grad_norm": 0.5391399264335632, "learning_rate": 9.068926315789475e-05, "loss": 20.7282, "step": 28 }, { "epoch": 0.06041666666666667, "grad_norm": 0.6353935599327087, "learning_rate": 9.016200000000001e-05, "loss": 20.7292, "step": 29 }, { "epoch": 0.0625, "grad_norm": 0.5819910764694214, "learning_rate": 8.963473684210526e-05, "loss": 20.7381, "step": 30 }, { "epoch": 0.06458333333333334, "grad_norm": 0.6682659387588501, "learning_rate": 8.910747368421053e-05, "loss": 20.732, "step": 31 }, { "epoch": 0.06666666666666667, "grad_norm": 0.8244960904121399, "learning_rate": 8.858021052631579e-05, "loss": 20.736, "step": 32 }, { "epoch": 0.06875, "grad_norm": 0.7241726517677307, "learning_rate": 8.805294736842106e-05, "loss": 20.7416, "step": 33 }, { "epoch": 0.07083333333333333, "grad_norm": 0.6204182505607605, "learning_rate": 8.752568421052633e-05, "loss": 20.7161, "step": 34 }, { "epoch": 0.07291666666666667, "grad_norm": 0.8156778216362, "learning_rate": 8.699842105263159e-05, "loss": 20.7235, "step": 35 }, { "epoch": 0.075, "grad_norm": 0.7850509881973267, "learning_rate": 8.647115789473686e-05, "loss": 20.6887, "step": 36 }, { "epoch": 0.07708333333333334, "grad_norm": 0.6257343292236328, "learning_rate": 8.594389473684211e-05, "loss": 20.6967, "step": 37 }, { "epoch": 0.07916666666666666, "grad_norm": 0.530684769153595, "learning_rate": 8.541663157894737e-05, "loss": 20.712, "step": 38 }, { "epoch": 0.08125, "grad_norm": 0.8555363416671753, "learning_rate": 8.488936842105264e-05, "loss": 20.7033, "step": 39 }, { "epoch": 0.08333333333333333, "grad_norm": 0.8683212995529175, "learning_rate": 8.43621052631579e-05, "loss": 20.7051, "step": 40 }, { "epoch": 0.08541666666666667, "grad_norm": 0.7046140432357788, "learning_rate": 8.383484210526316e-05, "loss": 20.7065, "step": 41 }, { "epoch": 0.0875, "grad_norm": 0.6534966230392456, "learning_rate": 8.330757894736843e-05, "loss": 20.7167, "step": 42 }, { "epoch": 0.08958333333333333, "grad_norm": 0.6379891633987427, "learning_rate": 8.278031578947369e-05, "loss": 20.6602, "step": 43 }, { "epoch": 0.09166666666666666, "grad_norm": 0.7104814648628235, "learning_rate": 8.225305263157896e-05, "loss": 20.6848, "step": 44 }, { "epoch": 0.09375, "grad_norm": 0.7425481677055359, "learning_rate": 8.172578947368422e-05, "loss": 20.6741, "step": 45 }, { "epoch": 0.09583333333333334, "grad_norm": 0.8014410734176636, "learning_rate": 8.119852631578947e-05, "loss": 20.6782, "step": 46 }, { "epoch": 0.09791666666666667, "grad_norm": 0.9794498682022095, "learning_rate": 8.067126315789474e-05, "loss": 20.6851, "step": 47 }, { "epoch": 0.1, "grad_norm": 1.0179678201675415, "learning_rate": 8.014400000000001e-05, "loss": 20.6769, "step": 48 }, { "epoch": 0.10208333333333333, "grad_norm": 0.9656522274017334, "learning_rate": 7.961673684210527e-05, "loss": 20.718, "step": 49 }, { "epoch": 0.10416666666666667, "grad_norm": 0.8807477951049805, "learning_rate": 7.908947368421054e-05, "loss": 20.6957, "step": 50 }, { "epoch": 0.10416666666666667, "eval_loss": 10.334941864013672, "eval_runtime": 0.6042, "eval_samples_per_second": 335.955, "eval_steps_per_second": 84.403, "step": 50 }, { "epoch": 0.10625, "grad_norm": 0.6490017771720886, "learning_rate": 7.856221052631579e-05, "loss": 20.6673, "step": 51 }, { "epoch": 0.10833333333333334, "grad_norm": 0.630286693572998, "learning_rate": 7.803494736842106e-05, "loss": 20.6647, "step": 52 }, { "epoch": 0.11041666666666666, "grad_norm": 0.6416987180709839, "learning_rate": 7.750768421052632e-05, "loss": 20.6656, "step": 53 }, { "epoch": 0.1125, "grad_norm": 0.6955457329750061, "learning_rate": 7.698042105263157e-05, "loss": 20.6674, "step": 54 }, { "epoch": 0.11458333333333333, "grad_norm": 0.5747247338294983, "learning_rate": 7.645315789473686e-05, "loss": 20.6645, "step": 55 }, { "epoch": 0.11666666666666667, "grad_norm": 0.49230244755744934, "learning_rate": 7.592589473684211e-05, "loss": 20.6796, "step": 56 }, { "epoch": 0.11875, "grad_norm": 0.533535361289978, "learning_rate": 7.539863157894737e-05, "loss": 20.6683, "step": 57 }, { "epoch": 0.12083333333333333, "grad_norm": 0.4789166748523712, "learning_rate": 7.487136842105264e-05, "loss": 20.6364, "step": 58 }, { "epoch": 0.12291666666666666, "grad_norm": 0.6608495712280273, "learning_rate": 7.43441052631579e-05, "loss": 20.6344, "step": 59 }, { "epoch": 0.125, "grad_norm": 0.4521493911743164, "learning_rate": 7.381684210526315e-05, "loss": 20.6454, "step": 60 }, { "epoch": 0.12708333333333333, "grad_norm": 0.7000594139099121, "learning_rate": 7.328957894736844e-05, "loss": 20.6656, "step": 61 }, { "epoch": 0.12916666666666668, "grad_norm": 0.5299615859985352, "learning_rate": 7.276231578947369e-05, "loss": 20.6475, "step": 62 }, { "epoch": 0.13125, "grad_norm": 0.6820955872535706, "learning_rate": 7.223505263157895e-05, "loss": 20.6736, "step": 63 }, { "epoch": 0.13333333333333333, "grad_norm": 0.6451751589775085, "learning_rate": 7.170778947368422e-05, "loss": 20.6764, "step": 64 }, { "epoch": 0.13541666666666666, "grad_norm": 0.5937023758888245, "learning_rate": 7.118052631578947e-05, "loss": 20.6626, "step": 65 }, { "epoch": 0.1375, "grad_norm": 0.546812891960144, "learning_rate": 7.065326315789474e-05, "loss": 20.634, "step": 66 }, { "epoch": 0.13958333333333334, "grad_norm": 0.5355703830718994, "learning_rate": 7.0126e-05, "loss": 20.6018, "step": 67 }, { "epoch": 0.14166666666666666, "grad_norm": 0.6867150664329529, "learning_rate": 6.959873684210527e-05, "loss": 20.6088, "step": 68 }, { "epoch": 0.14375, "grad_norm": 0.7034195065498352, "learning_rate": 6.907147368421054e-05, "loss": 20.6284, "step": 69 }, { "epoch": 0.14583333333333334, "grad_norm": 0.6769217252731323, "learning_rate": 6.85442105263158e-05, "loss": 20.6629, "step": 70 }, { "epoch": 0.14791666666666667, "grad_norm": 0.5449651479721069, "learning_rate": 6.801694736842105e-05, "loss": 20.6418, "step": 71 }, { "epoch": 0.15, "grad_norm": 0.5450152158737183, "learning_rate": 6.748968421052632e-05, "loss": 20.6659, "step": 72 }, { "epoch": 0.15208333333333332, "grad_norm": 0.3956001400947571, "learning_rate": 6.696242105263158e-05, "loss": 20.6734, "step": 73 }, { "epoch": 0.15416666666666667, "grad_norm": 0.4960653483867645, "learning_rate": 6.643515789473685e-05, "loss": 20.6529, "step": 74 }, { "epoch": 0.15625, "grad_norm": 0.40670597553253174, "learning_rate": 6.590789473684212e-05, "loss": 20.6723, "step": 75 }, { "epoch": 0.15833333333333333, "grad_norm": 0.40662482380867004, "learning_rate": 6.538063157894737e-05, "loss": 20.659, "step": 76 }, { "epoch": 0.16041666666666668, "grad_norm": 0.4496363699436188, "learning_rate": 6.485336842105264e-05, "loss": 20.6409, "step": 77 }, { "epoch": 0.1625, "grad_norm": 0.5069528222084045, "learning_rate": 6.43261052631579e-05, "loss": 20.6488, "step": 78 }, { "epoch": 0.16458333333333333, "grad_norm": 0.6517645716667175, "learning_rate": 6.379884210526315e-05, "loss": 20.6339, "step": 79 }, { "epoch": 0.16666666666666666, "grad_norm": 0.5706809163093567, "learning_rate": 6.327157894736842e-05, "loss": 20.645, "step": 80 }, { "epoch": 0.16875, "grad_norm": 0.3819289207458496, "learning_rate": 6.274431578947368e-05, "loss": 20.638, "step": 81 }, { "epoch": 0.17083333333333334, "grad_norm": 0.6231030821800232, "learning_rate": 6.221705263157895e-05, "loss": 20.6617, "step": 82 }, { "epoch": 0.17291666666666666, "grad_norm": 0.6574021577835083, "learning_rate": 6.168978947368422e-05, "loss": 20.6723, "step": 83 }, { "epoch": 0.175, "grad_norm": 0.5121121406555176, "learning_rate": 6.116252631578948e-05, "loss": 20.6442, "step": 84 }, { "epoch": 0.17708333333333334, "grad_norm": 0.5453215837478638, "learning_rate": 6.063526315789474e-05, "loss": 20.6276, "step": 85 }, { "epoch": 0.17916666666666667, "grad_norm": 0.5595671534538269, "learning_rate": 6.0108e-05, "loss": 20.6373, "step": 86 }, { "epoch": 0.18125, "grad_norm": 0.4219697117805481, "learning_rate": 5.9580736842105264e-05, "loss": 20.6531, "step": 87 }, { "epoch": 0.18333333333333332, "grad_norm": 0.4789664149284363, "learning_rate": 5.905347368421053e-05, "loss": 20.6505, "step": 88 }, { "epoch": 0.18541666666666667, "grad_norm": 0.5621258616447449, "learning_rate": 5.85262105263158e-05, "loss": 20.6274, "step": 89 }, { "epoch": 0.1875, "grad_norm": 1.0729533433914185, "learning_rate": 5.799894736842106e-05, "loss": 20.6596, "step": 90 }, { "epoch": 0.18958333333333333, "grad_norm": 0.4790107309818268, "learning_rate": 5.747168421052632e-05, "loss": 20.665, "step": 91 }, { "epoch": 0.19166666666666668, "grad_norm": 0.5467313528060913, "learning_rate": 5.694442105263158e-05, "loss": 20.6566, "step": 92 }, { "epoch": 0.19375, "grad_norm": 0.44753512740135193, "learning_rate": 5.641715789473684e-05, "loss": 20.6383, "step": 93 }, { "epoch": 0.19583333333333333, "grad_norm": 0.5728275775909424, "learning_rate": 5.5889894736842104e-05, "loss": 20.6573, "step": 94 }, { "epoch": 0.19791666666666666, "grad_norm": 0.42919114232063293, "learning_rate": 5.5362631578947374e-05, "loss": 20.6165, "step": 95 }, { "epoch": 0.2, "grad_norm": 0.5049256086349487, "learning_rate": 5.483536842105264e-05, "loss": 20.637, "step": 96 }, { "epoch": 0.20208333333333334, "grad_norm": 0.5718994140625, "learning_rate": 5.43081052631579e-05, "loss": 20.6372, "step": 97 }, { "epoch": 0.20416666666666666, "grad_norm": 0.7180155515670776, "learning_rate": 5.378084210526316e-05, "loss": 20.6303, "step": 98 }, { "epoch": 0.20625, "grad_norm": 0.7693624496459961, "learning_rate": 5.3253578947368426e-05, "loss": 20.6645, "step": 99 }, { "epoch": 0.20833333333333334, "grad_norm": 0.6251090168952942, "learning_rate": 5.272631578947368e-05, "loss": 20.6677, "step": 100 }, { "epoch": 0.20833333333333334, "eval_loss": 10.322431564331055, "eval_runtime": 0.62, "eval_samples_per_second": 327.428, "eval_steps_per_second": 82.26, "step": 100 }, { "epoch": 0.21041666666666667, "grad_norm": 0.41412174701690674, "learning_rate": 5.2199052631578945e-05, "loss": 20.6484, "step": 101 }, { "epoch": 0.2125, "grad_norm": 0.3862389326095581, "learning_rate": 5.167178947368422e-05, "loss": 20.6609, "step": 102 }, { "epoch": 0.21458333333333332, "grad_norm": 0.46969911456108093, "learning_rate": 5.114452631578948e-05, "loss": 20.6252, "step": 103 }, { "epoch": 0.21666666666666667, "grad_norm": 0.35917848348617554, "learning_rate": 5.061726315789474e-05, "loss": 20.6513, "step": 104 }, { "epoch": 0.21875, "grad_norm": 0.37505069375038147, "learning_rate": 5.009e-05, "loss": 20.6402, "step": 105 }, { "epoch": 0.22083333333333333, "grad_norm": 0.3769151270389557, "learning_rate": 4.9562736842105266e-05, "loss": 20.6339, "step": 106 }, { "epoch": 0.22291666666666668, "grad_norm": 0.29799339175224304, "learning_rate": 4.903547368421053e-05, "loss": 20.6358, "step": 107 }, { "epoch": 0.225, "grad_norm": 0.3330136239528656, "learning_rate": 4.850821052631579e-05, "loss": 20.6227, "step": 108 }, { "epoch": 0.22708333333333333, "grad_norm": 0.3470037579536438, "learning_rate": 4.7980947368421055e-05, "loss": 20.6434, "step": 109 }, { "epoch": 0.22916666666666666, "grad_norm": 0.4420476257801056, "learning_rate": 4.745368421052632e-05, "loss": 20.6355, "step": 110 }, { "epoch": 0.23125, "grad_norm": 0.40836626291275024, "learning_rate": 4.692642105263158e-05, "loss": 20.6292, "step": 111 }, { "epoch": 0.23333333333333334, "grad_norm": 0.47735828161239624, "learning_rate": 4.6399157894736844e-05, "loss": 20.6173, "step": 112 }, { "epoch": 0.23541666666666666, "grad_norm": 0.4261724054813385, "learning_rate": 4.5871894736842107e-05, "loss": 20.64, "step": 113 }, { "epoch": 0.2375, "grad_norm": 0.543081521987915, "learning_rate": 4.5344631578947376e-05, "loss": 20.6489, "step": 114 }, { "epoch": 0.23958333333333334, "grad_norm": 0.4491605758666992, "learning_rate": 4.481736842105263e-05, "loss": 20.6622, "step": 115 }, { "epoch": 0.24166666666666667, "grad_norm": 0.5000092387199402, "learning_rate": 4.4290105263157895e-05, "loss": 20.6254, "step": 116 }, { "epoch": 0.24375, "grad_norm": 0.590541422367096, "learning_rate": 4.3762842105263165e-05, "loss": 20.6337, "step": 117 }, { "epoch": 0.24583333333333332, "grad_norm": 0.5222097039222717, "learning_rate": 4.323557894736843e-05, "loss": 20.5998, "step": 118 }, { "epoch": 0.24791666666666667, "grad_norm": 0.48261940479278564, "learning_rate": 4.2708315789473684e-05, "loss": 20.6307, "step": 119 }, { "epoch": 0.25, "grad_norm": 0.5766420960426331, "learning_rate": 4.218105263157895e-05, "loss": 20.6471, "step": 120 }, { "epoch": 0.2520833333333333, "grad_norm": 0.6727250218391418, "learning_rate": 4.1653789473684217e-05, "loss": 20.6957, "step": 121 }, { "epoch": 0.25416666666666665, "grad_norm": 0.47250896692276, "learning_rate": 4.112652631578948e-05, "loss": 20.6686, "step": 122 }, { "epoch": 0.25625, "grad_norm": 0.4538274109363556, "learning_rate": 4.0599263157894736e-05, "loss": 20.642, "step": 123 }, { "epoch": 0.25833333333333336, "grad_norm": 0.4601709842681885, "learning_rate": 4.0072000000000005e-05, "loss": 20.6345, "step": 124 }, { "epoch": 0.2604166666666667, "grad_norm": 0.4610661566257477, "learning_rate": 3.954473684210527e-05, "loss": 20.6621, "step": 125 }, { "epoch": 0.2625, "grad_norm": 0.48208266496658325, "learning_rate": 3.901747368421053e-05, "loss": 20.6365, "step": 126 }, { "epoch": 0.26458333333333334, "grad_norm": 0.46704065799713135, "learning_rate": 3.849021052631579e-05, "loss": 20.6328, "step": 127 }, { "epoch": 0.26666666666666666, "grad_norm": 0.46572041511535645, "learning_rate": 3.796294736842106e-05, "loss": 20.636, "step": 128 }, { "epoch": 0.26875, "grad_norm": 0.48403823375701904, "learning_rate": 3.743568421052632e-05, "loss": 20.6381, "step": 129 }, { "epoch": 0.2708333333333333, "grad_norm": 0.3730640411376953, "learning_rate": 3.6908421052631576e-05, "loss": 20.6431, "step": 130 }, { "epoch": 0.27291666666666664, "grad_norm": 0.46503594517707825, "learning_rate": 3.6381157894736846e-05, "loss": 20.6645, "step": 131 }, { "epoch": 0.275, "grad_norm": 0.73885577917099, "learning_rate": 3.585389473684211e-05, "loss": 20.6266, "step": 132 }, { "epoch": 0.27708333333333335, "grad_norm": 0.5339804887771606, "learning_rate": 3.532663157894737e-05, "loss": 20.6432, "step": 133 }, { "epoch": 0.2791666666666667, "grad_norm": 0.6266263127326965, "learning_rate": 3.4799368421052634e-05, "loss": 20.6218, "step": 134 }, { "epoch": 0.28125, "grad_norm": 0.4900444447994232, "learning_rate": 3.42721052631579e-05, "loss": 20.6454, "step": 135 }, { "epoch": 0.2833333333333333, "grad_norm": 0.46520623564720154, "learning_rate": 3.374484210526316e-05, "loss": 20.669, "step": 136 }, { "epoch": 0.28541666666666665, "grad_norm": 0.642386794090271, "learning_rate": 3.321757894736842e-05, "loss": 20.638, "step": 137 }, { "epoch": 0.2875, "grad_norm": 0.760684072971344, "learning_rate": 3.2690315789473686e-05, "loss": 20.6565, "step": 138 }, { "epoch": 0.28958333333333336, "grad_norm": 0.526068389415741, "learning_rate": 3.216305263157895e-05, "loss": 20.6865, "step": 139 }, { "epoch": 0.2916666666666667, "grad_norm": 0.6930481791496277, "learning_rate": 3.163578947368421e-05, "loss": 20.6348, "step": 140 }, { "epoch": 0.29375, "grad_norm": 0.5339356660842896, "learning_rate": 3.1108526315789475e-05, "loss": 20.6561, "step": 141 }, { "epoch": 0.29583333333333334, "grad_norm": 0.424015611410141, "learning_rate": 3.058126315789474e-05, "loss": 20.6676, "step": 142 }, { "epoch": 0.29791666666666666, "grad_norm": 0.4242256283760071, "learning_rate": 3.0054e-05, "loss": 20.6337, "step": 143 }, { "epoch": 0.3, "grad_norm": 0.4056195318698883, "learning_rate": 2.9526736842105263e-05, "loss": 20.6621, "step": 144 }, { "epoch": 0.3020833333333333, "grad_norm": 0.6854588985443115, "learning_rate": 2.899947368421053e-05, "loss": 20.606, "step": 145 }, { "epoch": 0.30416666666666664, "grad_norm": 0.5682480931282043, "learning_rate": 2.847221052631579e-05, "loss": 20.6446, "step": 146 }, { "epoch": 0.30625, "grad_norm": 0.4918515682220459, "learning_rate": 2.7944947368421052e-05, "loss": 20.6395, "step": 147 }, { "epoch": 0.30833333333333335, "grad_norm": 0.5506953001022339, "learning_rate": 2.741768421052632e-05, "loss": 20.6451, "step": 148 }, { "epoch": 0.3104166666666667, "grad_norm": 0.8347042202949524, "learning_rate": 2.689042105263158e-05, "loss": 20.6535, "step": 149 }, { "epoch": 0.3125, "grad_norm": 0.597395658493042, "learning_rate": 2.636315789473684e-05, "loss": 20.6558, "step": 150 }, { "epoch": 0.3125, "eval_loss": 10.320969581604004, "eval_runtime": 0.6166, "eval_samples_per_second": 329.202, "eval_steps_per_second": 82.706, "step": 150 }, { "epoch": 0.3145833333333333, "grad_norm": 0.37281185388565063, "learning_rate": 2.583589473684211e-05, "loss": 20.6498, "step": 151 }, { "epoch": 0.31666666666666665, "grad_norm": 0.48406609892845154, "learning_rate": 2.530863157894737e-05, "loss": 20.6228, "step": 152 }, { "epoch": 0.31875, "grad_norm": 0.39599233865737915, "learning_rate": 2.4781368421052633e-05, "loss": 20.638, "step": 153 }, { "epoch": 0.32083333333333336, "grad_norm": 0.3863723874092102, "learning_rate": 2.4254105263157896e-05, "loss": 20.6314, "step": 154 }, { "epoch": 0.3229166666666667, "grad_norm": 0.45764878392219543, "learning_rate": 2.372684210526316e-05, "loss": 20.6385, "step": 155 }, { "epoch": 0.325, "grad_norm": 0.2955838441848755, "learning_rate": 2.3199578947368422e-05, "loss": 20.6307, "step": 156 }, { "epoch": 0.32708333333333334, "grad_norm": 0.29116860032081604, "learning_rate": 2.2672315789473688e-05, "loss": 20.6354, "step": 157 }, { "epoch": 0.32916666666666666, "grad_norm": 0.5557569861412048, "learning_rate": 2.2145052631578948e-05, "loss": 20.6324, "step": 158 }, { "epoch": 0.33125, "grad_norm": 0.4483456313610077, "learning_rate": 2.1617789473684214e-05, "loss": 20.6235, "step": 159 }, { "epoch": 0.3333333333333333, "grad_norm": 0.36201009154319763, "learning_rate": 2.1090526315789473e-05, "loss": 20.6236, "step": 160 }, { "epoch": 0.33541666666666664, "grad_norm": 0.5224501490592957, "learning_rate": 2.056326315789474e-05, "loss": 20.6368, "step": 161 }, { "epoch": 0.3375, "grad_norm": 0.4168667495250702, "learning_rate": 2.0036000000000003e-05, "loss": 20.6212, "step": 162 }, { "epoch": 0.33958333333333335, "grad_norm": 0.422823041677475, "learning_rate": 1.9508736842105266e-05, "loss": 20.6554, "step": 163 }, { "epoch": 0.3416666666666667, "grad_norm": 0.4180959165096283, "learning_rate": 1.898147368421053e-05, "loss": 20.632, "step": 164 }, { "epoch": 0.34375, "grad_norm": 0.527528703212738, "learning_rate": 1.8454210526315788e-05, "loss": 20.6571, "step": 165 }, { "epoch": 0.3458333333333333, "grad_norm": 0.6775944828987122, "learning_rate": 1.7926947368421054e-05, "loss": 20.6503, "step": 166 }, { "epoch": 0.34791666666666665, "grad_norm": 0.45938971638679504, "learning_rate": 1.7399684210526317e-05, "loss": 20.6307, "step": 167 }, { "epoch": 0.35, "grad_norm": 0.581780731678009, "learning_rate": 1.687242105263158e-05, "loss": 20.5861, "step": 168 }, { "epoch": 0.35208333333333336, "grad_norm": 0.46029457449913025, "learning_rate": 1.6345157894736843e-05, "loss": 20.6182, "step": 169 }, { "epoch": 0.3541666666666667, "grad_norm": 0.4315298795700073, "learning_rate": 1.5817894736842106e-05, "loss": 20.617, "step": 170 }, { "epoch": 0.35625, "grad_norm": 0.5391767621040344, "learning_rate": 1.529063157894737e-05, "loss": 20.6657, "step": 171 }, { "epoch": 0.35833333333333334, "grad_norm": 0.7053831815719604, "learning_rate": 1.4763368421052632e-05, "loss": 20.6452, "step": 172 }, { "epoch": 0.36041666666666666, "grad_norm": 0.3821829557418823, "learning_rate": 1.4236105263157895e-05, "loss": 20.6239, "step": 173 }, { "epoch": 0.3625, "grad_norm": 0.41374513506889343, "learning_rate": 1.370884210526316e-05, "loss": 20.6571, "step": 174 }, { "epoch": 0.3645833333333333, "grad_norm": 0.4170868694782257, "learning_rate": 1.318157894736842e-05, "loss": 20.6462, "step": 175 }, { "epoch": 0.36666666666666664, "grad_norm": 0.338599294424057, "learning_rate": 1.2654315789473685e-05, "loss": 20.6363, "step": 176 }, { "epoch": 0.36875, "grad_norm": 0.5105868577957153, "learning_rate": 1.2127052631578948e-05, "loss": 20.6538, "step": 177 }, { "epoch": 0.37083333333333335, "grad_norm": 0.4912939965724945, "learning_rate": 1.1599789473684211e-05, "loss": 20.6367, "step": 178 }, { "epoch": 0.3729166666666667, "grad_norm": 0.4326838552951813, "learning_rate": 1.1072526315789474e-05, "loss": 20.6502, "step": 179 }, { "epoch": 0.375, "grad_norm": 0.4481593668460846, "learning_rate": 1.0545263157894737e-05, "loss": 20.6533, "step": 180 }, { "epoch": 0.3770833333333333, "grad_norm": 0.5464130640029907, "learning_rate": 1.0018000000000001e-05, "loss": 20.6477, "step": 181 }, { "epoch": 0.37916666666666665, "grad_norm": 0.42457976937294006, "learning_rate": 9.490736842105264e-06, "loss": 20.6598, "step": 182 }, { "epoch": 0.38125, "grad_norm": 0.4240236282348633, "learning_rate": 8.963473684210527e-06, "loss": 20.6248, "step": 183 }, { "epoch": 0.38333333333333336, "grad_norm": 0.5708866715431213, "learning_rate": 8.43621052631579e-06, "loss": 20.6368, "step": 184 }, { "epoch": 0.3854166666666667, "grad_norm": 0.5419739484786987, "learning_rate": 7.908947368421053e-06, "loss": 20.6538, "step": 185 }, { "epoch": 0.3875, "grad_norm": 0.5176281332969666, "learning_rate": 7.381684210526316e-06, "loss": 20.6526, "step": 186 }, { "epoch": 0.38958333333333334, "grad_norm": 0.5326713919639587, "learning_rate": 6.85442105263158e-06, "loss": 20.6238, "step": 187 }, { "epoch": 0.39166666666666666, "grad_norm": 0.7119190096855164, "learning_rate": 6.3271578947368425e-06, "loss": 20.6531, "step": 188 }, { "epoch": 0.39375, "grad_norm": 0.5899550318717957, "learning_rate": 5.7998947368421054e-06, "loss": 20.6368, "step": 189 }, { "epoch": 0.3958333333333333, "grad_norm": 0.5252934694290161, "learning_rate": 5.272631578947368e-06, "loss": 20.6664, "step": 190 }, { "epoch": 0.39791666666666664, "grad_norm": 0.358653724193573, "learning_rate": 4.745368421052632e-06, "loss": 20.6579, "step": 191 }, { "epoch": 0.4, "grad_norm": 0.43110373616218567, "learning_rate": 4.218105263157895e-06, "loss": 20.6374, "step": 192 }, { "epoch": 0.40208333333333335, "grad_norm": 0.45655491948127747, "learning_rate": 3.690842105263158e-06, "loss": 20.6361, "step": 193 }, { "epoch": 0.4041666666666667, "grad_norm": 0.30297571420669556, "learning_rate": 3.1635789473684213e-06, "loss": 20.6386, "step": 194 }, { "epoch": 0.40625, "grad_norm": 0.3377545177936554, "learning_rate": 2.636315789473684e-06, "loss": 20.6289, "step": 195 }, { "epoch": 0.4083333333333333, "grad_norm": 0.5056354999542236, "learning_rate": 2.1090526315789475e-06, "loss": 20.6388, "step": 196 }, { "epoch": 0.41041666666666665, "grad_norm": 0.6402460932731628, "learning_rate": 1.5817894736842106e-06, "loss": 20.6102, "step": 197 }, { "epoch": 0.4125, "grad_norm": 0.6596386432647705, "learning_rate": 1.0545263157894738e-06, "loss": 20.6331, "step": 198 }, { "epoch": 0.41458333333333336, "grad_norm": 0.6789427399635315, "learning_rate": 5.272631578947369e-07, "loss": 20.6559, "step": 199 }, { "epoch": 0.4166666666666667, "grad_norm": 0.6088905334472656, "learning_rate": 0.0, "loss": 20.6439, "step": 200 }, { "epoch": 0.4166666666666667, "eval_loss": 10.320320129394531, "eval_runtime": 0.6112, "eval_samples_per_second": 332.15, "eval_steps_per_second": 83.447, "step": 200 } ], "logging_steps": 1, "max_steps": 200, "num_input_tokens_seen": 0, "num_train_epochs": 1, "save_steps": 50, "stateful_callbacks": { "EarlyStoppingCallback": { "args": { "early_stopping_patience": 5, "early_stopping_threshold": 0.0 }, "attributes": { "early_stopping_patience_counter": 0 } }, "TrainerControl": { "args": { "should_epoch_stop": false, "should_evaluate": false, "should_log": false, "should_save": true, "should_training_stop": true }, "attributes": {} } }, "total_flos": 14821833572352.0, "train_batch_size": 4, "trial_name": null, "trial_params": null }