mrs83 commited on
Commit
bbd0849
·
verified ·
1 Parent(s): 07e8cbe

Upload 2 files

Browse files
Files changed (2) hide show
  1. train_loss.png +0 -0
  2. train_loss.txt +210 -0
train_loss.png ADDED
train_loss.txt ADDED
@@ -0,0 +1,210 @@
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
1
+ INFO : aggregate_fit: received 2 results and 0 failures
2
+ INFO : Communication budget: used 8922.66 MB (+44.61 MB this round) / 200,000 MB
3
+ INFO : fit progress: (100, 0.0, {}, 1924.51894813)
4
+ INFO : configure_evaluate: no clients selected, skipping evaluation
5
+ INFO :
6
+ INFO : [SUMMARY]
7
+ INFO : Run finished 100 round(s) in 1924.52s
8
+ INFO : History (loss, centralized):
9
+ INFO : round 0: 0.0
10
+ INFO : round 1: 0.0
11
+ INFO : round 2: 0.0
12
+ INFO : round 3: 0.0
13
+ INFO : round 4: 0.0
14
+ INFO : round 5: 0.0
15
+ INFO : round 6: 0.0
16
+ INFO : round 7: 0.0
17
+ INFO : round 8: 0.0
18
+ INFO : round 9: 0.0
19
+ INFO : round 10: 0.0
20
+ INFO : round 11: 0.0
21
+ INFO : round 12: 0.0
22
+ INFO : round 13: 0.0
23
+ INFO : round 14: 0.0
24
+ INFO : round 15: 0.0
25
+ INFO : round 16: 0.0
26
+ INFO : round 17: 0.0
27
+ INFO : round 18: 0.0
28
+ INFO : round 19: 0.0
29
+ INFO : round 20: 0.0
30
+ INFO : round 21: 0.0
31
+ INFO : round 22: 0.0
32
+ INFO : round 23: 0.0
33
+ INFO : round 24: 0.0
34
+ INFO : round 25: 0.0
35
+ INFO : round 26: 0.0
36
+ INFO : round 27: 0.0
37
+ INFO : round 28: 0.0
38
+ INFO : round 29: 0.0
39
+ INFO : round 30: 0.0
40
+ INFO : round 31: 0.0
41
+ INFO : round 32: 0.0
42
+ INFO : round 33: 0.0
43
+ INFO : round 34: 0.0
44
+ INFO : round 35: 0.0
45
+ INFO : round 36: 0.0
46
+ INFO : round 37: 0.0
47
+ INFO : round 38: 0.0
48
+ INFO : round 39: 0.0
49
+ INFO : round 40: 0.0
50
+ INFO : round 41: 0.0
51
+ INFO : round 42: 0.0
52
+ INFO : round 43: 0.0
53
+ INFO : round 44: 0.0
54
+ INFO : round 45: 0.0
55
+ INFO : round 46: 0.0
56
+ INFO : round 47: 0.0
57
+ INFO : round 48: 0.0
58
+ INFO : round 49: 0.0
59
+ INFO : round 50: 0.0
60
+ INFO : round 51: 0.0
61
+ INFO : round 52: 0.0
62
+ INFO : round 53: 0.0
63
+ INFO : round 54: 0.0
64
+ INFO : round 55: 0.0
65
+ INFO : round 56: 0.0
66
+ INFO : round 57: 0.0
67
+ INFO : round 58: 0.0
68
+ INFO : round 59: 0.0
69
+ INFO : round 60: 0.0
70
+ INFO : round 61: 0.0
71
+ INFO : round 62: 0.0
72
+ INFO : round 63: 0.0
73
+ INFO : round 64: 0.0
74
+ INFO : round 65: 0.0
75
+ INFO : round 66: 0.0
76
+ INFO : round 67: 0.0
77
+ INFO : round 68: 0.0
78
+ INFO : round 69: 0.0
79
+ INFO : round 70: 0.0
80
+ INFO : round 71: 0.0
81
+ INFO : round 72: 0.0
82
+ INFO : round 73: 0.0
83
+ INFO : round 74: 0.0
84
+ INFO : round 75: 0.0
85
+ INFO : round 76: 0.0
86
+ INFO : round 77: 0.0
87
+ INFO : round 78: 0.0
88
+ INFO : round 79: 0.0
89
+ INFO : round 80: 0.0
90
+ INFO : round 81: 0.0
91
+ INFO : round 82: 0.0
92
+ INFO : round 83: 0.0
93
+ INFO : round 84: 0.0
94
+ INFO : round 85: 0.0
95
+ INFO : round 86: 0.0
96
+ INFO : round 87: 0.0
97
+ INFO : round 88: 0.0
98
+ INFO : round 89: 0.0
99
+ INFO : round 90: 0.0
100
+ INFO : round 91: 0.0
101
+ INFO : round 92: 0.0
102
+ INFO : round 93: 0.0
103
+ INFO : round 94: 0.0
104
+ INFO : round 95: 0.0
105
+ INFO : round 96: 0.0
106
+ INFO : round 97: 0.0
107
+ INFO : round 98: 0.0
108
+ INFO : round 99: 0.0
109
+ INFO : round 100: 0.0
110
+ INFO : History (metrics, distributed, fit):
111
+ INFO : {'train_loss': [(1, 0.8666237607598305),
112
+ INFO : (2, 0.7659441858530044),
113
+ INFO : (3, 0.6184230685234071),
114
+ INFO : (4, 0.6669361099600791),
115
+ INFO : (5, 0.6574282974004745),
116
+ INFO : (6, 0.6188080728054046),
117
+ INFO : (7, 0.698212053414141),
118
+ INFO : (8, 0.6704954534769058),
119
+ INFO : (9, 0.6719857075181644),
120
+ INFO : (10, 0.5803292572498321),
121
+ INFO : (11, 0.6653513446450233),
122
+ INFO : (12, 0.6682511396339621),
123
+ INFO : (13, 0.5869034856557847),
124
+ INFO : (14, 0.6413328541701802),
125
+ INFO : (15, 0.6034903496503831),
126
+ INFO : (16, 0.5691400796175002),
127
+ INFO : (17, 0.56856320053339),
128
+ INFO : (18, 0.5325095966458321),
129
+ INFO : (19, 0.5854391045868397),
130
+ INFO : (20, 0.5803224622392179),
131
+ INFO : (21, 0.6138924954320013),
132
+ INFO : (22, 0.4949299670755863),
133
+ INFO : (23, 0.599425521766053),
134
+ INFO : (24, 0.5628032824296629),
135
+ INFO : (25, 0.5470810724967875),
136
+ INFO : (26, 0.5023860760033131),
137
+ INFO : (27, 0.4814551033079624),
138
+ INFO : (28, 0.5406843568029326),
139
+ INFO : (29, 0.5253985464572908),
140
+ INFO : (30, 0.5688034117221833),
141
+ INFO : (31, 0.6007683512460575),
142
+ INFO : (32, 0.5004390403628349),
143
+ INFO : (33, 0.5604225316386992),
144
+ INFO : (34, 0.5354828611016273),
145
+ INFO : (35, 0.5272016926747881),
146
+ INFO : (36, 0.4659922257065773),
147
+ INFO : (37, 0.4855199869722128),
148
+ INFO : (38, 0.502228818833828),
149
+ INFO : (39, 0.49538065940141685),
150
+ INFO : (40, 0.5015130768383338),
151
+ INFO : (41, 0.5316912105657189),
152
+ INFO : (42, 0.4339397169649601),
153
+ INFO : (43, 0.4696544200181961),
154
+ INFO : (44, 0.47188351303339005),
155
+ INFO : (45, 0.5330374296009541),
156
+ INFO : (46, 0.41289572082459924),
157
+ INFO : (47, 0.4679573583013184),
158
+ INFO : (48, 0.43406905382871624),
159
+ INFO : (49, 0.4942469213157893),
160
+ INFO : (50, 0.46745808105915787),
161
+ INFO : (51, 0.5014242468417137),
162
+ INFO : (52, 0.524387589842081),
163
+ INFO : (53, 0.5365380252895878),
164
+ INFO : (54, 0.4083789548836649),
165
+ INFO : (55, 0.48218561202957394),
166
+ INFO : (56, 0.5412897812776947),
167
+ INFO : (57, 0.41314832968637344),
168
+ INFO : (58, 0.4767189968377351),
169
+ INFO : (59, 0.5091697014858958),
170
+ INFO : (60, 0.4521183501929045),
171
+ INFO : (61, 0.49508170895278447),
172
+ INFO : (62, 0.4450358908623457),
173
+ INFO : (63, 0.532841462552101),
174
+ INFO : (64, 0.5032347374875448),
175
+ INFO : (65, 0.5216503072352371),
176
+ INFO : (66, 0.5052695127807268),
177
+ INFO : (67, 0.4758931810009792),
178
+ INFO : (68, 0.45625448333720364),
179
+ INFO : (69, 0.43117389805177775),
180
+ INFO : (70, 0.397939318837598),
181
+ INFO : (71, 0.5108282782137393),
182
+ INFO : (72, 0.42214738596230744),
183
+ INFO : (73, 0.3825539132580161),
184
+ INFO : (74, 0.4811588532524183),
185
+ INFO : (75, 0.3861475189682096),
186
+ INFO : (76, 0.453587576886639),
187
+ INFO : (77, 0.4123858347124468),
188
+ INFO : (78, 0.5448552034795284),
189
+ INFO : (79, 0.4195936950854957),
190
+ INFO : (80, 0.378186086169444),
191
+ INFO : (81, 0.4913105083629489),
192
+ INFO : (82, 0.4806406825780868),
193
+ INFO : (83, 0.44480698090046644),
194
+ INFO : (84, 0.40860837674845063),
195
+ INFO : (85, 0.3730185746215284),
196
+ INFO : (86, 0.5154359184537599),
197
+ INFO : (87, 0.49441435249166543),
198
+ INFO : (88, 0.41056834008242377),
199
+ INFO : (89, 0.5071458677594526),
200
+ INFO : (90, 0.40758848076220605),
201
+ INFO : (91, 0.4651769663905725),
202
+ INFO : (92, 0.412308363802731),
203
+ INFO : (93, 0.4621530615724624),
204
+ INFO : (94, 0.4340328600257635),
205
+ INFO : (95, 0.5010226833706863),
206
+ INFO : (96, 0.4056927062571049),
207
+ INFO : (97, 0.5330928367784202),
208
+ INFO : (98, 0.40010714097879824),
209
+ INFO : (99, 0.5133679919899179),
210
+ INFO : (100, 0.4361450286582112)]}