jt5d commited on
Commit
007bec8
·
1 Parent(s): 68a1440

Training in progress epoch 7

Browse files
Files changed (2) hide show
  1. README.md +31 -30
  2. tf_model.h5 +1 -1
README.md CHANGED
@@ -16,22 +16,22 @@ probably proofread and complete it, then remove this comment. -->
16
 
17
  This model is a fine-tuned version of [nvidia/mit-b0](https://huggingface.co/nvidia/mit-b0) on an unknown dataset.
18
  It achieves the following results on the evaluation set:
19
- - Train Loss: 4.1900
20
- - Validation Loss: 4.3712
21
- - Validation Mean Iou: 0.0118
22
- - Validation Mean Accuracy: 0.0405
23
- - Validation Overall Accuracy: 0.1005
24
- - Validation Accuracy Wall: 0.0432
25
- - Validation Accuracy Building: 0.1648
26
- - Validation Accuracy Sky: 0.0772
27
- - Validation Accuracy Floor: 0.3395
28
- - Validation Accuracy Tree: 0.1458
29
  - Validation Accuracy Ceiling: 0.0
30
- - Validation Accuracy Road: 0.0940
31
  - Validation Accuracy Bed : 0.0
32
  - Validation Accuracy Windowpane: 0.0
33
  - Validation Accuracy Grass: 0.0
34
- - Validation Accuracy Cabinet: 0.0041
35
  - Validation Accuracy Sidewalk: 0.0
36
  - Validation Accuracy Person: 0.0
37
  - Validation Accuracy Earth: nan
@@ -48,7 +48,7 @@ It achieves the following results on the evaluation set:
48
  - Validation Accuracy Shelf: nan
49
  - Validation Accuracy House: nan
50
  - Validation Accuracy Sea: nan
51
- - Validation Accuracy Mirror: 0.0
52
  - Validation Accuracy Rug: nan
53
  - Validation Accuracy Field: 0.0
54
  - Validation Accuracy Armchair: nan
@@ -122,7 +122,7 @@ It achieves the following results on the evaluation set:
122
  - Validation Accuracy Bottle: nan
123
  - Validation Accuracy Buffet: 0.0
124
  - Validation Accuracy Poster: 0.0
125
- - Validation Accuracy Stage: 0.9153
126
  - Validation Accuracy Van: nan
127
  - Validation Accuracy Ship: nan
128
  - Validation Accuracy Fountain: nan
@@ -171,17 +171,17 @@ It achieves the following results on the evaluation set:
171
  - Validation Accuracy Glass: nan
172
  - Validation Accuracy Clock: nan
173
  - Validation Accuracy Flag: nan
174
- - Validation Iou Wall: 0.0409
175
- - Validation Iou Building: 0.1215
176
- - Validation Iou Sky: 0.0450
177
- - Validation Iou Floor: 0.2255
178
- - Validation Iou Tree: 0.0695
179
  - Validation Iou Ceiling: 0.0
180
- - Validation Iou Road: 0.0557
181
  - Validation Iou Bed : 0.0
182
  - Validation Iou Windowpane: 0.0
183
  - Validation Iou Grass: 0.0
184
- - Validation Iou Cabinet: 0.0034
185
  - Validation Iou Sidewalk: 0.0
186
  - Validation Iou Person: 0.0
187
  - Validation Iou Earth: 0.0
@@ -198,7 +198,7 @@ It achieves the following results on the evaluation set:
198
  - Validation Iou Shelf: nan
199
  - Validation Iou House: nan
200
  - Validation Iou Sea: nan
201
- - Validation Iou Mirror: 0.0
202
  - Validation Iou Rug: nan
203
  - Validation Iou Field: 0.0
204
  - Validation Iou Armchair: nan
@@ -210,12 +210,12 @@ It achieves the following results on the evaluation set:
210
  - Validation Iou Lamp: nan
211
  - Validation Iou Bathtub: 0.0
212
  - Validation Iou Railing: nan
213
- - Validation Iou Cushion: 0.0
214
- - Validation Iou Base: nan
215
- - Validation Iou Box: nan
216
  - Validation Iou Column: nan
217
  - Validation Iou Signboard: nan
218
- - Validation Iou Chest of drawers: 0.0
219
  - Validation Iou Counter: nan
220
  - Validation Iou Sand: 0.0
221
  - Validation Iou Sink: 0.0
@@ -243,7 +243,7 @@ It achieves the following results on the evaluation set:
243
  - Validation Iou Bench: nan
244
  - Validation Iou Countertop: nan
245
  - Validation Iou Stove: nan
246
- - Validation Iou Palm: nan
247
  - Validation Iou Kitchen island: nan
248
  - Validation Iou Computer: nan
249
  - Validation Iou Swivel chair: nan
@@ -272,7 +272,7 @@ It achieves the following results on the evaluation set:
272
  - Validation Iou Bottle: nan
273
  - Validation Iou Buffet: 0.0
274
  - Validation Iou Poster: 0.0
275
- - Validation Iou Stage: 0.0053
276
  - Validation Iou Van: nan
277
  - Validation Iou Ship: nan
278
  - Validation Iou Fountain: nan
@@ -294,7 +294,7 @@ It achieves the following results on the evaluation set:
294
  - Validation Iou Food: nan
295
  - Validation Iou Step: nan
296
  - Validation Iou Tank: nan
297
- - Validation Iou Trade name: nan
298
  - Validation Iou Microwave: 0.0
299
  - Validation Iou Pot: 0.0
300
  - Validation Iou Animal: 0.0
@@ -321,7 +321,7 @@ It achieves the following results on the evaluation set:
321
  - Validation Iou Glass: nan
322
  - Validation Iou Clock: nan
323
  - Validation Iou Flag: nan
324
- - Epoch: 6
325
 
326
  ## Model description
327
 
@@ -354,6 +354,7 @@ The following hyperparameters were used during training:
354
  | 4.4554 | 4.3959 | 0.0128 | 0.0361 | 0.1840 | 0.0486 | 0.5661 | 0.0003 | 0.3992 | 0.5279 | 0.0 | 0.0378 | 0.0 | 0.0 | 0.0 | 0.0 | 0.0 | 0.0 | nan | nan | 0.0 | 0.0 | 0.0 | 0.0 | 0.0 | 0.0 | 0.0 | nan | 0.0 | nan | nan | nan | 0.0076 | nan | 0.0 | nan | 0.0 | nan | nan | nan | 0.0 | nan | 0.0 | nan | nan | nan | nan | nan | nan | nan | nan | 0.0 | 0.0 | nan | nan | 0.0 | nan | nan | nan | 0.0 | nan | nan | nan | 0.0 | nan | nan | nan | nan | nan | nan | 0.0 | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | 0.0 | nan | nan | 0.0 | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | 0.0 | 0.0 | 0.0 | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | 0.0 | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | 0.0 | 0.0 | 0.0 | nan | nan | nan | nan | nan | nan | nan | nan | 0.0 | 0.0 | nan | 0.0 | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | 0.0444 | 0.1959 | 0.0003 | 0.2494 | 0.1168 | 0.0 | 0.0285 | 0.0 | 0.0 | 0.0 | 0.0 | 0.0 | 0.0 | nan | 0.0 | 0.0 | 0.0 | 0.0 | 0.0 | 0.0 | 0.0 | 0.0 | nan | 0.0 | nan | nan | nan | 0.0071 | nan | 0.0 | nan | 0.0 | nan | nan | nan | 0.0 | nan | 0.0 | nan | 0.0 | nan | nan | nan | nan | nan | nan | 0.0 | 0.0 | nan | nan | 0.0 | nan | nan | nan | 0.0 | nan | nan | nan | 0.0 | nan | nan | nan | nan | nan | nan | 0.0 | nan | nan | nan | nan | nan | nan | 0.0 | nan | nan | nan | nan | nan | nan | 0.0 | nan | nan | nan | 0.0 | nan | nan | 0.0 | nan | nan | nan | 0.0 | nan | nan | nan | nan | nan | nan | nan | nan | 0.0 | 0.0 | 0.0 | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | 0.0 | nan | nan | 0.0 | nan | nan | nan | nan | nan | nan | nan | 0.0 | 0.0 | 0.0 | nan | nan | nan | nan | nan | nan | nan | nan | 0.0 | 0.0 | nan | 0.0 | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | 4 |
355
  | 4.4641 | 4.4976 | 0.0150 | 0.0431 | 0.1782 | 0.2148 | 0.0650 | 0.7553 | 0.2804 | 0.4260 | 0.0 | 0.1507 | 0.0 | 0.0 | 0.0 | 0.0 | 0.0 | 0.0 | nan | nan | 0.0 | 0.0020 | 0.0 | 0.0 | 0.0 | 0.0 | 0.0 | nan | 0.0 | nan | nan | nan | 0.0 | nan | 0.0 | nan | 0.0 | nan | nan | nan | 0.0 | nan | 0.0 | nan | nan | nan | nan | nan | nan | nan | nan | 0.0 | 0.0 | nan | nan | 0.0 | nan | nan | nan | 0.0 | nan | nan | nan | 0.0 | nan | nan | nan | nan | nan | nan | 0.0 | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | 0.0 | nan | nan | 0.0 | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | 0.0 | 0.0 | 0.0 | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | 0.0 | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | 0.0 | 0.0 | 0.0 | nan | nan | nan | nan | nan | nan | nan | nan | 0.0 | 0.0 | nan | 0.0 | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | 0.0956 | 0.0575 | 0.1491 | 0.1966 | 0.1131 | 0.0 | 0.0783 | 0.0 | 0.0 | 0.0 | 0.0 | 0.0 | 0.0 | nan | 0.0 | 0.0 | 0.0017 | 0.0 | 0.0 | 0.0 | 0.0 | 0.0 | nan | 0.0 | nan | nan | nan | 0.0 | nan | 0.0 | nan | 0.0 | nan | nan | nan | 0.0 | nan | 0.0 | nan | nan | nan | nan | nan | nan | nan | nan | 0.0 | 0.0 | nan | nan | 0.0 | nan | nan | nan | 0.0 | nan | nan | nan | 0.0 | nan | nan | nan | nan | nan | nan | 0.0 | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | 0.0 | nan | nan | 0.0 | nan | nan | nan | 0.0 | nan | nan | nan | nan | nan | nan | nan | nan | 0.0 | 0.0 | 0.0 | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | 0.0 | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | 0.0 | 0.0 | 0.0 | nan | nan | nan | nan | nan | nan | nan | nan | 0.0 | 0.0 | nan | 0.0 | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | 5 |
356
  | 4.1900 | 4.3712 | 0.0118 | 0.0405 | 0.1005 | 0.0432 | 0.1648 | 0.0772 | 0.3395 | 0.1458 | 0.0 | 0.0940 | 0.0 | 0.0 | 0.0 | 0.0041 | 0.0 | 0.0 | nan | nan | 0.0 | 0.0 | 0.0 | 0.0 | 0.0 | 0.0 | 0.0 | nan | 0.0 | nan | nan | nan | 0.0 | nan | 0.0 | nan | 0.0 | nan | nan | nan | 0.0 | nan | 0.0 | nan | nan | nan | nan | nan | nan | nan | nan | 0.0 | 0.0 | nan | nan | 0.0 | nan | nan | nan | 0.0 | nan | nan | nan | 0.0 | nan | nan | nan | nan | nan | nan | 0.0 | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | 0.0 | nan | nan | 0.0 | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | 0.0 | 0.0 | 0.9153 | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | 0.0 | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | 0.0 | 0.0 | 0.0 | nan | nan | nan | nan | nan | nan | nan | nan | 0.0 | 0.0 | nan | 0.0 | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | 0.0409 | 0.1215 | 0.0450 | 0.2255 | 0.0695 | 0.0 | 0.0557 | 0.0 | 0.0 | 0.0 | 0.0034 | 0.0 | 0.0 | 0.0 | 0.0 | 0.0 | 0.0 | 0.0 | 0.0 | 0.0 | 0.0 | 0.0 | nan | 0.0 | nan | nan | nan | 0.0 | nan | 0.0 | nan | 0.0 | nan | nan | nan | 0.0 | nan | 0.0 | nan | 0.0 | nan | nan | nan | nan | 0.0 | nan | 0.0 | 0.0 | nan | nan | 0.0 | nan | nan | nan | 0.0 | nan | nan | nan | 0.0 | nan | nan | nan | nan | nan | nan | 0.0 | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | 0.0 | nan | nan | 0.0 | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | 0.0 | 0.0 | 0.0053 | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | 0.0 | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | 0.0 | 0.0 | 0.0 | nan | nan | nan | nan | nan | nan | nan | nan | 0.0 | 0.0 | nan | 0.0 | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | 6 |
 
357
 
358
 
359
  ### Framework versions
 
16
 
17
  This model is a fine-tuned version of [nvidia/mit-b0](https://huggingface.co/nvidia/mit-b0) on an unknown dataset.
18
  It achieves the following results on the evaluation set:
19
+ - Train Loss: 4.1639
20
+ - Validation Loss: 4.3635
21
+ - Validation Mean Iou: 0.0135
22
+ - Validation Mean Accuracy: 0.0438
23
+ - Validation Overall Accuracy: 0.1740
24
+ - Validation Accuracy Wall: 0.0644
25
+ - Validation Accuracy Building: 0.0848
26
+ - Validation Accuracy Sky: 0.5881
27
+ - Validation Accuracy Floor: 0.3914
28
+ - Validation Accuracy Tree: 0.6953
29
  - Validation Accuracy Ceiling: 0.0
30
+ - Validation Accuracy Road: 0.1022
31
  - Validation Accuracy Bed : 0.0
32
  - Validation Accuracy Windowpane: 0.0
33
  - Validation Accuracy Grass: 0.0
34
+ - Validation Accuracy Cabinet: 0.0
35
  - Validation Accuracy Sidewalk: 0.0
36
  - Validation Accuracy Person: 0.0
37
  - Validation Accuracy Earth: nan
 
48
  - Validation Accuracy Shelf: nan
49
  - Validation Accuracy House: nan
50
  - Validation Accuracy Sea: nan
51
+ - Validation Accuracy Mirror: 0.0016
52
  - Validation Accuracy Rug: nan
53
  - Validation Accuracy Field: 0.0
54
  - Validation Accuracy Armchair: nan
 
122
  - Validation Accuracy Bottle: nan
123
  - Validation Accuracy Buffet: 0.0
124
  - Validation Accuracy Poster: 0.0
125
+ - Validation Accuracy Stage: 0.0
126
  - Validation Accuracy Van: nan
127
  - Validation Accuracy Ship: nan
128
  - Validation Accuracy Fountain: nan
 
171
  - Validation Accuracy Glass: nan
172
  - Validation Accuracy Clock: nan
173
  - Validation Accuracy Flag: nan
174
+ - Validation Iou Wall: 0.0534
175
+ - Validation Iou Building: 0.0734
176
+ - Validation Iou Sky: 0.1416
177
+ - Validation Iou Floor: 0.2374
178
+ - Validation Iou Tree: 0.1057
179
  - Validation Iou Ceiling: 0.0
180
+ - Validation Iou Road: 0.0600
181
  - Validation Iou Bed : 0.0
182
  - Validation Iou Windowpane: 0.0
183
  - Validation Iou Grass: 0.0
184
+ - Validation Iou Cabinet: 0.0
185
  - Validation Iou Sidewalk: 0.0
186
  - Validation Iou Person: 0.0
187
  - Validation Iou Earth: 0.0
 
198
  - Validation Iou Shelf: nan
199
  - Validation Iou House: nan
200
  - Validation Iou Sea: nan
201
+ - Validation Iou Mirror: 0.0016
202
  - Validation Iou Rug: nan
203
  - Validation Iou Field: 0.0
204
  - Validation Iou Armchair: nan
 
210
  - Validation Iou Lamp: nan
211
  - Validation Iou Bathtub: 0.0
212
  - Validation Iou Railing: nan
213
+ - Validation Iou Cushion: nan
214
+ - Validation Iou Base: 0.0
215
+ - Validation Iou Box: 0.0
216
  - Validation Iou Column: nan
217
  - Validation Iou Signboard: nan
218
+ - Validation Iou Chest of drawers: nan
219
  - Validation Iou Counter: nan
220
  - Validation Iou Sand: 0.0
221
  - Validation Iou Sink: 0.0
 
243
  - Validation Iou Bench: nan
244
  - Validation Iou Countertop: nan
245
  - Validation Iou Stove: nan
246
+ - Validation Iou Palm: 0.0
247
  - Validation Iou Kitchen island: nan
248
  - Validation Iou Computer: nan
249
  - Validation Iou Swivel chair: nan
 
272
  - Validation Iou Bottle: nan
273
  - Validation Iou Buffet: 0.0
274
  - Validation Iou Poster: 0.0
275
+ - Validation Iou Stage: 0.0
276
  - Validation Iou Van: nan
277
  - Validation Iou Ship: nan
278
  - Validation Iou Fountain: nan
 
294
  - Validation Iou Food: nan
295
  - Validation Iou Step: nan
296
  - Validation Iou Tank: nan
297
+ - Validation Iou Trade name: 0.0
298
  - Validation Iou Microwave: 0.0
299
  - Validation Iou Pot: 0.0
300
  - Validation Iou Animal: 0.0
 
321
  - Validation Iou Glass: nan
322
  - Validation Iou Clock: nan
323
  - Validation Iou Flag: nan
324
+ - Epoch: 7
325
 
326
  ## Model description
327
 
 
354
  | 4.4554 | 4.3959 | 0.0128 | 0.0361 | 0.1840 | 0.0486 | 0.5661 | 0.0003 | 0.3992 | 0.5279 | 0.0 | 0.0378 | 0.0 | 0.0 | 0.0 | 0.0 | 0.0 | 0.0 | nan | nan | 0.0 | 0.0 | 0.0 | 0.0 | 0.0 | 0.0 | 0.0 | nan | 0.0 | nan | nan | nan | 0.0076 | nan | 0.0 | nan | 0.0 | nan | nan | nan | 0.0 | nan | 0.0 | nan | nan | nan | nan | nan | nan | nan | nan | 0.0 | 0.0 | nan | nan | 0.0 | nan | nan | nan | 0.0 | nan | nan | nan | 0.0 | nan | nan | nan | nan | nan | nan | 0.0 | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | 0.0 | nan | nan | 0.0 | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | 0.0 | 0.0 | 0.0 | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | 0.0 | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | 0.0 | 0.0 | 0.0 | nan | nan | nan | nan | nan | nan | nan | nan | 0.0 | 0.0 | nan | 0.0 | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | 0.0444 | 0.1959 | 0.0003 | 0.2494 | 0.1168 | 0.0 | 0.0285 | 0.0 | 0.0 | 0.0 | 0.0 | 0.0 | 0.0 | nan | 0.0 | 0.0 | 0.0 | 0.0 | 0.0 | 0.0 | 0.0 | 0.0 | nan | 0.0 | nan | nan | nan | 0.0071 | nan | 0.0 | nan | 0.0 | nan | nan | nan | 0.0 | nan | 0.0 | nan | 0.0 | nan | nan | nan | nan | nan | nan | 0.0 | 0.0 | nan | nan | 0.0 | nan | nan | nan | 0.0 | nan | nan | nan | 0.0 | nan | nan | nan | nan | nan | nan | 0.0 | nan | nan | nan | nan | nan | nan | 0.0 | nan | nan | nan | nan | nan | nan | 0.0 | nan | nan | nan | 0.0 | nan | nan | 0.0 | nan | nan | nan | 0.0 | nan | nan | nan | nan | nan | nan | nan | nan | 0.0 | 0.0 | 0.0 | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | 0.0 | nan | nan | 0.0 | nan | nan | nan | nan | nan | nan | nan | 0.0 | 0.0 | 0.0 | nan | nan | nan | nan | nan | nan | nan | nan | 0.0 | 0.0 | nan | 0.0 | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | 4 |
355
  | 4.4641 | 4.4976 | 0.0150 | 0.0431 | 0.1782 | 0.2148 | 0.0650 | 0.7553 | 0.2804 | 0.4260 | 0.0 | 0.1507 | 0.0 | 0.0 | 0.0 | 0.0 | 0.0 | 0.0 | nan | nan | 0.0 | 0.0020 | 0.0 | 0.0 | 0.0 | 0.0 | 0.0 | nan | 0.0 | nan | nan | nan | 0.0 | nan | 0.0 | nan | 0.0 | nan | nan | nan | 0.0 | nan | 0.0 | nan | nan | nan | nan | nan | nan | nan | nan | 0.0 | 0.0 | nan | nan | 0.0 | nan | nan | nan | 0.0 | nan | nan | nan | 0.0 | nan | nan | nan | nan | nan | nan | 0.0 | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | 0.0 | nan | nan | 0.0 | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | 0.0 | 0.0 | 0.0 | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | 0.0 | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | 0.0 | 0.0 | 0.0 | nan | nan | nan | nan | nan | nan | nan | nan | 0.0 | 0.0 | nan | 0.0 | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | 0.0956 | 0.0575 | 0.1491 | 0.1966 | 0.1131 | 0.0 | 0.0783 | 0.0 | 0.0 | 0.0 | 0.0 | 0.0 | 0.0 | nan | 0.0 | 0.0 | 0.0017 | 0.0 | 0.0 | 0.0 | 0.0 | 0.0 | nan | 0.0 | nan | nan | nan | 0.0 | nan | 0.0 | nan | 0.0 | nan | nan | nan | 0.0 | nan | 0.0 | nan | nan | nan | nan | nan | nan | nan | nan | 0.0 | 0.0 | nan | nan | 0.0 | nan | nan | nan | 0.0 | nan | nan | nan | 0.0 | nan | nan | nan | nan | nan | nan | 0.0 | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | 0.0 | nan | nan | 0.0 | nan | nan | nan | 0.0 | nan | nan | nan | nan | nan | nan | nan | nan | 0.0 | 0.0 | 0.0 | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | 0.0 | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | 0.0 | 0.0 | 0.0 | nan | nan | nan | nan | nan | nan | nan | nan | 0.0 | 0.0 | nan | 0.0 | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | 5 |
356
  | 4.1900 | 4.3712 | 0.0118 | 0.0405 | 0.1005 | 0.0432 | 0.1648 | 0.0772 | 0.3395 | 0.1458 | 0.0 | 0.0940 | 0.0 | 0.0 | 0.0 | 0.0041 | 0.0 | 0.0 | nan | nan | 0.0 | 0.0 | 0.0 | 0.0 | 0.0 | 0.0 | 0.0 | nan | 0.0 | nan | nan | nan | 0.0 | nan | 0.0 | nan | 0.0 | nan | nan | nan | 0.0 | nan | 0.0 | nan | nan | nan | nan | nan | nan | nan | nan | 0.0 | 0.0 | nan | nan | 0.0 | nan | nan | nan | 0.0 | nan | nan | nan | 0.0 | nan | nan | nan | nan | nan | nan | 0.0 | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | 0.0 | nan | nan | 0.0 | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | 0.0 | 0.0 | 0.9153 | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | 0.0 | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | 0.0 | 0.0 | 0.0 | nan | nan | nan | nan | nan | nan | nan | nan | 0.0 | 0.0 | nan | 0.0 | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | 0.0409 | 0.1215 | 0.0450 | 0.2255 | 0.0695 | 0.0 | 0.0557 | 0.0 | 0.0 | 0.0 | 0.0034 | 0.0 | 0.0 | 0.0 | 0.0 | 0.0 | 0.0 | 0.0 | 0.0 | 0.0 | 0.0 | 0.0 | nan | 0.0 | nan | nan | nan | 0.0 | nan | 0.0 | nan | 0.0 | nan | nan | nan | 0.0 | nan | 0.0 | nan | 0.0 | nan | nan | nan | nan | 0.0 | nan | 0.0 | 0.0 | nan | nan | 0.0 | nan | nan | nan | 0.0 | nan | nan | nan | 0.0 | nan | nan | nan | nan | nan | nan | 0.0 | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | 0.0 | nan | nan | 0.0 | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | 0.0 | 0.0 | 0.0053 | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | 0.0 | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | 0.0 | 0.0 | 0.0 | nan | nan | nan | nan | nan | nan | nan | nan | 0.0 | 0.0 | nan | 0.0 | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | 6 |
357
+ | 4.1639 | 4.3635 | 0.0135 | 0.0438 | 0.1740 | 0.0644 | 0.0848 | 0.5881 | 0.3914 | 0.6953 | 0.0 | 0.1022 | 0.0 | 0.0 | 0.0 | 0.0 | 0.0 | 0.0 | nan | nan | 0.0 | 0.0 | 0.0 | 0.0 | 0.0 | 0.0 | 0.0 | nan | 0.0 | nan | nan | nan | 0.0016 | nan | 0.0 | nan | 0.0 | nan | nan | nan | 0.0 | nan | 0.0 | nan | nan | nan | nan | nan | nan | nan | nan | 0.0 | 0.0 | nan | nan | 0.0 | nan | nan | nan | 0.0 | nan | nan | nan | 0.0 | nan | nan | nan | nan | nan | nan | 0.0 | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | 0.0 | nan | nan | 0.0 | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | 0.0 | 0.0 | 0.0 | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | 0.0 | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | 0.0 | 0.0 | 0.0 | nan | nan | nan | nan | nan | nan | nan | nan | 0.0 | 0.0 | nan | 0.0 | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | 0.0534 | 0.0734 | 0.1416 | 0.2374 | 0.1057 | 0.0 | 0.0600 | 0.0 | 0.0 | 0.0 | 0.0 | 0.0 | 0.0 | 0.0 | 0.0 | 0.0 | 0.0 | 0.0 | 0.0 | 0.0 | 0.0 | 0.0 | nan | 0.0 | nan | nan | nan | 0.0016 | nan | 0.0 | nan | 0.0 | nan | nan | nan | 0.0 | nan | 0.0 | nan | nan | 0.0 | 0.0 | nan | nan | nan | nan | 0.0 | 0.0 | nan | nan | 0.0 | nan | nan | nan | 0.0 | nan | nan | nan | 0.0 | nan | nan | nan | nan | nan | nan | 0.0 | nan | nan | nan | nan | nan | nan | 0.0 | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | 0.0 | nan | nan | 0.0 | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | 0.0 | 0.0 | 0.0 | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | 0.0 | nan | nan | nan | nan | nan | nan | nan | nan | nan | 0.0 | 0.0 | 0.0 | 0.0 | nan | nan | nan | nan | nan | nan | nan | nan | 0.0 | 0.0 | nan | 0.0 | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | nan | 7 |
358
 
359
 
360
  ### Framework versions
tf_model.h5 CHANGED
@@ -1,3 +1,3 @@
1
  version https://git-lfs.github.com/spec/v1
2
- oid sha256:4dac11a013bc2f7fd69e3d170769a04fd2da6c96fa600d6357bdad305bbe59e3
3
  size 15285696
 
1
  version https://git-lfs.github.com/spec/v1
2
+ oid sha256:fafafc71527efa3fce20a208ee9d783bd28ef5e15ef084eea24414905f2ae9a2
3
  size 15285696