№
| Описание
| Время
| Количество эпох
| обучающая
| оценочная
|
1
| Применим слои Con2D и MaxPooling2D (по одному)
C2R32-MP2-F-DR32-DS10
| 29.2862138
| 20
| 0.9965
| 0.9874
|
2
| Заменим Con2D на Con1D, а MaxPooling2D на MaxPooling1D.
R-C1R32-MP1-F-DR32-DS10
| 27.62737
| 20
| 0.9901
| 0.9838
|
3
| Введем в модель раннюю остановку
| 15.939995
| 20
| 0.9878
| 0.9805
|
4
| В модель НС с Con2D-слоем добавим слои Dropout (два)
C2R32-MP2-0.5-F-DR32-0.5-DS10
| 21.00534
| 20
| 0.9779
| 0.9881
|
5
| В модель НС с Con2D-слоем и Dropout-слоями добавим слой BatchNormalization
C2R32-MP2-0.5- BN -F-DR32-0.5-DS10
| 27.09838
| 25/100
| 0.9815
| 0.9896
|
6
| Заменим функцию потерь mse на mape
C2R32-MP2-0.5- BN -F-DR32-0.5-DS10
Функция потерь mape
| 39.461636
| 36/100
| 0.9760
| 0.9873
|
7
| Вернем msle. Добавим ещё слой Con2D после Dropout
C2R32-MP2-0.5-C2R32- BN -F-DR32-0.5-DS10
Функция потерь msle
| 40.390892
| 29/100
| 0.9873
| 0.9900
|
8
| Добавим ещё один слой MaxPooling2D после второго Con2D
C2R32-MP2-0.5-C2R32-MP2- BN -F-DR32-0.5-DS10
Функция потерь msle
| 34.669819
| 31/100
| 0.9609
| 0.9854
|
9
| Добавим ещё один слой BatchNormalization после второго слоя MaxPooling2D
C2R32-MP2-0.5-C2R32-MP2- BN - BN -F-DR32-0.5-DS10
Функция потерь msle
| 34.4339678
| 29/100
| 0.9642
| 0.9835
|
10
| Уберем слой MaxPooling2D, оставим один
C2R32-MP2-0.5-C2R32 - BN - BN -F-DR32-0.5-DS10
Функция потерь msle
| 68.4869885
| 47/100
| 0.9903
| 0.9916
|
11
| Вернём слой MaxPooling2D
Уберём слой Con2D, оставив один
C2R32-MP2-0.5 -MP2- BN - BN -F-DR32-0.5-DS10
Функция потерь msle
| 24.79078
| 21/100
| 0.9797
| 0.9895
|
12
| Вернем слой Con2D и заменим первый параметр второго слоя Con2D на 128
C2R128-MP2-0.5-C2R32-MP2- BN - BN -F-DR32-0.5-DS10
Функция потерь msle
| 68.0937201
| 28/100
| 0.9879
| 0.9915
|
13
| Заменим первый параметр первого слоя и первый параметр второго слоя Con2D на 64.
BN-C2R64-MP2-0.5-C2R64-0.5-F-DR32- BN-DS10
Функция потерь msle
| 84.0302412
| 23/100
| 0.9919
| 0.9890
|
14
| Заменим число на 0.2 в обоих Dropout, изменим параметр слоя Conv2D - kernel_size = 16
BN-C2R64-MP2-0.2-C2R64-0.2-F-DR32- BN-DS10
Функция потерь msle
Conv2D: kernel_size = 16
| 118.9509377
| 19/100
| 0.9949
| 0.9913
|
15
| в слое Dense Заменим Units на 256, поставим слой BatchNormalization после него.
Kernel_size = 12 у Conv2D
У первого Dropout коэф из 0.2 в 0.4
BN-C2R64-MP2-0.4-C2R64-0.2-F-DR256- BN-DS10
Функция потерь msle
Conv2D: kernel_size = 12
| 90.630724
| 16/100
| 0.9970
| 0.9939
|