Главная страница

Компьютерная графика лаб 7_2. Скворцов Алексей а0518


Скачать 40.22 Kb.
НазваниеСкворцов Алексей а0518
АнкорКомпьютерная графика лаб 7_2
Дата18.03.2022
Размер40.22 Kb.
Формат файлаdocx
Имя файлаSkvortsov_Alexey_7_2.docx
ТипЗадача
#403397

Скворцов Алексей

А-05-18

1. Решаемая задача.

Классификация изображений рукописных цифр.

2. Описание набора данных MNIST.

Набор состоит из изображений рукописных цифр. Размер каждого изображения 28х28 пикселей.
3.Таблица с результатами всех использованных вариантов НС




Описание

Время

Количество эпох

обучающая

оценочная

1

Применим слои Con2D и MaxPooling2D (по одному)

C2R32-MP2-F-DR32-DS10

29.2862138

20

0.9965

0.9874

2

Заменим Con2D на Con1D, а MaxPooling2D на MaxPooling1D.

R-C1R32-MP1-F-DR32-DS10

27.62737

20

0.9901

0.9838

3

Введем в модель раннюю остановку

15.939995

20

0.9878

0.9805

4

В модель НС с Con2D-слоем добавим слои Dropout (два)

C2R32-MP2-0.5-F-DR32-0.5-DS10

21.00534

20

0.9779

0.9881

5

В модель НС с Con2D-слоем и Dropout-слоями добавим слой BatchNormalization

C2R32-MP2-0.5- BN -F-DR32-0.5-DS10

27.09838

25/100

0.9815

0.9896

6

Заменим функцию потерь mse на mape

C2R32-MP2-0.5- BN -F-DR32-0.5-DS10

Функция потерь mape

39.461636

36/100

0.9760

0.9873

7

Вернем msle. Добавим ещё слой Con2D после Dropout

C2R32-MP2-0.5-C2R32- BN -F-DR32-0.5-DS10

Функция потерь msle

40.390892

29/100

0.9873

0.9900

8

Добавим ещё один слой MaxPooling2D после второго Con2D

C2R32-MP2-0.5-C2R32-MP2- BN -F-DR32-0.5-DS10

Функция потерь msle

34.669819

31/100

0.9609

0.9854

9

Добавим ещё один слой BatchNormalization после второго слоя MaxPooling2D

C2R32-MP2-0.5-C2R32-MP2- BN - BN -F-DR32-0.5-DS10

Функция потерь msle

34.4339678

29/100

0.9642

0.9835

10

Уберем слой MaxPooling2D, оставим один

C2R32-MP2-0.5-C2R32 - BN - BN -F-DR32-0.5-DS10

Функция потерь msle

68.4869885

47/100

0.9903

0.9916

11

Вернём слой MaxPooling2D

Уберём слой Con2D, оставив один

C2R32-MP2-0.5 -MP2- BN - BN -F-DR32-0.5-DS10

Функция потерь msle

24.79078

21/100

0.9797

0.9895

12

Вернем слой Con2D и заменим первый параметр второго слоя Con2D на 128

C2R128-MP2-0.5-C2R32-MP2- BN - BN -F-DR32-0.5-DS10

Функция потерь msle

68.0937201

28/100

0.9879

0.9915

13

Заменим первый параметр первого слоя и первый параметр второго слоя Con2D на 64.

BN-C2R64-MP2-0.5-C2R64-0.5-F-DR32- BN-DS10

Функция потерь msle

84.0302412

23/100

0.9919

0.9890

14

Заменим число на 0.2 в обоих Dropout, изменим параметр слоя Conv2D - kernel_size = 16

BN-C2R64-MP2-0.2-C2R64-0.2-F-DR32- BN-DS10

Функция потерь msle

Conv2D: kernel_size = 16

118.9509377

19/100

0.9949

0.9913

15

в слое Dense Заменим Units на 256, поставим слой BatchNormalization после него.

Kernel_size = 12 у Conv2D

У первого Dropout коэф из 0.2 в 0.4

BN-C2R64-MP2-0.4-C2R64-0.2-F-DR256- BN-DS10

Функция потерь msle

Conv2D: kernel_size = 12


90.630724

16/100

0.9970

0.9939


4. График обучения лучшего по точности на оценочной выборке

Лучшим оказался последний вариант



написать администратору сайта