29.32M
Category: educationeducation

Глубокое обучение в задачах классификации

1.

Глубокое обучение в задачах классификации
Кульгильдин Булат Наилевич
Инженер 2 категории, лаборатории 3050
ФГУП «Государственный научно-исследовательский
институт авиационных систем»

2.

Классификация
Пример постановки: Есть черно-белое изображение
цифры от 0 до 9. Необходимо обучить ГКНС для
распознавания цифры.
10
0,04
-20
0,01
15
0,02
7
0,01
18
0.016
33
0.023
16
0.015
0
0.01
12
0.017
94
0.25
Для нормировки результатов перед последним слоем ставят нелинейность

3.

Классификация
10
0,04
-20
0,01
15
0,02
7
0,01
18
0.016
33
0.023
16
0.015
0
0.01
12
0.017
94
0.25
Softmax Function
Sigmoid Function
Used for multiclassification in logistic
regression model.
Used for binary
classification in logistic
regression model.
The probabilities sum
will be 1
The probabilities sum
need not be 1.
Used in the different
layers of neural
networks.
Used as activation
function while building
neural networks.
The high value will
have the higher
probability than other
values.
The high value will
have the high
probability but not the
higher probability.
Для нормировки результатов перед последним слоем ставят нелинейность
В 99% случаев используется SoftMax

4.

Классификация
0
0.1
0
0.1
0
0.09
0
0.05
CNN
0
0.09
0
0.02
0
0.05
0
0.05
0
0.05
1.0
0.4
Правильный ответ
Выход ГКНС
Кросс-энтропийная функция потерь

5.

Классификация
Для задачи классификации используется кросс-энтропийная функция потерь

6.

Обучение ГКНС
1. Выбрать БД
2. Выбрать архитектуру ГКНС
3. Провести обучение ГКНС
1. Провести тестирование ГКНС

7.

Обучение ГКНС
3
индекс класса
изображение
БД изображений и ответов

8.

Обучение ГКНС
1
индекс класса
изображение
БД изображений и ответов

9.

Обучение ГКНС
ReLU
Conv 2
3x3:2
ReLU
ReLU
Conv 1
5x5
1х64
1х10
Архитектура может быть любой но она должна заканчивается слоем,
выходом которого является вектор 1 х число классов

10.

Обучение ГКНС
SoftMax
ReLU
Conv 2
3x3:2
ReLU
ответ: 9
ReLU
Conv 1
5x5
1х64 1х10
Нормировка+
функция потерь
Для обучения добавляются слои нормировки(softmax) и
добавляется функция потерь. Слой нормировки может быть
частью ГКНС для удобства использования.

11.

Обучение ГКНС
1х64
SoftMa
x
ReLU
Conv 2
3x3:2
ReL
U
Батч = 5
ReL
U
Conv 1
5x5
1х10
ГКНС
Этап 1: загрузка данных из
БД: загружается батч -набор
изображений и ответов
БД изображений и ответов – 20 примеров

12.

Обучение ГКНС
Тензор ответов 5х1
5 0 4 1 9
1х10
SoftMa
x
Conv 2
3x3:2
ReL
U
изображения
Conv 1
5x5
ReL
U
5
1х64
ReLU
Тензор данных 5х1х28х28
ГКНС
0
4
1
ответы
9
Этап 2: формирование батча
из БД: предобработка +
трансформация в тензор
БД изображений и ответов – 20 примеров

13.

Обучение ГКНС
1х64
1х10
5 0
SoftMa
x
ReLU
1 9
Loss1
1х10
1х64
SoftMa
x
ReLU
Conv 2
3x3:2
ReL
U
ReL
U
Conv 1
5x5
4
Loss2
Этап 2: Прямой проход
1х64
SoftMa
x
ReLU
Conv 2
3x3:2
ReL
U
ReL
U
Conv 1
5x5
1х10
Loss3
Loss = Loss1 + Loss2 + Loss3 + Loss
4
1х64 1х10
SoftMa
x
ReLU
Conv 2
3x3:2
ReL
U
ReL
U
Conv 1
5x5
Loss4
1х64
SoftMa
x
ReLU
Conv 2
3x3:2
ReL
U
Тензор данных 5х1х28х28
ReL
U
Conv 1
5x5
1х10
Loss4
Conv 2
3x3:2
ReL
U
ReL
U
Conv 1
5x5
Тензор ответов 5х1

14.

Feature
map
Loss
SoftMax
Conv 2
3x3:2
ReLU
ReLU
Conv 1
5x5
ReLU
Feature
map
Feature
map
Feature
map
Обучение ГКНС
1х64 1х10
Тензор данных 5х1х28х28
5 0
4
1 9
Тензор ответов 5х1
Этап 2: Прямой проход. При прямом проходе сохраняются все карты признаков

15.

Feature
map
1х64 1х10
Feature
map
Тензор данных 5х1х28х28
Этап 3: Обратный проход.
Вычисление градиентов.
Gradconv2
Feature
map
Gradconv1
Loss
SoftMax
Conv 2
3x3:2
ReLU
ReLU
Conv 1
5x5
ReLU
Feature
map
Feature
map
Feature
map
Обучение ГКНС

16.

Обучение ГКНС
1х64
SoftMa
x
ReLU
Loss1
1х10
1х64
1
G
2
3
G
G
1х10
SoftMa
x
4
1х64
ReLU
Conv 2
3x3:2
Loss2
ReL
U
Conv 1
5x5
ReL
U
G
Этап 2: Обратный проход
ReL
U
Conv 2
3x3:2
ReL
U
Gradconv1
SoftMa
x
ReLU
Conv 1
5x5
Loss3
5
1х10
SoftMa
x
ReLU
Conv 2
3x3:2
ReL
U
Conv 1
5x5
ReL
U
G
1х64
Loss4
1х64
SoftMa
x
ReLU
Conv 2
3x3:2
ReL
U
Тензор данных 5х1х28х28
ReL
U
Conv 1
5x5
1х10
Loss4
Conv 2
3x3:2
ReL
U
ReL
U
Conv 1
5x5
Тензор
1 9
5 0 4 5х1
ответов
1х10

17.

Этап 3.1: усреднение градиентов.

Gradconv1
1
2
4
5
3
G
G
G
G
Gradconv1
G
Обучение ГКНС

18.

ReLU
SoftMax
Feature
map
Conv 2
3x3:2
ReLU
ReLU
Conv 1
5x5
Feature
map
Обучение ГКНС
Solver
Gradconv1
Этап 4: Обновление весов
Gradconv2

19.

Обучение ГКНС
Градиентный спуск
Градиентный спуск с моментумом:
ⴄ – от до 1 обычно 10^-3
Текущий набор весов нейронной сети
Оптимальный набор весов нейронной сети

20.

Обучение ГКНС
1х64
SoftMa
x
ReLU
Conv 2
3x3:2
ReL
U
ReL
U
Conv 1
5x5
1х10
ГКНС
Батч = 5
Этап 1: 3агрузка данных
Этап 2: Формирование батча
Этап 3: Прямой проход
Этап 4: Обратный проход
Этап 5: Обновление весов
БД изображений и ответов – 20 примеров

21.

Обучение ГКНС
5 0
4
1 9
1х64
SoftMa
x
ReLU
Conv 2
3x3:2
ReL
U
ReL
U
Conv 1
5x5
1х10
ГКНС
5
изображения
0
4
1
ответы
9
Этап 1: 3агрузка данных
Этап 2: Формирование батча
Этап 3: Прямой проход
Этап 4: Обратный проход
Этап 5: Обновление весов
БД изображений и ответов – 20 примеров

22.

Обучение ГКНС
4
1 9
1х64
SoftMa
x
ReLU
Conv 2
3x3:2
ReL
U
ReL
U
Conv 1
5x5
1х10
ГКНС
Этап 1: 3агрузка данных
Этап 2: Формирование батча
Этап 3: Прямой проход
Этап 4: Обратный проход
Этап 5: Обновление весов
БД изображений и ответов – 20 примеров
Loss
5 0

23.

Обучение ГКНС
SoftMa
x
ReLU
Conv 2
3x3:2
ReL
U
Conv 1
5x5
ReL
U
Grad
ГКНС
Этап 1: 3агрузка данных
Этап 2: Формирование батча
Этап 3: Прямой проход
Этап 4: Обратный проход
Этап 5: Обновление весов
БД изображений и ответов – 20 примеров

24.

Обучение ГКНС
SoftMa
x
ReLU
Conv 2
3x3:2
ReL
U
Conv 1
5x5
ReL
U
Solver
ГКНС
Grad
Этап 1: 3агрузка данных
Этап 2: Формирование батча
Этап 3: Прямой проход
Этап 4: Обратный проход
Этап 5: Обновление весов
БД изображений и ответов – 20 примеров

25.

Обучение ГКНС
1х10
SoftMa
x
Conv 2
3x3:2
ReLU
Conv 1
5x5
ReL
U
Батч = 5
1х64
ReL
U
Итерация –
обработка одного
батча
ГКНС
Этап 1: 3агрузка данных
Этап 2: Формирование батча
Этап 3: Прямой проход
Этап 4: Обратный проход
Этап 5: Обновление весов
БД изображений и ответов – 20 примеров

26.

Обучение ГКНС
1х64
SoftMa
x
ReLU
Conv 2
3x3:2
ReL
U
ReL
U
Conv 1
5x5
1х10
ГКНС
Батч = 5
Этап 1: 3агрузка данных
Этап 2: Формирование батча
Этап 3: Прямой проход
Этап 4: Обратный проход
Этап 5: Обновление весов
БД изображений и ответов – 20 примеров

27.

Обучение ГКНС
1х10
SoftMa
x
ReLU
Conv 2
3x3:2
ReL
U
Батч = 5
Conv 1
5x5
ReL
U
ЭПОХА!
1х64
ГКНС
Эпоха прошла – означает, что все
изображения обучающей выборки
были обработаны.
По прошествии эпохи обработка
начинается сначала
БД изображений и ответов – 20 примеров

28.

Обучение ГКНС
Алгоритм обучения:
1х10
SoftMax
батча
Этап 3: Прямой проход
Этап 4: Обратный проход
Этап 5: Обновление весов
вывод на экран ф-ции
ReLU
Conv 2
3x3:2
Этап 1: 3агрузка данных
Этап 2: Формирование
ReLU
ReLU
Conv 1
5x5
1х64
Цикл по эпохам от 0 до 20:
Цикл по итерациям от 0 до MaxIter:

29.

Обучение ГКНС
Crop (обрезка)Flip (отражение)инвертировать цвета
размытие
поворот
шум
Аугментация данных – набор преобразований входных
данных со случайными параметрами применяемых для
повышения качества обучения

30.

Тестирование качества классификации
Confusion matrix – матрица несоответствий.
Столбцы матрицы отвечают за истинные значения,
строки за предсказанные.

31.

Тестирование качества классификации
11
English     Русский Rules