Структура многослойных сетей
Многослойные сети
Алгоритмы локальной оптимизации с вычислением частных производных
Стохастические методы обучения
Методы глобальной оптимизации
Метод обратного распространения ошибки (error back-propagation)
Метод обратного распространения ошибки (error back-propagation)
Некоторые алгоритмы неконтролируемого обучения
Алгоритм обучения Хебба
Алгоритм конкурентного обучения Кохонена
Геометрическая интерпретация алгоритма Кохонена
Сети Кохонена с самоорганизующейся структурой
Топологии сетей Кохонена
Топологии сетей Кохонена
Топологии сетей Кохонена
Обучение самоорганизующихся сетей
Процесс обучения сетей Кохонена
1.73M
Category: biologybiology

Многослойные сети. Алгоритмы обучения

1.

Курс «Нейронные сети и системы нечеткой логики»
Лекция 2
Многослойные сети. Алгоритмы обучения.

2. Структура многослойных сетей

Слой 1
Слой 2
1. Сети с прямой передачей сигнала (многослойные персептроны, feedforward-сети);
2. Сети с радиально-базисными функциями;

3. Многослойные сети

Особенности:
1. Нейроны выходного слоя обычно имеют линейную функцию активации;
2. Принцип работы существенно зависит от выбранной функции активации скрытых
нейронов;
3. Наиболее часто используемая структура сети;
Преимущества:
1. Принцип работы легко описывается матричными уравнениями;
2. Универсальный аппроксиматор/классификатор;
Недостатки:
1. Сложные алгоритмы обучения;
2. Отсутствие точной методики выбора количества слоев и нейронов в них;

4.

Алгоритмы обучения
Классификация алгоритмов
1.
2.
3.
4.
По математическому аппарату:
Алгоритмы локальной оптимизации с вычислением частных
производных первого порядка;
Алгоритмы локальной оптимизации с вычислением частных
производных первого и второго порядка;
Стохастические алгоритмы оптимизации;
Глобальные методы оптимизации.
По наличию эталонного сигнала
1. Контролируемое обучение.
2. Неконтролируемое обучение (без учителя).

5.

Алгоритмы обучения сетей с прямой передачей сигнала
Обобщенное Дельта-правило
wi wi 1 Ei
где
Ei ( yi oi ) f ' ( x) x

6. Алгоритмы локальной оптимизации с вычислением частных производных

Принцип работы основывается на поиске градиента функции ошибки – направления
наибольшего возрастания или убывания функции:
Где R – матрица поиска направления движения, λ – величина шага.
Варианты:
1. Метод градиентного спуска;
2. Метод сопряженного градиента;
3. Метод антиградиента.
Методы первого порядка вычисляют матрицу направления как:
Методы второго порядка:
Где Н – матрица Гессе частных производных критерия обучения по весовым коэффициентам

7. Стохастические методы обучения

В основе работы – поиск и обход локальных минимумов функции ошибки по принципу
«проб и ошибок».
Варианты:
1. Машины Больцманна;
2. Метод Монте-Карло и др.
Случайный характер изменения направления поиска увеличивает затраты времени на
обучение сетей. Такой алгоритм применяется редко в чистом виде.
Использование генетических алгоритмов позволяет ускорить поиск и обход локальных
минимумов за счет случайных «мутаций».

8. Методы глобальной оптимизации

Решение задачи глобальной оптимизации состоит в систематическом переборе значений
всех аргументов.
Данный метод применяется только для сетей с простой структурой, поскольку сложность
математических расчетов существенно возрастает с увеличением размерности решаемой
задачи.

9. Метод обратного распространения ошибки (error back-propagation)

Применяется только для сетей с прямой (последовательной передачей сигнала), что
обусловило устоявшееся обозначение таких сетей как feedforward-backpropagation networks.
Этот метод относится к градиентным алгоритмам локальной оптимизации.
Суть метода заключается в передаче сигнала ошибки с выходного нейрона на нейроны
скрытого слоя, на основании чего рассчитываются корректировки весовых коэффициентов.
За счет применения последовательной коррекции весовых коэффициентов существенно
облегчается процедура нахождения направления движения.
Если представить сеть в виде цепочки матричных уравнений:
То можно получить:
Слой
Слой
Слой

10. Метод обратного распространения ошибки (error back-propagation)

1. Выходной слой:
2. Скрытый слой:
Производная от функции активации нейронов:

11.

Алгоритмы обучения
Недостатки метода обратного распространения
ошибки

12. Некоторые алгоритмы неконтролируемого обучения

1. Правило Хебба.
Если нейрон получает на вход сигнал другого
нейрона и они оба являются активными, то есть,
имеют
одинаковый
знак,
то
весовой
коэффициент связи этих нейронов необходимо
усилить.
2. Правило Хопфилда.
Если входной и выходной сигнал одновременно
активны или неактивны, весовой коэффициент
связи этих сигналов необходимо увеличить на
величину коэффициента обучения, в противном
случае его необходимо уменьшить на эту же
величину.
3. Правило Кохонена (победитель получает все).
На выход нейронной сети подается выходной
сигнал
нейрона
с
наибольшим
значением
выходного
сигнала
(победителя).
Корректировка
весовых
коэффициентов
осуществляется только для этого нейрона и
нейронов
из
некоторой
окрестности
в

13. Алгоритм обучения Хебба

i-й
нейро
н
wij x j oi

14. Алгоритм конкурентного обучения Кохонена

Нейронпобедитель
Нормализация
вектора весовых
коэффициентов:
wiT wi 1
Коррекция
вектора весовых
коэффициентов:
wm x wm

15. Геометрическая интерпретация алгоритма Кохонена

Победителем
объявляется
нейрон,
проекция
вектора входных воздействий на который имеет
наибольшую величину при совпадении направления
векторов
входных
воздействий
и
весовых
коэффициентов.

16. Сети Кохонена с самоорганизующейся структурой

Сеть с самоорганизующейся структурой
(SOM – self-organising map) выполняет
отображение
последовательности
входных воздействий на многомерный
массив узловых точек.
Условие выбора наилучшего соответствия:
c x wi min x wi
x wi
x
n
j 1
wij
2
j

17. Топологии сетей Кохонена

Топология типа «Сетка» - «Grid»

18. Топологии сетей Кохонена

Топология типа «Шестиугольник» - «Hexagon»

19. Топологии сетей Кохонена

Топология случайного типа – «Random»

20. Обучение самоорганизующихся сетей

Корректировка весовых коэффициентов:
wi (t 1) wi (t ) hc (t ) x(t ) wi (t )
Взаиморасположение соседних групп нейронов

21. Процесс обучения сетей Кохонена

English     Русский Rules