1.18M
Category: informaticsinformatics

Обратное распространение ошибки

1.

Обратное
распространение
ошибки
Корлякова М.О.
2019

2.

МНОГОСЛОЙНАЯ
НЕЙРОННАЯ СЕТЬ
х1
y1
y2
хn
yp
n
e
p

3.

Фрагмент сети
скрытый
Предварит
слой
p-2j-1
слой
скрытый
Скрытый
слой
p-1
слой j
Выходной
слой (к)
w11,k
Yj(n)
w12,k
OUT i
i
Si(n)
Yi(n)
Q
ней
рон
d1,k
E(n)
w1n,k
ej
Слой p

4.

Обучение по ошибке
Глобальная задача – сложная.
E(n)= ej(n)2
ej(n)=Dj-Yj(n)
Зависит от всех настраиваемых
параметров.

5.

Обучение сетей

6.

Обучение сетей прямого
распространения
Обучение перцептрона
Теорема Розенблата
Перцептрон можно научить всему, что он может
представить
Теорема Новикова
Если
D2
0, D step 2

7.

Пример обучения нейрона
1
У
0.8
0.6
0.4
0.2
0
1
0.3
1.5
1
2
6
2
3
4
5
6
7
8
w0
1.5
0.5
0.2
1
4
0
1
0.5
0.1
2
-0.5
0.5
0
-1
0
-1.5
-0.1
-0.5
-2
0.1
-1
0
w1
0.2
0.5
0.15
0.2 -0.5
0.410.20.4
0.61.50.25
0.8
00.62 0.3
1 2.5
0.81.2
0.5
0.35 3 1.41 0.43.5
1.6
1 1.2
0.45
1.8
4
1.5
0.5
1.4
4.5
2
Х
Подать Х
Получить У
Вычислить
коррекцию W

8.

Обучение по ошибке
Локальная задача – нет Dj для нейронов
скрытого слоя.
Обучение многократное.
Адаптируем синаптические веса по
ошибке.
Определим ejr(n) для нейронов скрытого
слоя r.
Зависит от настраиваемых параметров
только нейрона j в слое r.

9.

Нейрон j
S j
e j ( n)
wij
Yi wij
Yk wkj
Ym wmj
Sj
(Sj)
y j ( n)
S j
wij
Yj
ej
e j ( n)
y j

10.

Обратное распространение ошибки
выходной слой
E n E n e j n y j n S j n
wi j (n) e j (n) y j (n) S j (n) wi j (n)
1 k
E n e j ( n) 2
2 j 1
E n
e j (n) d j y j (n),
e j (n)
y j ( n) S j
y j n
S j (n)
S j (n) wi j yi (n)
e j n
y j (n)
1
( S j (n))
S j n
wi j (n)
yi (n)
E n
E n
e j (n) ( S j (n)) yi (n) wij (n)
wi j (n)
wi j (n)

11.

Фрагмент сети
скрытый
Предварит
слой
p-2j-1
слой
скрытый
Скрытый
слой
p-1
слой j
Выходной
слой (к)
w11,k
Yj(n)
w12,k
OUT i
i
Si(n)
Yi(n)
Q
ней
рон
d1,k
E(n)
w1n,k
ej
Слой p

12.

Скрытый слой
1
E (n) ek2 (n)
2 k
ek (n)
E (n)
ek
y j (n) k
y j (n)
ij (n)
e j
yi
e j (n) y j (n) S j (n)
y j (n) S j (n) yi
ei ek ik (n)
k
j ( S j (n)) wij

13.

Скрытый слой
m
S k (n) wkj (n) y j (n)
j 0
S k (n)
wkj (n)
y j (n)
ek (n) S j (n)
E (n)
ek
y j (n) k
S j (n) y j (n)
ek (n) k ( S k (n)) wkj (n) k (n) wkj (n)
k
k

14.

Минимум потенциальной
энергии

15.

Вопрос
Перечислите классы алгоритмов
обучения
К какому алгоритмов обучения относится
обучение многослойных сетей с
обратным распространением ошибки

16.

Функции пакета Neural
NetWork ToolBox MatLab
net = newff([0 8],[2 1],{'tansig' ‘purelin'},'trainlm');
net=train(net,p,t);
y2 = sim(net,p)

17.

Алгоритмы
TRAINCGB
TRAINBFG
TRAINOSS
TRAINGD
TRAINRP
TRAINLM

18.

Neural Network object
architecture
numInputs: 1
numLayers: 2
biasConnect: [1; 1]
inputConnect: [1; 0]
layerConnect: [0 0; 1 0]
outputConnect: [0 1]
targetConnect: [0 1]

19.

numOutputs: 1 (read-only)
numTargets: 1 (read-only)
numInputDelays: 0 (read-only)
numLayerDelays: 0 (read-only)

20.

subobject structures:
inputs: {1x1 cell} of inputs
layers: {2x1 cell} of layers
outputs: {1x2 cell} containing 1 output
targets: {1x2 cell} containing 1 target
biases: {2x1 cell} containing 2 biases
inputWeights: {2x1 cell} containing 1 input weight
layerWeights: {2x2 cell} containing 1 layer weight

21.

functions:
adaptFcn: 'trains'
initFcn: 'initlay'
performFcn: 'mse'
trainFcn: 'trainlm'

22.

trainParam:
.epochs,
.goal,
.show,
.time

23.

weight and bias values:
IW: {2x1 cell} containing 1 input weight matrix
LW: {2x2 cell} containing 1 layer weight
matrix
b: {2x1 cell} containing 2 bias vectors

24.

Обучение сети
3 – нелинейных нейрона, градиентный
алгоритм
Без
Обучения
Целевое
состояние
Обучение

25.

Обучение сети
8 – нелинейных нейронов, градиентный
алгоритм
Без
Обучения
Целевое
состояние
Обучение

26.

Обучение сети
8 – нелинейных нейронов, градиентный
алгоритм
Без
Обучения
Целевое
состояние
Обучение

27.

Обучение сети
8 – нелинейных нейронов, сопряженноградиентный алгоритм, 100 эпох
Без
Обучения
Обучение
Целевое
состояние

28.

Обучение сети
8 – нелинейных нейронов, сопряженноградиентный алгоритм, 600 эпох
Без
Обучения
Обучение
Целевое
состояние

29.

Проблемы
Локальные минимумы
Переобучение
Паралич сети
Устойчивость/пластичность

30.

Вопрос
Приведите общую схему обучения
многослойной сети с обратным
распространением ошибки.
English     Русский Rules