Динамические нейронные сети и их аттракторы
Фрагмент нервной ткани коры мозга
Нервная клетка
Перцептрон Розенблатта (1957г.)
Градиентный подход к обучению
Сеть Хопфилда
Уравнение энергии сети
Обратные связи и аттракторы нейронной сети Хопфилда
Рекуррентная нейронная сеть
Рекурентный многослойный перцептрон (RMLP).
Нейроны рекуррентной сети
Динамический нейрон
Обучение рекуррентной нейросети
Схема коррекции веса прямых (W) и обратных (W) связей
Принцип обратного распространения во времени
Echo State Network
Виртуальная нейросеть
Уравнение состояния сети
Открытая динамическая нейронная сеть
Псевдоинверсный алгоритм
Динамические аттракторы
Фрагмент нервной ткани коры мозга
Структура синаптической матрицы слоя нейронов
643.50K
Categories: mathematicsmathematics informaticsinformatics

Динамические нейронные сети и их аттракторы

1. Динамические нейронные сети и их аттракторы

Резник Александр Михайлович
Институт проблем математических
машин и систем НАН Украины
отдел Нейротехнологий
[email protected]

2. Фрагмент нервной ткани коры мозга

3. Нервная клетка

,
n
y f ( wi xi b)
i 1
f ( v ) 1 / 1 e v
f ' (v) f (v) 1 f (v)

4. Перцептрон Розенблатта (1957г.)

y
Проблема “исключающее ИЛИ”
x2
и ее решение
x2
y>0
1
b
y<0
x1
y= sign (a1 x1+a2 x2 -b)
1
x1
x2
x1

5. Градиентный подход к обучению

Обучающая выборка
Средняя ошибка
E
M
1 M m T m
(e ) e
2 m 1
{ X m , T m }mM 1
em T m Y m
M
E M
g (W )
m 1 (e m )T J m
W
Градиент ошибки
e m
J
W
m
1
2
T
E (W0 W ) E (W0 ) g (W0 ) W W H (W0 ) W o( W )
2
M
M
T

6. Сеть Хопфилда

Сеть Хопфилда
y1…….yN
Двустороняя ассоциативная
память Коско 2
y1
2
y
....... N
2
y N2 2
y11
y1N 1
b1 ……bN
y i (t ) f s i t b i t
N
s i t w ij yyi t 1 ,
2
1
i 1
w ij N
1
M
y
m 1
m
i
m
j
y ,
y (t ) sign j 1 wij y1j (t 1)
2
i
N1

7. Уравнение энергии сети

E(t) - 12 Y T (t)S(t) - 12 Y T (t)WY(t - 1)
- 12 Y T (t)W T Y(t 1) 12 Y T (t)[W T Y(t 1)t WY(t - 1)]
E (t ) E (t 1)
H(t -1, t 1)
h 1
E(t )
s h (t 1) Y (t 1)(W - W)Y(t - 1)
T
1
2
T
N
N
N
N
i 1
j 1
i 1 j 1
Inf E(t ) 12 yi (t ) y j (t ) wijE(t) 12 wij
t

8. Обратные связи и аттракторы нейронной сети Хопфилда

Рекуррентные связи
динамических нейронов
Статический и динамический
аттракторы сети из 4
нейронов

9. Рекуррентная нейронная сеть

Y(t)
Слой эффекторов (выходы)
Z(t)
Слой скрытых нейронов
Обратные
связи
X(t)
Входы (рецепторы)
Y(t) :
yk (t ) g[ wkj z j (t ) i ]
j
Z(t):
z j (t ) f [ w ji x i (t ) w jh z h (t 1) j ]
i
h

10. Рекурентный многослойный перцептрон (RMLP).

Выход y(t)
τ
Слой
эфекторов
K+L
τ
порог b(2)
Слой
скрытых
нейронов
порог b(1)
τ
Вход x(t)
0
τ
τ
.... K
......
K+1

11. Нейроны рекуррентной сети

z (t ) f [ s (t )]
l
n
l
n
l
n
s (t ) - постсинаптический потенциал:
l
n
N l 1
s (t ) k l j 1 w z (t ) k 0 w z (t )
l
n
f nl (.)
l
n, j
w
n, j
L
Nk
n, j
l
n, j
k
j
l
l 1
n ,k k
-нелинейная активационная функция нейрона;
-вес связи для j-входа нейрона l-го слоя
-множество значений задержки свзи
Условие устойчивого состояния
z (t ) t ( f s ) s (t ) t 0
l
n
l
n
l
n
l
n

12. Динамический нейрон

xj(t)
-b
s (t ) RC s (t ) t
j 1 ( R R j ) x j (t )
N
f[s(t)-b]
xN(t)
si (t ) t i si (t ) hi (t )
C
z j (t ) f j [ s j (t ) b]
R
si (t ) t i si (t ) hi (t )
hi (t ) r 1 wi ,r z r (t r ) j 0 wi , j z j (t )
N ir
Ni
настраиваемые параметры:
wi , -j веса межнейронных связей
i- коэффициенты инерции

13. Обучение рекуррентной нейросети

Функция
ошибки
E
Обучающая последовательность
Дельтаправило
(w
X
m
m
L,m 2
(
d
z
m 1 n 1 n n )
NL
M
1
2
,D
m M
;
m 1
(w
l
p , q new
)
m N0
i i 1
l
p , q old
)
m
E w
M
N
E
m
Lm z
m 1 n 1 ( d n z n )
l
w p ,q
z
L
z lp, m
l ,m
p
l ,(m r )
p
z
{
z
m NL
n n 1
X {x } ; D {d }
m
L ,m
n
l ,m
p
для прямых связей
для обратных связей
l
p,q
z
l ,m
p
l
p ,q
w

14. Схема коррекции веса прямых (W) и обратных (W) связей

-
Схема коррекции веса прямых
(W ) и обратных (W ) связей
Выходы
p
W
Состояние скрытых нейронов (m)
W
Вход (m)
W
Вход
(m-1)
W
Вход (m-2)
W
Состояние скрытых нейронов (m-1)
W
Состояние скрытых нейронов (m-2)
W
Состояние скрытых нейронов (m-3)

15. Принцип обратного распространения во времени

16. Echo State Network

H.Jaeger The “echo state” approach to analysing and training recurrent
neural networks (2001)
y (n)
u (n)
Слой
рецепторов
Слой
эффекторов
x(n)
Скрытый
слой
u (n 1) f [Wu (n) W in x(n 1) W fb y (n)]
y (n) g[W out u (n)]
W out (U D)T

17. Виртуальная нейросеть

Z t F [ 0 W k Z t k ]
K
W
W
W
W
0
-1
-2
-K
t
X
t
Z t-1
Z t-2
……………………..
Z t-K
Z t F [ 1 W k Z t k W0 X t ]
K
L0W0 { k 1 i 1W i Z t k i L1[ i 1W i Z t k i W0 X t k ] W0 X t ]
K
K
K
L0W0 { X t k 1 Lk Wk [ X t k . j 1 L j W j (.....}
K
K

18. Уравнение состояния сети

X (t ) Inp
Нейронная сеть как динамическая система (X,Y,U)
U (t ) t F [ U (t ), X (t )]
Y (t ) Out
Y (t ) [U (t )]
U (t ) N
Траектория
состояния
f {U f (t )}Tt0 N T
U (t ) t F [U (t ), X (t )] 0
f
f
f
Условие
аттрактора
____________________________________________________________
Аттракторы
динамической
нейросети
U (t )
t
AU (t ) W Z (t ) 0
Z (t ) F [U (t )] U (t ), 0,
i
1
W A U (t )[U (t )]
f
f

19. Открытая динамическая нейронная сеть

* N*
n n 1
Z (t ) {z } ;
*
N * N1 N N 0
Условие аттрактора:
Z * (t ) F ( S * (t )) W * Z * (t ); ii 0
W 11 Z 1 (t ) W 1 Z 1 (t ) W 1 Z 0 (t )
S * (t ) W 1Z 1 (t ) W Z 1 (t ) W 0 Z 0 (t )
Набор динамических атракторов:
1,1
R ...
1,m
R ...
R
1, M
* R1, 0 ... R1,m 1... R1,M 1
0 ,1
R ...
R
0 ,m
....
R
0 ,M
W 01Z 1 (t ) W 0 Z 1 (t ) W 0 Z 0 (t )
* W * *
1
*
W ( )
*
*

20. Псевдоинверсный алгоритм

*m 1
i, j
w
m 1
i
s
w (ri
*m
i, j
m 1
m 1
i
s
k 1 w r
N*
*m m 1
ik k
Свойства матрицы
d
m 1
)(r
m 1
j
s
r
N*
m 1
j
) d
m 1 m 1
k
k 1 ik
(r
s
m 1
m 1
k
)
*
W ( )
*
*
w j 1 ( wi*, j ) 2
W (W ) ;
TrW i 1 w M ;
M
w *;
N
M M
M
M
* 2
1 * ( wi , j ) * *
1 * , i j
*
N N
N ( N 1) N
*
*
i ,i
* 2
*
N*
*
i ,i
*
i ,i
N*

21. Динамические аттракторы

22. Фрагмент нервной ткани коры мозга

23. Структура синаптической матрицы слоя нейронов

Хопфилдовский
нейронный ансамбль
выходы ансамбля
входы ансамбля
English     Русский Rules