254.00K
Categories: mathematicsmathematics biologybiology

Основные понятия искусственных нейронных сетей. (Лекция 2)

1.

Лекция 2.
Тема: “Основные понятия искусственных
нейронных сетей”

2.

Рис.2.1 – Структура искусственного нейрона

3.

Входной оператор
- сумма взвешенных входов
f ( x, w) wi xi
i 1
;
- максимальное значение взвешенных входов
f ( x,w) max ( wi xi )
i
- произведение взвешенных входов
N
f ( x,w) wi xi
i 1
;
- минимальное значение взвешенных входов
f ( x, w) min ( wi xi ) .
i
;

4.

Функция активации
- линейная
f(z)=K z,
K =const,
Рис.2.2 – Линейная функция

5.

- линейная биполярная с насыщением
z 2 ;
1 при
f ( z ) kz при 1 z 2 ;
1 при
z 1.
Рис.2.3 – Линейная с насыщением

6.

- линейная униполярная с насыщением
1
f(z) αz 0 ,5
0
при
при
при
1
;

1
z
;

1
z
.

z
Рис.2.4 – Линейная униполярная функция с насыщением

7.

– функция Хевисайда - униполярная пороговая функция
1 при z ;
f ( z)
0 при z .
Рис.2.5 – Пороговая функция

8.

– биполярная пороговая функция
1 при z ;
f ( z)
1 при z .
Рис.2.6 – Биполярная пороговая функция

9.

- логистическая (униполярная)
f log ( z )
1
1 e z
d
f log z f log z 1 f log ( z )
dZ
Рис.2.7 –Логистическая функция

10.

-гиперболического тангенса (биполярная)
fth z tanh z
e z e z
e z e z
d
fth z 1 tanh 2 ( z )
dz
,
Рис. 2.8 – Функция гиперболического тангенса

11.

Выражение логистической функции и функции
гиперболического тангенса друг через друга:
f tn ( z )
e z (1 e 2 z )
e (1 e
z
2z
)
2 (1 e 2 z )
1 e
2z
2 f log (2 z ) 1
1
z
f log ( z ) (tanh( ) 1)
2
2

12.

- модулированная сигмоида
f ( x, y )
1
1 e
x y
1
1 e x y
Рис. 2.9 – Функция “модулированная сигмоида”

13.

- синусоидальная с насыщением (биполярная)
1
f sn ( z ) sin z
1
d
f sn ( z )
dz
при z ;
при z ;
при z ,
2
1 f sn
( z)
Рис.2.10 – Функция синусоидальная с насыщением

14.

- косинусоидальная с насыщением (униполярная)
1
1
fCS ( z ) (1 cos(z ))
2
2
0
при z
при z
при z -
2
2
2
;
;
.
Рис.2.11 – Функция косинусоидальная с насыщением

15.

Топология ИНС
Рис.2.12 – Структура ИНС

16.

Способы представления ИНС
0
0
0
W 0
0
0
0
0 0.1 0 0.8
0
0
0 0 0.3 0.4 0.2
0
0 0
0
0
0
0.6
0 0
0
0
0
0.4
0 0
0
0
0
0.7
0 0
0
0
0
0.5
0 0
0
0
0
0
Рис.2.13 – Пример представления ИНС

17.

Топологии ИНС:
1. ИНС без обратных связей (прямого распространения, feed-forvard)
- первого порядка;
- второго порядка (c “shortcut connections”).
2. ИНС с обратными связями (обратного распространения,
рекуррентные, Feedback)
- с прямыми обратными связями (direct feedback);
- с непрямыми обратными связями (indirect feedback);
- с латеральными связями (lateral feedback);
- полносвязные.

18.

ИНС прямого распространения
Рис. 2.14 – ИНС прямого распространения второго порядка

19.

ИНС обратного распространения
Рис.2.15 – ИНС с прямыми обратными связями

20.

Рис.2.16 – ИНС с непрямыми обратными связями

21.

Рис.2.17 – ИНС с латеральными связями

22.

Полносвязные ИНС
Рис.2.18 – Полносвязная ИНС

23.

Подходы к обучению ИНС:
- изменение конфигурации сети путем образования новых
или исключения некоторых существующих связей между
нейронами;
- изменение элементов матрицы связи (весов);
- изменение характеристик нейронов (вида и параметров
активационной функции и т.д.).

24.

Рис.2.19 – Модель искусственного нейрона

25.

Типы обучения ИНС:
- Обучение с учителем;
- Обучение без учителя;
- Подкрепляемое обучение.

26.

Правило обучения Хэбба (коррелятивное,
соотносительное обучение)
wij xi y j
,
В векторном виде данное правило может быть записано
следующим образом:
для непрерывного времени
для дискретного времени
w
xy
t
w(k 1) w(k ) x(k ) y(k )
.

27.

Дельта-правило
*
wij xi y j y j
Расширенное дельта-правило
wij xi j
f ( x, w) y* y , если j - нейрон выходного слоя;
j
j
j
j f x, w w
в противном случае;
j
m
im
m

28.

-Конкурентное обучение;
-Стохастическое обучение;
-Градиентные методы обучения
wij w I (w)
где - коэффициент, влияющий на скорость обучения;
I ( w)
w I ( w)
wij

29.

Модели искусственных нейронов.
N
y j f ( w ji xi j )
i 1
Рис. 2.20 – Модель искусственного нейрона
Маккаллоха-Питтса и её обозначение

30.

N
N
i 0
i 0
y j f (u j ) f ( G ji xi / G ji ),
Рис. 2.21 – Электронная аналоговая модель нейронной клетки

31.

n
1 a ji xi
y j f i 1
1 , f (u j ) u j ,
m
0
1 b ji i
i 1
если u j 0;
в противном случае.
Рис. 2.22 – Упрощенная модель нейрона Фукушимы

32.

Модель искусственного нейрона Хопфилда
Cj
du j
d
N v
i I j,
R j i 1 R ji
uj
Рис. 2.23 – Модель Хопфилда динамической нейронной клетки

33.

N
T0 j
a j u j w ji xi j ,
d
i 0
du j
где
T j jC j
- постоянная интегрирования;
Рис.2.24 – Структура нейрона Хопфилда

34.

Модель Гроссберга
n
Tj
j u j ( j j u j ) w ji fi (ui ), fi (ui , j ) ,
d
i 1
du j
dw ji
d
ji w ji d ji fi (ui )hi (ui )
Рис.2.25 – Функциональная модель нейрона Гроссберга

35.

Сигма-ПИ-нейрон
m
Ni
i 1
j 1
z ( w, x) wi x j ,
m Ni
y f ( w, x) f wi x j
i 1 j 1
Рис.2.26 – Сигма-Пи нейрон

36.

Стохастический нейрон
1 с вероятностью P(z | y 1);
y
1 с вероятностью P(z | y 1),
где P(z|y=1)+P(z|y= – 1)=1.
x1
x2
.
.
.

шум
у
x3
Рис. 2.27 – Модель стохастического нейрона
English     Русский Rules