Жесткая ступенька (Binary step)
Сигмоида
Гиперболический тангенс
ReLU
Softmax
136.62K
Category: informaticsinformatics

Функции активации

1.

Функции активации

2.

Функция активации – функция, вычисляющая выходной
сигнал искусственного нейрона. В качестве аргумента
принимает сигнал, получаемый на выходе входного
сумматора.
Где - входные сигналы, совокупность которых формируют вектор ;
- весовые коэффициенты, совокупность которых образуют вектор весов ;
- взвешенная сумма входных сигналов, значение
передается на нелинейный элемент;
- пороговый уровень данного нейрона;
- нелинейная функция, называемая функцией активации.
Нейрон имеет несколько входных сигналов
и один выходной сигнал
.

3. Жесткая ступенька (Binary step)

Range: {0, 1}

4. Сигмоида

Range: (0,1)

5. Гиперболический тангенс

Range: (-1, 1)

6. ReLU

Range: [0, ∞)

7. Softmax

Range: (0, 1)

8.

Нейронная сеть для прогнозирования пяти классов качества воды.
Например, если значения выходных нейронов сети оказались равными {0.314, 0.503,
0.142, 0.028, 0.018 }, то с вероятностью 0.503 можно предположить, что это измерение
было взято из водоема 3 класса качества, а с вероятностью 0.817 – из водоема 2-3
классов.
English     Русский Rules