Интеллектуальный анализ данных в менеджменте. Кричевский М.Л. - 29 стр.

UptoLike

Составители: 

29
не сходимость более быстрая, но есть опасность «перескочить» через
решение, особенно в случаях, когда поверхность отклика имеет фор"
му узкого оврага. При малом шаге направление продвижения выби"
рается правильным, но требуется много итераций для достижения
минимума. На практике величина шага принимается пропорциональ"
ной крутизне склона с некоторой постоянной, называемой скорос"
тью обучения.
Для конкретности рассмотрим МПП, состоящий из входного,
скрытого и выходного слоев нейронов, схема которая приведена на
рис. 1.12.
Рис. 1.12
Обозначим x
i
(i = 1, 2,..., n) – входные нейроны; v
j
(j = 1, 2,..., q) –
нейроны скрытого слоя; y
k
(k = 1, 2,..., m) – выходные нейроны; w
ij
веса от ячеек входного слоя к нейронам скрытого слоя; w
jk
– веса от
нейронов скрытого слоя к выходным нейронам. Индексом р (p = 1,
2,..., P) обозначим различные образы, предъявляемые на вход. Вход"
ные сигналы могут быть бинарными, биполярными или непрерыв"
ными.
Поведение сети должно быть определено на основе ряда пар вход"
выход. Каждый обучающий пример состоит из n входных сигналов x
i
и m
соответствующих выходных сигналов t
k
. Обучение МПП для кон"
кретной задачи эквивалентно нахождению таких значений всех си"
наптических весов, при которых для соответствующего входа фор"
мируется требуемый выход. Таким образом, обучение многослойной
сети заключается в регулировании всех весов таким образом, что
S
S
S
S
S
S