ВУЗ:
Составители:
Рубрика:
54
ем, который, например, по алгоритму обучения однослойного перцептрона не-
обходимо заставить отображать выходные реакции сети в требуемые образы.
Другой алгоритм обучения без учителя – алгоритм Кохонена – предусмат-
ривает подстройку синапсов на основании их значений от предыдущей итера-
ции.
[
]
wt wt y wt
ij ij i
n
ij
() () ()
()
=−+⋅ −−
−
11
1
α
(33)
Из вышеприведенной формулы видно, что обучение сводится к минимиза-
ции разницы между входными сигналами нейрона, поступающими с выходов
нейронов предыдущего слоя y
i
(n-1)
, и весовыми коэффициентами его синапсов.
Полный алгоритм обучения имеет примерно такую же структуру, как в ме-
тодах Хебба, но на шаге 3 из всего слоя выбирается нейрон, значения синапсов
которого максимально походят на входной образ, и подстройка весов по фор-
муле (3) проводится только для него. Эта, так называемая, аккредитация может
сопровождаться
затормаживанием всех остальных нейронов слоя и введением
выбранного нейрона в насыщение. Выбор такого нейрона может осуществлять-
ся, например, расчетом скалярного произведения вектора весовых коэффициен-
тов с вектором входных значений. Максимальное произведение дает выиграв-
ший нейрон.
Другой вариант — расчет расстояния между этими векторами в p-мерном
пространстве, где p — размер векторов.
Dyw
ji
n
ij
i
p
=−
−
=
−
∑
()
()12
0
1
, (34)
где j— индекс нейрона в слое n,
i — индекс суммирования по нейронам слоя (n–1),
w
ij
— вес синапса, соединяющего нейроны; выходы нейронов слоя (n–1) яв-
ляются входными значениями для слоя n.
Корень в формуле (34) брать не обязательно, так как важна лишь относительная
оценка различных D
j
.
В данном случае, "побеждает" нейрон с наименьшим расстоянием. Иногда
слишком часто получающие аккредитацию нейроны принудительно исключа-
ем, который, например, по алгоритму обучения однослойного перцептрона не-
обходимо заставить отображать выходные реакции сети в требуемые образы.
Другой алгоритм обучения без учителя – алгоритм Кохонена – предусмат-
ривает подстройку синапсов на основании их значений от предыдущей итера-
ции.
[
wij (t ) = wij (t − 1) + α ⋅ yi( n−1) − wij (t − 1) ] (33)
Из вышеприведенной формулы видно, что обучение сводится к минимиза-
ции разницы между входными сигналами нейрона, поступающими с выходов
нейронов предыдущего слоя yi(n-1), и весовыми коэффициентами его синапсов.
Полный алгоритм обучения имеет примерно такую же структуру, как в ме-
тодах Хебба, но на шаге 3 из всего слоя выбирается нейрон, значения синапсов
которого максимально походят на входной образ, и подстройка весов по фор-
муле (3) проводится только для него. Эта, так называемая, аккредитация может
сопровождаться затормаживанием всех остальных нейронов слоя и введением
выбранного нейрона в насыщение. Выбор такого нейрона может осуществлять-
ся, например, расчетом скалярного произведения вектора весовых коэффициен-
тов с вектором входных значений. Максимальное произведение дает выиграв-
ший нейрон.
Другой вариант — расчет расстояния между этими векторами в p-мерном
пространстве, где p — размер векторов.
p −1
Dj = ∑ (y
i=0
( n −1)
i − wij ) 2 , (34)
где j— индекс нейрона в слое n,
i — индекс суммирования по нейронам слоя (n–1),
wij — вес синапса, соединяющего нейроны; выходы нейронов слоя (n–1) яв-
ляются входными значениями для слоя n.
Корень в формуле (34) брать не обязательно, так как важна лишь относительная
оценка различных Dj.
В данном случае, "побеждает" нейрон с наименьшим расстоянием. Иногда
слишком часто получающие аккредитацию нейроны принудительно исключа-
54
Страницы
- « первая
- ‹ предыдущая
- …
- 52
- 53
- 54
- 55
- 56
- …
- следующая ›
- последняя »
