Искусственные нейронные сети. Сивохин А.В - 104 стр.

UptoLike

104
=
=
0.a0,
0;aw),(plr
dw
j
j
'
Таким образом, вектор веса, наиболее близкий к вектору входа,
модифицируется так, чтобы расстояние между ними стало ещё
меньше. Результат такого обучения заключается в том, что победив-
ший нейрон, вероятно, выиграет конкуренцию и в том случае, когда
будет представлен новый входной вектор, близкий к предыдущему, и
его победа менее вероятна, когда
будет представлен вектор, сущест-
венно отличающийся от предыдущего. Когда на вход сети поступает
всё большее и большее число векторов, нейрон, являющийся бли-
жайшим, снова корректирует свой весовой вектор w. В конечном
счёте, если в слое имеется достаточное количество нейронов, то каж-
дая группа близких векторов окажется связанной с одним из нейро-
нов слоя. В этом и заключается свойство самоорганизации слоя
Кохонена.
Одно из ограничений всякого конкурирующего слоя состоит в
том, что некоторые нейроны оказываются незадействованными, или
мертвыми”. Это происходит
оттого, что нейроны, имеющие началь-
ные весовые векторы, значительно удаленные от векторов входа, ни-
когда не выигрывают конкуренции, независимо от продолжительно-
сти обучения. Для ликвидации нечувствительности таких нейронов
используют положительные смещения, которые добавляются к отри-
цательным расстояниям удаленных нейронов. Функция
learncon
производит такую корректировку смещений следующим образом.
В начале процедуры настройки сети всем нейронам присваивается
одинаковый характер активности
C
0
= 1/S. В процессе настройки эта
величина для активных нейронов увеличивается, а для неактивных
нейронов уменьшается:
c)(alrΔC
=
.
Нетрудно убедиться, что для всех нейронов, кроме нейрона-
победителя, приращения отрицательны. Функция learcon рас-
считывает приращения вектора смещений следующим образом:
blog(c))exp(1Δb =
.
                         ⎧⎪lr ∗ (p ' − w), a j ≠ 0;
                    dw = ⎨
                          ⎪⎩0, a j = 0.
   Таким образом, вектор веса, наиболее близкий к вектору входа,
модифицируется так, чтобы расстояние между ними стало ещё
меньше. Результат такого обучения заключается в том, что победив-
ший нейрон, вероятно, выиграет конкуренцию и в том случае, когда
будет представлен новый входной вектор, близкий к предыдущему, и
его победа менее вероятна, когда будет представлен вектор, сущест-
венно отличающийся от предыдущего. Когда на вход сети поступает
всё большее и большее число векторов, нейрон, являющийся бли-
жайшим, снова корректирует свой весовой вектор w. В конечном
счёте, если в слое имеется достаточное количество нейронов, то каж-
дая группа близких векторов окажется связанной с одним из нейро-
нов слоя. В этом и заключается свойство самоорганизации слоя
Кохонена.
   Одно из ограничений всякого конкурирующего слоя состоит в
том, что некоторые нейроны оказываются незадействованными, или
“мертвыми”. Это происходит оттого, что нейроны, имеющие началь-
ные весовые векторы, значительно удаленные от векторов входа, ни-
когда не выигрывают конкуренции, независимо от продолжительно-
сти обучения. Для ликвидации нечувствительности таких нейронов
используют положительные смещения, которые добавляются к отри-
цательным расстояниям удаленных нейронов. Функция learncon
производит такую корректировку смещений следующим образом.
   В начале процедуры настройки сети всем нейронам присваивается
одинаковый характер активности C0 = 1/S. В процессе настройки эта
величина для активных нейронов увеличивается, а для неактивных
нейронов уменьшается:
                          ΔC = lr ∗ (a − c) .
   Нетрудно убедиться, что для всех нейронов, кроме нейрона-
победителя, приращения отрицательны. Функция learcon рас-
считывает приращения вектора смещений следующим образом:
Δb = exp(1 − log(c)) − b .



                                 104