ВУЗ:
Составители:
Рубрика:
104
⎪
⎩
⎪
⎨
⎧
=
≠−∗
=
0.a0,
0;aw),(plr
dw
j
j
'
Таким образом, вектор веса, наиболее близкий к вектору входа,
модифицируется так, чтобы расстояние между ними стало ещё
меньше. Результат такого обучения заключается в том, что победив-
ший нейрон, вероятно, выиграет конкуренцию и в том случае, когда
будет представлен новый входной вектор, близкий к предыдущему, и
его победа менее вероятна, когда
будет представлен вектор, сущест-
венно отличающийся от предыдущего. Когда на вход сети поступает
всё большее и большее число векторов, нейрон, являющийся бли-
жайшим, снова корректирует свой весовой вектор w. В конечном
счёте, если в слое имеется достаточное количество нейронов, то каж-
дая группа близких векторов окажется связанной с одним из нейро-
нов слоя. В этом и заключается свойство самоорганизации слоя
Кохонена.
Одно из ограничений всякого конкурирующего слоя состоит в
том, что некоторые нейроны оказываются незадействованными, или
“мертвыми”. Это происходит
оттого, что нейроны, имеющие началь-
ные весовые векторы, значительно удаленные от векторов входа, ни-
когда не выигрывают конкуренции, независимо от продолжительно-
сти обучения. Для ликвидации нечувствительности таких нейронов
используют положительные смещения, которые добавляются к отри-
цательным расстояниям удаленных нейронов. Функция
learncon
производит такую корректировку смещений следующим образом.
В начале процедуры настройки сети всем нейронам присваивается
одинаковый характер активности
C
0
= 1/S. В процессе настройки эта
величина для активных нейронов увеличивается, а для неактивных
нейронов уменьшается:
c)(alrΔC
−
∗
=
.
Нетрудно убедиться, что для всех нейронов, кроме нейрона-
победителя, приращения отрицательны. Функция learcon рас-
считывает приращения вектора смещений следующим образом:
blog(c))exp(1Δb −−=
.
⎧⎪lr ∗ (p ' − w), a j ≠ 0;
dw = ⎨
⎪⎩0, a j = 0.
Таким образом, вектор веса, наиболее близкий к вектору входа,
модифицируется так, чтобы расстояние между ними стало ещё
меньше. Результат такого обучения заключается в том, что победив-
ший нейрон, вероятно, выиграет конкуренцию и в том случае, когда
будет представлен новый входной вектор, близкий к предыдущему, и
его победа менее вероятна, когда будет представлен вектор, сущест-
венно отличающийся от предыдущего. Когда на вход сети поступает
всё большее и большее число векторов, нейрон, являющийся бли-
жайшим, снова корректирует свой весовой вектор w. В конечном
счёте, если в слое имеется достаточное количество нейронов, то каж-
дая группа близких векторов окажется связанной с одним из нейро-
нов слоя. В этом и заключается свойство самоорганизации слоя
Кохонена.
Одно из ограничений всякого конкурирующего слоя состоит в
том, что некоторые нейроны оказываются незадействованными, или
“мертвыми”. Это происходит оттого, что нейроны, имеющие началь-
ные весовые векторы, значительно удаленные от векторов входа, ни-
когда не выигрывают конкуренции, независимо от продолжительно-
сти обучения. Для ликвидации нечувствительности таких нейронов
используют положительные смещения, которые добавляются к отри-
цательным расстояниям удаленных нейронов. Функция learncon
производит такую корректировку смещений следующим образом.
В начале процедуры настройки сети всем нейронам присваивается
одинаковый характер активности C0 = 1/S. В процессе настройки эта
величина для активных нейронов увеличивается, а для неактивных
нейронов уменьшается:
ΔC = lr ∗ (a − c) .
Нетрудно убедиться, что для всех нейронов, кроме нейрона-
победителя, приращения отрицательны. Функция learcon рас-
считывает приращения вектора смещений следующим образом:
Δb = exp(1 − log(c)) − b .
104
Страницы
- « первая
- ‹ предыдущая
- …
- 102
- 103
- 104
- 105
- 106
- …
- следующая ›
- последняя »
