ВУЗ:
Составители:
31
Алгоритм обучения сети встречного распространения
Шаг 1. Произвести единичную нормировку всех векторов (
Y
X , ) обучаю-
щего множества.
Шаг 2. Весовым коэффициентам сети mjnivw
jiij
,1,,1,, == присвоить ма-
лые случайные значения и произвести единичную нормировку матриц
V
W , по столбцам.
Положить 7.0
0
=
α
, 1.0
0
=
β
.
Шаг 3. Подать на вход сети обучающий набор (
Y
X ,) и определить един-
ственный нейрон-«победитель» в слое Кохонена (весовой вектор которо-
го дает максимальное скалярное произведение с входным вектором). Вы-
ход этого нейрона установить равным 1, выходы всех остальных нейронов
слоя Кохонена положить равными 0. Скорректировать веса выигравшего
нейрона: )(
1 N
ijiN
N
ij
N
ij
wzww −+=
+
α
, где ),(
Y
X
Z
=
.
Шаг 4. Подать выходной вектор слоя Кохонена на вход слоя Гроссберга. Скор-
ректировать веса слоя Гроссберга, связанные с выигравшим нейроном слоя Ко-
хонена:
)(
1 N
kiiN
N
ki
N
ki
vzvv −+=
+
β
(здесь
k
– номер выигравшего нейрона).
Шаг 5. Уменьшить значения
NN
β
α
,.
Шаг 6. Повторять шаги 3–5 до тех пор, пока каждая входная пара из обучаю-
щего множества на выходе будет порождать аналогичную выходную пару.
Замечание. Для улучшения обобщающих свойств сети встречного распро-
странения темп уменьшения значений
α
и
β
должен быть очень маленьким,
а общее количество итераций достаточно большим. (Все образы обучаю-
щей выборки желательно предъявить сети несколько десятков или даже
несколько сотен раз).
5.4. Самоорганизующиеся карты Кохонена
Основным отличием карты от сети Кохонена является введение в
правило обучения нейрона информации о его расположении относительно
других нейронов. До сих пор нейроны выходного слоя были неупорядоче-
ны: положение нейрона-победителя в слое не имело ничего общего
с координатами его весов во входном пространстве.
Карта Кохонена (Self-Organizing Maps, SOM) имеет единственный
выходной слой нейронов
, расположенных в форме двумерной сетки
(рис. 15). Небольшой модификацией обучения можно добиться того, что
положение нейрона в выходном слое будет взаимосвязано с положением
прототипов в многомерном пространстве входов сети: близким нейронам
будут соответствовать близкие значения входов. Такая сеть формирует то-
пологическую структуру, в которой похожие входные векторы образуют
Алгоритм обучения сети встречного распространения Шаг 1. Произвести единичную нормировку всех векторов ( X , Y ) обучаю- щего множества. Шаг 2. Весовым коэффициентам сети wij , v ji , i = 1, n, j = 1, m присвоить ма- лые случайные значения и произвести единичную нормировку матриц W , V по столбцам. Положить α 0 = 0.7 , β 0 = 0.1. Шаг 3. Подать на вход сети обучающий набор ( X , Y ) и определить един- ственный нейрон-«победитель» в слое Кохонена (весовой вектор которо- го дает максимальное скалярное произведение с входным вектором). Вы- ход этого нейрона установить равным 1, выходы всех остальных нейронов слоя Кохонена положить равными 0. Скорректировать веса выигравшего нейрона: wijN +1 = wijN + α N ( zi − wijN ) , где Z = ( X , Y ) . Шаг 4. Подать выходной вектор слоя Кохонена на вход слоя Гроссберга. Скор- ректировать веса слоя Гроссберга, связанные с выигравшим нейроном слоя Ко- хонена: vkiN +1 = vkiN + β N ( zi − vkiN ) (здесь k номер выигравшего нейрона). Шаг 5. Уменьшить значения α N , β N . Шаг 6. Повторять шаги 35 до тех пор, пока каждая входная пара из обучаю- щего множества на выходе будет порождать аналогичную выходную пару. Замечание. Для улучшения обобщающих свойств сети встречного распро- странения темп уменьшения значений α и β должен быть очень маленьким, а общее количество итераций достаточно большим. (Все образы обучаю- щей выборки желательно предъявить сети несколько десятков или даже несколько сотен раз). 5.4. Самоорганизующиеся карты Кохонена Основным отличием карты от сети Кохонена является введение в правило обучения нейрона информации о его расположении относительно других нейронов. До сих пор нейроны выходного слоя были неупорядоче- ны: положение нейрона-победителя в слое не имело ничего общего с координатами его весов во входном пространстве. Карта Кохонена (Self-Organizing Maps, SOM) имеет единственный выходной слой нейронов, расположенных в форме двумерной сетки (рис. 15). Небольшой модификацией обучения можно добиться того, что положение нейрона в выходном слое будет взаимосвязано с положением прототипов в многомерном пространстве входов сети: близким нейронам будут соответствовать близкие значения входов. Такая сеть формирует то- пологическую структуру, в которой похожие входные векторы образуют 31
Страницы
- « первая
- ‹ предыдущая
- …
- 29
- 30
- 31
- 32
- 33
- …
- следующая ›
- последняя »