Нейросетевые технологии. Каширина И.Л. - 33 стр.

UptoLike

Составители: 

33
)exp()(
22
σ
jkjk
ddh = ,
где начальное значение 1
>
σ
.
Для выходного нейрона-победителя
k, как и для остальных нейронов
j векторы весов обновляются по модифицированному правилу:
))((
1 N
ijijkN
N
ij
N
ij
wxdhww +=
+
α
, 1, .
j
m=
При этом, если
σ
2>
jk
d , то, при использовании функции Гаусса,
0)(
jk
dh , поэтому фактически будут меняться веса только тех нейронов,
которые входят в зону соседства нейрона
k (определяемую текущим значе-
нием
σ
). Радиус взаимодействия нейронов
σ
постепенно уменьшается в
процессе обучения до значения, меньшего 0.5, так что на конечной стадии
обучения мы возвращаемся к базовому правилу адаптации весов только
нейрона-победителя.
Алгоритм обучения карты Кохонена
Шаг 1
. Инициализация сети.
Весовым коэффициентам сети
mjniw
ij
,1,,1, == присваиваются начальные
случайные значения. Задаются значения
0
α
начальный темп обучения и
1
0
>
σ
радиус первоначальной зоны соседства нейронов.
Шаг 2. Предъявление сети нового входного сигнала .X
Шаг 3. Вычисление расстояния от входа X до всех нейронов сети:
2
1
(),1,.
n
N
jiij
i
Dxwjm
=
=− =
Шаг 4. Выбор нейрона m
k
k
1, с наименьшим расстоянием
k
D (отне-
сение входного вектора
X в кластер k).
Шаг 5. Настройка весов нейрона
k
и всех остальных нейронов карты:
))((
1 N
ijijkN
N
ij
N
ij
wxdhww +=
+
α
, 1, , 1, .injm==
Шаг 6. Уменьшение значений ,
NN
α
σ
.
Шаг 7. Шаги 2–6 повторяются до тех пор, пока не стабилизируется рас-
пределение обучающих векторов по кластерам.
Замечание 1.
Если предварительно провести единичную нормировку всех
входных векторов, то начальная весовая матрица тоже должна быть нор-
мирована по столбцам. В общем случае начальные значения весовых ко-
эффициентов должны лежать в области изменения соответствующих им
входных значений, т.е. все
),1( mjw
ij
= , должны лежать в области измене-
ния
x
i
, ni ,1= .
                            h(d jk ) = exp(− d 2jk σ 2 ) ,
где начальное значение σ > 1 .
      Для выходного нейрона-победителя k, как и для остальных нейронов
j векторы весов обновляются по модифицированному правилу:
                 wijN +1 = wijN + α N h(d jk )( xi − wijN ) , j = 1, m.
При этом, если d jk > 2σ , то, при использовании функции Гаусса,
h(d jk ) ≈ 0 , поэтому фактически будут меняться веса только тех нейронов,
которые входят в зону соседства нейрона k (определяемую текущим значе-
нием σ ). Радиус взаимодействия нейронов σ постепенно уменьшается в
процессе обучения до значения, меньшего 0.5, так что на конечной стадии
обучения мы возвращаемся к базовому правилу адаптации весов только
нейрона-победителя.
                      Алгоритм обучения карты Кохонена
Шаг 1. Инициализация сети.
Весовым коэффициентам сети wij , i = 1, n, j = 1, m присваиваются начальные
случайные значения. Задаются значения α 0 – начальный темп обучения и
σ 0 > 1 – радиус первоначальной зоны соседства нейронов.
Шаг 2. Предъявление сети нового входного сигнала X .
Шаг 3. Вычисление расстояния от входа X до всех нейронов сети:
                                  n
                           D j = ∑( xi − wijN ) 2 , j = 1, m.
                                 i =1
Шаг 4. Выбор нейрона k , 1 ≤ k ≤ m с наименьшим расстоянием Dk (отне-
сение входного вектора X в кластер k).
Шаг 5. Настройка весов нейрона k и всех остальных нейронов карты:
            wijN +1 = wijN + α N h(d jk )( xi − wijN ) , i = 1, n, j = 1, m.
Шаг 6. Уменьшение значений α N , σ N .
Шаг 7. Шаги 2–6 повторяются до тех пор, пока не стабилизируется рас-
пределение обучающих векторов по кластерам.

Замечание 1. Если предварительно провести единичную нормировку всех
входных векторов, то начальная весовая матрица тоже должна быть нор-
мирована по столбцам. В общем случае начальные значения весовых ко-
эффициентов должны лежать в области изменения соответствующих им
входных значений, т.е. все wij ( j = 1, m) , должны лежать в области измене-
ния xi , i = 1, n .



                                          33