Нейросетевые технологии. Каширина И.Л. - 27 стр.

UptoLike

Составители: 

27
ния подстраиваются только веса только нейрона с номером k. Темп обуче-
ния
N
α
с течением времени также уменьшается (часто полагают
)001.0,9.0
10
==
+ NN
α
α
α
. Образы обучающей выборки предъявляются
последовательно, и каждый раз происходит подстройка весов.
Алгоритм обучения сети Кохонена
Шаг 1
. Инициализация сети.
Весовым коэффициентам сети
mjniw
ij
,1,,1, == присваиваются случайные
значения. Задаются значения
0
α
начальный темп обучения и
0
D
максимальное расстояние между весовыми векторами (столбцами матрицы W ).
Шаг 2. Предъявление сети нового входного сигнала .X
Шаг 3. Вычисление расстояния от входа X до всех нейронов сети:
2
1
(),1,.
n
N
jiij
i
dxwjm
=
=− =
Шаг 4. Выбор нейрона m
k
k
1, с наименьшим расстоянием .
k
d
Шаг 5. Настройка весов нейрона
k
и всех нейронов, находящихся от него
на расстоянии, не превосходящем
N
D
.
)(
1 N
ijiN
N
ij
N
ij
wxww +=
+
α
Шаг 6. Уменьшение значений
NN
D,
α
.
Шаг 7. Шаги 2–6 повторяются до тех пор, пока веса не перестанут менять-
ся (или пока суммарное изменение всех весов станет очень мало).
После обучения классификация выполняется посредством подачи на
вход сети испытуемого вектора, вычисления расстояния от него до каждо-
го нейрона с последующим выбором нейрона с наименьшим расстоянием
как индикатора правильной классификации.
Замечание 1. Если предварительно провести единичную нормировку
всех входных векторов, то есть подавать на вход сети образы 'X , компо-
ненты которого связаны с компонентами векторами
X по формулам:
22
2
2
1
...
'
n
i
i
xxx
x
x
+++
= , а также если после каждой итерации процесса обу-
чения осуществлять нормировку весов каждого нейрона (столбцов матри-
цы W ), то в качестве меры близости входных векторов и весовых векторов
нейронов сети можно рассматривать скалярное произведение между ними.
Действительно в этом случае
N
ij
n
i
i
n
i
ij
n
i
N
ij
n
i
ii
n
i
N
ijij
wxwwxxwxd
∑∑
=====
=+==
11
2
11
2
1
2
222)(
.
Таким образом, наименьшим будет расстояние до того нейрона, скалярное
произведение с весами которого у входного вектора максимально. В этом
случае можно считать, что каждый нейрон Кохонена реализует тождест-
ния подстраиваются только веса только нейрона с номером k. Темп обуче-
ния α N с течением времени также уменьшается (часто полагают
α 0 = 0.9, α N +1 = α N − 0.001) . Образы обучающей выборки предъявляются
последовательно, и каждый раз происходит подстройка весов.

                    Алгоритм обучения сети Кохонена

Шаг 1. Инициализация сети.
Весовым коэффициентам сети wij , i = 1, n, j = 1, m присваиваются случайные
значения. Задаются значения α 0 – начальный темп обучения и D0 –
максимальное расстояние между весовыми векторами (столбцами матрицы W ).
Шаг 2. Предъявление сети нового входного сигнала X .
Шаг 3. Вычисление расстояния от входа X до всех нейронов сети:
                                 n
                          d j = ∑( xi − wijN ) 2 , j = 1, m.
                                i =1
Шаг 4. Выбор нейрона k , 1 ≤ k ≤ m с наименьшим расстоянием d k .
Шаг 5. Настройка весов нейрона k и всех нейронов, находящихся от него
на расстоянии, не превосходящем DN .
                          wijN +1 = wijN + α N ( xi − wijN )
Шаг 6. Уменьшение значений α N , DN .
Шаг 7. Шаги 2–6 повторяются до тех пор, пока веса не перестанут менять-
ся (или пока суммарное изменение всех весов станет очень мало).
       После обучения классификация выполняется посредством подачи на
вход сети испытуемого вектора, вычисления расстояния от него до каждо-
го нейрона с последующим выбором нейрона с наименьшим расстоянием
как индикатора правильной классификации.
       Замечание 1. Если предварительно провести единичную нормировку
всех входных векторов, то есть подавать на вход сети образы X ' , компо-
ненты которого связаны с компонентами векторами X по формулам:
               xi
xi ' =                       , а также если после каждой итерации процесса обу-
       x12 + x22 + ... + xn2
чения осуществлять нормировку весов каждого нейрона (столбцов матри-
цы W ), то в качестве меры близости входных векторов и весовых векторов
нейронов сети можно рассматривать скалярное произведение между ними.
                                        n                       n            n        n                   n
Действительно в этом случае d j = ∑           (xi − wijN )2 =   ∑        ∑
                                                                     xi − 2 xiwijN
                                                                      2
                                                                                     +∑     wij2   = 2 −2∑xi wijN .
                                       i =1                     i =1       i =1      i =1                i =1
Таким образом, наименьшим будет расстояние до того нейрона, скалярное
произведение с весами которого у входного вектора максимально. В этом
случае можно считать, что каждый нейрон Кохонена реализует тождест-
                                              27