ВУЗ:
Составители:
24
обучающей выборки предъявляются последовательно, и каждый раз происходит
подстройка весов .
Алгоритм обучения сети Кохонена
Шаг 1. Инициализация сети.
Весовым коэффициентам сети mjniw
ij
,1,,1, == присваиваются малые случайные
значения. Задаются значения
0
α
-начальный темп обучения и
0
D
-максимальное
расстояние между весовыми векторами (столбцами матрицы
W
).
Шаг 2. Предъявление сети нового входного сигнала
X
.
Шаг 3. Вычисление расстояния от входа
X
до всех нейронов сети:
mjwxd
n
i
N
ijij
,1,)(
1
2
=−=
∑
=
Шаг 4. Выбор нейрона
m
k
k
≤
≤
1
,
с наименьшим расстоянием
k
d .
Шаг 5. Настройка весов нейрона
k
и всех нейронов , находящихся от него на рас-
стоянии не превосходящем
N
D .
)(
1 N
ijiN
N
ij
N
ij
wxww −+=
+
α
Шаг 6. Уменьшение значений
NN
D ,
α
.
Шаг 7. Шаги 2-6 повторяются до тех пор , веса не перестанут меняться (или пока
суммарное изменение всех весов станет очень мало).
После обучения классификация выполняется посредством подачи на вход
сети испытуемого вектора , вычисления расстояния от него до каждого нейрона с
последующим выбором нейрона с наименьшим расстоянием как индикатора пра -
вильной классификации.
Замечание. Если предварительно провести единичную нормировку всех
входных векторов , то есть подавать на вход сети образы
'
X
, компоненты которо-
го связаны с компонентами векторами
X
по формулам :
22
2
2
1
...
'
n
i
i
xxx
x
x
+++
=
, а
также если после каждой итерации процесса обучения осуществлять нормировку
весов каждого нейрона (столбцов матрицы
W
), то в качестве меры близости
входных векторов и весовых векторов нейронов сети можно рассматривать ска -
лярное произведение между ними. Действительно в этом случае
N
ij
n
i
i
n
i
ij
n
i
N
ij
n
i
ii
n
i
N
ijij
wxwwxxwxd
∑∑∑∑∑
=====
−=+−=−=
11
2
11
2
1
2
222)(
. Таким образом , наи-
меньшим будет расстояние до того нейрона , скалярное произведение с весами
которого у входного вектора максимально. В этом случае можно считать, что ка -
ждый нейрон Кохонена реализует тождественную активационную функ -
цию
s
s
f
=
)
(
, где
∑
=
=
n
i
iij
xws
1
. Нейрон с максимальным значением активационной
функции объявляется “победителем” и его веса (а также веса нейронов из его ок -
ружения) пересчитываются.
24 обучающей выборки предъявляются последовательно, и каждый раз происходит подстройка весов. Алгоритм обучения сети Кохонена Шаг 1. Инициализация сети. Весовым коэффициентам сети wij , i =1, n, j =1, m присваиваются малые случайные значения. Задаются значения α 0 -начальный темп обучения и D0 -максимальное расстояние между весовыми векторами (столбцами матрицы W ). Шаг 2. Предъявление сети нового входного сигнала X . Шаг 3. Вычисление расстояния от входа X до всех нейронов сети: n d j =∑ ( xi −wijN ) 2 , j =1, m i =1 Шаг 4. Выбор нейрона k , 1 ≤k ≤m с наименьшим расстоянием d k . Шаг 5. Настройка весов нейрона k и всех нейронов, находящихся от него на рас- стоянии не превосходящем DN . wijN +1 =wijN +α N ( xi −wijN ) Шаг 6. Уменьшение значений α N , DN . Шаг 7. Шаги 2-6 повторяются до тех пор, веса не перестанут меняться (или пока суммарное изменение всех весов станет очень мало). После обучения классификация выполняется посредством подачи на вход сети испытуемого вектора, вычисления расстояния от него до каждого нейрона с последующим выбором нейрона с наименьшим расстоянием как индикатора пра- вильной классификации. Замечание. Если предварительно провести единичную нормировку всех входных векторов, то есть подавать на вход сети образы X ' , компоненты которо- xi го связаны с компонентами векторами X по формулам : xi ' = ,а x12 +x22 +... +xn2 также если после каждой итерации процесса обучения осуществлять нормировку весов каждого нейрона (столбцов матрицы W ), то в качестве меры близости входных векторов и весовых векторов нейронов сети можно рассматривать ска- лярное произведение между ними. Действительно в этом случае n n n n n d j =∑ ( xi −wijN ) 2 =∑ xi2 −2∑ xi wijN +∑ wij2 =2 −2∑ xi wijN . Таким образом, наи- i =1 i =1 i =1 i =1 i =1 меньшим будет расстояние до того нейрона, скалярное произведение с весами которого у входного вектора максимально. В этом случае можно считать, что ка- ждый нейрон Кохонена реализует тождественную активационную функ- n цию f ( s) =s , где s =∑ wij xi . Нейрон с максимальным значением активационной i =1 функции объявляется “победителем” и его веса (а также веса нейронов из его ок- ружения) пересчитываются.
Страницы
- « первая
- ‹ предыдущая
- …
- 22
- 23
- 24
- 25
- 26
- …
- следующая ›
- последняя »