Искусственные нейронные сети. Сивохин А.В - 103 стр.

UptoLike

103
которое каждому нейрону задаёт одно и то же смещение, равное
exp(1)*S. Например, для S=5 это смещение равно 5*2.71828=
=1.359740*10
1
.
Взвешивание входов слоя Кохонена реализуется в виде отрица-
тельного евклидова расстояния между каждой строкой
Wi матрицы
весов
W и каждым столбцом Pj матрицы входов P, которое вычисля-
ется функцией
negdist(W,P). Суммирование взвешенных входов со
смещениями производится функцией
netsum.
Формирование самоорганизующегося слоя Кохонена осуществля-
ется функцией
net = newc(PR,S,KLr,clr),
где KLrпараметр функции настройки весов, значение по умолча-
нию которого равно
0.01;
clrпараметр функции настройки смещений, значение по умол-
чанию которого равно
0.001.
Эта функция формирует однослойную сеть с
R нейронами и R
входами. Веса входов устанавливаются равными половине диапазо-
на соответствующего вектора входа для всех нейронов. Также для
всех нейронов устанавливается одно и то же смещение, равное
e*s.
Выходы нейронов поступают на конкурирующую передаточную
функцию compet, которая определяет победителя. Номер активного
нейрона-победителя
I* определяет ту группу (кластер), к которой
наиболее близок входной вектор.
Для того чтобы сформированная таким образом сеть решала зада-
чу кластеризации данных, необходимо предварительно настроить ее
веса и смещения по обучающей последовательностью векторов с по-
мощью функций настройки
learnk и learncon соответственно, ис-
пользуя процедуру адаптации
adapt или процедуру обучения train.
Функция
learnk рассчитывает приращение весов dW в зависимо-
сти от вектора входа
P, выхода а, весов w и параметра скорости на-
стройки
lr в соответствии с правилом Кохонена:
которое каждому нейрону задаёт одно и то же смещение, равное
exp(1)*S. Например, для S=5 это смещение равно 5*2.71828=
=1.359740*101.
   Взвешивание входов слоя Кохонена реализуется в виде отрица-
тельного евклидова расстояния между каждой строкой Wi матрицы
весов W и каждым столбцом Pj матрицы входов P, которое вычисля-
ется функцией negdist(W,P). Суммирование взвешенных входов со
смещениями производится функцией netsum.
   Формирование самоорганизующегося слоя Кохонена осуществля-
ется функцией
                      net = newc(PR,S,KLr,clr),
где KLr – параметр функции настройки весов, значение по умолча-
нию которого равно 0.01;
   clr – параметр функции настройки смещений, значение по умол-
чанию которого равно 0.001.
   Эта функция формирует однослойную сеть с R нейронами и R
входами. Веса входов устанавливаются равными половине диапазо-
на соответствующего вектора входа для всех нейронов. Также для
всех нейронов устанавливается одно и то же смещение, равное e*s.
Выходы нейронов поступают на конкурирующую передаточную
функцию compet, которая определяет победителя. Номер активного
нейрона-победителя I* определяет ту группу (кластер), к которой
наиболее близок входной вектор.
   Для того чтобы сформированная таким образом сеть решала зада-
чу кластеризации данных, необходимо предварительно настроить ее
веса и смещения по обучающей последовательностью векторов с по-
мощью функций настройки learnk и learncon соответственно, ис-
пользуя процедуру адаптации adapt или процедуру обучения train.
   Функция learnk рассчитывает приращение весов dW в зависимо-
сти от вектора входа P, выхода а, весов w и параметра скорости на-
стройки lr в соответствии с правилом Кохонена:




                               103