Искусственные нейронные сети. Сивохин А.В - 117 стр.

UptoLike

117
Это правило гарантирует, что при правильной классификации
нейрон-победитель приближается к векторам входа данного класса, а
при неправильной классификации удаляется от них. Оно различается
функцией настройки весов слоя
LVQ-сети learnlv1. Другая функция
настройки весов learnlv2 позволяет улучшить настройку параметров.
Она производит корректировку двух весовых векторов, близких к
входному. Два весовых вектора с евклидовыми расстояниям
di и dj
до вектора входа
p считаются близкими, если выполняется условие
min(di
*
/ dj
*
, dj
*
/ di
*
) > 0.5
÷
0.7.
Если при этом строка i* принадлежит к области в пространстве
признаков, соответствующей требуемому классу, а строка
j* не при-
надлежит, то корректировка весов производится следующим обра-
зом:
+=
+=
1).IW(q*jlr(p(q))1)IW(q*iIW(q)*j
1);IW(q*ilr(p(q))1)IW(q*iIW(q)*i
Практические задания
Задание 1. Создать нейронную LVQ-сеть для обучающей после-
довательности двухэлементных векторов, имеющих 4 нейрона во
входном слое и 2 нейрона в выходном с распределением [0.6 0.4],
проанализировать её структурную схему и значения параметров вы-
численной модели, обучить сеть и промоделировать её на обучаю-
щей последовательности, выполнив следующие команды:
P = [-3 -2 -2 0 0 0 0 +2 +2 +3; …
0 +1 -1 2 1 -1 -2 +1 -1 0];
Tc = [1 1 1 2 2 2 2 1 1 1 ]; %
индексы классов;
T = ind2vec(Tc); %
разряженная целевая матрица;
T = full(T); %
полная целевая матрица;
net = newlvq(minmax(P), 4, [0.6 0.4]); %
параметры вычисли-
% тельной модели
gensim(net); %
структурная схема LVQ-сети;
net = train(net, P, T); %
обучение сети со значениями
%параметров по умолчанию;
Y = sim(net, P) %
моделирование LVQ-сети;
   Это правило гарантирует, что при правильной классификации
нейрон-победитель приближается к векторам входа данного класса, а
при неправильной классификации удаляется от них. Оно различается
функцией настройки весов слоя LVQ-сети learnlv1. Другая функция
настройки весов learnlv2 позволяет улучшить настройку параметров.
Она производит корректировку двух весовых векторов, близких к
входному. Два весовых вектора с евклидовыми расстояниям di и dj
до вектора входа p считаются близкими, если выполняется условие
                      min(di*/ dj*, dj*/ di*) > 0.5 ÷ 0.7.
   Если при этом строка i* принадлежит к области в пространстве
признаков, соответствующей требуемому классу, а строка j* не при-
надлежит, то корректировка весов производится следующим обра-
зом:
   ⎧i * IW(q) = i * IW(q − 1) + lr(p(q)) − i * IW(q − 1);
   ⎨
   ⎩ j * IW(q) = i * IW(q − 1) + lr(p(q)) − j * IW(q − 1).

                 Практические задания
   Задание 1. Создать нейронную LVQ-сеть для обучающей после-
довательности двухэлементных векторов, имеющих 4 нейрона во
входном слое и 2 нейрона в выходном с распределением [0.6 0.4],
проанализировать её структурную схему и значения параметров вы-
численной модели, обучить сеть и промоделировать её на обучаю-
щей последовательности, выполнив следующие команды:
   P = [-3 -2 -2 0 0 0 0 +2 +2 +3; …
    0 +1 -1 2 1 -1 -2 +1 -1 0];
   Tc = [1 1 1 2 2 2 2 1 1 1 ]; % – индексы классов;
   T = ind2vec(Tc);             % – разряженная целевая матрица;
   T = full(T);                 % – полная целевая матрица;
   net = newlvq(minmax(P), 4, [0.6 0.4]); % – параметры вычисли-
                                % тельной модели
   gensim(net);                 % – структурная схема LVQ-сети;
   net = train(net, P, T);      % – обучение сети со значениями
                                %параметров по умолчанию;
   Y = sim(net, P)              % – моделирование LVQ-сети;


                              117