ВУЗ:
Составители:
Рубрика:
117
Это правило гарантирует, что при правильной классификации
нейрон-победитель приближается к векторам входа данного класса, а
при неправильной классификации удаляется от них. Оно различается
функцией настройки весов слоя
LVQ-сети learnlv1. Другая функция
настройки весов learnlv2 позволяет улучшить настройку параметров.
Она производит корректировку двух весовых векторов, близких к
входному. Два весовых вектора с евклидовыми расстояниям
di и dj
до вектора входа
p считаются близкими, если выполняется условие
min(di
*
/ dj
*
, dj
*
/ di
*
) > 0.5
÷
0.7.
Если при этом строка i* принадлежит к области в пространстве
признаков, соответствующей требуемому классу, а строка
j* не при-
надлежит, то корректировка весов производится следующим обра-
зом:
⎩
⎨
⎧
−−+−=
−−+−=
1).IW(q*jlr(p(q))1)IW(q*iIW(q)*j
1);IW(q*ilr(p(q))1)IW(q*iIW(q)*i
Практические задания
Задание 1. Создать нейронную LVQ-сеть для обучающей после-
довательности двухэлементных векторов, имеющих 4 нейрона во
входном слое и 2 нейрона в выходном с распределением [0.6 0.4],
проанализировать её структурную схему и значения параметров вы-
численной модели, обучить сеть и промоделировать её на обучаю-
щей последовательности, выполнив следующие команды:
P = [-3 -2 -2 0 0 0 0 +2 +2 +3; …
0 +1 -1 2 1 -1 -2 +1 -1 0];
Tc = [1 1 1 2 2 2 2 1 1 1 ]; %
– индексы классов;
T = ind2vec(Tc); %
– разряженная целевая матрица;
T = full(T); %
– полная целевая матрица;
net = newlvq(minmax(P), 4, [0.6 0.4]); %
– параметры вычисли-
% тельной модели
gensim(net); %
– структурная схема LVQ-сети;
net = train(net, P, T); %
– обучение сети со значениями
%параметров по умолчанию;
Y = sim(net, P) %
– моделирование LVQ-сети;
Это правило гарантирует, что при правильной классификации нейрон-победитель приближается к векторам входа данного класса, а при неправильной классификации удаляется от них. Оно различается функцией настройки весов слоя LVQ-сети learnlv1. Другая функция настройки весов learnlv2 позволяет улучшить настройку параметров. Она производит корректировку двух весовых векторов, близких к входному. Два весовых вектора с евклидовыми расстояниям di и dj до вектора входа p считаются близкими, если выполняется условие min(di*/ dj*, dj*/ di*) > 0.5 ÷ 0.7. Если при этом строка i* принадлежит к области в пространстве признаков, соответствующей требуемому классу, а строка j* не при- надлежит, то корректировка весов производится следующим обра- зом: ⎧i * IW(q) = i * IW(q − 1) + lr(p(q)) − i * IW(q − 1); ⎨ ⎩ j * IW(q) = i * IW(q − 1) + lr(p(q)) − j * IW(q − 1). Практические задания Задание 1. Создать нейронную LVQ-сеть для обучающей после- довательности двухэлементных векторов, имеющих 4 нейрона во входном слое и 2 нейрона в выходном с распределением [0.6 0.4], проанализировать её структурную схему и значения параметров вы- численной модели, обучить сеть и промоделировать её на обучаю- щей последовательности, выполнив следующие команды: P = [-3 -2 -2 0 0 0 0 +2 +2 +3; … 0 +1 -1 2 1 -1 -2 +1 -1 0]; Tc = [1 1 1 2 2 2 2 1 1 1 ]; % – индексы классов; T = ind2vec(Tc); % – разряженная целевая матрица; T = full(T); % – полная целевая матрица; net = newlvq(minmax(P), 4, [0.6 0.4]); % – параметры вычисли- % тельной модели gensim(net); % – структурная схема LVQ-сети; net = train(net, P, T); % – обучение сети со значениями %параметров по умолчанию; Y = sim(net, P) % – моделирование LVQ-сети; 117
Страницы
- « первая
- ‹ предыдущая
- …
- 115
- 116
- 117
- 118
- 119
- …
- следующая ›
- последняя »