ВУЗ:
Составители:
Рубрика:
115
Лабораторная работа № 13
Исследование самоорганизующихся
LVQ-сетей
Цель работы: изучение архитектуры самоорганизующихся ней-
ронных сетей типа
LVQ и специальных функций для их создания,
настройки весов и обучения; ознакомление с демонстрационными
примерами и их скриптами, а также приобретение навыков построе-
ния таких сетей для решения задач классификации входных векто-
ров.
Теоретические сведения
Самоорганизующиеся нейронные сети типа LVQ (Learning
Vector Quantization)
, или сети для классификации входных векто-
ров, состоят из двух слоёв без смещения. Входной слой является
конкурирующим и используется для кластеризации векторов. Вы-
ходной слой является линейным с передаточной функцией
purelin и
обеспечивает соотнесение кластеров с целевыми классами, заданны-
ми пользователем. На каждый кластер во входном слое должен быть
задан один нейрон, причём количество классов не должно быть
больше количества кластеров.
Поскольку заранее известно, как кластеры первого слоя соотно-
сятся с целевыми классами второго слоя, то это позволяет заранее
задать элементы
матрицы весов LW второго слоя. Однако чтобы
найти правильный кластер для каждого вектора обучающего множе-
ства, необходимо выполнить процедуру обучения сети.
Для создания
LVQ-сетей используется функция newlog, обраще-
ние к которой имеет следующий вид:
net = newlvg(PR, S1, PC, LR, LF),
где PR – массив размером Rх2 минимальных и максимальных значе-
ний R векторов входа;
S1 – число нейронов входного слоя (число кластеров);
Лабораторная работа № 13 Исследование самоорганизующихся LVQ-сетей Цель работы: изучение архитектуры самоорганизующихся ней- ронных сетей типа LVQ и специальных функций для их создания, настройки весов и обучения; ознакомление с демонстрационными примерами и их скриптами, а также приобретение навыков построе- ния таких сетей для решения задач классификации входных векто- ров. Теоретические сведения Самоорганизующиеся нейронные сети типа LVQ (Learning Vector Quantization), или сети для классификации входных векто- ров, состоят из двух слоёв без смещения. Входной слой является конкурирующим и используется для кластеризации векторов. Вы- ходной слой является линейным с передаточной функцией purelin и обеспечивает соотнесение кластеров с целевыми классами, заданны- ми пользователем. На каждый кластер во входном слое должен быть задан один нейрон, причём количество классов не должно быть больше количества кластеров. Поскольку заранее известно, как кластеры первого слоя соотно- сятся с целевыми классами второго слоя, то это позволяет заранее задать элементы матрицы весов LW второго слоя. Однако чтобы найти правильный кластер для каждого вектора обучающего множе- ства, необходимо выполнить процедуру обучения сети. Для создания LVQ-сетей используется функция newlog, обраще- ние к которой имеет следующий вид: net = newlvg(PR, S1, PC, LR, LF), где PR – массив размером Rх2 минимальных и максимальных значе- ний R векторов входа; S1 – число нейронов входного слоя (число кластеров); 115
Страницы
- « первая
- ‹ предыдущая
- …
- 113
- 114
- 115
- 116
- 117
- …
- следующая ›
- последняя »