ВУЗ:
Составители:
Рубрика:
115
Лабораторная работа № 13
Исследование самоорганизующихся
LVQ-сетей
Цель работы: изучение архитектуры самоорганизующихся ней-
ронных сетей типа
LVQ и специальных функций для их создания,
настройки весов и обучения; ознакомление с демонстрационными
примерами и их скриптами, а также приобретение навыков построе-
ния таких сетей для решения задач классификации входных векто-
ров.
Теоретические сведения
Самоорганизующиеся нейронные сети типа LVQ (Learning
Vector Quantization)
, или сети для классификации входных векто-
ров, состоят из двух слоёв без смещения. Входной слой является
конкурирующим и используется для кластеризации векторов. Вы-
ходной слой является линейным с передаточной функцией
purelin и
обеспечивает соотнесение кластеров с целевыми классами, заданны-
ми пользователем. На каждый кластер во входном слое должен быть
задан один нейрон, причём количество классов не должно быть
больше количества кластеров.
Поскольку заранее известно, как кластеры первого слоя соотно-
сятся с целевыми классами второго слоя, то это позволяет заранее
задать элементы
матрицы весов LW второго слоя. Однако чтобы
найти правильный кластер для каждого вектора обучающего множе-
ства, необходимо выполнить процедуру обучения сети.
Для создания
LVQ-сетей используется функция newlog, обраще-
ние к которой имеет следующий вид:
net = newlvg(PR, S1, PC, LR, LF),
где PR – массив размером Rх2 минимальных и максимальных значе-
ний R векторов входа;
S1 – число нейронов входного слоя (число кластеров);
Лабораторная работа № 13
Исследование самоорганизующихся
LVQ-сетей
Цель работы: изучение архитектуры самоорганизующихся ней-
ронных сетей типа LVQ и специальных функций для их создания,
настройки весов и обучения; ознакомление с демонстрационными
примерами и их скриптами, а также приобретение навыков построе-
ния таких сетей для решения задач классификации входных векто-
ров.
Теоретические сведения
Самоорганизующиеся нейронные сети типа LVQ (Learning
Vector Quantization), или сети для классификации входных векто-
ров, состоят из двух слоёв без смещения. Входной слой является
конкурирующим и используется для кластеризации векторов. Вы-
ходной слой является линейным с передаточной функцией purelin и
обеспечивает соотнесение кластеров с целевыми классами, заданны-
ми пользователем. На каждый кластер во входном слое должен быть
задан один нейрон, причём количество классов не должно быть
больше количества кластеров.
Поскольку заранее известно, как кластеры первого слоя соотно-
сятся с целевыми классами второго слоя, то это позволяет заранее
задать элементы матрицы весов LW второго слоя. Однако чтобы
найти правильный кластер для каждого вектора обучающего множе-
ства, необходимо выполнить процедуру обучения сети.
Для создания LVQ-сетей используется функция newlog, обраще-
ние к которой имеет следующий вид:
net = newlvg(PR, S1, PC, LR, LF),
где PR – массив размером Rх2 минимальных и максимальных значе-
ний R векторов входа;
S1 – число нейронов входного слоя (число кластеров);
115
Страницы
- « первая
- ‹ предыдущая
- …
- 113
- 114
- 115
- 116
- 117
- …
- следующая ›
- последняя »
