ВУЗ:
Составители:
Рубрика:
95
Лабораторная работа № 9
Исследование радиальных базисных
сетей
типа GRNN
Цель работы: изучение архитектурных особенностей радиальных
базисных нейронных сетей типа
GRNN и специальных функций для
их создания, автоматической настройки весов и смещений и норми-
рованного взвешивания; ознакомление с демонстрационным приме-
ром и его скриптом, а также приобретение навыков построения таких
сетей для решения задач обобщенной регрессии, анализа временных
рядов и аппроксимации функций.
Теоретические сведения
Радиальная базисная сеть типа GRNN(Generalized Regression
Neural
Network), или обобщенная регрессионная сеть имеет архи-
тектуру, аналогичную архитектуре радиальной базисной сети общего
вида, и отличается от нее структурой второго слоя, в котором ис-
пользуется блок
normprod для вычисления нормированного скаляр-
ного произведения строки массива весов
LW{2,1} и вектора выхода
первого слоя
а{1} в соответствии со следующим соотношением:
n{2} = LW{2,1} * a{1}/sum(a{1}).
В общем виде функция normprod определяется так:
normprod(W,P) = W * P/sum(P/1),
где W – матрица весов размера S × R,
P – массив входов размера R × Q,
sum(P,1) – сумма элементов массива Р по столбцам.
Создание сети осуществляется фукцией
net = newgrnn(P,T,SPREAD).
Эта функция устанавливает веса первого слоя равным Р′, а сме-
щение – равным величине
0.8326/SPREAD, что приводит к радиаль-
ным базисным функциям, которые пересекают величину
0.5 при зна-
Лабораторная работа № 9
Исследование радиальных базисных
сетей
типа GRNN
Цель работы: изучение архитектурных особенностей радиальных
базисных нейронных сетей типа GRNN и специальных функций для
их создания, автоматической настройки весов и смещений и норми-
рованного взвешивания; ознакомление с демонстрационным приме-
ром и его скриптом, а также приобретение навыков построения таких
сетей для решения задач обобщенной регрессии, анализа временных
рядов и аппроксимации функций.
Теоретические сведения
Радиальная базисная сеть типа GRNN(Generalized Regression
Neural Network), или обобщенная регрессионная сеть имеет архи-
тектуру, аналогичную архитектуре радиальной базисной сети общего
вида, и отличается от нее структурой второго слоя, в котором ис-
пользуется блок normprod для вычисления нормированного скаляр-
ного произведения строки массива весов LW{2,1} и вектора выхода
первого слоя а{1} в соответствии со следующим соотношением:
n{2} = LW{2,1} * a{1}/sum(a{1}).
В общем виде функция normprod определяется так:
normprod(W,P) = W * P/sum(P/1),
где W – матрица весов размера S × R,
P – массив входов размера R × Q,
sum(P,1) – сумма элементов массива Р по столбцам.
Создание сети осуществляется фукцией
net = newgrnn(P,T,SPREAD).
Эта функция устанавливает веса первого слоя равным Р′, а сме-
щение – равным величине 0.8326/SPREAD, что приводит к радиаль-
ным базисным функциям, которые пересекают величину 0.5 при зна-
95
Страницы
- « первая
- ‹ предыдущая
- …
- 93
- 94
- 95
- 96
- 97
- …
- следующая ›
- последняя »
