ВУЗ:
Составители:
52
откуда для ряда радиальных функций с
12
p
xxx
¹¹¹
rrr
K
может быть полу-
чено решение для вектора весов выходного слоя
[
]
1
.
wd
-
=F
r
r
(4.12)
Математически точное решение (4.12) системы (4.10) при K = p со-
вершенно неприемлемо с практической точки зрения по двум причинам:
1) наличие большого числа скрытых нейронов вызовет адаптацию НС
к разного рода шумам или нерегулярностям, сопровождающим обучающие
выборки, то есть обобщающие свойства НС окажутся весьма слабыми;
2) при большой величине р вычислительная сложность обучающего
алгоритма становится чрезмерной.
Поэтому чаще всего отыскивается субоптимальное решение в пространст-
ве меньшей размерности K < p, которое с достаточной степенью точности
аппроксимирует точное, то есть
()
(
)
1
φ ,
K
ii
i
Fxwxc
=
=-
å
rrr
(4.13)
где с
i
– множество центров RBF, которые необходимо определить (заме-
тим, что при K = p можно положить
ii
cx
=
rr
).
Таким образом, задача обучения RBF–НС состоит в подборе опреде-
ленного количества радиальных базисных функций, их параметров и весов
w
i
таким образом, чтобы решение уравнения (4.13) оказалось наиболее
близким к точному. Эту проблему можно свести к минимизации некоторой
целевой функции, которую при использовании метрики Эвклида можно
записать как
( )
(
)
2
11
φ .
p
K
jiii
ij
Ewwxcd
==
éù
êú
=--
êú
êú
ëû
åå
r
rrr
(4.14)
Чаще всего в качестве RBF применяется функция Гаусса
()
(
)
2
2
φφ exp,
2σ
i
i
i
xc
xxc
éù
-
êú
êú
=-=-
êú
êú
ëû
rr
rrr
(4.15)
где
i
c
r
означает расположение центра
(
)
φ
x
r
, а дисперсия s
i
определяет шири-
ну радиальной функции, то есть процесс обучения при К << p сводится к:
- подбору центров
i
c
r
и дисперсий s
i
радиальных функций (4.15);
- подбору весов w
i
нейронов выходного слоя.
� � � откуда для ряда радиальных функций с x1 � x2 � � � x p может быть полу- чено решение для вектора весов выходного слоя � �1 � w � �� � d . (4.12) Математически точное решение (4.12) системы (4.10) при K = p со- вершенно неприемлемо с практической точки зрения по двум причинам: 1) наличие большого числа скрытых нейронов вызовет адаптацию НС к разного рода шумам или нерегулярностям, сопровождающим обучающие выборки, то есть обобщающие свойства НС окажутся весьма слабыми; 2) при большой величине р вычислительная сложность обучающего алгоритма становится чрезмерной. Поэтому чаще всего отыскивается субоптимальное решение в пространст- ве меньшей размерности K < p, которое с достаточной степенью точности аппроксимирует точное, то есть � � � � � K F � x � � � wi φ x � ci , (4.13) i �1 где сi – множество центров RBF, которые необходимо определить (заме- � � тим, что при K = p можно положить ci � xi ). Таким образом, задача обучения RBF–НС состоит в подборе опреде- ленного количества радиальных базисных функций, их параметров и весов wi таким образом, чтобы решение уравнения (4.13) оказалось наиболее близким к точному. Эту проблему можно свести к минимизации некоторой целевой функции, которую при использовании метрики Эвклида можно записать как � � K � � �� 2 � � p E � w� � � � � w j φ xi � ci � di �� . � (4.14) i �1 � j �1 � Чаще всего в качестве RBF применяется функция Гаусса � � � 2 � � � � � x � ci � � � φ � x � � φ x � ci � exp� � � 2σi2 � , � (4.15) �� �� � � где ci означает расположение центра φ � x � , а дисперсия �i определяет шири- ну радиальной функции, то есть процесс обучения при К << p сводится к: � � подбору центров ci и дисперсий �i радиальных функций (4.15); � подбору весов wi нейронов выходного слоя. 52
Страницы
- « первая
- ‹ предыдущая
- …
- 50
- 51
- 52
- 53
- 54
- …
- следующая ›
- последняя »