ВУЗ:
Составители:
52
откуда для ряда радиальных функций с
12
p
xxx
¹¹¹
rrr
K
может быть полу-
чено решение для вектора весов выходного слоя
[
]
1
.
wd
-
=F
r
r
(4.12)
Математически точное решение (4.12) системы (4.10) при K = p со-
вершенно неприемлемо с практической точки зрения по двум причинам:
1) наличие большого числа скрытых нейронов вызовет адаптацию НС
к разного рода шумам или нерегулярностям, сопровождающим обучающие
выборки, то есть обобщающие свойства НС окажутся весьма слабыми;
2) при большой величине р вычислительная сложность обучающего
алгоритма становится чрезмерной.
Поэтому чаще всего отыскивается субоптимальное решение в пространст-
ве меньшей размерности K < p, которое с достаточной степенью точности
аппроксимирует точное, то есть
()
(
)
1
φ ,
K
ii
i
Fxwxc
=
=-
å
rrr
(4.13)
где с
i
– множество центров RBF, которые необходимо определить (заме-
тим, что при K = p можно положить
ii
cx
=
rr
).
Таким образом, задача обучения RBF–НС состоит в подборе опреде-
ленного количества радиальных базисных функций, их параметров и весов
w
i
таким образом, чтобы решение уравнения (4.13) оказалось наиболее
близким к точному. Эту проблему можно свести к минимизации некоторой
целевой функции, которую при использовании метрики Эвклида можно
записать как
( )
(
)
2
11
φ .
p
K
jiii
ij
Ewwxcd
==
éù
êú
=--
êú
êú
ëû
åå
r
rrr
(4.14)
Чаще всего в качестве RBF применяется функция Гаусса
()
(
)
2
2
φφ exp,
2σ
i
i
i
xc
xxc
éù
-
êú
êú
=-=-
êú
êú
ëû
rr
rrr
(4.15)
где
i
c
r
означает расположение центра
(
)
φ
x
r
, а дисперсия s
i
определяет шири-
ну радиальной функции, то есть процесс обучения при К << p сводится к:
- подбору центров
i
c
r
и дисперсий s
i
радиальных функций (4.15);
- подбору весов w
i
нейронов выходного слоя.
� � �
откуда для ряда радиальных функций с x1 � x2 � � � x p может быть полу-
чено решение для вектора весов выходного слоя
� �1 �
w � �� � d . (4.12)
Математически точное решение (4.12) системы (4.10) при K = p со-
вершенно неприемлемо с практической точки зрения по двум причинам:
1) наличие большого числа скрытых нейронов вызовет адаптацию НС
к разного рода шумам или нерегулярностям, сопровождающим обучающие
выборки, то есть обобщающие свойства НС окажутся весьма слабыми;
2) при большой величине р вычислительная сложность обучающего
алгоритма становится чрезмерной.
Поэтому чаще всего отыскивается субоптимальное решение в пространст-
ве меньшей размерности K < p, которое с достаточной степенью точности
аппроксимирует точное, то есть
� � �
� �
K
F � x � � � wi φ x � ci , (4.13)
i �1
где сi – множество центров RBF, которые необходимо определить (заме-
� �
тим, что при K = p можно положить ci � xi ).
Таким образом, задача обучения RBF–НС состоит в подборе опреде-
ленного количества радиальных базисных функций, их параметров и весов
wi таким образом, чтобы решение уравнения (4.13) оказалось наиболее
близким к точному. Эту проблему можно свести к минимизации некоторой
целевой функции, которую при использовании метрики Эвклида можно
записать как
� � K � � �� 2
� �
p
E � w� � � � � w j φ xi � ci � di �� .
� (4.14)
i �1 � j �1 �
Чаще всего в качестве RBF применяется функция Гаусса
� � � 2 �
� � � � x � ci �
� �
φ � x � � φ x � ci � exp� �
� 2σi2
� ,
�
(4.15)
�� ��
� �
где ci означает расположение центра φ � x � , а дисперсия �i определяет шири-
ну радиальной функции, то есть процесс обучения при К << p сводится к:
�
� подбору центров ci и дисперсий �i радиальных функций (4.15);
� подбору весов wi нейронов выходного слоя.
52
Страницы
- « первая
- ‹ предыдущая
- …
- 50
- 51
- 52
- 53
- 54
- …
- следующая ›
- последняя »
