Нейросетевые структуры и технологии. Часть 1. Электрические и математические модели нейронов. НС прямого распространения. Клюкин В.И - 52 стр.

UptoLike

52
откуда для ряда радиальных функций с
12
p
xxx
¹¹¹
rrr
K
может быть полу-
чено решение для вектора весов выходного слоя
[
]
1
wd
-
=F
r
r
(4.12)
Математически точное решение (4.12) системы (4.10) при K = p со-
вершенно неприемлемо с практической точки зрения по двум причинам:
1) наличие большого числа скрытых нейронов вызовет адаптацию НС
к разного рода шумам или нерегулярностям, сопровождающим обучающие
выборки, то есть обобщающие свойства НС окажутся весьма слабыми;
2) при большой величине р вычислительная сложность обучающего
алгоритма становится чрезмерной.
Поэтому чаще всего отыскивается субоптимальное решение в пространст-
ве меньшей размерности K < p, которое с достаточной степенью точности
аппроксимирует точное, то есть
()
(
)
1
φ ,
K
ii
i
Fxwxc
=
=-
å
rrr
(4.13)
где с
i
множество центров RBF, которые необходимо определить (заме-
тим, что при K = p можно положить
ii
cx
=
rr
).
Таким образом, задача обучения RBF–НС состоит в подборе опреде-
ленного количества радиальных базисных функций, их параметров и весов
w
i
таким образом, чтобы решение уравнения (4.13) оказалось наиболее
близким к точному. Эту проблему можно свести к минимизации некоторой
целевой функции, которую при использовании метрики Эвклида можно
записать как
( )
(
)
2
11
φ .
p
K
jiii
ij
Ewwxcd
==
éù
êú
=--
êú
êú
ëû
åå
r
rrr
(4.14)
Чаще всего в качестве RBF применяется функция Гаусса
()
(
)
2
2
φφ exp,
2σ
i
i
i
xc
xxc
éù
-
êú
êú
=-=-
êú
êú
ëû
rr
rrr
(4.15)
где
i
c
r
означает расположение центра
(
)
φ
x
r
, а дисперсия s
i
определяет шири-
ну радиальной функции, то есть процесс обучения при К << p сводится к:
- подбору центров
i
c
r
и дисперсий s
i
радиальных функций (4.15);
- подбору весов w
i
нейронов выходного слоя.
                                     � �           �
откуда для ряда радиальных функций с x1 � x2 � � � x p может быть полу-
чено решение для вектора весов выходного слоя
                              �      �1 �
                             w � �� � d .                              (4.12)

      Математически точное решение (4.12) системы (4.10) при K = p со-
вершенно неприемлемо с практической точки зрения по двум причинам:
      1) наличие большого числа скрытых нейронов вызовет адаптацию НС
к разного рода шумам или нерегулярностям, сопровождающим обучающие
выборки, то есть обобщающие свойства НС окажутся весьма слабыми;
      2) при большой величине р вычислительная сложность обучающего
алгоритма становится чрезмерной.
Поэтому чаще всего отыскивается субоптимальное решение в пространст-
ве меньшей размерности K < p, которое с достаточной степенью точности
аппроксимирует точное, то есть

                                �            � �
                                           �       �
                                      K
                            F � x � � � wi φ x � ci ,                  (4.13)
                                    i �1


где сi – множество центров RBF, которые необходимо определить (заме-
                                   � �
тим, что при K = p можно положить ci � xi ).
       Таким образом, задача обучения RBF–НС состоит в подборе опреде-
ленного количества радиальных базисных функций, их параметров и весов
wi таким образом, чтобы решение уравнения (4.13) оказалось наиболее
близким к точному. Эту проблему можно свести к минимизации некоторой
целевой функции, которую при использовании метрики Эвклида можно
записать как

                         �         � K    � �       �� 2
                                           �       �
                                p
                     E � w� � � � � w j φ xi � ci � di �� .
                                   �                                   (4.14)
                              i �1 � j �1               �

      Чаще всего в качестве RBF применяется функция Гаусса

                                            � � �       2   �
                        �       � �         � x � ci        �
                            �         �
                    φ � x � � φ x � ci � exp� �
                                            �   2σi2
                                                            � ,
                                                            �
                                                                       (4.15)
                                            ��              ��
    �                                   �
где ci означает расположение центра φ � x � , а дисперсия �i определяет шири-
ну радиальной функции, то есть процесс обучения при К << p сводится к:
                         �
      � подбору центров ci и дисперсий �i радиальных функций (4.15);
      � подбору весов wi нейронов выходного слоя.
                                           52