Нейросетевые структуры и технологии. Часть 1. Электрические и математические модели нейронов. НС прямого распространения. Клюкин В.И - 50 стр.

UptoLike

50
начальному узлу данной взвешенной связи, второй величине погрешно-
сти, перенесенной на тот узел, с которым эта связь установлена. В класси-
ческом алгоритме ОРО фактор
(
)
pw
rr
задает направление отрицательного
градиента, поэтому в выражении (4.4)
(
)
η .
D=
rr
(4.8)
4.3. Радиальные нейронные сети (RBF–НС)
Рассмотренные выше многослойные сигмоидальные НС ввиду характе-
ра своей функции активации осуществляют аппроксимацию глобального ти-
па. Однако возможен и другой подход путем адаптации одиночных аппрок-
симирующих функций к ожидаемым значениям, когда отображение всего
входного множества представляет собой сумму локальных преобразований с
помощью функций, принимающих ненулевые значения в ограниченной об-
ласти пространства данных, то есть локальную аппроксимацию. При этом осо-
бое семейство образуют НС, в которых скрытые нейроны описываются ради-
альными базисными функциями (RBF Radial Basic Function)
(
)
φ() φ
xxc
=-
rr
, принимающие ненулевые значения только в окрестности
выбранного центра
c
r
. Эти сети представляют собой естественное дополнение
сигмоидальных НС. Действительно, если сигмоидальный нейрон образует в
многомерном пространстве гиперплоскость (рис. 4.3, а), то радиальный ги-
персферу (рис. 4.3, б), осуществляющую шаровое разделение пространства
вокруг центральной точки, что в случае круговой симметрии входных данных
позволяет значительно сократить число скрытых нейронов, необходимых для
разделения различных классов.
Математическую основу функционирования RBF–НС составляет
теорема Т. Ковера, согласно которой N-мерное входное пространство явля-
ется j-разделяемым на два пространственных класса Х
+
и Х
, если сущест-
вует такой вектор весов
w
r
, что
(
)
()
φ 0,;
φ 0,.
T
T
wx
если xX
wx
если xX
+
-
r
rrr
r
rrr
(4.9)
Рис. 4.3. Разделение пространства данных:
а сигмоидальным нейроном; б радиальным нейроном
а) б)
+ + + + + + +
начальному узлу данной взвешенной связи, второй – величине погрешно-
сти, перенесенной на тот узел, с которым эта связь установлена. В класси-
                                 � �
ческом алгоритме ОРО фактор p � w � задает направление отрицательного
градиента, поэтому в выражении (4.4)
                                    �            �
                                   �w � � η� E � w� .                (4.8)
4.3. Радиальные нейронные сети (RBF–НС)
       Рассмотренные выше многослойные сигмоидальные НС ввиду характе-
ра своей функции активации осуществляют аппроксимацию глобального ти-
па. Однако возможен и другой подход – путем адаптации одиночных аппрок-
симирующих функций к ожидаемым значениям, когда отображение всего
входного множества представляет собой сумму локальных преобразований с
помощью функций, принимающих ненулевые значения в ограниченной об-
ласти пространства данных, то есть локальную аппроксимацию. При этом осо-
бое семейство образуют НС, в которых скрытые нейроны описываются ради-
альными базисными функциями (RBF – Radial Basic Function)
            � �
φ( x) � φ � x � c � , принимающие ненулевые значения только в окрестности
                       �
выбранного центра c . Эти сети представляют собой естественное дополнение
сигмоидальных НС. Действительно, если сигмоидальный нейрон образует в
многомерном пространстве гиперплоскость (рис. 4.3, а), то радиальный – ги-
персферу (рис. 4.3, б), осуществляющую шаровое разделение пространства
вокруг центральной точки, что в случае круговой симметрии входных данных
позволяет значительно сократить число скрытых нейронов, необходимых для
разделения различных классов.

   а)                                    б)
          +++++++
          –––––––

                   Рис. 4.3. Разделение пространства данных:
               а – сигмоидальным нейроном; б – радиальным нейроном

      Математическую основу функционирования RBF–НС составляет
теорема Т. Ковера, согласно которой N-мерное входное пространство явля-
ется �-разделяемым на два пространственных класса Х+ и Х–, если сущест-
                        �
вует такой вектор весов w , что
                       � � �               �
                      wT φ � x � � 0, если x � X � ;
                       � � �               �           (4.9)
                      wT φ � x � � 0, если x � X � .
                                          50