Нейросетевые структуры и технологии. Часть 1. Электрические и математические модели нейронов. НС прямого распространения. Клюкин В.И - 55 стр.

UptoLike

55
Радиальные НС относятся к той же категории сетей, обучаемых с
учителем, что и сигмоидальные НС (например, МСП), однако обнаружи-
вают значительные отличия:
- RBF–НС имеют фиксированную структуру с одним скрытым слоем
и линейными выходными нейронами;
- обобщающие способности радиальных НС несколько хуже ввиду
глобального характера сигмоидальных функций активации;
- в отличие от сигмоид RBF могут быть весьма разнообразны, что уве-
личивает вероятность достижения успеха с их помощью;
- RBF–НС имеют более простой (и более быстрый) алгоритм обуче-
ния, поскольку этапы определения
i
c
r
, s
i
и
w
r
можно разделить;
- возможность лучшего выбора начальных условий обучения радиаль-
ных НС увеличивает вероятность достижения глобального минимума
(
)
Ew
;
- радиальные НС обеспечивают лучшее решение классификаци-
онных задач.
4.4. Специализированные структуры НС
Специализированные НС обеспечивают оптимальный выбор архи-
тектуры, сочетая определение структуры НС с ее обучением. К их числу
относятся сеть каскадной корреляции Фальмана и сеть Вольтерри.
4.4.1. НС каскадной корреляции Фальмана
Эта сеть представляет собой многослойную конструкцию, в которой
формирование структуры НС происходит параллельно с ее обучением пу-
тем добавления на каждом этапе обучения одного скрытого нейрона. Ар-
хитектура сети каскадной корреляции представляет собой объединение
нейронов взвешенными связями в виде развивающегося каскада (рис. 4.5),
где каждый очередной добавляемый нейрон подключается ко всем уже
существующим нейронам (входным, скрытым, выходным), причем вход-
ные узлы НС напрямую подключаются также и к выходным нейронам.
Начальный этап включает формирование структуры НС только из
входных и выходных нейронов, количество которых определяется специ-
фикой решаемой задачи и не подлежит модификации. Каждый вход соеди-
нен со всеми выходными нейронами, функция активации которых может
быть любой. Обучение состоит в подборе весов связей любым методом
обучения (в оригинале Quickprop Фальмана) на основе минимизации целе-
вой функции
(
)
Ew
. Если результат обучения удовлетворителен с точки
зрения допустимой погрешности, процесс формирования структуры НС
считается законченным. В противном случае в структуру НС добавляется
один скрытый нейрон, образующий одноэлементный скрытый слой, в ко-
тором веса входных связей фиксированы, а обучению (коррекции) подле-
жат только веса его связей с выходными нейронами.
      Радиальные НС относятся к той же категории сетей, обучаемых с
учителем, что и сигмоидальные НС (например, МСП), однако обнаружи-
вают значительные отличия:
      � RBF–НС имеют фиксированную структуру с одним скрытым слоем
и линейными выходными нейронами;
      � обобщающие способности радиальных НС несколько хуже ввиду
глобального характера сигмоидальных функций активации;
      � в отличие от сигмоид RBF могут быть весьма разнообразны, что уве-
личивает вероятность достижения успеха с их помощью;
      � RBF–НС имеют более простой (и более быстрый) алгоритм обуче-
                                 �         �
ния, поскольку этапы определения ci , �i и w можно разделить;
      � возможность лучшего выбора начальных условий обучения радиаль-
                                                                     �
ных НС увеличивает вероятность достижения глобального минимума E � w � ;
    � радиальные НС обеспечивают лучшее решение классификаци-
онных задач.
4.4. Специализированные структуры НС
      Специализированные НС обеспечивают оптимальный выбор архи-
тектуры, сочетая определение структуры НС с ее обучением. К их числу
относятся сеть каскадной корреляции Фальмана и сеть Вольтерри.
4.4.1. НС каскадной корреляции Фальмана
       Эта сеть представляет собой многослойную конструкцию, в которой
формирование структуры НС происходит параллельно с ее обучением пу-
тем добавления на каждом этапе обучения одного скрытого нейрона. Ар-
хитектура сети каскадной корреляции представляет собой объединение
нейронов взвешенными связями в виде развивающегося каскада (рис. 4.5),
где каждый очередной добавляемый нейрон подключается ко всем уже
существующим нейронам (входным, скрытым, выходным), причем вход-
ные узлы НС напрямую подключаются также и к выходным нейронам.
       Начальный этап включает формирование структуры НС только из
входных и выходных нейронов, количество которых определяется специ-
фикой решаемой задачи и не подлежит модификации. Каждый вход соеди-
нен со всеми выходными нейронами, функция активации которых может
быть любой. Обучение состоит в подборе весов связей любым методом
обучения (в оригинале Quickprop Фальмана) на основе минимизации целе-
                  �
вой функции E � w � . Если результат обучения удовлетворителен с точки
зрения допустимой погрешности, процесс формирования структуры НС
считается законченным. В противном случае в структуру НС добавляется
один скрытый нейрон, образующий одноэлементный скрытый слой, в ко-
тором веса входных связей фиксированы, а обучению (коррекции) подле-
жат только веса его связей с выходными нейронами.

                                      55