Интеллектуальный анализ временных рядов. Ярушкина Н.Г - 117 стр.

UptoLike

117
Шаг 4. Шаги 1-3 повторяются для всех обучающих векторов. Обучение за-
вершается по достижении заданного уровня ошибки или макси-
мально допустимого числа итераций.
Как видно из описания шагов 2-3, обучение сводится к решению задачи
оптимизации функционала ошибки градиентным методом.
Параметр
h
имеет смысл темпа обучения и выбирается достаточно ма-
лым для обеспечения сходимости метода.
Невысокий темп сходимости является «генетической болезнью» всех гра-
диентных методов, так как локальное направление градиента не всегда совпа-
дает с направлением к минимуму. Подстройка весов выполняется независимо
для каждой пары образов обучающей выборки. При этом улучшение функцио-
нирования на некоторой заданной паре может иногда приводить к ухудшению
работы на предыдущих образах. В этом смысле нет достоверных (кроме весьма
обширной практики применения метода) гарантий сходимости.
Исследования показывают, что для представления произвольного функ-
ционального отображения, задаваемого обучающей выборкой, достаточно всего
два слоя нейронов. Однако на практике, в случае сложных функций
, использо-
вание более чем одного скрытого слоя может давать экономию полного числа
нейронов [Ярушкина, 2004].
Большую роль для повышения эффективности обучения сети играет ар-
хитектура НС [Горбань, 1990]. Точность определяется числом нейронов в скры-
том слое, но при слишком большой размерности скрытого слоя может насту-
пить явление, называемое перетренировкой (переобучение) сети. Для
устране-
ния этого недостатка необходимо, чтобы число нейронов в промежуточном
слое было значительно меньше, чем число тренировочных образов. С другой
стороны, при слишком маленькой размерности скрытого слоя можно попасть в
нежелательный локальный минимум.
В [Горбань, 1990] предложены способы настройки числа нейронов в про-
цессе обучения, которые обеспечивают построение нейронной сети для реше
-
ния задачи и дают возможность избежать избыточности. Эти способы адапта-