Интеллектуальный анализ данных в менеджменте. Кричевский М.Л. - 28 стр.

UptoLike

Составители: 

28
доказательстве теоремы, не оказывает существенного влияния на
итоговый результат.
1.6. Многослойные нейронные сети
Однослойные нейронные сети не могут выполнять некоторые дос"
таточно простые задачи, к примеру проблему исключающего ИЛИ.
Переход к многослойным нейронным сетям, способным решать бо"
лее сложные задачи, был затруднен из"за отсутствия обучающего
алгоритма для таких сетей. Только в 1974 г. П. Вербозом в док"
торской диссертации был предложен алгоритм обучения таких се"
тей, но его результаты оставались почти неизвестными для широ"
кого круга исследователей. Метод обучения многослойных сетей,
получивший название метода обратного распространения ошибки
(ОРО), в английском написании – Back Propagation Error (BPE),
был открыт вновь в 1986 г. [6], после чего начался интенсивный
период разработки нейросетевых технологий на основе многослой"
ных сетей в приложениях к различным сферам науки и техники. Рас"
смотрим метод ОРО для многослойного прямонаправленного персеп"
трона (МПП), предназначенного для решения задач, которые могут
быть выражены в виде образов (пар) вход"выход. Такие соотноше"
ния можно назвать обучающими примерами.
Метод обратного распространения ошибки
Обучение многослойного прямонаправленного персептрона состо"
ит в адаптации всех синаптических весов таким образом, чтобы раз"
ница между действительными выходными и требуемыми сигналами,
усредненная по всем обучающим примерам, была настолько мала,
насколько это возможно. Обучение сети методом ОРО включает в себя
три этапа:
– прямое распространение входного обучающего образа;
– вычисление ошибки и ее обратное распространение;
– регулирование весов.
После обучения сети ее использование состоит только из вы"
числений первой фазы. Хотя обучение сети может представлять
собой медленный процесс, обученная сеть выполняет свою задачу
очень быстро.
Этот метод основан на вычислении вектора градиента поверхнос"
ти ошибок, который указывает направление кратчайшего спуска по
поверхности из данной точки. Последовательность шагов приводит
после ряда итераций к минимуму поверхности ошибок. Очевидную
трудность здесь представляет выбор длины шага. При большой дли"