Математическое моделирование и хаотические временные ряды. Безручко Б.П - 293 стр.

UptoLike

Рубрика: 

Глава 10. Реконструкция уравнений: «черный ящик»
275
представление похоже на обобщенный многочлен (10.7), но ИНС
нелинейно зависит от параметров
)0(
,ij
w
и
)0(
j
υ
.
Рассмотрим теперь еще одну систему функций
2
)2(
,...,1, Kjf
j
= ,
имеющих вид (10.8), но зависящих от
1
K
-мерного аргумента. Это нейроны
второго слоя, на вход которых подаются выходы нейронов первого слоя
)1(
y
(рис.10.10,в). Обозначим их выходные значения вектором
)2(
y
размерности
2
K
и определим функцию f как линейную комбинацию
выходных значений нейронов второго слоя:
)2(
1
)1(
1
)0(
1
)0(
,
)1(
,
)2(
)2()2()2(
2
2
2
1
1
11122
)(
υυυφφυ
+
+
++=
∑∑
== =
K
j
j
K
j
j
D
i
i
ijjjj
xwwwf ywx . (10.10)
Это двухслойная ИНС, которая включает в себя уже композиции функций,
что существенно отличает ее от псевдолинейной модели (10.7).
Увеличение числа слоев достигается очевидным образом (см. рис.10.10,в).
Чаще всего для решения задач аппроксимации используют
двухслойные ИНС (10.10), режетрехслойные [115]. Увеличение числа
слоев не приводит к существенному улучшению. Улучшения добиваются
за счет увеличения числа нейронов в слоях
21
, KK
. Теоретическая основа
использования ИНСобобщенная аппроксимационная теорема (ее
частным случаем является теорема Вейерштрасса), которая утверждает,
что любая непрерывная функция может быть сколь угодно точно
равномерно приближена с помощью ИНС, строгое изложение см. в [63].
Процедура расчета параметров ИНС путем минимизации (10.6) – ее
«обучение» – это сложная задача многомерной нелинейной оптимизации,
для решения которой развиты специальные «технологии»: алгоритм
обратного распространения ошибки, обучение с расписанием, обучение с
шумом, стохастическая оптимизация (генетические методы, метод
имитации отжига), см. подробности и ссылки в [79]. ИНС может содержать
очень много лишних элементов, и структуру этой модели (архитектуру
сети) желательно сделать более компактной. Для этого нейроны, веса и
пороги которых слабо меняются в процессе обучения, исключаются из
сети.
Если имеется несколько альтернативных ИНС с разной архитектурой,
полученных в результате обучения по тренировочному ряду, то лучшую из
них обычно выбирают по наименьшей тестовой ошибке аппроксимации
(п. 7.2.3.2). Для получения «честного» показателя прогностической
эффективности модели используют еще один ряд (не тренировочный и не
тестовый, т.к. оба они использовались для построения модели), который
называют «экзаменационным».
Превосходство ИНС над другими конструкциями при решении задач