Математическое моделирование и хаотические временные ряды. Безручко Б.П - 146 стр.

UptoLike

Рубрика: 

Часть I. Модели и прогноз
140
структуры, вычисляют линейные и нелинейные функции одного
переменного, а также всевозможные композициифункции от функций,
получаемые при каскадном соединении (композиции) нейронов. Что
можно получить, используя только такие операции? Какие функции
удастся вычислить точно, а какие функции можно сколь угодно точно
аппроксимировать с помощью нейронных сетей? В результате
многолетней научной полемики между Колмогоровым и Арнольдом была
доказана возможность точного представления непрерывных функций
нескольких переменных в виде композиции непрерывных функций одного
переменного и сложения [92, 15]. Наиболее полно на вопрос об
аппроксимационных свойствах нейронных сетей отвечает обобщенная
теорема Стоуна [320], которая утверждает универсальные
аппроксимационные возможности произвольной нелинейности: с
помощью линейных операций и каскадного соединения можно на базе
произвольного нелинейного элемента получить устройство, вычисляющее
любую непрерывную функцию с любой наперед заданной точностью.
Популярное изложение теорем Колмогорова и Стоуна в применении к
нейронным сетям можно найти в [63]. Таким образом, нейроны в сети
могут использовать практически любую нелинейную функцию активации,
важен лишь факт ее нелинейности. Итак, искусственные нейронные сети
могут «очень многое». Остается открытым другой вопроскак их этому
«научить»?
3.8.4. Обучение
В процессе функционирования нейронная сеть формирует выходной
сигнал Y в соответствии с входным сигналом X, реализуя некоторую
функцию
)(
X
g
Y
=
. Если архитектура сети задана, то значения g
определяются синаптическими весами. Выбор оптимального значения этих
параметров называется обучением сети. Существуют разные подходы к
обучению.
Обучение с учителем. При этом для построения решения используется
обучающая выборкапары известных входных-выходных значений
()
11
,YX
, …,
()
NN
YX ,
. Пусть значения векторов
X
и
Y
связаны некоторым
соотношением
)(
X
g
Y
=
, в частности,
)(
ii
XgY
=
,
N
i ,...,1
=
. Функция g
неизвестна. Обозначим Е функцию ошибки, показывающую степень
близости произвольной функции f к функции g.
Решить поставленную задачу с помощью нейросети заданной
архитектуры означает построить функцию f, подобрав синаптические веса
таким образом, чтобы функция ошибки была минимальной. В наиболее
простом случае обучение состоит в поиске функции f, минимизирующей Е
на обучающей выборке. Оно требует длительных вычислений и