ВУЗ:
Составители:
связь [18]. При решении задач аппроксимации чаще используется нейронная сеть с одним скрытым сло-
ем (рис. 10).
o
1
o
2
.
.
.
o
n2
x
1
x
2
.
.
.
x
n1
Рис. 10 Связь вход-выход
Многослойная нейронная сеть имеет разное количество нейронов в слоях и разные весовые коэф-
фициенты нейронов. Каждый нейрон характеризуется множеством входов и одним выходом. Связь
вход-выход для сети, представленной на рис. 10, можно представить в матричной форме
O = F(X) =f [W
2
f [W
1
X]], (7)
где X – вектор входных параметров; O – вектор выходных параметров;
W
1
, W
2
– матрицы весовых коэффициентов для скрытого и выходного слоя, соответственно; f – функция
активации. При решении задачи аппроксимации обычно используется экспоненциальная функция (3),
(5).
Обучение нейронной сети
Очевидно, чтобы система хорошо работала и решала практические задачи, необходимо ее обучить.
Если говорить в общем, то обучение это относительно постоянный процесс изменения поведения при
поступлении жизненного опыта. Если говорить о человеке, то результат его обучения оценивается по
действиям и поступкам. Обучение же нейронных сетей – более прямой процесс.
Обучение нейронных сетей рассматривается как процесс аппроксимации непрерывной функции
y(X) другой функцией Y(W, X), где X = [x
1
, x
2
, ..., x
n
]
t
– входной вектор, а W = [w
1
, w
2
, ..., w
n
]
t
– вектор ве-
совых коэффициентов.
Задача обучения состоит в выборе вектора W, такого что достигается лучшая аппроксимация, т.е.:
ρ (Y(W
*
, X), y(X)) ≤ ρ (Y(W
*
, X), y(X)), (8)
где ρ(Y(W, X), y(X)) – функция расстояния, которая определяет значение качества аппроксимации между
Y(W, X) и y(X).
Все алгоритмы обучения делятся на две большие группы: с учителем и без учителя. Алгоритм обу-
чения с учителем предполагает, что в каждый момент времени вместе с входами формируется желаемое
значение выхода d, которое поступает от учителя. Это иллюстрируется на рис. 11.
По значениям реального выхода и желаемого выхода
формируется ошибка, которая используется для
корректировки параметров нейронной
сети. Множество входных и выходных
образцов, называемых обучающим множеством,
является необходимым для такого способа
обучения. "Учитель" оценивает негативное
направление градиента ошибки и соответственно
сеть уменьшает ошибку. Во многих
ситуациях, входы, выходы и вычисляемые
градиенты являются детерминистическими,
однако, минимизация осуществляется по случайному закону. И, как результат, большинство алго-
ритмов обучения с учителем используют стохастическую минимизацию ошибки в многомерном
пространстве весов [6 – 18].
При обучении без учителя [6 – 17] предполагается, что
значения вы- выходов заранее не известны и поэтому
y
cигнал
обучения d
ρ
(d, y)
СЕТЬ W
Определение
расстояния
x
Рис. 11
y
СЕТЬ W
x
Рис. 12