ВУЗ:
Составители:
152
)8.15(.1
1
exp
2
2
1
exp
)(
2
1
exp)(
1
нн
2
1
1
2
1
2
2
1
2
2
⎟
⎟
⎠
⎞
⎜
⎜
⎝
⎛
−⋅
σ
=
⎟
⎟
⎟
⎟
⎟
⎟
⎠
⎞
⎜
⎜
⎜
⎜
⎜
⎜
⎝
⎛
⋅
⋅
σ
−=
=
⎟
⎟
⎠
⎞
⎜
⎜
⎝
⎛
−
σ
−=
∑∑
∑∑
∑
==
==
=
N
j
ijj
N
j
N
j
ij
N
j
j
ijj
N
j
ijji
wx
wx
wx
wxy
X
Функция активности k-нейрона слоя суммирования определяет значение
плотности распределения вероятностей для всего k-класса. После нормализации
она вычисляется по формуле
mkwxY
k
L
i
N
j
ijj
k
,1,1
1
exp)(
11
нн
2
=
⎟
⎟
⎠
⎞
⎜
⎜
⎝
⎛
−⋅
σ
=
∑∑
−=
X , (15.9)
где m – число классов образов.
Процедура обучения ВНС производится следующим образом. Векторы
образцов
X
i
,
Li ,1=
предварительно нормализуются и уже в нормализованном
виде
н
i
X
последовательно предъявляются на входы сети.
Как уже отмечалось выше, в ходе обучения формируется сама структура
ВНС. Размерность N векторов обучающей выборки
X
i
,
Li ,1=
определяет число
нейронов и структуру входного слоя ВНС. Общий размер L обучающей
выборки
X
i
,
Li ,1=
соответствует общему числу нейронов слоя образцов. Число
классов m входных образов соответствует числу нейронов слоя суммирования.
Число образцов каждого k-класса в общем числе L образцов определяют
структуру связей слоя суммирования: каждый k-нейрон слоя суммирования
имеет связи только с нейронами слоя образцов, которые относятся к k-классу.
Предъявление сети каждого
из L векторов
н
i
X
сопровождается указанием
от учителя номера k-класса, которому принадлежит входной образец.
Последовательность предъявления обучающих векторов может быть любой.
После предъявления всех L векторов
н
i
X
обучающей выборки, формируется
структура сети, и становятся определенными параметры сети в виде матрицы
н
i
W
. На этом процесс обучения ВНС заканчивается, и сеть готова к
классификации неизвестных образцов.
Страницы
- « первая
- ‹ предыдущая
- …
- 150
- 151
- 152
- 153
- 154
- …
- следующая ›
- последняя »