ВУЗ:
Составители:
38
ретает вид
2
)(
)(
σ
i
WX
i
eXy
−
−
= . Или, в покомпонентном представлении,
⎟
⎟
⎠
⎞
⎜
⎜
⎝
⎛
−−=
∑
=
n
j
ijji
wxXy
1
2
2
)(
1
exp)(
α
.
Функция активности
k-нейрона слоя суммирования определяет значение
плотности распределения вероятностей для всего
k-класса. Она вычисляет-
ся по формуле
mkwxXY
k
L
i
n
j
ijj
k
..1,)(
1
exp)(
11
2
2
=
⎟
⎟
⎠
⎞
⎜
⎜
⎝
⎛
−−=
∑∑
−=
σ
, где m – чис-
ло классов образов.
Предъявление сети каждого из L обучающих
векторов X
i
сопровож-
дается указанием от учителя номера класса k, которому принадлежит
входной образец. Последовательность предъявления обучающих векторов
может быть любой. После предъявления всех
векторов обучающей вы-
борки, формируется структура сети, и становятся определенными весовые
коэффициенты сети в виде матрицы W. После этого сеть готова к класси-
фикации неизвестных образцов.
В рабочем режиме сети предъявляется входной образ X
неизвестного
класса, который вначале нормализуется, затем соответствующим образом
активирует нейроны слоя образцов. Каждый нейрон слоя образцов выдает
на своем выходе некоторый уровень активности y
i
(X). Каждый нейрон
слоя суммирования суммирует уровни активности y
i
(X) всех нейронов слоя
образцов своего класса и выдает на своем выходе общий уровень активно-
сти данного класса Y
k
(X). Выходной нейрон на основании вычисленных се-
тью уровней активности по каждому классу Y
k
(X), k = 1,m определяет ка-
кой нейрон слоя суммирования имеет максимальный выходной сигнал
Y
k
(X). Тем самым определяется номер класса k, к которому с большей ве-
роятностью принадлежит предъявленный входной образ X.
Вероятностная нейронная сеть имеет единственный управляющий
параметр обучения, значение которого должно выбираться пользователем.
Это степень сглаживания
σ
(или отклонение гауссовой функции). Выбор
слишком маленьких отклонений приведет к «острым» аппроксимирующим
функциям и неспособности сети к обобщению, а при слишком больших
отклонениях будут теряться детали. Требуемое значение несложно найти
опытным путем, подбирая его так, чтобы контрольная ошибка была как мож-
но меньше. Чаще всего выбирают значение 1.0
=
σ
или близко к этому.
Модификации PNN
Предложенная модель PNN-сети может иметь две модификации.
В базовой модели предполагается, что пропорции классов в обучающем
множестве соответствуют их пропорциям во всей исследуемой популяции
(или так называемым априорным вероятностям). Например, если среди
X −W i −( )2 ретает вид yi ( X ) = e σ . Или, в покомпонентном представлении, ⎛ 1 n ⎞ yi ( X ) = exp⎜ − 2 ∑ ( x j − wij ) 2 ⎟ . ⎜ α j =1 ⎟ ⎝ ⎠ Функция активности k-нейрона слоя суммирования определяет значение плотности распределения вероятностей для всего k-класса. Она вычисляет- Lk ⎛ 1 n ⎞ ся по формуле Y ( X ) = ∑ exp⎜ − 2 ∑ ( x j − wij ) 2 ⎟, k = 1..m , где m чис- k ⎜ σ j =1 ⎟ i −1 ⎝ ⎠ ло классов образов. Предъявление сети каждого из L обучающих векторов Xi сопровож- дается указанием от учителя номера класса k, которому принадлежит входной образец. Последовательность предъявления обучающих векторов может быть любой. После предъявления всех векторов обучающей вы- борки, формируется структура сети, и становятся определенными весовые коэффициенты сети в виде матрицы W. После этого сеть готова к класси- фикации неизвестных образцов. В рабочем режиме сети предъявляется входной образ X неизвестного класса, который вначале нормализуется, затем соответствующим образом активирует нейроны слоя образцов. Каждый нейрон слоя образцов выдает на своем выходе некоторый уровень активности yi(X). Каждый нейрон слоя суммирования суммирует уровни активности yi(X) всех нейронов слоя образцов своего класса и выдает на своем выходе общий уровень активно- сти данного класса Yk(X). Выходной нейрон на основании вычисленных се- тью уровней активности по каждому классу Yk(X), k = 1,m определяет ка- кой нейрон слоя суммирования имеет максимальный выходной сигнал Yk(X). Тем самым определяется номер класса k, к которому с большей ве- роятностью принадлежит предъявленный входной образ X. Вероятностная нейронная сеть имеет единственный управляющий параметр обучения, значение которого должно выбираться пользователем. Это степень сглаживания σ (или отклонение гауссовой функции). Выбор слишком маленьких отклонений приведет к «острым» аппроксимирующим функциям и неспособности сети к обобщению, а при слишком больших отклонениях будут теряться детали. Требуемое значение несложно найти опытным путем, подбирая его так, чтобы контрольная ошибка была как мож- но меньше. Чаще всего выбирают значение σ = 0.1 или близко к этому. Модификации PNN Предложенная модель PNN-сети может иметь две модификации. В базовой модели предполагается, что пропорции классов в обучающем множестве соответствуют их пропорциям во всей исследуемой популяции (или так называемым априорным вероятностям). Например, если среди 38
Страницы
- « первая
- ‹ предыдущая
- …
- 36
- 37
- 38
- 39
- 40
- …
- следующая ›
- последняя »