Нейросетевые модели для систем информационной безопасности. Брюхомицкий Ю.А. - 148 стр.

UptoLike

Составители: 

148
15. Вероятностные нейронные сети
Вероятностная нейронная сеть (ВНС или PNN – Probabilistic Neural
Network) представляет собой параллельную реализацию статистических
методов Байеса [19]. В ВНС образцы классифицируются на основе оценок их
близости к соседним образцам. При этом используется ряд критериев
статистических методов, на основе которых принимается решение о том к
какому классу отнести еще не классифицированный образец. Формальным
правилом при классификации
является то, что класс с наиболее плотным
распределением в области неизвестного образца, а такжес более высокой
априорной вероятностью, а такжес более высокой ценой ошибки
классификации, будет иметь преимущество по сравнению с другими классами.
В соответствии с этим правилом для двух классов А и В выбирается класс А,
если:
h
A
· c
A
· f
A
(x) > h
B
· c
B
· f
B
(x),
где hаприорная вероятность;
cцена ошибки классификации;
f(x) – функция плотности вероятностей.
Оценка стоимости ошибки классификации и априорной вероятности
предполагает хорошее знание решаемой задачи и во многих приложениях
выбираются одинаковыми.
Для оценки функции плотности распределения вероятностей применяют
метод Парцена (Parzen), в соответствии с которым для каждого учебного
образца
рассматривается некоторая весовая функция, называемая функцией
потенциала или ядром. Чаще всего в качестве ядра используется упрощенная
форма функции Гаусса
σ
=ϕ
2
2
2
exp)(
i
XX
X
, (15.1)
где
i
X
i-й образец вектора
i
X
,
Li ,1=
;
X неизвестный образец;
σ параметр, задающий ширину функции и определяющий ее влияние.
Классическая функция Гаусса для нормального распределения имеет вид
σ
πσ
=ϕ
2
2
2
exp
2
1
)(
i
XX
X
. (15.2)