ВУЗ:
Составители:
148
15. Вероятностные нейронные сети
Вероятностная нейронная сеть (ВНС или PNN – Probabilistic Neural
Network) представляет собой параллельную реализацию статистических
методов Байеса [19]. В ВНС образцы классифицируются на основе оценок их
близости к соседним образцам. При этом используется ряд критериев
статистических методов, на основе которых принимается решение о том к
какому классу отнести еще не классифицированный образец. Формальным
правилом при классификации
является то, что класс с наиболее плотным
распределением в области неизвестного образца, а также – с более высокой
априорной вероятностью, а также – с более высокой ценой ошибки
классификации, будет иметь преимущество по сравнению с другими классами.
В соответствии с этим правилом для двух классов А и В выбирается класс А,
если:
h
A
· c
A
· f
A
(x) > h
B
· c
B
· f
B
(x),
где h– априорная вероятность;
c – цена ошибки классификации;
f(x) – функция плотности вероятностей.
Оценка стоимости ошибки классификации и априорной вероятности
предполагает хорошее знание решаемой задачи и во многих приложениях
выбираются одинаковыми.
Для оценки функции плотности распределения вероятностей применяют
метод Парцена (Parzen), в соответствии с которым для каждого учебного
образца
рассматривается некоторая весовая функция, называемая функцией
потенциала или ядром. Чаще всего в качестве ядра используется упрощенная
форма функции Гаусса
⎟
⎟
⎟
⎠
⎞
⎜
⎜
⎜
⎝
⎛
σ
−
−=ϕ
2
2
2
exp)(
i
XX
X
, (15.1)
где
i
X
− i-й образец вектора
i
X
,
Li ,1=
;
X − неизвестный образец;
σ − параметр, задающий ширину функции и определяющий ее влияние.
Классическая функция Гаусса для нормального распределения имеет вид
⎟
⎟
⎟
⎠
⎞
⎜
⎜
⎜
⎝
⎛
σ
−
−
πσ
=ϕ
2
2
2
exp
2
1
)(
i
XX
X
. (15.2)
Страницы
- « первая
- ‹ предыдущая
- …
- 146
- 147
- 148
- 149
- 150
- …
- следующая ›
- последняя »