ВУЗ:
Составители:
36
где X
i
– i-й образец одного из распознаваемых классов (i = 1, L); X − неиз-
вестный образ;
σ
− параметр, задающий ширину (отклонение) функции и
определяющий ее влияние. Функция Гаусса принимает свое максимальное
значение, равное единице, при
i
XX
=
и убывает при удалении
i
XX от . На
рис. 19 приведен график этой функции для одномерного случая.
Рис. 19. График функции Гаусса
Чтобы определить функцию плотности распределения вероятностей для
всего
k-го класса, функции Гаусса для всех учебных векторов суммируются:
∑
−
−
−
=
k
i
L
i
XX
eX
1
)(
2
)(
σ
ϕ
где L
k
– объем обучающей выборки k-класса.
Структура PNN
Пример структуры PNN для решения простой задачи разделения
4-компонентных входных векторов
Х на два класса показан на рис. 20. При
этом в приведенном примере L
1
= 3, L
2
= 2, поэтому слой образцов имеет
5 нейронов: 3 для первого класса и 2 для второго класса.
Число входов сети определяется числом компонент входного вектора
Х,
то есть числом признаков, на основе которых будет осуществляться
классификация. Слой образцов содержит по одному нейрону для каждого
образца входного вектора Х
из обучающей выборки. Каждый i-й нейрон
слоя образцов имеет набор из
n весов, соответствующих n компонентам
входного вектора, представленного своим
i-образцом (W
i
= X
i
, где W
i
– i-й
столбец
матрицы W). Слой суммирования содержит число нейронов, рав-
ное числу классов, на которые разбиваются входные образы. Каждый ней-
рон слоя суммирования имеет связи только с теми нейронами слоя образ-
цов, которые относятся к соответствующему классу. Все веса связей ней-
ронов слоя суммирования равны 1.
x
f(x)
x
i
где Xi i-й образец одного из распознаваемых классов (i = 1, L); X − неиз- вестный образ; σ − параметр, задающий ширину (отклонение) функции и определяющий ее влияние. Функция Гаусса принимает свое максимальное значение, равное единице, при X = X i и убывает при удалении X от X i . На рис. 19 приведен график этой функции для одномерного случая. f(x) x xi Рис. 19. График функции Гаусса Чтобы определить функцию плотности распределения вероятностей для всего k-го класса, функции Гаусса для всех учебных векторов суммируются: X −X i Lk −( )2 ϕ(X ) = ∑e σ i −1 где Lk объем обучающей выборки k-класса. Структура PNN Пример структуры PNN для решения простой задачи разделения 4-компонентных входных векторов Х на два класса показан на рис. 20. При этом в приведенном примере L1 = 3, L2 = 2, поэтому слой образцов имеет 5 нейронов: 3 для первого класса и 2 для второго класса. Число входов сети определяется числом компонент входного вектора Х, то есть числом признаков, на основе которых будет осуществляться классификация. Слой образцов содержит по одному нейрону для каждого образца входного вектора Х из обучающей выборки. Каждый i-й нейрон слоя образцов имеет набор из n весов, соответствующих n компонентам входного вектора, представленного своим i-образцом (Wi = Xi, где Wi i-й столбец матрицы W). Слой суммирования содержит число нейронов, рав- ное числу классов, на которые разбиваются входные образы. Каждый ней- рон слоя суммирования имеет связи только с теми нейронами слоя образ- цов, которые относятся к соответствующему классу. Все веса связей ней- ронов слоя суммирования равны 1. 36
Страницы
- « первая
- ‹ предыдущая
- …
- 34
- 35
- 36
- 37
- 38
- …
- следующая ›
- последняя »