ВУЗ:
Составители:
26
§ 5. НЕЙРОСЕТЕВАЯ КЛАССИФИКАЦИЯ ОБРАЗОВ
5.1. Сеть Кохонена
Задача классификации заключается в разбиении объектов на классы,
причем основой разбиения служит вектор параметров объекта. Сами клас-
сы часто бывают неизвестны заранее, а формируются динамически. Назо-
вем прототипом класса объект, наиболее типичный для своего класса.
Один из самых простых подходов к классификации состоит в том, чтобы
предположить существование определенного числа классов
и произволь-
ным образом выбрать координаты прототипов. Затем каждый вектор из
набора данных связывается с ближайшим к нему прототипом, и новыми
прототипами становятся центроиды всех векторов, связанных с исходным
прототипом. В качестве меры близости двух векторов обычно выбирается
евклидово расстояние:
∑
−=
i
ii
yxyxd
2
)(),(
.
На этих принципах основано функционирование сети Кохонена,
обычно используемой для решения задач классификации. Данная сеть обу-
чается без учителя на основе самоорганизации. По мере обучения вектора
весов нейронов становятся прототипами классов – групп векторов обу-
чающей выборки. На этапе решения информационных задач сеть относит
новый предъявленный образ к одному из сформированных
классов.
Рассмотрим архитектуру сети Кохонена и правила обучения подроб-
нее. Сеть Кохонена состоит из одного слоя нейронов. Число входов каждо-
го нейрона n равно размерности вектора параметров объекта. Количество
нейронов m совпадает с требуемым числом классов, на которые нужно
разбить объекты (меняя число нейронов, можно динамически менять число
классов).
Обучение начинается
с задания небольших случайных значений эле-
ментам весовой матрицы W . В дальнейшем происходит процесс самоорга-
низации, состоящий в модификации весов при предъявлении на вход век-
торов обучающей выборки. Каждый столбец весовой матрицы представля-
ет собой параметры соответствующего нейрона-классификатора. Для каж-
дого j-го нейрона (
mj ,1= ) определяется расстояние от него до входного
вектора Х:
∑
=
−=
n
i
ijij
wxd
1
2
)(. Далее выбирается нейрон с номером
m
k
k
≤≤1,, для которого это расстояние минимально (то есть сеть отнесла
входной вектор к классу с номером k). На текущем шаге обучения N будут
модифицироваться только веса нейронов из окрестности нейрона k:
1
().
NN N
ij ij N i ij
ww xw
α
+
=+ −
Первоначально в окрестности любого из нейронов находятся все нейроны
сети, но с каждым шагом эта окрестность сужается. В конце этапа обуче-
§ 5. НЕЙРОСЕТЕВАЯ КЛАССИФИКАЦИЯ ОБРАЗОВ
5.1. Сеть Кохонена
Задача классификации заключается в разбиении объектов на классы,
причем основой разбиения служит вектор параметров объекта. Сами клас-
сы часто бывают неизвестны заранее, а формируются динамически. Назо-
вем прототипом класса объект, наиболее типичный для своего класса.
Один из самых простых подходов к классификации состоит в том, чтобы
предположить существование определенного числа классов и произволь-
ным образом выбрать координаты прототипов. Затем каждый вектор из
набора данных связывается с ближайшим к нему прототипом, и новыми
прототипами становятся центроиды всех векторов, связанных с исходным
прототипом. В качестве меры близости двух векторов обычно выбирается
евклидово расстояние: d ( x, y ) = ∑ ( xi − yi ) 2 .
i
На этих принципах основано функционирование сети Кохонена,
обычно используемой для решения задач классификации. Данная сеть обу-
чается без учителя на основе самоорганизации. По мере обучения вектора
весов нейронов становятся прототипами классов групп векторов обу-
чающей выборки. На этапе решения информационных задач сеть относит
новый предъявленный образ к одному из сформированных классов.
Рассмотрим архитектуру сети Кохонена и правила обучения подроб-
нее. Сеть Кохонена состоит из одного слоя нейронов. Число входов каждо-
го нейрона n равно размерности вектора параметров объекта. Количество
нейронов m совпадает с требуемым числом классов, на которые нужно
разбить объекты (меняя число нейронов, можно динамически менять число
классов).
Обучение начинается с задания небольших случайных значений эле-
ментам весовой матрицы W . В дальнейшем происходит процесс самоорга-
низации, состоящий в модификации весов при предъявлении на вход век-
торов обучающей выборки. Каждый столбец весовой матрицы представля-
ет собой параметры соответствующего нейрона-классификатора. Для каж-
дого j-го нейрона ( j = 1, m ) определяется расстояние от него до входного
n
вектора Х: d j = ∑ ( xi − wij ) 2 . Далее выбирается нейрон с номером
i =1
k , 1 ≤ k ≤ m , для которого это расстояние минимально (то есть сеть отнесла
входной вектор к классу с номером k). На текущем шаге обучения N будут
модифицироваться только веса нейронов из окрестности нейрона k:
wijN +1 = wijN + α N ( xi − wijN ).
Первоначально в окрестности любого из нейронов находятся все нейроны
сети, но с каждым шагом эта окрестность сужается. В конце этапа обуче-
26
Страницы
- « первая
- ‹ предыдущая
- …
- 24
- 25
- 26
- 27
- 28
- …
- следующая ›
- последняя »
