Нейросетевые технологии. Каширина И.Л. - 26 стр.

UptoLike

Составители: 

26
§ 5. НЕЙРОСЕТЕВАЯ КЛАССИФИКАЦИЯ ОБРАЗОВ
5.1. Сеть Кохонена
Задача классификации заключается в разбиении объектов на классы,
причем основой разбиения служит вектор параметров объекта. Сами клас-
сы часто бывают неизвестны заранее, а формируются динамически. Назо-
вем прототипом класса объект, наиболее типичный для своего класса.
Один из самых простых подходов к классификации состоит в том, чтобы
предположить существование определенного числа классов
и произволь-
ным образом выбрать координаты прототипов. Затем каждый вектор из
набора данных связывается с ближайшим к нему прототипом, и новыми
прототипами становятся центроиды всех векторов, связанных с исходным
прототипом. В качестве меры близости двух векторов обычно выбирается
евклидово расстояние:
=
i
ii
yxyxd
2
)(),(
.
На этих принципах основано функционирование сети Кохонена,
обычно используемой для решения задач классификации. Данная сеть обу-
чается без учителя на основе самоорганизации. По мере обучения вектора
весов нейронов становятся прототипами классовгрупп векторов обу-
чающей выборки. На этапе решения информационных задач сеть относит
новый предъявленный образ к одному из сформированных
классов.
Рассмотрим архитектуру сети Кохонена и правила обучения подроб-
нее. Сеть Кохонена состоит из одного слоя нейронов. Число входов каждо-
го нейрона n равно размерности вектора параметров объекта. Количество
нейронов m совпадает с требуемым числом классов, на которые нужно
разбить объекты (меняя число нейронов, можно динамически менять число
классов).
Обучение начинается
с задания небольших случайных значений эле-
ментам весовой матрицы W . В дальнейшем происходит процесс самоорга-
низации, состоящий в модификации весов при предъявлении на вход век-
торов обучающей выборки. Каждый столбец весовой матрицы представля-
ет собой параметры соответствующего нейрона-классификатора. Для каж-
дого j-го нейрона (
mj ,1= ) определяется расстояние от него до входного
вектора Х:
=
=
n
i
ijij
wxd
1
2
)(. Далее выбирается нейрон с номером
m
k
k
1,, для которого это расстояние минимально (то есть сеть отнесла
входной вектор к классу с номером k). На текущем шаге обучения N будут
модифицироваться только веса нейронов из окрестности нейрона k:
1
().
NN N
ij ij N i ij
ww xw
α
+
=+
Первоначально в окрестности любого из нейронов находятся все нейроны
сети, но с каждым шагом эта окрестность сужается. В конце этапа обуче-
    § 5. НЕЙРОСЕТЕВАЯ КЛАССИФИКАЦИЯ ОБРАЗОВ
                            5.1. Сеть Кохонена
     Задача классификации заключается в разбиении объектов на классы,
причем основой разбиения служит вектор параметров объекта. Сами клас-
сы часто бывают неизвестны заранее, а формируются динамически. Назо-
вем прототипом класса объект, наиболее типичный для своего класса.
Один из самых простых подходов к классификации состоит в том, чтобы
предположить существование определенного числа классов и произволь-
ным образом выбрать координаты прототипов. Затем каждый вектор из
набора данных связывается с ближайшим к нему прототипом, и новыми
прототипами становятся центроиды всех векторов, связанных с исходным
прототипом. В качестве меры близости двух векторов обычно выбирается
евклидово расстояние: d ( x, y ) = ∑ ( xi − yi ) 2 .
                                 i
      На этих принципах основано функционирование сети Кохонена,
обычно используемой для решения задач классификации. Данная сеть обу-
чается без учителя на основе самоорганизации. По мере обучения вектора
весов нейронов становятся прототипами классов – групп векторов обу-
чающей выборки. На этапе решения информационных задач сеть относит
новый предъявленный образ к одному из сформированных классов.
      Рассмотрим архитектуру сети Кохонена и правила обучения подроб-
нее. Сеть Кохонена состоит из одного слоя нейронов. Число входов каждо-
го нейрона n равно размерности вектора параметров объекта. Количество
нейронов m совпадает с требуемым числом классов, на которые нужно
разбить объекты (меняя число нейронов, можно динамически менять число
классов).
      Обучение начинается с задания небольших случайных значений эле-
ментам весовой матрицы W . В дальнейшем происходит процесс самоорга-
низации, состоящий в модификации весов при предъявлении на вход век-
торов обучающей выборки. Каждый столбец весовой матрицы представля-
ет собой параметры соответствующего нейрона-классификатора. Для каж-
дого j-го нейрона ( j = 1, m ) определяется расстояние от него до входного
                      n
вектора Х:      d j = ∑ ( xi − wij ) 2 . Далее выбирается нейрон с номером
                     i =1
k , 1 ≤ k ≤ m , для которого это расстояние минимально (то есть сеть отнесла
входной вектор к классу с номером k). На текущем шаге обучения N будут
модифицироваться только веса нейронов из окрестности нейрона k:
                             wijN +1 = wijN + α N ( xi − wijN ).
Первоначально в окрестности любого из нейронов находятся все нейроны
сети, но с каждым шагом эта окрестность сужается. В конце этапа обуче-
                                     26