Искусственные нейронные сети. Каширина И.Л. - 23 стр.

UptoLike

Составители: 

23
§ 5. СЕТЬ ВСТРЕЧНОГО РАСПРОСТРАНЕНИЯ
5.1. Сеть Кохонена. Классификация образов
Задача классификации заключается в разбиении объектов на классы, причем
основой разбиения служит вектор параметров объекта . Сами классы часто бывают
неизвестны заранее, а формируются динамически. Назовем прототипом класса
объект, наиболее типичный для своего класса. Один из самых простых подходов к
классификации состоит в том , чтобы предположить существование определенно-
го числа классов и произвольным образом выбрать координаты прототипов . Затем
каждый вектор из набора данных связывается с ближайшим к нему прототипом , и
новыми прототипами становятся центроиды всех векторов , связанных с исходным
прототипом . В качестве меры близости двух векторов обычно выбирается евкли-
дово расстояние:
−=
i
ii
yxyxd
2
)(),(
.
На этих принципах основано функционирование сети Кохонена , обычно ис -
пользуемой для решения задач классификации. Данная сеть обучается без учите-
ля на основе самоорганизации. По мере обучения вектора весов нейронов стано-
вятся прототипами классов - групп векторов обучающей выборки. На этапе реше-
ния информационных задач сеть относит новый предъявленный образ к одному из
сформированных классов .
Рассмотрим архитектуру сети Кохонена и правила обучения подробнее. Сеть Ко-
хонена состоит из одного слоя нейронов . Число входов каждого нейрона
n
равно
размерности вектора параметров объекта . Количество нейронов
m
совпадает с
требуемым числом классов , на которые нужно разбить объекты (меняя число ней -
ронов , можно динамически менять число классов ).
Обучение начинается с задания небольших случайных значений элементам
весовой матрицы
W
. В дальнейшем происходит процесс самоорганизации, со-
стоящий в модификации весов при предъявлении на вход векторов обучающей
выборки. Каждый столбец весовой матрицы представляет собой параметры соот -
ветствующего нейрона - классификатора . Для каждого j-го нейрона ( mj ,1= ) оп -
ределяется расстояние от него до входного вектора Х :
=
−=
n
i
ijij
wxd
1
2
)(
. Далее
выбирается нейрон с номером
m
k
k
1
,
, для которого это расстояние мини -
мально (то есть сеть отнесла входной вектор к классу с номером k ). На текущем
шаге обучения N будут модифицироваться только веса нейронов из окрестности
нейрона k :
)(
1 N
ijiN
N
ij
N
ij
wxww +=
+
α
Первоначально в окрестности любого из нейронов находятся все нейроны сети, но
с каждым шагом эта окрестность сужается. В конце этапа обучения подстраива -
ются только веса только нейрона с номером k . Темп обучения
N
α
с течением вре-
мени также уменьшается (часто полагают )001.0,9.0
10
=
=
+ NN
α
α
α
. Образы
                                        23
           § 5. СЕТЬ ВСТРЕЧНОГО РАСПРОСТРАНЕНИЯ

              5.1. Сеть Кохонена. Классификация образов

      Задача классификации заключается в разбиении объектов на классы, причем
основой разбиения служит вектор параметров объекта. Сами классы часто бывают
неизвестны заранее, а формируются динамически. Назовем прототипом класса
объект, наиболее типичный для своего класса. Один из самых простых подходов к
классификации состоит в том, чтобы предположить существование определенно-
го числа классов и произвольным образом выбрать координаты прототипов. Затем
каждый вектор из набора данных связывается с ближайшим к нему прототипом, и
новыми прототипами становятся центроиды всех векторов, связанных с исходным
прототипом. В качестве меры близости двух векторов обычно выбирается евкли-
дово расстояние: d ( x, y ) =∑ ( xi −yi ) 2 .
                           i
      На этих принципах основано функционирование сети Кохонена, обычно ис-
пользуемой для решения задач классификации. Данная сеть обучается без учите-
ля на основе самоорганизации. По мере обучения вектора весов нейронов стано-
вятся прототипами классов - групп векторов обучающей выборки. На этапе реше-
ния информационных задач сеть относит новый предъявленный образ к одному из
сформированных классов.
Рассмотрим архитектуру сети Кохонена и правила обучения подробнее. Сеть Ко-
хонена состоит из одного слоя нейронов. Число входов каждого нейрона n равно
размерности вектора параметров объекта. Количество нейронов m совпадает с
требуемым числом классов, на которые нужно разбить объекты (меняя число ней-
ронов, можно динамически менять число классов).
      Обучение начинается с задания небольших случайных значений элементам
весовой матрицы W . В дальнейшем происходит процесс самоорганизации, со-
стоящий в модификации весов при предъявлении на вход векторов обучающей
выборки. Каждый столбец весовой матрицы представляет собой параметры соот-
ветствующего нейрона-классификатора. Для каждого j-го нейрона ( j =1, m ) оп-
                                                              n
ределяется расстояние от него до входного вектора Х: d j =∑ ( xi −wij ) 2 . Далее
                                                             i =1
выбирается нейрон с номером k , 1 ≤k ≤m , для которого это расстояние мини-
мально (то есть сеть отнесла входной вектор к классу с номером k). На текущем
шаге обучения N будут модифицироваться только веса нейронов из окрестности
нейрона k:
                             wijN +1 =wijN +α N ( xi −wijN )
Первоначально в окрестности любого из нейронов находятся все нейроны сети, но
с каждым шагом эта окрестность сужается. В конце этапа обучения подстраива-
ются только веса только нейрона с номером k. Темп обучения α N с течением вре-
мени также уменьшается (часто полагают α 0 =0.9, α N +1 =α N −0.001) . Образы