ВУЗ:
Составители:
23
§ 5. СЕТЬ ВСТРЕЧНОГО РАСПРОСТРАНЕНИЯ
5.1. Сеть Кохонена. Классификация образов
Задача классификации заключается в разбиении объектов на классы, причем
основой разбиения служит вектор параметров объекта . Сами классы часто бывают
неизвестны заранее, а формируются динамически. Назовем прототипом класса
объект, наиболее типичный для своего класса. Один из самых простых подходов к
классификации состоит в том , чтобы предположить существование определенно-
го числа классов и произвольным образом выбрать координаты прототипов . Затем
каждый вектор из набора данных связывается с ближайшим к нему прототипом , и
новыми прототипами становятся центроиды всех векторов , связанных с исходным
прототипом . В качестве меры близости двух векторов обычно выбирается евкли-
дово расстояние:
∑
−=
i
ii
yxyxd
2
)(),(
.
На этих принципах основано функционирование сети Кохонена , обычно ис -
пользуемой для решения задач классификации. Данная сеть обучается без учите-
ля на основе самоорганизации. По мере обучения вектора весов нейронов стано-
вятся прототипами классов - групп векторов обучающей выборки. На этапе реше-
ния информационных задач сеть относит новый предъявленный образ к одному из
сформированных классов .
Рассмотрим архитектуру сети Кохонена и правила обучения подробнее. Сеть Ко-
хонена состоит из одного слоя нейронов . Число входов каждого нейрона
n
равно
размерности вектора параметров объекта . Количество нейронов
m
совпадает с
требуемым числом классов , на которые нужно разбить объекты (меняя число ней -
ронов , можно динамически менять число классов ).
Обучение начинается с задания небольших случайных значений элементам
весовой матрицы
W
. В дальнейшем происходит процесс самоорганизации, со-
стоящий в модификации весов при предъявлении на вход векторов обучающей
выборки. Каждый столбец весовой матрицы представляет собой параметры соот -
ветствующего нейрона - классификатора . Для каждого j-го нейрона ( mj ,1= ) оп -
ределяется расстояние от него до входного вектора Х :
∑
=
−=
n
i
ijij
wxd
1
2
)(
. Далее
выбирается нейрон с номером
m
k
k
≤
≤
1
,
, для которого это расстояние мини -
мально (то есть сеть отнесла входной вектор к классу с номером k ). На текущем
шаге обучения N будут модифицироваться только веса нейронов из окрестности
нейрона k :
)(
1 N
ijiN
N
ij
N
ij
wxww −+=
+
α
Первоначально в окрестности любого из нейронов находятся все нейроны сети, но
с каждым шагом эта окрестность сужается. В конце этапа обучения подстраива -
ются только веса только нейрона с номером k . Темп обучения
N
α
с течением вре-
мени также уменьшается (часто полагают )001.0,9.0
10
−
=
=
+ NN
α
α
α
. Образы
23 § 5. СЕТЬ ВСТРЕЧНОГО РАСПРОСТРАНЕНИЯ 5.1. Сеть Кохонена. Классификация образов Задача классификации заключается в разбиении объектов на классы, причем основой разбиения служит вектор параметров объекта. Сами классы часто бывают неизвестны заранее, а формируются динамически. Назовем прототипом класса объект, наиболее типичный для своего класса. Один из самых простых подходов к классификации состоит в том, чтобы предположить существование определенно- го числа классов и произвольным образом выбрать координаты прототипов. Затем каждый вектор из набора данных связывается с ближайшим к нему прототипом, и новыми прототипами становятся центроиды всех векторов, связанных с исходным прототипом. В качестве меры близости двух векторов обычно выбирается евкли- дово расстояние: d ( x, y ) =∑ ( xi −yi ) 2 . i На этих принципах основано функционирование сети Кохонена, обычно ис- пользуемой для решения задач классификации. Данная сеть обучается без учите- ля на основе самоорганизации. По мере обучения вектора весов нейронов стано- вятся прототипами классов - групп векторов обучающей выборки. На этапе реше- ния информационных задач сеть относит новый предъявленный образ к одному из сформированных классов. Рассмотрим архитектуру сети Кохонена и правила обучения подробнее. Сеть Ко- хонена состоит из одного слоя нейронов. Число входов каждого нейрона n равно размерности вектора параметров объекта. Количество нейронов m совпадает с требуемым числом классов, на которые нужно разбить объекты (меняя число ней- ронов, можно динамически менять число классов). Обучение начинается с задания небольших случайных значений элементам весовой матрицы W . В дальнейшем происходит процесс самоорганизации, со- стоящий в модификации весов при предъявлении на вход векторов обучающей выборки. Каждый столбец весовой матрицы представляет собой параметры соот- ветствующего нейрона-классификатора. Для каждого j-го нейрона ( j =1, m ) оп- n ределяется расстояние от него до входного вектора Х: d j =∑ ( xi −wij ) 2 . Далее i =1 выбирается нейрон с номером k , 1 ≤k ≤m , для которого это расстояние мини- мально (то есть сеть отнесла входной вектор к классу с номером k). На текущем шаге обучения N будут модифицироваться только веса нейронов из окрестности нейрона k: wijN +1 =wijN +α N ( xi −wijN ) Первоначально в окрестности любого из нейронов находятся все нейроны сети, но с каждым шагом эта окрестность сужается. В конце этапа обучения подстраива- ются только веса только нейрона с номером k. Темп обучения α N с течением вре- мени также уменьшается (часто полагают α 0 =0.9, α N +1 =α N −0.001) . Образы
Страницы
- « первая
- ‹ предыдущая
- …
- 21
- 22
- 23
- 24
- 25
- …
- следующая ›
- последняя »