ВУЗ:
Составители:
28
Шаг 2. Весовым коэффициентам сети mjnivw
jiij
,1,,1,, == присвоить малые слу-
чайные значения и произвести единичную нормировку матриц
V
W
,
по столбцам .
Положить 7.0
0
=
α
, 1.0
0
=
β
.
Шаг 3. Подать на вход сети обучающий набор (
Y
X
,
) и определить единственный
нейрон- “победитель” в слое Кохонена (весовой вектор которого дает максималь-
ное скалярное произведение с входным вектором ). Выход этого нейрона устано-
вить равным 1, выходы всех остальных нейронов слоя Кохонена положить рав-
ными 0. Скорректировать веса выигравшего нейрона : )(
1 N
ijiN
N
ij
N
ij
wzww −+=
+
α ,
где
)
,
(
Y
X
Z
=
.
Шаг 4. Подать выходной вектор слоя Кохонена на вход слоя Гроссберга . Скор -
ректировать веса слоя Гроссберга , связанные с выигравшим нейроном слоя Кохо-
нена : )(
1 N
kiiN
N
ki
N
ki
vzvv −+=
+
β (здесь
k
- номер выигравшего нейрона ).
Шаг 5. Уменьшить значения
NN
β
α
, .
Шаг 6. Повторять шаги 3-5 до тех пор , пока каждая входная пара из обучающего
множества на выходе будет порождать аналогичную выходную пару.
Замечание. Для улучшения обобщающих свойств сети встречного распростране -
ния темп уменьшения значений
α
и
β
должен быть очень маленьким , а общее ко-
личество итераций достаточно большим (Все образы обучающей выборки жела -
тельно предъявить сети несколько десятков или даже несколько сотен раз).
УПРАЖНЕНИЯ
1. Написать программу, обучающую сеть Кохонена классифицировать типы цвет-
ков ириса (Iris Setosa - 0, Iris Versicolour - 1, Iris Virginica - 2) по 4 размерам их
пестиков и тычинок . База данных, расположенная, например, на сервере
www.basegroup.ru, содержит по 50 примеров каждого класса (всего 150 приме-
ров ). Первые 100 примеров используйте для обучения, остальные - для тестиро-
вания.
2. Написать программу, обучающую сеть Кохонена давать прогноз стоимости не -
движимости в разных районах города . С помощью газет (“Камелот”, “Из рук в
руки”) выбрать и произвести численное кодирование 10 наиболее важных пара -
метров , определяющих стоимость жилья (жилая площадь, размер кухни , пре-
стижность района и т . д .). Каждый нейрон Кохонена определяет класс квартир,
близких по стоимости (например, 1-й класс – квартиры стоимостью 200-210 тыс .
рублей, 2-й класс – 210-220 тыс . рублей и т.д.). Базу данных, включающую не
менее 100 обучающих примеров , сформировать самостоятельно на основе ин-
формации из газет.
3. Сеть встречного распространения может быть использована для сжатия данных
перед их передачей , уменьшая тем самым число битов , которые должны быть
переданы . Допустим , что требуется передать некоторое черно- белое изображе-
ние. Оно может быть разбито на фрагменты
ij
s , как показано на рис . 14. Каждый
фрагмент разбит на пиксели. Рассмотрим векторное кодирование фрагмента :
28 Шаг 2. Весовым коэффициентам сети wij , v ji , i =1, n, j =1, m присвоить малые слу- чайные значения и произвести единичную нормировку матриц W , V по столбцам. Положить α 0 =0.7 , β0 =0.1. Шаг 3. Подать на вход сети обучающий набор ( X , Y ) и определить единственный нейрон-“победитель” в слое Кохонена (весовой вектор которого дает максималь- ное скалярное произведение с входным вектором). Выход этого нейрона устано- вить равным 1, выходы всех остальных нейронов слоя Кохонена положить рав- ными 0. Скорректировать веса выигравшего нейрона: wijN +1 =wijN +α N ( zi −wijN ) , где Z =( X , Y ) . Шаг 4. Подать выходной вектор слоя Кохонена на вход слоя Гроссберга. Скор- ректировать веса слоя Гроссберга, связанные с выигравшим нейроном слоя Кохо- нена: vkiN +1 =vkiN +βN ( zi −vkiN ) (здесь k - номер выигравшего нейрона). Шаг 5. Уменьшить значения α N , βN . Шаг 6. Повторять шаги 3-5 до тех пор, пока каждая входная пара из обучающего множества на выходе будет порождать аналогичную выходную пару. Замечание. Для улучшения обобщающих свойств сети встречного распростране- ния темп уменьшения значений α и β должен быть очень маленьким, а общее ко- личество итераций достаточно большим (Все образы обучающей выборки жела- тельно предъявить сети несколько десятков или даже несколько сотен раз). УПРАЖНЕНИЯ 1. Написать программу, обучающую сеть Кохонена классифицировать типы цвет- ков ириса (Iris Setosa - 0, Iris Versicolour - 1, Iris Virginica - 2) по 4 размерам их пестиков и тычинок. База данных, расположенная, например, на сервере www.basegroup.ru, содержит по 50 примеров каждого класса (всего 150 приме- ров). Первые 100 примеров используйте для обучения, остальные - для тестиро- вания. 2. Написать программу, обучающую сеть Кохонена давать прогноз стоимости не- движимости в разных районах города. С помощью газет (“Камелот”, “Из рук в руки”) выбрать и произвести численное кодирование 10 наиболее важных пара- метров, определяющих стоимость жилья (жилая площадь, размер кухни, пре- стижность района и т.д.). Каждый нейрон Кохонена определяет класс квартир, близких по стоимости (например, 1-й класс – квартиры стоимостью 200-210 тыс. рублей, 2-й класс – 210-220 тыс. рублей и т.д.). Базу данных, включающую не менее 100 обучающих примеров, сформировать самостоятельно на основе ин- формации из газет. 3. Сеть встречного распространения может быть использована для сжатия данных перед их передачей, уменьшая тем самым число битов, которые должны быть переданы. Допустим, что требуется передать некоторое черно-белое изображе- ние. Оно может быть разбито на фрагменты sij , как показано на рис. 14. Каждый фрагмент разбит на пиксели. Рассмотрим векторное кодирование фрагмента:
Страницы
- « первая
- ‹ предыдущая
- …
- 26
- 27
- 28
- 29
- 30
- …
- следующая ›
- последняя »