ВУЗ:
Составители:
100
,)(
max
/
max
min
max
kk
k
⎟
⎟
⎠
⎞
⎜
⎜
⎝
⎛
λ
λ
⋅λ=λ
где k – номер итерации;
λ
max
, λ
min
– принятые максимальное и минимальное значения λ;
k
max
– заданное максимальное число итераций.
Коэффициент скорости обучения η также может изменяться линейно или
показательно:
.
)0(
)0()(
max
/
min
kk
k
⎟
⎟
⎠
⎞
⎜
⎜
⎝
⎛
η
η
⋅η=η
На практике лучшие результаты дает линейное изменение η.
С целью сокращения объема вычислений при сортировке можно учитывать
только наиболее значимые величины функции G(k, x). Для этого в выражении
(9.6) при α(k) >> 1 берут G(k, x) = 0.
Сравнение алгоритмов [15]. Наихудшие результаты дает классический
алгоритм
WTA (Кохонена). Значительная часть нейронов размещается в
областях, свободных от данных, т.е. вообще не используются сетью. Алгоритмы
WTМ – это целый класс алгоритмов. Эффективность конкретного алгоритма
этого класса зависит от вида функции G(k, x). Существенно лучшие результаты,
чем
WTA, дает алгоритм CWTA. Алгоритм нейронного газа несколько лучше,
чем
CWTA по результатам самоорганизации, но значительно медленнее за счет
операции сортировки. В усеченном виде (см. выше) он примерно эквивалентен
CWTA, как по эффективности самоорганизации, так и по скорости обучения.
В целом, следует отметить, что для разных приложений сети ВР,
применение указанных методов дают разный эффект, который в общем случае
заранее не известен.
Статистические свойства обученного слоя самоорганизации. Метод
самообучения Кохонена обладает интересной и полезной способностью
выявлять статистические свойства входных данных. Обученный слой
самоорганизации предоставляет, по существу, карту распределения входных
образов, т.е. решает задачу нахождения кластеров в пространстве входных
образов. Кохоненом было показано, что для полностью обученной сети
вероятность того, что случайно выбранный входной вектор будет ближайшим
к
любому заданному весовому вектору, равна 1/n, где n – число нейронов в слое
1. Это является оптимальным распределением весов на гиперсфере.
(Предполагается, что используются все весовые векторы, т.е. используется один
из обсуждавшихся методов распределения весов) [16].
Обучение слоя Гроссберга [16]. Обучение слоя 1 является
самообучением, протекающим без учителя. Поэтому заранее неизвестно, какой
нейрон этого слоя будет активирован для заданного входного вектора, т.е. слой
1 производит классификацию кластеров входных образов в
Страницы
- « первая
- ‹ предыдущая
- …
- 98
- 99
- 100
- 101
- 102
- …
- следующая ›
- последняя »
