ВУЗ:
Составители:
Рубрика:
56
На основе рассмотренного выше метода строятся нейронные сети особого
типа — так называемые самоорганизующиеся структуры — self-organizing
feature maps. Для них после выбора из слоя n нейрона j с минимальным рас-
стоянием D
j
(34) обучается по формуле (33) не только этот нейрон, но и его со-
седи, расположенные в окрестности R. Величина R на первых итерациях очень
большая, так что обучаются все нейроны, но с течением времени она уменьша-
ется до нуля. Таким образом, чем ближе конец обучения, тем точнее определя-
ется группа нейронов, отвечающих
каждому классу образов. В приведенной
ниже программе используется именно этот метод обучения.
2.4 Нейронные сети Хопфилда и Хэмминга
Среди различных конфигураций искусственных нейронных сетей (НС)
встречаются такие, при классификации которых по принципу обучения, строго
говоря, не подходят ни обучение с учителем, ни обучение без учителя. В таких
сетях весовые коэффициенты
синапсов рассчитываются только однажды перед
началом функционирования сети на основе информации об обрабатываемых
данных, и все обучение сети сводится именно к этому расчету. С одной сторо-
ны, предъявление априорной информации можно расценивать, как помощь
учителя, но с другой – сеть фактически просто запоминает образцы до того, как
на ее вход поступают реальные
данные, и не может изменять свое поведение,
поэтому говорить о звене обратной связи с "миром" (учителем) не приходится.
Из сетей с подобной логикой работы наиболее известны сеть Хопфилда и сеть
Хэмминга, которые обычно используются для организации ассоциативной па-
мяти. Далее речь пойдет именно о них.
Структурная схема сети Хопфилда приведена
на рисунке 12. Она состоит
из единственного слоя нейронов, число которых является одновременно числом
входов и выходов сети. Каждый нейрон связан синапсами со всеми остальными
нейронами, а также имеет один входной синапс, через который осуществляется
ввод сигнала. Выходные сигналы, как обычно, образуются на аксонах.
На основе рассмотренного выше метода строятся нейронные сети особого
типа — так называемые самоорганизующиеся структуры — self-organizing
feature maps. Для них после выбора из слоя n нейрона j с минимальным рас-
стоянием Dj (34) обучается по формуле (33) не только этот нейрон, но и его со-
седи, расположенные в окрестности R. Величина R на первых итерациях очень
большая, так что обучаются все нейроны, но с течением времени она уменьша-
ется до нуля. Таким образом, чем ближе конец обучения, тем точнее определя-
ется группа нейронов, отвечающих каждому классу образов. В приведенной
ниже программе используется именно этот метод обучения.
2.4 Нейронные сети Хопфилда и Хэмминга
Среди различных конфигураций искусственных нейронных сетей (НС)
встречаются такие, при классификации которых по принципу обучения, строго
говоря, не подходят ни обучение с учителем, ни обучение без учителя. В таких
сетях весовые коэффициенты синапсов рассчитываются только однажды перед
началом функционирования сети на основе информации об обрабатываемых
данных, и все обучение сети сводится именно к этому расчету. С одной сторо-
ны, предъявление априорной информации можно расценивать, как помощь
учителя, но с другой – сеть фактически просто запоминает образцы до того, как
на ее вход поступают реальные данные, и не может изменять свое поведение,
поэтому говорить о звене обратной связи с "миром" (учителем) не приходится.
Из сетей с подобной логикой работы наиболее известны сеть Хопфилда и сеть
Хэмминга, которые обычно используются для организации ассоциативной па-
мяти. Далее речь пойдет именно о них.
Структурная схема сети Хопфилда приведена на рисунке 12. Она состоит
из единственного слоя нейронов, число которых является одновременно числом
входов и выходов сети. Каждый нейрон связан синапсами со всеми остальными
нейронами, а также имеет один входной синапс, через который осуществляется
ввод сигнала. Выходные сигналы, как обычно, образуются на аксонах.
56
Страницы
- « первая
- ‹ предыдущая
- …
- 54
- 55
- 56
- 57
- 58
- …
- следующая ›
- последняя »
