Интеллектуальный анализ данных в менеджменте. Кричевский М.Л. - 23 стр.

UptoLike

Составители: 

23
добные задачи. Таким примером может служить проблема исключа"
ющего ИЛИ.
В заключение этого параграфа отметим разницу между представ"
лением входных данных в биполярной (1 и –1) и бинарной (1 и 0)
формах. Многие ранние модели ИНС использовали бинарное пред"
ставление, хотя в большинстве случаев оно может быть трансформи"
ровано в биполярное следующим образом:
21,
ii
Sn12
где S
i
= 1 или –1 – биполярное; n
i
= 1 или 0 – бинарное преставления.
Сеть Хебба
Правило Хебба известно как самое раннее и наиболее простое для
обучения сетей. В оригинальном правиле Хебба речь идет только о
нейронах, находящихся в активном (возбужденном) состоянии, и
ничего не говорится о других нейронах, которые не являются актив"
ными в это же время. Более сильная форма правила обучения распро"
страняется и на оставшиеся нейроны: вес между двумя нейронами
должен быть увеличен, если оба они находятся в пассивном (невоз"
бужденном) состоянии в одно и то же время. Исследования показа"
ли, что в такой формулировке правило Хебба обладает улучшенны"
ми вычислительными возможностями
Назовем однослойные нейронные сети, использующие такое рас"
ширенное правило, сетями Хебба. Архитектура такой сети чрезвы"
чайно проста: один из нейронов сети служит ее входом, один из вы"
ходных – выходом. Здесь нет входных нейронов, соединенных друг с
другом; то же самое относится и к нейронам выходного слоя. В слу"
чае, если данные представлены в биполярной форме, изменение веса
при обучении определяется следующим выражением:
()() ,
iii
wnew wold xy1 2 (1.4)
где w
i
(new), w
i
(old) – новое и старое значения весов; x
i
– значение i "
го входного нейрона; y – значение выходного нейрона.
Если данные представлены в бинарном виде, то формула (1.4) не
делает различия между обучающими парами, в одной из которых
входной нейрон находится в активном состоянии и требуемое значе"
ние выхода такое же, и другой парой, в которой как входной нейрон,
так и требуемое значение находятся в пассивных состояниях.
Алгоритм обучения сети Хебба представляет собой следующую
последовательность шагов.
1. Инициировать все веса: w
i
= 0, i = 1, 2,..., n.
2. Для каждого входного обучающего вектора и требуемого выхо"
да (s; t) делать шаги 3 – 5.