Интеллектуальный анализ данных в менеджменте. Кричевский М.Л. - 19 стр.

UptoLike

Составители: 

19
При необходимости иметь значения выходных сигналов в диапа"
зоне от –1 до 1 используется биполярная сигмоида в виде:
( ) [1 exp( )]/[1 exp( )],
( ) [1 ( )][1 ( )].
fxxx
fx fx fx
1 22 3 2
4
13 2
Биполярная сигмоида очень близка к функции гиперболического
тангенса:
( ) [1 ex p( 2 )] / [1 ex p( 2 )],
( ) [1 ( )][1 ( )].
th x x x
th x th x th x
1 22 3 2
4
13 2
Существуют, кроме указанных, и другие виды функций актива"
ции, используемые в тех или иных ситуациях в зависимости от кон"
кретных задач.
1.4. Алгоритмы обучения
Алгоритм обучения означает процедуру, в которой используются
правила обучения для настройки весов. Известны четыре основных
типа правил обучения:
– правило Хебба;
– коррекция по ошибке;
– метод конкуренции;
– машина Больцмана.
Правило Хебба является самым старым обучающим правилом и
представляет собой постулат Хебба, о котором упоминалось выше.
Подчеркнем еще раз смысл этого правила: если нейроны с обеих сто"
рон синапса активизируются одновременно и регулярно, то сила си"
наптической связи возрастает. Важная особенность этого правила
состоит в том, что изменение синаптического веса зависит только от
активности нейронов, которые связаны данным синапсом.
Коррекция по ошибке используется в сетях СО. Для каждого вход"
ного примера задается требуемый выход t. Реальный выход сети у
может не совпадать с требуемым, откуда следует принцип коррекции
ошибки при обучении: для модификации весов, обеспечивающей по"
степенное уменьшение ошибки, используется сигнал (t – y). Обуче"
ние проводится только в том случае, если сеть на выходе выдает сиг"
нал, отличный от требуемого.
При обучении методом конкуренции нейроны выходного слоя со"
ревнуются между собой за право стать активным. Борьба происходит
под девизом: «Победитель получает все» (в английском написании –
«Winner Takes All» (WTA)), в результате только нейрон"победитель
(тот нейрон, весовой вектор которого ближе всех к входному вектору)