Нейронные сети и нейроконтроллеры. Бураков М.В. - 206 стр.

UptoLike

Составители: 

206
• подстройки весов нейронов по отношению к набору векторов
входа.
На этапе упорядочения используется фиксированное число ша-
гов. Начальный размер окрестности назначается равным макси-
мальному расстоянию между нейронами для выбранной топологии
и затем уменьшается до величины, используемой на следующем
этапе. Он вычисляется по формуле
nd = 1,00001+(max(d) – 1)(1 – s/S),
где max(d) максимальное расстояние между нейронами; sномер
текущего шага; S – число циклов на этапе упорядочения. Параметр
скорости обучения изменяется по правилу
lr =tlr+(olr – tlr)(1 – s/S).
На этапе подстройки, который продолжается в течение остав-
шейся части процедуры обучения, размер окрестности остается по-
стоянным и равным
nd = tnd + 0,00001,
а параметр скорости обучения изменяется по следующему правилу:
lr= tlrS/s.
Параметр скорости обучения продолжает уменьшаться, но
очень медленно. Малое значение окрестности и медленное умень-
шение параметра скорости обучения хорошо настраивают сеть при
сохранении размещения, найденного на предыдущем этапе. Число
шагов на этапе подстройки должно значительно превышать число
шагов на этапе размещения. На этом этапе происходит тонкая на-
стройка весов нейронов по отношению к набору векторов входов.
Нейроны карты Кохонена упорядочиваются так, чтобы при рав-
номерной плотности векторов входа данные нейроны также были
распределены равномерно. Если векторы входа распределены не-
равномерно, то и нейроны приобретают тенденцию распределяться
в соответствии с плотностью размещения векторов входа.
Пример 7.6. Аппроксимация параболы одномерным слоем из де-
сяти нейронов:
>> x=–1:0.05:1;
>> y=x.*x;
>> P = [x; y];
>> net=newsom([0 1;0 1],[10]);
>> net.trainParam.epochs =1000;
>> net1=train(net,P);