Искусственные нейронные сети. Сивохин А.В - 80 стр.

UptoLike

80
net=newlin(PR, S, 0, P),
net=newlind(P, T),
где PRмассив размера R*2 минимальных и максимальных значе-
ний для
R векторов входа;
Sчисло нейронов;
idописание линии задержки на входе сети, по умолчанию [0];
lrпараметр скорости настройки, по умолчанию 0,01;
Pобучающие последовательности входов размера R*Q, причем
Qколичество последовательностей;
Тпоследовательность целей для Р размера S*Q;
0нуль. .
Первый способ применяется, когда в сеть включаются задержки,
т. е. для создания динамических адаптивных линейных нейронных
сетей
ADALIN (ADApture Linear Neuron networks), которые по-
зволяют корректировать веса и смещения при поступлении на вход
каждого элемента обучающего множества. Такие сети широко при-
меняются при решении задач обработки сигналов и в системах
управления.
Второй способ формирует линейный слой с параметром скорости
настройки, гарантирующим максимальную степень устойчивости для
данного входа
Р. В этом случае линии задержки не используются и
сеть является статической.
Для первого и второго способа инициализация сети проводится
при ее создании с помощью функции
initzero. Адаптация и обучение
сети затем осуществляется с помощью функции
adaptwb, которая
модифицирует веса и смещения, используя функцию ВидроуХоф-
фа
hearnwh до тех пор, пока не будет достигнуто требуемое значе-
ние критерия качества обучения в виде средней квадратичной ошиб-
ки, вычисляемой функцией
mse.
Третий способ формирует и настраивает линейную статическую
сеть, решая систему линейных алгебраических уравнений на основе
метода наименьших квадратов. Он используется для подбора коэф-
фициентов аппроксимирующей функции и для идентификации пара-
   net=newlin(PR, S, 0, P),
   net=newlind(P, T),
где PR – массив размера R*2 минимальных и максимальных значе-
ний для R векторов входа;
   S – число нейронов;
   id – описание линии задержки на входе сети, по умолчанию [0];
   lr – параметр скорости настройки, по умолчанию 0,01;
   P – обучающие последовательности входов размера R*Q, причем
Q – количество последовательностей;
   Т – последовательность целей для Р размера S*Q;
   0 – нуль.                                                     .
   Первый способ применяется, когда в сеть включаются задержки,
т. е. для создания динамических адаптивных линейных нейронных
сетей ADALIN (ADApture Linear Neuron networks), которые по-
зволяют корректировать веса и смещения при поступлении на вход
каждого элемента обучающего множества. Такие сети широко при-
меняются при решении задач обработки сигналов и в системах
управления.
   Второй способ формирует линейный слой с параметром скорости
настройки, гарантирующим максимальную степень устойчивости для
данного входа Р. В этом случае линии задержки не используются и
сеть является статической.
   Для первого и второго способа инициализация сети проводится
при ее создании с помощью функции initzero. Адаптация и обучение
сети затем осуществляется с помощью функции adaptwb, которая
модифицирует веса и смещения, используя функцию Видроу – Хоф-
фа hearnwh до тех пор, пока не будет достигнуто требуемое значе-
ние критерия качества обучения в виде средней квадратичной ошиб-
ки, вычисляемой функцией mse.
   Третий способ формирует и настраивает линейную статическую
сеть, решая систему линейных алгебраических уравнений на основе
метода наименьших квадратов. Он используется для подбора коэф-
фициентов аппроксимирующей функции и для идентификации пара-



                               80