Искусственные нейронные сети. Сивохин А.В - 121 стр.

UptoLike

121
ния каждого слоя могут быть настроены с использованием собствен-
ных функций настройки. Для сетей Элмана такими функциями могут
быть либо функция настройки методом градиентного спуска с воз-
мущением
leargdm. Критерием качества обучения может быть одна
из двух функций:
mse или msereg.
Сети Элмана создаются функцией
net = newelm(PR, [S1, S2, …, SN],
{TF1, TF2, …, TFN},
BTF, BLF, PF),
где PRмассив размера R
×
2 минимальных и максимальных значе-
ний для
R векторов входа;
S1, S2, …, SNколичество нейронов в слоях;
TF1, TF2, …, TFNфункции активации в слоях, по умолчанию
tansig;
BTFобучающая функция, реализующая метод обратного рас-
пространения, по умолчанию
traingdx;
BLFфункция настройки, реализующая метод обратного распро-
странения, по умолчанию
learngdm;
PFкритерий качества обучения, по умолчанию mse.
Динамическое описание входного слова определяется рекуррент-
ными уравнениями:
=
=++=
)).(()(
;)0(,)1()(
11
1
0
11111111
ktransigk
IWkLWk
na
aabpan
Второй линейный слой является безынерционным и описывается
соотношениями:
n
2
(k) = LW
21
a
1
(k) + b
2
;
a
2
(k) = purelin(n
2
(k)).
Задание 1. Создать рекуррентную нейронную сеть Элмана, кото-
рая для случайной булевой последовательности из нулей и единиц
выдаёт булеву последовательность, имеющую единицы только в том
ния каждого слоя могут быть настроены с использованием собствен-
ных функций настройки. Для сетей Элмана такими функциями могут
быть либо функция настройки методом градиентного спуска с воз-
мущением leargdm. Критерием качества обучения может быть одна
из двух функций: mse или msereg.
   Сети Элмана создаются функцией
   net = newelm(PR, [S1, S2, …, SN],
   {TF1, TF2, …, TFN},
   BTF, BLF, PF),
где PR – массив размера R × 2 минимальных и максимальных значе-
ний для R векторов входа;
   S1, S2, …, SN – количество нейронов в слоях;
   TF1, TF2, …, TFN – функции активации в слоях, по умолчанию
tansig;
   BTF – обучающая функция, реализующая метод обратного рас-
пространения, по умолчанию traingdx;
   BLF – функция настройки, реализующая метод обратного распро-
странения, по умолчанию learngdm;
   PF – критерий качества обучения, по умолчанию mse.
   Динамическое описание входного слова определяется рекуррент-
ными уравнениями:
             ⎧⎪n1 (k ) = LW 11a 1 (k − 1) + IW 11 p + b1 , a 1 (0) = a 10 ;
              ⎨ 1
              ⎪⎩a (k ) = transig (n1 (k )).
   Второй линейный слой является безынерционным и описывается
соотношениями:
   n2(k) = LW21a1(k) + b2;
   a2(k) = purelin(n2(k)).

   Задание 1. Создать рекуррентную нейронную сеть Элмана, кото-
рая для случайной булевой последовательности из нулей и единиц
выдаёт булеву последовательность, имеющую единицы только в том



                                   121