ВУЗ:
Составители:
Рубрика:
121
ния каждого слоя могут быть настроены с использованием собствен-
ных функций настройки. Для сетей Элмана такими функциями могут
быть либо функция настройки методом градиентного спуска с воз-
мущением
leargdm. Критерием качества обучения может быть одна
из двух функций:
mse или msereg.
Сети Элмана создаются функцией
net = newelm(PR, [S1, S2, …, SN],
{TF1, TF2, …, TFN},
BTF, BLF, PF),
где PR – массив размера R
×
2 минимальных и максимальных значе-
ний для
R векторов входа;
S1, S2, …, SN – количество нейронов в слоях;
TF1, TF2, …, TFN – функции активации в слоях, по умолчанию
tansig;
BTF – обучающая функция, реализующая метод обратного рас-
пространения, по умолчанию
traingdx;
BLF – функция настройки, реализующая метод обратного распро-
странения, по умолчанию
learngdm;
PF – критерий качества обучения, по умолчанию mse.
Динамическое описание входного слова определяется рекуррент-
ными уравнениями:
⎪
⎩
⎪
⎨
⎧
=
=++−=
)).(()(
;)0(,)1()(
11
1
0
11111111
ktransigk
IWkLWk
na
aabpan
Второй линейный слой является безынерционным и описывается
соотношениями:
n
2
(k) = LW
21
a
1
(k) + b
2
;
a
2
(k) = purelin(n
2
(k)).
Задание 1. Создать рекуррентную нейронную сеть Элмана, кото-
рая для случайной булевой последовательности из нулей и единиц
выдаёт булеву последовательность, имеющую единицы только в том
ния каждого слоя могут быть настроены с использованием собствен- ных функций настройки. Для сетей Элмана такими функциями могут быть либо функция настройки методом градиентного спуска с воз- мущением leargdm. Критерием качества обучения может быть одна из двух функций: mse или msereg. Сети Элмана создаются функцией net = newelm(PR, [S1, S2, …, SN], {TF1, TF2, …, TFN}, BTF, BLF, PF), где PR – массив размера R × 2 минимальных и максимальных значе- ний для R векторов входа; S1, S2, …, SN – количество нейронов в слоях; TF1, TF2, …, TFN – функции активации в слоях, по умолчанию tansig; BTF – обучающая функция, реализующая метод обратного рас- пространения, по умолчанию traingdx; BLF – функция настройки, реализующая метод обратного распро- странения, по умолчанию learngdm; PF – критерий качества обучения, по умолчанию mse. Динамическое описание входного слова определяется рекуррент- ными уравнениями: ⎧⎪n1 (k ) = LW 11a 1 (k − 1) + IW 11 p + b1 , a 1 (0) = a 10 ; ⎨ 1 ⎪⎩a (k ) = transig (n1 (k )). Второй линейный слой является безынерционным и описывается соотношениями: n2(k) = LW21a1(k) + b2; a2(k) = purelin(n2(k)). Задание 1. Создать рекуррентную нейронную сеть Элмана, кото- рая для случайной булевой последовательности из нулей и единиц выдаёт булеву последовательность, имеющую единицы только в том 121
Страницы
- « первая
- ‹ предыдущая
- …
- 119
- 120
- 121
- 122
- 123
- …
- следующая ›
- последняя »