Составители:
Рубрика:
70
в каждом слое (от 1-го до N-го); TF
1
, TF
2
, ..., TF
N
– передаточные
функции каждого слоя (по умолчанию 'tansig'); BTF, BLF – функ-
ции обучения (по умолчанию 'trainlm' и 'learngdm'), PF – функция
оценки качества работы (по умолчанию 'mse').
Пример 3.1. Создать двухслойную ИНС ПР с одним входом и од-
ним выходом:
>> P = [0 1 2 3 4 5 6 7 8 9 10];
>> net = newff(minmax(P),[5 1],{'tansig' 'purelin'});
Пример 3.2. Создать ИНС ПР с двумя входами и тремя нейрона-
ми в каждом из двух слоев:
>> net11 = newff([–1 2; 0 5], [3, 3]);
3.2. Алгоритм обратного распространения ошибки
Дельта-правило, которое применяется при обучении персептрона,
использует величину ошибки выходного слоя. Если же сеть имеет два
или больше слоев, то для промежуточных слоев значения ошибки в
явном виде не существует, и использовать дельта-правило нельзя.
Основная идея обратного распространения состоит в том, как
получить оценку ошибки для нейронов скрытых слоев. Заметим,
что известные ошибки, допускаемые нейронами выходного слоя,
возникают вследствие неизвестных ошибок нейронов скрытых
слоев. Чем больше значение синаптической связи между нейроном
скрытого слоя и выходным нейроном, тем сильнее ошибка первого
влияет на ошибку второго. Следовательно, оценку ошибки элемен-
тов скрытых слоев можно получить как взвешенную сумму ошибок
последующих слоев.
Алгоритм обратного распространения ошибки (АОРО), явля-
ющийся обобщением дельта-правила, позволяет обучать ИНС ПР
с любым числом слоев. Можно сказать, что АОРО фактически ис-
пользует разновидность градиентного спуска, перестраивая веса в
направлении минимума ошибки.
При использовании АОРО предполагается, что в качестве акти-
вационной используется сигмоидная функция. Эта функция позво-
ляет экономить вычислительные затраты, поскольку имеет про-
стую производную:
1
()
( )( ( )).
dF y
Fy Fy
dy
=-
Страницы
- « первая
- ‹ предыдущая
- …
- 68
- 69
- 70
- 71
- 72
- …
- следующая ›
- последняя »