Методические указания к лабораторным работам по курсу "Нейрокомпьютерные системы". Домашова Д.В - 12 стр.

UptoLike

2.6 Алгоритм обучения многослойного персептрона. Дель-
та - правило
Детерминированная версия алгоритма, получившая название «back
propagation» - алгоритм обратного распространения ошибки. Этот алгоритм яв-
ляется обобщением одной из процедур обучения простого персептрона, извест-
ной, как правило, Уидроу-Хоффа (или дельта-правило), и требует представления
обучающей выборки.
Рисунок 2.6 - Алгоритм обратного распространения ошибки
Выборка состоит из набора пар образов (вход-выход), между которыми на-
до установить соответствие,
Рассмотрим многослойную нейроподобную сеть с прямыми связями. Вход-
ные элементы (блоки) образуют нижний слой сети, выходные - верхний. Между
ними может быть много слоев скрытых блоков. Сообщения только (снизу - вверх).
С точки зрения распознавания образов входной вектор соответствует набору
признаков, а выходной - классу образов.
1) Перед началом обучения связям присваиваются небольшие случайные зна-
чения;
2) На сеть подается входной вектор, устанавливая в нужное состояние входные
элементы. Затем входные сигналы распространяются по сети, порождая не-
который выходной вектор.
3) Для описания характеристики вход - выход нейроподобных элементов ис-
пользуют сигмовидную нелинейность вида (2.3).
Полученный выходной вектор сравнивают с требуемым.. Если они совпада-
ют, обучение не происходит.
В противном случае вычисляется разница между фактическими и требуе-
мыми выходными значениями.
На основании этой информации об ошибке производится модификация свя-
зей в соответствии с обобщенным дельта - правилом, которое имеет вид:
13
2.6 Алгоритм обучения многослойного персептрона. Дель-
та - правило

      Детерминированная версия алгоритма, получившая название «back
propagation» - алгоритм обратного распространения ошибки. Этот алгоритм яв-
ляется обобщением одной из процедур обучения простого персептрона, извест-
ной, как правило, Уидроу-Хоффа (или дельта-правило), и требует представления
обучающей выборки.




              Рисунок 2.6 - Алгоритм обратного распространения ошибки

        Выборка состоит из набора пар образов (вход-выход), между которыми на-
 до установить соответствие,
       Рассмотрим многослойную нейроподобную сеть с прямыми связями. Вход-
ные элементы (блоки) образуют нижний слой сети, выходные - верхний. Между
ними может быть много слоев скрытых блоков. Сообщения только (снизу - вверх).
       С точки зрения распознавания образов входной вектор соответствует набору
признаков, а выходной - классу образов.
    1) Перед началом обучения связям присваиваются небольшие случайные зна-
      чения;
    2) На сеть подается входной вектор, устанавливая в нужное состояние входные
      элементы. Затем входные сигналы распространяются по сети, порождая не-
      который выходной вектор.
    3)Для описания характеристики вход - выход нейроподобных элементов ис-
      пользуют сигмовидную нелинейность вида (2.3).
       Полученный выходной вектор сравнивают с требуемым.. Если они совпада-
ют, обучение не происходит.
       В противном случае вычисляется разница между фактическими и требуе-
мыми выходными значениями.
       На основании этой информации об ошибке производится модификация свя-
зей в соответствии с обобщенным дельта - правилом, которое имеет вид:

                                                                             13