Нейронные сети и нейроконтроллеры. Бураков М.В. - 46 стр.

UptoLike

Составители: 

46
Ошибку обучения в рассматриваемой задаче можно описать
формулой
99
00
() ,
k kk
kk
E e fy z
==
== -
åå
(2.1)
где f(y
k
) и z
k
реальный и заданный выход персептрона для k-го
обучающего входа.
Активационная функция выбирается пороговой. Первоначально
матрица весовых коэффициентов W получает случайные значения.
Алгоритм обучения персептрона сводится к следующим дей-
ствиям:
1. На вход подается k-й образ из обучающего набора.
2. Вычисляется ошибка e
k
= f(y
k
) – z
k
.
3. Если e
k
= 0, то весовые коэффициенты W не изменяются.
4. Если e
k
0, то изменяются те весовые коэффициенты, кото-
рые усиливают ошибку (w
i
, которым соответствуют ненулевые зна-
чения x
i
):
w
i
(w
i
– sgn(e
k
) x
i
)
(при таком описании шаг обучения равен единице, и порог нейрона
должен быть в несколько раз больше).
5. Ошибка e
k
запоминается. Шаги 1–6 повторяются по всем обу-
чающим парам. Вычисляется ошибка обучения (2.1). Если Е > 0, то
происходит переход на шаг 1.
Если задача относится к классу реализуемых на персептроне, то
описанный алгоритм позволит настроить весовые коэффициенты
желаемым образом.
Последовательность подачи на вход ИНС всех обучающих при-
меров называется эпохой.
Персептрон может иметь более одного выхода. Например, если
мы хотим распознать конкретную цифру, то на выходе персептрона
должен появляться двоичный код этой цифры, состоящий из четы-
рех битов (см. табл. 2.2). Соответственно потребуется четыре ИН
(рис. 2.5).
Формула ошибки обучения будет иметь вид
9 94 94
j
0 01 01
() .
k kj kj k
k kj kj
E fy z∆δ
= == ==
æ öæ ö
÷÷
çç
÷÷
çç
÷÷
== = -
çç
÷÷
çç
÷÷
÷÷
çç
è øè ø
å åå åå
(2.2)
Активационная функция также выбирается пороговой, а матри-
ца W получает первоначально случайные значения.