Моделирование искусственных нейронных сетей в системе MATLAB. Часть 1. Введение. Донской Д.А - 22 стр.

UptoLike

22
извне, и внутри мозга происходит некая самоорганизация. Однако
нельзя отрицать и того, что в жизни человека немало учителей
и в буквальном, и в переносном смысле, которые координируют ре-
акции на внешние воздействия. Вместе с тем как бы ни развивался
спор приверженцев этих двух концепций обучения, представляется,
что обе они имеют
право на существование. И рассматриваемое нами
правило обучения персептрона относится к правилу обучения с учи-
телем.
При обучении без учителя веса и смещения изменяются только в
связи с изменениями входов сети. В этом случае целевые выходы в
явном виде не задаются. Главная черта, делающая обучение без учи-
теля привлекательным,
это его самоорганизация, обусловленная,
как правило, использованием обратных связей. Что касается процес-
са настройки параметров сети, то он организуется с использованием
одних и тех же процедур. Большинство алгоритмов обучения без
учителя применяется при решении задач кластеризации данных, ко-
гда необходимо разделить входы на конечное число классов.
Правила настройки персептронных нейронных се-
тей
Настройка параметров (обучение) персептрона осуществляется с
использованием обучающего множества. Обозначим через
p вектор
входов персептрона, а через
tвектор соответствующих желаемых
выходов. Цель обученияуменьшить погрешность
e = a – t , которая
равна разности между реакцией нейрона
a и вектором цели t.
Правило настройки (обучения) персептрона должно зависеть от
величины погрешности
e. Вектор цели t может включать только зна-
чения 0 и 1, поскольку персептрон с функцией активации hardlim
может генерировать только такие значения.
При настройке параметров персептрона без смещения и с единст-
венным нейроном возможны только три ситуации:
1.
Для данного вектора входа выход персептрона правильный
(a = t и e = ta = 0), и тогда вектор весов
w не претерпевает измене-
ний.
2.
Выход персептрона равен 0, а должен быть равен 1 ( a = 0, t = 1
и e = t – 0 = 1). В этом случае вход функции активации
w
Т
p отрица-
извне, и внутри мозга происходит некая самоорганизация. Однако
нельзя отрицать и того, что в жизни человека немало учителей –
и в буквальном, и в переносном смысле, которые координируют ре-
акции на внешние воздействия. Вместе с тем как бы ни развивался
спор приверженцев этих двух концепций обучения, представляется,
что обе они имеют право на существование. И рассматриваемое нами
правило обучения персептрона относится к правилу обучения с учи-
телем.
   При обучении без учителя веса и смещения изменяются только в
связи с изменениями входов сети. В этом случае целевые выходы в
явном виде не задаются. Главная черта, делающая обучение без учи-
теля привлекательным, – это его самоорганизация, обусловленная,
как правило, использованием обратных связей. Что касается процес-
са настройки параметров сети, то он организуется с использованием
одних и тех же процедур. Большинство алгоритмов обучения без
учителя применяется при решении задач кластеризации данных, ко-
гда необходимо разделить входы на конечное число классов.
Правила настройки персептронных нейронных се-
                     тей
   Настройка параметров (обучение) персептрона осуществляется с
использованием обучающего множества. Обозначим через p вектор
входов персептрона, а через t – вектор соответствующих желаемых
выходов. Цель обучения – уменьшить погрешность e = a – t , которая
равна разности между реакцией нейрона a и вектором цели t.
   Правило настройки (обучения) персептрона должно зависеть от
величины погрешности e. Вектор цели t может включать только зна-
чения 0 и 1, поскольку персептрон с функцией активации hardlim
может генерировать только такие значения.
   При настройке параметров персептрона без смещения и с единст-
венным нейроном возможны только три ситуации:
   1. Для данного вектора входа выход персептрона правильный
(a = t и e = t – a = 0), и тогда вектор весов w не претерпевает измене-
ний.
   2. Выход персептрона равен 0, а должен быть равен 1 ( a = 0, t = 1
и e = t – 0 = 1). В этом случае вход функции активации wТp отрица-


                                  22