ВУЗ:
Составители:
22
извне, и внутри мозга происходит некая самоорганизация. Однако
нельзя отрицать и того, что в жизни человека немало учителей –
и в буквальном, и в переносном смысле, которые координируют ре-
акции на внешние воздействия. Вместе с тем как бы ни развивался
спор приверженцев этих двух концепций обучения, представляется,
что обе они имеют
право на существование. И рассматриваемое нами
правило обучения персептрона относится к правилу обучения с учи-
телем.
При обучении без учителя веса и смещения изменяются только в
связи с изменениями входов сети. В этом случае целевые выходы в
явном виде не задаются. Главная черта, делающая обучение без учи-
теля привлекательным,
– это его самоорганизация, обусловленная,
как правило, использованием обратных связей. Что касается процес-
са настройки параметров сети, то он организуется с использованием
одних и тех же процедур. Большинство алгоритмов обучения без
учителя применяется при решении задач кластеризации данных, ко-
гда необходимо разделить входы на конечное число классов.
Правила настройки персептронных нейронных се-
тей
Настройка параметров (обучение) персептрона осуществляется с
использованием обучающего множества. Обозначим через
p вектор
входов персептрона, а через
t – вектор соответствующих желаемых
выходов. Цель обучения – уменьшить погрешность
e = a – t , которая
равна разности между реакцией нейрона
a и вектором цели t.
Правило настройки (обучения) персептрона должно зависеть от
величины погрешности
e. Вектор цели t может включать только зна-
чения 0 и 1, поскольку персептрон с функцией активации hardlim
может генерировать только такие значения.
При настройке параметров персептрона без смещения и с единст-
венным нейроном возможны только три ситуации:
1.
Для данного вектора входа выход персептрона правильный
(a = t и e = t – a = 0), и тогда вектор весов
w не претерпевает измене-
ний.
2.
Выход персептрона равен 0, а должен быть равен 1 ( a = 0, t = 1
и e = t – 0 = 1). В этом случае вход функции активации
w
Т
p отрица-
извне, и внутри мозга происходит некая самоорганизация. Однако нельзя отрицать и того, что в жизни человека немало учителей – и в буквальном, и в переносном смысле, которые координируют ре- акции на внешние воздействия. Вместе с тем как бы ни развивался спор приверженцев этих двух концепций обучения, представляется, что обе они имеют право на существование. И рассматриваемое нами правило обучения персептрона относится к правилу обучения с учи- телем. При обучении без учителя веса и смещения изменяются только в связи с изменениями входов сети. В этом случае целевые выходы в явном виде не задаются. Главная черта, делающая обучение без учи- теля привлекательным, – это его самоорганизация, обусловленная, как правило, использованием обратных связей. Что касается процес- са настройки параметров сети, то он организуется с использованием одних и тех же процедур. Большинство алгоритмов обучения без учителя применяется при решении задач кластеризации данных, ко- гда необходимо разделить входы на конечное число классов. Правила настройки персептронных нейронных се- тей Настройка параметров (обучение) персептрона осуществляется с использованием обучающего множества. Обозначим через p вектор входов персептрона, а через t – вектор соответствующих желаемых выходов. Цель обучения – уменьшить погрешность e = a – t , которая равна разности между реакцией нейрона a и вектором цели t. Правило настройки (обучения) персептрона должно зависеть от величины погрешности e. Вектор цели t может включать только зна- чения 0 и 1, поскольку персептрон с функцией активации hardlim может генерировать только такие значения. При настройке параметров персептрона без смещения и с единст- венным нейроном возможны только три ситуации: 1. Для данного вектора входа выход персептрона правильный (a = t и e = t – a = 0), и тогда вектор весов w не претерпевает измене- ний. 2. Выход персептрона равен 0, а должен быть равен 1 ( a = 0, t = 1 и e = t – 0 = 1). В этом случае вход функции активации wТp отрица- 22
Страницы
- « первая
- ‹ предыдущая
- …
- 20
- 21
- 22
- 23
- 24
- …
- следующая ›
- последняя »