Составители:
Рубрика:
156
Таким образом, многослойный персептрон – это обучаемая
распознающая система, реализующая корректируемое в процессе обучения
линейное решающее правило в пространстве вторичных признаков,
которые обычно являются фиксированными случайно выбранными
линейными пороговыми функциями от первичных признаков.
При обучении на вход персептрона поочередно подаются сигналы из
обучающей выборки, а также указания о классе, к которому следует отнести
данный сигнал. Обучение персептрона заключается в коррекции весов при
каждой ошибке распознавания. Если персептрон ошибочно отнес сигнал, к
некоторому классу, то веса функции, истинного класса увеличиваются, а
ошибочного уменьшаются. В случае правильного решения все веса
остаются неизменными.
Этот чрезвычайно простой алгоритм обучения обладает замечательным
свойством: если существуют значения весов, при которых выборка может
быть разделена безошибочно, то при определенных, легко выполнимых
условиях эти значения будут найдены за конечное количество итераций.
При идентификации, распознавании, прогнозировании на вход
многослойного персептрона поступает сигнал, представляющий собой набор
первичных признаков, которые и фиксируются рецепторами. Сначала
вычисляются вторичные признаки. Каждому такому вторичному признаку
соответствует линейная от первичных признаков. Вторичный признак
принимает значение 1, если соответствующая линейная функция превышает
порог. В противном случае она принимает значение 0. Затем для каждого из
классов вычисляется функция, линейная относительно вторичных
признаков. Перцептрон вырабатывает решение о принадлежности входного
сигнала к тому классу, которому соответствует функция от вторичных
параметров, имеющая наибольшее значение.
Показано, что для представления произвольного нелинейного
функционального отображения, задаваемого обучающей выборкой,
достаточно всего двух слоев нейронов. Однако на практике, в случае
сложных функций, использование более чем одного скрытого слоя может
давать экономию полного числа нейронов.
16.2 Модель Хопфилда
В модели Хопфилда (J. J. Hopfield, 1982) впервые удалось установить
связь между нелинейными динамическими системами и нейронными
сетями.
Модель Хопфилда является обобщением модели многослойного
персептрона путем добавления в нее следующих двух новых свойств:
1. В нейронной сети все нейроны непосредственно связаны друг с
другом: силу связи i-го нейрона с j-м обозначим как W
ij
.
Таким образом, многослойный персептрон – это обучаемая распознающая система, реализующая корректируемое в процессе обучения линейное решающее правило в пространстве вторичных признаков, которые обычно являются фиксированными случайно выбранными линейными пороговыми функциями от первичных признаков. При обучении на вход персептрона поочередно подаются сигналы из обучающей выборки, а также указания о классе, к которому следует отнести данный сигнал. Обучение персептрона заключается в коррекции весов при каждой ошибке распознавания. Если персептрон ошибочно отнес сигнал, к некоторому классу, то веса функции, истинного класса увеличиваются, а ошибочного уменьшаются. В случае правильного решения все веса остаются неизменными. Этот чрезвычайно простой алгоритм обучения обладает замечательным свойством: если существуют значения весов, при которых выборка может быть разделена безошибочно, то при определенных, легко выполнимых условиях эти значения будут найдены за конечное количество итераций. При идентификации, распознавании, прогнозировании на вход многослойного персептрона поступает сигнал, представляющий собой набор первичных признаков, которые и фиксируются рецепторами. Сначала вычисляются вторичные признаки. Каждому такому вторичному признаку соответствует линейная от первичных признаков. Вторичный признак принимает значение 1, если соответствующая линейная функция превышает порог. В противном случае она принимает значение 0. Затем для каждого из классов вычисляется функция, линейная относительно вторичных признаков. Перцептрон вырабатывает решение о принадлежности входного сигнала к тому классу, которому соответствует функция от вторичных параметров, имеющая наибольшее значение. Показано, что для представления произвольного нелинейного функционального отображения, задаваемого обучающей выборкой, достаточно всего двух слоев нейронов. Однако на практике, в случае сложных функций, использование более чем одного скрытого слоя может давать экономию полного числа нейронов. 16.2 Модель Хопфилда В модели Хопфилда (J. J. Hopfield, 1982) впервые удалось установить связь между нелинейными динамическими системами и нейронными сетями. Модель Хопфилда является обобщением модели многослойного персептрона путем добавления в нее следующих двух новых свойств: 1. В нейронной сети все нейроны непосредственно связаны друг с другом: силу связи i-го нейрона с j-м обозначим как Wij. 156
Страницы
- « первая
- ‹ предыдущая
- …
- 155
- 156
- 157
- 158
- 159
- …
- следующая ›
- последняя »