ВУЗ:
Составители:
плоскостей или поверхностей для 3-х мерного образа . Говорят о персептронной
представляемости – способности научиться распознавать моделировать определённые
функции, образы.
Однослойный персептрон – линейный, т.к. разделяющая образы поверхность является
либо прямой линией, либо плоскостью, либо гиперплоскостью.
Нелинейные задачи (для криволинейных линий и поверхностей раздела ) однослойному
персептрону непосильны.
Говорят о линейной неразделимости пространства признаков
X
.
Обучение или конструирование персептрона (и нейронной сети ) это процедура
настройки весов W
ij
и в общем случае и V
i
.
Обучаемостью называется наличие процедуры (алгоритма) настройки весов.
Заметим, что для однослойного персептрона с n-двоичными входами пространства
признаков
X
имеется 2
n
различных комбинаций входных сигналов. А количество образов
(функций) для распознавания Y
j
равно (2)
2^n
.Из них количество функций (образов)
линейно разделимых персептроном значительно меньше, табл. 8.1. Для остающихся
нелинейных задач распознавания требуются многослойные нейронные сети (часто с
обратными связями)
Табл.8.1
N (2)
2^n
Количество линейно
разделимых функций
1 4 4
2 16 14
3 256 104
4 65536 1882
5 4,3*10
9
94572
8.5 Общие принципы и основные компоненты нейронных сетей
Нейронная сеть (НС ) – это устройство параллельных вычислений из множества
взаимодействующих простых «процессов» (нейронов).Нейроны периодически получает
сигналы и перерабатывает их периодически посылает свои сигналы другим другим
нейронам, объединенным множеством связей в нейронной сети .
Задача, которую понимает НС описывается в терминах весовых значений связей
между Нейронами. Эти матрицы весов связей и являются памятью НС .
О том как должна решаться выполняемая задача .
Весовые коэффициенты можно определить (построить НС) и без обучения , но главное
преимущество НС в способности обучаться.
Структура связей НС может быть самой разнообразной. Один элемент связан со всеми
другими, элементы организованы по слоям иерархически могут быть обратные связи ,
латеральные (параллельные )- возможности конструирования связей безграничны.
Матрицы весов (примеры)
W
1
- матрица 4х3 первого слоя нейронов
W
2
–матрица 3х2 второго слоя нейронов
плоскостей или поверхностей для 3-х мерного образа. Говорят о персептронной представляемости – способности научиться распознавать моделировать определённые функции, образы. Однослойный персептрон – линейный, т.к. разделяющая образы поверхность является либо прямой линией, либо плоскостью, либо гиперплоскостью. Нелинейные задачи (для криволинейных линий и поверхностей раздела) однослойному персептрону непосильны. Говорят о линейной неразделимости пространства признаков X . Обучение или конструирование персептрона (и нейронной сети) это процедура настройки весов Wij и в общем случае и Vi . Обучаемостью называется наличие процедуры (алгоритма) настройки весов. Заметим, что для однослойного персептрона с n-двоичными входами пространства признаков X имеется 2n различных комбинаций входных сигналов. А количество образов (функций) для распознавания Yj равно (2)2^n .Из них количество функций (образов) линейно разделимых персептроном значительно меньше, табл. 8.1. Для остающихся нелинейных задач распознавания требуются многослойные нейронные сети (часто с обратными связями) Табл.8.1 N (2)2^n Количество линейно разделимых функций 1 4 4 2 16 14 3 256 104 4 65536 1882 5 4,3*109 94572 8.5 Общие принципы и основные компоненты нейронных сетей Нейронная сеть (НС) – это устройство параллельных вычислений из множества взаимодействующих простых «процессов» (нейронов).Нейроны периодически получает сигналы и перерабатывает их периодически посылает свои сигналы другим другим нейронам, объединенным множеством связей в нейронной сети. Задача, которую понимает НС описывается в терминах весовых значений связей между Нейронами. Эти матрицы весов связей и являются памятью НС . О том как должна решаться выполняемая задача. Весовые коэффициенты можно определить (построить НС) и без обучения , но главное преимущество НС в способности обучаться. Структура связей НС может быть самой разнообразной. Один элемент связан со всеми другими, элементы организованы по слоям иерархически могут быть обратные связи, латеральные(параллельные)- возможности конструирования связей безграничны. Матрицы весов (примеры) W1- матрица 4х3 первого слоя нейронов W2 –матрица 3х2 второго слоя нейронов
Страницы
- « первая
- ‹ предыдущая
- …
- 62
- 63
- 64
- 65
- 66
- …
- следующая ›
- последняя »