ВУЗ:
Составители:
плоскостей или поверхностей для 3-х мерного образа . Говорят о персептронной
представляемости – способности научиться распознавать моделировать определённые
функции, образы.
Однослойный персептрон – линейный, т.к. разделяющая образы поверхность является
либо прямой линией, либо плоскостью, либо гиперплоскостью.
Нелинейные задачи (для криволинейных линий и поверхностей раздела ) однослойному
персептрону непосильны.
Говорят о линейной неразделимости пространства признаков
X
.
Обучение или конструирование персептрона (и нейронной сети ) это процедура
настройки весов W
ij
и в общем случае и V
i
.
Обучаемостью называется наличие процедуры (алгоритма) настройки весов.
Заметим, что для однослойного персептрона с n-двоичными входами пространства
признаков
X
имеется 2
n
различных комбинаций входных сигналов. А количество образов
(функций) для распознавания Y
j
равно (2)
2^n
.Из них количество функций (образов)
линейно разделимых персептроном значительно меньше, табл. 8.1. Для остающихся
нелинейных задач распознавания требуются многослойные нейронные сети (часто с
обратными связями)
Табл.8.1
N (2)
2^n
Количество линейно
разделимых функций
1 4 4
2 16 14
3 256 104
4 65536 1882
5 4,3*10
9
94572
8.5 Общие принципы и основные компоненты нейронных сетей
Нейронная сеть (НС ) – это устройство параллельных вычислений из множества
взаимодействующих простых «процессов» (нейронов).Нейроны периодически получает
сигналы и перерабатывает их периодически посылает свои сигналы другим другим
нейронам, объединенным множеством связей в нейронной сети .
Задача, которую понимает НС описывается в терминах весовых значений связей
между Нейронами. Эти матрицы весов связей и являются памятью НС .
О том как должна решаться выполняемая задача .
Весовые коэффициенты можно определить (построить НС) и без обучения , но главное
преимущество НС в способности обучаться.
Структура связей НС может быть самой разнообразной. Один элемент связан со всеми
другими, элементы организованы по слоям иерархически могут быть обратные связи ,
латеральные (параллельные )- возможности конструирования связей безграничны.
Матрицы весов (примеры)
W
1
- матрица 4х3 первого слоя нейронов
W
2
–матрица 3х2 второго слоя нейронов
плоскостей или поверхностей для 3-х мерного образа. Говорят о персептронной
представляемости – способности научиться распознавать моделировать определённые
функции, образы.
Однослойный персептрон – линейный, т.к. разделяющая образы поверхность является
либо прямой линией, либо плоскостью, либо гиперплоскостью.
Нелинейные задачи (для криволинейных линий и поверхностей раздела) однослойному
персептрону непосильны.
Говорят о линейной неразделимости пространства признаков X .
Обучение или конструирование персептрона (и нейронной сети) это процедура
настройки весов Wij и в общем случае и Vi .
Обучаемостью называется наличие процедуры (алгоритма) настройки весов.
Заметим, что для однослойного персептрона с n-двоичными входами пространства
признаков X имеется 2n различных комбинаций входных сигналов. А количество образов
(функций) для распознавания Yj равно (2)2^n .Из них количество функций (образов)
линейно разделимых персептроном значительно меньше, табл. 8.1. Для остающихся
нелинейных задач распознавания требуются многослойные нейронные сети (часто с
обратными связями)
Табл.8.1
N (2)2^n Количество линейно
разделимых функций
1 4 4
2 16 14
3 256 104
4 65536 1882
5 4,3*109 94572
8.5 Общие принципы и основные компоненты нейронных сетей
Нейронная сеть (НС) – это устройство параллельных вычислений из множества
взаимодействующих простых «процессов» (нейронов).Нейроны периодически получает
сигналы и перерабатывает их периодически посылает свои сигналы другим другим
нейронам, объединенным множеством связей в нейронной сети.
Задача, которую понимает НС описывается в терминах весовых значений связей
между Нейронами. Эти матрицы весов связей и являются памятью НС .
О том как должна решаться выполняемая задача.
Весовые коэффициенты можно определить (построить НС) и без обучения , но главное
преимущество НС в способности обучаться.
Структура связей НС может быть самой разнообразной. Один элемент связан со всеми
другими, элементы организованы по слоям иерархически могут быть обратные связи,
латеральные(параллельные)- возможности конструирования связей безграничны.
Матрицы весов (примеры)
W1- матрица 4х3 первого слоя нейронов
W2 –матрица 3х2 второго слоя нейронов
Страницы
- « первая
- ‹ предыдущая
- …
- 62
- 63
- 64
- 65
- 66
- …
- следующая ›
- последняя »
