Человек - интерфейс - компьютер. Будко В.Н. - 64 стр.

UptoLike

Составители: 

плоскостей или поверхностей для 3-х мерного образа . Говорят о персептронной
представляемости способности научиться распознавать моделировать определённые
функции, образы.
Однослойный персептрон линейный, т.к. разделяющая образы поверхность является
либо прямой линией, либо плоскостью, либо гиперплоскостью.
Нелинейные задачи (для криволинейных линий и поверхностей раздела ) однослойному
персептрону непосильны.
Говорят о линейной неразделимости пространства признаков
X
.
Обучение или конструирование персептрона (и нейронной сети ) это процедура
настройки весов W
ij
и в общем случае и V
i
.
Обучаемостью называется наличие процедуры (алгоритма) настройки весов.
Заметим, что для однослойного персептрона с n-двоичными входами пространства
признаков
X
имеется 2
n
различных комбинаций входных сигналов. А количество образов
(функций) для распознавания Y
j
равно (2)
2^n
.Из них количество функций (образов)
линейно разделимых персептроном значительно меньше, табл. 8.1. Для остающихся
нелинейных задач распознавания требуются многослойные нейронные сети (часто с
обратными связями)
Табл.8.1
N (2)
2^n
Количество линейно
разделимых функций
1 4 4
2 16 14
3 256 104
4 65536 1882
5 4,3*10
9
94572
8.5 Общие принципы и основные компоненты нейронных сетей
Нейронная сеть (НС ) это устройство параллельных вычислений из множества
взаимодействующих простых «процессов» (нейронов).Нейроны периодически получает
сигналы и перерабатывает их периодически посылает свои сигналы другим другим
нейронам, объединенным множеством связей в нейронной сети .
Задача, которую понимает НС описывается в терминах весовых значений связей
между Нейронами. Эти матрицы весов связей и являются памятью НС .
О том как должна решаться выполняемая задача .
Весовые коэффициенты можно определить (построить НС) и без обучения , но главное
преимущество НС в способности обучаться.
Структура связей НС может быть самой разнообразной. Один элемент связан со всеми
другими, элементы организованы по слоям иерархически могут быть обратные связи ,
латеральные (параллельные )- возможности конструирования связей безграничны.
Матрицы весов (примеры)
W
1
- матрица 4х3 первого слоя нейронов
W
2
матрица 3х2 второго слоя нейронов
плоскостей или поверхностей для 3-х мерного образа. Говорят о персептронной
представляемости – способности научиться распознавать моделировать определённые
функции, образы.
   Однослойный персептрон – линейный, т.к. разделяющая образы поверхность является
либо прямой линией, либо плоскостью, либо гиперплоскостью.
   Нелинейные задачи (для криволинейных линий и поверхностей раздела) однослойному
персептрону непосильны.
   Говорят о линейной неразделимости пространства признаков X .
   Обучение или конструирование персептрона (и нейронной сети) это процедура
настройки весов Wij и в общем случае и Vi .
   Обучаемостью называется наличие процедуры (алгоритма) настройки весов.
   Заметим, что для однослойного персептрона с n-двоичными входами пространства
признаков X имеется 2n различных комбинаций входных сигналов. А количество образов
(функций) для распознавания Yj равно (2)2^n .Из них количество функций (образов)
линейно разделимых персептроном значительно меньше, табл. 8.1. Для остающихся
нелинейных задач распознавания требуются многослойные нейронные сети (часто с
обратными связями)
   Табл.8.1
   N            (2)2^n                           Количество линейно
                                              разделимых функций
   1            4                                4
   2            16                               14
   3            256                              104
   4            65536                            1882
   5            4,3*109                          94572


8.5 Общие принципы и основные компоненты нейронных сетей
   Нейронная сеть (НС) – это устройство параллельных вычислений из множества
взаимодействующих простых «процессов» (нейронов).Нейроны периодически получает
сигналы и перерабатывает их периодически посылает свои сигналы другим другим
нейронам, объединенным множеством связей в нейронной сети.
   Задача, которую понимает НС описывается в терминах весовых значений связей
между Нейронами. Эти матрицы весов связей и являются памятью НС .

   О том как должна решаться выполняемая задача.
   Весовые коэффициенты можно определить (построить НС) и без обучения , но главное
преимущество НС в способности обучаться.
   Структура связей НС может быть самой разнообразной. Один элемент связан со всеми
другими, элементы организованы по слоям иерархически могут быть обратные связи,
латеральные(параллельные)- возможности конструирования связей безграничны.
   Матрицы весов (примеры)


                                W1- матрица 4х3 первого слоя нейронов
                                W2 –матрица 3х2 второго слоя нейронов