Математические методы искусственного интеллекта. Броневич А.Г - 17 стр.

UptoLike

Рубрика: 

17
6. РАЗДЕЛЕНИЕ ОБРАЗОВ НА ДВА КЛАССА МЕТОДОМ
ОБУЧЕНИЯ ОДНОСЛОЙНОГО ПЕРСЕПТРОНА
Понятие «персептрон» впервые ввел американский нейрофизиолог
Френк Розенблатт (Rosenblatt) в 1957 году. Персептрон является некоторым
классом моделей мозга или отдельной его системы (например, зрительной).
Схематично его устройство показано на рис. 9. Здесь S
набор чувствительных сенсорных элементов (сетчат-
ка),
A
набор ассоциирующих элементов (нейронов),
R
реагирующий элемент (т.е. нейрон, передающий
сигнал управления мышцам или железам). Нейрон име-
ет много входов и один выход. Входы в нейрон подраз-
деляются на тормозящие и возбуждающие. Сенсорные
элементы возбуждаются, если в результате воздействия
раздражителя (например, света) величина входного
сигнала окажется больше некоторого порогового значения. S -элементы слу-
чайным
образом связаны с
A
-нейронами. При этом если число возбуждаю-
щих сигналов больше, чем тормозящих, то нейрон возбуждается и посылает
сигнал на реагирующий элемент. В отличие от нейронов сигналы, посту-
пающие на реагирующий элемент, суммируются с некоторыми весами. Реа-
гирующий элемент выбирает некоторое действие, если
0
() ( , ) 0
n
ii
i
Rwx
=
==>
xwx,
где
01
( , ,..., )
n
ww w=w ,
1
(1, ,..., )
n
x
x=x ,
i
x
сигнал, поступающий на реагирую-
щий элемент от i -го нейрона (
0
1x сигнал смещения).
С помощью персептрона можно осуществлять классификацию объек-
тов по двум классам. Полагаем, что
1
ϖ
x , если () 0
R
>x , и
2
ϖ
x в про-
тивном случае. Функция () ( , )
R
=xwx будет линейной решающей функцией
(ЛРФ), а гиперплоскость (,) 0=wx линейной разделяющей поверхностью.
Предположим, что имеется некоторая обучающая выборка
1
{ ,..., }
n
xx,
причем
11
{ ,..., }
m
ϖ
xx и
12
{ ,..., }
mn
ϖ
+
xx . Требуется построить линейную ре-
шающую функцию () ( , )
R
=xwx, которая бы правильно разделяла элементы
обучающей выборки, т.е.
( , ) 0 1,..., ;
( , ) 0 1,..., .
i
i
im
im n
>∀=
<∀=+
wx
wx
(8)
Построение такой ЛРФ осуществим с помощью итерационного алгоритма.
Для этого обучающую выборку запишем в виде бесконечной циклической
последовательности
11
{ ,..., , ,..., ,...}
nn
xxxx и выберем некоторое начальное зна-
чение весов
(1) (1)
(1)
1
( ,..., )
n
ww=w . Далее на каждом k -м шаге алгоритма «предъ-
является» k -й вектор
k
x обучающей выборки и значение весового вектора
()k
w корректируется или не корректируется в соответствии с правилом
S
A
R
R
...
...
Рис.9