Искусственные нейронные сети. Каширина И.Л. - 15 стр.

UptoLike

Составители: 

15
i
t
ij
t
ij
xww +=
+
δν
1
. Здесь t и t+1 номера соответственно текущей и следующей
итераций ; ν коэффициент скорости обучения,
)
1
0
(
<
ν
;
i
x - i-тая компонента
входного вектора
k
X
; j номер нейрона в слое .
Шаг 4. Шаги 1-3 повторяются для всех обучающих векторов . Обучение за -
вершается, когда сеть перестанет ошибаться.
Представленный метод обучения носит название
δ
-правило” . Доказанная
Розенблаттом теорема о сходимости обучения по
δ
-правилу говорит о том , что
персептрон способен обучиться любому обучающему набору, который он спо-
собен представить. Ниже мы более подробно обсудим возможности персептрона
по представлению информации.
Линейная разделимость и персептронная представляемость
Каждый нейрон персептрона является формальным пороговым элементом , при-
нимающим единичные значения в случае, если суммарный взвешенный вход
больше некоторого порогового значения:
Θ≥⋅
Θ<⋅
=
=
=
n
i
ii
n
i
ii
j
wx
wx
Y
1
1
,1
;,0
Таким образом , при заданных значениях весов и порогов , нейрон имеет оп -
ределенное выходное значение для каждого возможного вектора входов . Множе-
ство входных векторов , при которых нейрон активен (
j
Y
=1), отделено от множе-
ства векторов , на которых нейрон пассивен (
j
Y =0), гиперплоскостью, уравнение
которой
Θ=⋅
=
n
i
ii
wx
1
. Следовательно, нейрон способен отделить только такие два
множества векторов входов , для которых имеется гиперплоскость, отсекающая
одно множество от другого. Такие множества называют линейно разделимыми.
Проиллюстрируем это понятие на примере. Рассмотрим однослойный персептрон,
состоящий из одного нейрона с двумя входами. Входной вектор содержит только
две булевы компоненты
1
x и
2
x , определяющие плоскость.
На данной плоскости возможные значения входных векторов отвечают вер-
шинам единичного квадрата . В каждой вершине зададим требуемое значение вы-
хода нейрона : 1 (на рис . 8 - белая точка ) или 0 (черная точка ). Требуется опреде-
лить, существует ли такой набор весов и порогов нейрона , при котором нейрон
сможет получить эти значения выходов ? На рис . 8 представлена одна из ситуаций ,
когда этого сделать нельзя вследствие линейной неразделимости множеств белых
и черных точек.
                                         15
 wijt +1 =wijt +ν ⋅δ ⋅ xi . Здесь t и t+1 – номера соответственно текущей и следующей
 итераций; ν – коэффициент скорости обучения, (0 <ν ≤1) ; xi - i-тая компонента
 входного вектора X k ; j – номер нейрона в слое.
 Шаг 4. Шаги 1-3 повторяются для всех обучающих векторов. Обучение за-
 вершается, когда сеть перестанет ошибаться.
     Представленный метод обучения носит название “ δ -правило”. Доказанная
 Розенблаттом теорема о сходимости обучения по δ -правилу говорит о том, что
 персептрон способен обучиться любому обучающему набору, который он спо-
 собен представить. Ниже мы более подробно обсудим возможности персептрона
 по представлению информации.

          Линейная разделимость и персептронная представляемость

 Каждый нейрон персептрона является формальным пороговым элементом, при-
нимающим единичные значения в случае, если суммарный взвешенный вход
больше некоторого порогового значения:
      �             n

        ��     0, ∑    xi ⋅ wi <Θ;
                  i =1
Y j =�             n
           � 1, ∑ x ⋅ w ≥Θ
            �� i =1 i i
              Таким образом, при заданных значениях весов и порогов, нейрон имеет оп-
ределенное выходное значение для каждого возможного вектора входов. Множе-
ство входных векторов, при которых нейрон активен ( Y j =1), отделено от множе-
ства векторов, на которых нейрон пассивен ( Y j =0), гиперплоскостью, уравнение
           n
которой   ∑ xi ⋅ wi =Θ . Следовательно, нейрон способен отделить только такие два
          i =1
множества векторов входов, для которых имеется гиперплоскость, отсекающая
одно множество от другого. Такие множества называют линейно разделимыми.
Проиллюстрируем это понятие на примере. Рассмотрим однослойный персептрон,
состоящий из одного нейрона с двумя входами. Входной вектор содержит только
две булевы компоненты x1 и x2 , определяющие плоскость.
     На данной плоскости возможные значения входных векторов отвечают вер-
шинам единичного квадрата. В каждой вершине зададим требуемое значение вы-
хода нейрона: 1 (на рис. 8 - белая точка) или 0 (черная точка). Требуется опреде-
лить, существует ли такой набор весов и порогов нейрона, при котором нейрон
сможет получить эти значения выходов? На рис. 8 представлена одна из ситуаций,
когда этого сделать нельзя вследствие линейной неразделимости множеств белых
и черных точек.