ВУЗ:
Составители:
15
i
t
ij
t
ij
xww ⋅⋅+=
+
δν
1
. Здесь t и t+1 – номера соответственно текущей и следующей
итераций ; ν – коэффициент скорости обучения,
)
1
0
(
≤
<
ν
;
i
x - i-тая компонента
входного вектора
k
X
; j – номер нейрона в слое .
Шаг 4. Шаги 1-3 повторяются для всех обучающих векторов . Обучение за -
вершается, когда сеть перестанет ошибаться.
Представленный метод обучения носит название “
δ
-правило” . Доказанная
Розенблаттом теорема о сходимости обучения по
δ
-правилу говорит о том , что
персептрон способен обучиться любому обучающему набору, который он спо-
собен представить. Ниже мы более подробно обсудим возможности персептрона
по представлению информации.
Линейная разделимость и персептронная представляемость
Каждый нейрон персептрона является формальным пороговым элементом , при-
нимающим единичные значения в случае, если суммарный взвешенный вход
больше некоторого порогового значения:
Θ≥⋅
Θ<⋅
=
∑
∑
=
=
n
i
ii
n
i
ii
j
wx
wx
Y
1
1
,1
;,0
Таким образом , при заданных значениях весов и порогов , нейрон имеет оп -
ределенное выходное значение для каждого возможного вектора входов . Множе-
ство входных векторов , при которых нейрон активен (
j
Y
=1), отделено от множе-
ства векторов , на которых нейрон пассивен (
j
Y =0), гиперплоскостью, уравнение
которой
Θ=⋅
∑
=
n
i
ii
wx
1
. Следовательно, нейрон способен отделить только такие два
множества векторов входов , для которых имеется гиперплоскость, отсекающая
одно множество от другого. Такие множества называют линейно разделимыми.
Проиллюстрируем это понятие на примере. Рассмотрим однослойный персептрон,
состоящий из одного нейрона с двумя входами. Входной вектор содержит только
две булевы компоненты
1
x и
2
x , определяющие плоскость.
На данной плоскости возможные значения входных векторов отвечают вер-
шинам единичного квадрата . В каждой вершине зададим требуемое значение вы-
хода нейрона : 1 (на рис . 8 - белая точка ) или 0 (черная точка ). Требуется опреде-
лить, существует ли такой набор весов и порогов нейрона , при котором нейрон
сможет получить эти значения выходов ? На рис . 8 представлена одна из ситуаций ,
когда этого сделать нельзя вследствие линейной неразделимости множеств белых
и черных точек.
15 wijt +1 =wijt +ν ⋅δ ⋅ xi . Здесь t и t+1 – номера соответственно текущей и следующей итераций; ν – коэффициент скорости обучения, (0 <ν ≤1) ; xi - i-тая компонента входного вектора X k ; j – номер нейрона в слое. Шаг 4. Шаги 1-3 повторяются для всех обучающих векторов. Обучение за- вершается, когда сеть перестанет ошибаться. Представленный метод обучения носит название “ δ -правило”. Доказанная Розенблаттом теорема о сходимости обучения по δ -правилу говорит о том, что персептрон способен обучиться любому обучающему набору, который он спо- собен представить. Ниже мы более подробно обсудим возможности персептрона по представлению информации. Линейная разделимость и персептронная представляемость Каждый нейрон персептрона является формальным пороговым элементом, при- нимающим единичные значения в случае, если суммарный взвешенный вход больше некоторого порогового значения: � n �� 0, ∑ xi ⋅ wi <Θ; i =1 Y j =� n � 1, ∑ x ⋅ w ≥Θ �� i =1 i i Таким образом, при заданных значениях весов и порогов, нейрон имеет оп- ределенное выходное значение для каждого возможного вектора входов. Множе- ство входных векторов, при которых нейрон активен ( Y j =1), отделено от множе- ства векторов, на которых нейрон пассивен ( Y j =0), гиперплоскостью, уравнение n которой ∑ xi ⋅ wi =Θ . Следовательно, нейрон способен отделить только такие два i =1 множества векторов входов, для которых имеется гиперплоскость, отсекающая одно множество от другого. Такие множества называют линейно разделимыми. Проиллюстрируем это понятие на примере. Рассмотрим однослойный персептрон, состоящий из одного нейрона с двумя входами. Входной вектор содержит только две булевы компоненты x1 и x2 , определяющие плоскость. На данной плоскости возможные значения входных векторов отвечают вер- шинам единичного квадрата. В каждой вершине зададим требуемое значение вы- хода нейрона: 1 (на рис. 8 - белая точка) или 0 (черная точка). Требуется опреде- лить, существует ли такой набор весов и порогов нейрона, при котором нейрон сможет получить эти значения выходов? На рис. 8 представлена одна из ситуаций, когда этого сделать нельзя вследствие линейной неразделимости множеств белых и черных точек.
Страницы
- « первая
- ‹ предыдущая
- …
- 13
- 14
- 15
- 16
- 17
- …
- следующая ›
- последняя »