Интеллектуальный анализ данных в менеджменте. Кричевский М.Л. - 21 стр.

UptoLike

Составители: 

21
,
ii
i
hb xw12
3
где x
i
– входной сигнал; w
i
– его вес; b – смещение.
При воздействии на выходную ячейку такого сигнала решающая
граница между областью, где h > 0, и областью, где h < 0, определяет"
ся уравнением:
0.
ii
i
bxw12
3
В зависимости от числа входных ячеек в сети это уравнение пред"
ставляет линию, плоскость или гиперплоскость.
Вместо смещения в ряде случаев применяется фиксированный по"
рог q для функции активации, которая тогда в отличие от вида (3)
записывается как:
1, е с л и ,
sign( )
0, если .
h
h
h
1 2
3
4
5
62
7
Если веса (и смещение) таковы, что все из обучающих входных век"
торов, для которых правильный отклик есть +1, лежат по одну сторону
решающей границы, а все из обучающих векторов, для которых пра"
вильный отклик есть –1, лежат по другую сторону решающей границы,
то данная ситуация приводит к линейной разделимости. Для наглядно"
сти дальнейшего анализа ограничимся двумя входными нейронами, что
дает для решающей границы следующее выражение:
2121 2
(/) /,xwwxbw1 22
а полученные две области называются областями решений для сети.
Выбор знака для b определяет, какая из сторон разделяющей грани"
цы соответствует отклику + 1, а какая –1. Рассмотрим несколько
иллюстративных примеров для простой однослойной сети, состоя"
щей из двух входных и одного выходного нейронов, чтобы ответить
на вопрос: существуют ли такие веса, при которых сеть будет иметь
требуемый выход для каждого из обучающих входных векторов?
Пример 1.1. Области отклика для функции логического И (рис. 1.9).
1
Рис. 1.9
a)
б)