ВУЗ:
Составители:
Рубрика:
173
основании
информации
,
доступной
обработке
в
нейроне
.
Исходя
из
этой
очевидности
и
,
что
более
важно
,
на основе современных знаний о принципах системной самоорганизации
нервных клеток человеческого организма
,
и
построены
алгоритмы
работы
самообучающихся
ИНС
.
Начнем
с
рассмотрения
метода, основанного на изменении весов межслойных
связей в
соответствии с
правилом Хебба
.
Правило
Хэбба
состоит
в
том
,
что
нейроны
соседних
слоев
,
обретшие
точку
синапса
,
активируются
одновременно
,
при
этом
достигается
максимальная
эффективность
межслойной
(
синаптической
)
информационной
связи
.
Алгоритм
данного
метода
представляет
собой
итеративный
(
пошаговый
)
процесс
с
назначаемой
скоростью
обучения
.
Под
этим
понимается
достижение
требуемой
надежности
обучения
ИНС
распознаванию
конкретного
образа
.
Метод
может
быть
реализован
в
двух
вариантах
.
Вариант
первый
(
сигнальный метод обучения
)
заключается
в
изменении
весов
межслойных
связей
при
каждой
итерации
путем
увеличения
веса
синаптической
связи
каждой
пары
нейронов
соседних
слоев
на
величину
взвешенного произведения их
выходных сигналов
.
Взвешивание
произведения
выходных
сигналов
состоящих
в
связи
нейронов
происходит
с
помощью
безразмерной
величины
α
,
которая
назначается
,
сообразуясь
с
желанием
быстрее
обучить
систему
и
с
опасностью
пропустить
состояние
ее
приемлемой
обученности
,
если
поиска
этого
состояния
будут
слишком
велики
:
w t w t y y
ij ij i
n
j
n
( ) ( )
( ) ( )
= − + ⋅ ⋅
−
1
1
α
. (6.2.5)
где
: - y
)1( −n
i
и
y
n
j
–
выходные
сигналы
i-
го
и
j-
го
нейронов
соответственно
(n-1)-
го
и
(n)-
го
слоев
;
- w
ij
(t)
и
w
ij
(t-1) -
весовые
коэффициенты
межслойной
связи
в
синапсе
,
соединения
i-
го
нейрона
слоя
(n-1)
и
j
го
нейрона
слоя
(n)
в
итерациях
(t)
и
(t-1)
соответственно
;
-
α
–
коэффициент
,
определяющий
назначаемую
скорость
обучения
ИНС
.
Здесь
номером
(n)
обозначается
произвольный
внутренний
(
скрытый
)
слой
сети
( 1
≤
n
≤
N-
1),
где
N –
общее
число
выходных
слоев
сети
.
Вариант
второй
(
дифференциальный метод обучения
).
Изменение
весов
межслойных
синаптических
связей
при
каждой
итерации
происходит
путем
увеличения
их
значений
на
величину
взвешенного произведения разностей выходных сигналов
каждого нейрона по сравнению с предыдущей итерацией
.
Весом
произведения
таких
разностей
,
как
и
в
сигнальном
методе
,
является
величина
α
:
[
]
[
]
w t w t y t y t y t y t
ij ij i
n
i
n
j
n
j
n
( ) ( ) ( ) ( ) ( ) ( )
( ) ( ) ( ) ( )
= − + ⋅ − − ⋅ − −
− −
1 1 1
1 1
α
.
(6.2.6)
Значение
величин
,
входящих
в
выражение
(6.2.6),
те
же
,
что
и
для
c
игнального
метода
обучения
.
Как
следует
из
(6.2.5)
сильнее
других
при
дифференциальном
методе
корректируются
веса
синаптических
связей
той
пары
нейронов
,
выходы
которых
наиболее
динамично
изменились
в
сторону
увеличения
по
сравнению
с
предыдущей
итерацией
.
Обобщенный
алгоритм
обучения
по
обоим
методам
одинаков
и
состоит
в
выполнении
следующей
последовательности
процедур
.
1.
На
стадии
инициализации
ИНС
всем
весовым
коэффициентам
присваиваются
небольшие
произвольные
значения
.
2.
На
входы
сети
подается
объект
,
со
свойствами
пока неизвестного системе образа
,
и
делается
первый
«
прогон
»,
при
котором
сигналы
возбуждения
распространяются
по
всем
слоям
сети
.
При
этом
,
в
соответствии
с
произвольно
назначенными
весами
синапсов
,
для
каждого
(i-
го
)
нейрона
каждого
синапса
каждого
(n-
го
)
слоя
(
то
есть
,
для
каждой
пары
соединенных
нейронов
)
рассчитывается
взвешенные
суммы
их
входов
,
к
которой
затем
основании информации, доступной обработке в нейроне. Исходя из этой очевидности и, что
более важно, на основе современных знаний о принципах системной самоорганизации
нервных клеток человеческого организма, и построены алгоритмы работы
самообучающихся ИНС.
Начнем с рассмотрения метода, основанного на изменении весов межслойных
связей в соответствии с правилом Хебба.
Правило Хэбба состоит в том, что нейроны соседних слоев, обретшие точку синапса,
активируются одновременно, при этом достигается максимальная эффективность
межслойной (синаптической) информационной связи.
Алгоритм данного метода представляет собой итеративный (пошаговый) процесс с
назначаемой скоростью обучения. Под этим понимается достижение требуемой надежности
обучения ИНС распознаванию конкретного образа. Метод может быть реализован в двух
вариантах.
Вариант первый (сигнальный метод обучения) заключается в изменении весов
межслойных связей при каждой итерации путем увеличения веса синаптической связи
каждой пары нейронов соседних слоев на величину взвешенного произведения их
выходных сигналов. Взвешивание произведения выходных сигналов состоящих в связи
нейронов происходит с помощью безразмерной величины α, которая назначается,
сообразуясь с желанием быстрее обучить систему и с опасностью пропустить состояние ее
приемлемой обученности, если поиска этого состояния будут слишком велики:
wij (t ) = wij (t − 1) + α ⋅ yi( n−1) ⋅ y (j n ) . (6.2.5)
где: - y i( n −1) и y nj – выходные сигналы i-го и j-го нейронов соответственно (n-1)-го и (n)-го
слоев;
- w ij (t) и w ij (t-1) - весовые коэффициенты межслойной связи в синапсе,
соединения i-го нейрона слоя (n-1) и j го нейрона слоя (n) в итерациях (t) и (t-1)
соответственно;
- α – коэффициент, определяющий назначаемую скорость обучения ИНС.
Здесь номером (n) обозначается произвольный внутренний (скрытый) слой сети ( 1≤ n≤ N-
1), где N –общее число выходных слоев сети.
Вариант второй (дифференциальный метод обучения). Изменение весов
межслойных синаптических связей при каждой итерации происходит путем увеличения их
значений на величину взвешенного произведения разностей выходных сигналов
каждого нейрона по сравнению с предыдущей итерацией. Весом произведения таких
разностей, как и в сигнальном методе, является величина α :
[ ][ ]
wij (t ) = wij ( t − 1) + α ⋅ yi( n−1) (t ) − yi( n−1) ( t − 1) ⋅ y (j n ) ( t ) − y (j n ) ( t − 1) .
(6.2.6)
Значение величин, входящих в выражение (6.2.6), те же, что и для cигнального метода
обучения. Как следует из (6.2.5) сильнее других при дифференциальном методе
корректируются веса синаптических связей той пары нейронов, выходы которых наиболее
динамично изменились в сторону увеличения по сравнению с предыдущей итерацией.
Обобщенный алгоритм обучения по обоим методам одинаков и состоит в выполнении
следующей последовательности процедур.
1. На стадии инициализации ИНС всем весовым коэффициентам присваиваются
небольшие произвольные значения.
2. На входы сети подается объект, со свойствами пока неизвестного системе образа, и
делается первый «прогон», при котором сигналы возбуждения распространяются по всем
слоям сети. При этом, в соответствии с произвольно назначенными весами синапсов, для
каждого (i-го) нейрона каждого синапса каждого (n-го) слоя (то есть, для каждой пары
соединенных нейронов) рассчитывается взвешенные суммы их входов, к которой затем
173
Страницы
- « первая
- ‹ предыдущая
- …
- 136
- 137
- 138
- 139
- 140
- …
- следующая ›
- последняя »
