Интеллектуальные информационные системы. Дубровин А.Д. - 139 стр.

UptoLike

Составители: 

174
применяется
активационная
(
передаточная
)
функция
нейрона
,
в
результате
чего
получается
значение
его
выходнго
сигнала
y
)(n
i
.
Назначается
(
с
учетом
приведенных
ранее
соображений
)
значение
величины
α
.
3.
На
основании
полученных
значений
выходных
сигналов
нейронов
по
формуле
(1)
или
(2)
производится
изменение
произвольно
назначенных
при
первой
процедуре
весовых
коэффициентов
синаптических
связей
.
4.
Циклически
повторяется
процедура
2,
до
тех
пор
,
пока
значения
выходных
сигналов
всех
нейронов последнего выходного слоя сети
не
достигнут
некоторого
метастабильного
состояния
(
то
есть
пока
их
значения
не
перестанут
выходить
за
пределы
некоторого
диапазона
).
Такой
способ
определения
состояния
обученности
ИНС
распознаванию
образа
,
поданного
на
вход
системы
,
отличается
от
рассмотренных
ранее
.
Так
,
в
отличие
от
алгоритма
обратного
распространения
ошибки
,
здесь
уровни
настройки
или
коррекции
значений
весов
синапсов
фактически
не
ограничены
.
Весь
комплекс
процедур
должен
быть
проведен
для
каждого
образа
,
на
распознавание
которых
настраивается
сеть
.
Может
показаться
,
что
вектор
выходных
сигналов
,
соответствующий
каждому
образу
,
зависит
только
от
значений
весов
синапсов
,
назначенных
на
стадии
инициализации
.
На
самом
деле
это
далеко
не
так
.
Выбирая
объект
для
настройки
на
конкретный
образ
,
следует
принимать
во
внимание
состав признаков
образа
,
воплощаемых
в
свойствах
объекта
.
Возможен
и
другой
подход
,
при
котором
настройка
системы
на
различные
образы
будет
соответствовать
принципу
диалектики
познания
от
общего
к
частному
.
В
любом
случае
,
практика
работы
ИНС
,
обученных
таким
методом
,
подтверждает
возможность
его
применения
для
обобщения
схожих
образов
,
отнесением
их
к
одному
классу
.
Тестирование
обученных
по
этому
методу
ИНС
показывает
возможность
построения
с
их
помощью
топологии классов образов
.
Для
этого
нужно
дополнить
сеть
одним
дополнительным
слоем
,
который
,
в
совокупности
с
выходным
слоем
сети
использовать
как
однослойный
элементарный
α
-
перцептрон
,
обученный
отображать
выходные
реакции
сети
на
разные
образы
.
Широко
известен
метод самообучения ИНС, основанный на алгоритме Кохонена
.
Он
предусматривает
автоматически
вычисляемую
подстройку
(
коррекцию
)
значений
весов
синаптических
связей
на
основании
взвешенных
разностей
между
выходным
сигналом
входного
нейрона
синапса
и
значением
веса
данной
связи
,
полученного
на
предыдущей
итерации
.
Весами
таких
разностей
являются
назначаемые
при
настройке
режима
самообучения
сети
коэффициенты
α
,
имеющие
тот
же
смысл
,
что
и
при
описании
предыдущего
метода
:
[
]
})1(){()1()(
)1(
+=
twynMINtwtw
ij
n
iijij
α
.
(6.2.7)
В
выражении
(6.2.7)
все
величины
имеют
тот
же
смысл
,
что
и
в
(6.2.5),
и
в
(6.2.6).
Обобщенный
алгоритм обучения ИНС, предложенный Кохоненом
,
имеет
примерно
ту
же
структуру
,
что
и
алгоритм
метода
,
основанного
на
правиле
Хебба
,
но
содержание
процедуры
3
несколько
иное
.
На
каждой
итерации
из
всего
слоя
для
подстройки
веса
связи
выбирается
тот
синапс
,
у
которого
взвешенная
разность
между
выходным
сигналом
входного
нейрона
и
весом
связи
этого
же
синапса
,
но
на
предыдущей
итерации
,
оказалась
минимальной
.
Эта
процедура
получила
название
аккредитации синапса
,
для
которого
указанная
разность
оказалась
минимальной
.
Аккредитация
одного
выигравшего
синапса
может
сопровождаться
«
замораживанием
» (
прекращением
коррекции
весов
связей
)
всех
применяется активационная (передаточная) функция нейрона, в результате чего получается
значение его выходнго сигнала y i(n ) .
Назначается (с учетом приведенных ранее соображений) значение величины α.
   3. На основании полученных значений выходных сигналов нейронов по формуле (1) или
(2) производится изменение произвольно назначенных при первой процедуре весовых
коэффициентов синаптических связей.
   4. Циклически повторяется процедура 2, до тех пор, пока значения выходных сигналов
всех нейронов последнего выходного слоя сети не достигнут некоторого
метастабильного состояния    (то есть пока их значения не перестанут выходить за
пределы некоторого диапазона).
      Такой способ определения состояния обученности ИНС распознаванию образа,
поданного на вход системы, отличается от рассмотренных ранее. Так, в отличие от
алгоритма обратного распространения ошибки, здесь уровни настройки или коррекции
значений весов синапсов фактически не ограничены.
      Весь комплекс процедур должен быть проведен для каждого образа, на распознавание
которых настраивается сеть. Может показаться, что вектор выходных сигналов,
соответствующий каждому образу, зависит только от значений весов синапсов,
назначенных на стадии инициализации. На самом деле это далеко не так. Выбирая объект
для настройки на конкретный образ, следует принимать во внимание состав признаков
образа, воплощаемых в свойствах объекта. Возможен и другой подход, при котором
настройка системы на различные образы будет соответствовать принципу диалектики
познания – от общего к частному. В любом случае, практика работы ИНС, обученных
таким методом, подтверждает возможность его применения для обобщения схожих
образов, отнесением их к одному классу.
      Тестирование обученных по этому методу ИНС показывает возможность построения с
их помощью топологии классов образов. Для этого нужно дополнить сеть одним
дополнительным слоем, который, в совокупности с выходным слоем сети использовать как
однослойный элементарный α-перцептрон, обученный отображать выходные реакции сети
на разные образы.

    Широко известен метод самообучения ИНС, основанный на алгоритме Кохонена.
Он предусматривает автоматически вычисляемую подстройку (коррекцию) значений весов
синаптических связей на основании взвешенных разностей между выходным сигналом
входного нейрона синапса и значением веса данной связи, полученного на предыдущей
итерации. Весами таких разностей являются назначаемые при настройке режима
самообучения сети коэффициенты α, имеющие тот же смысл, что и при описании
предыдущего метода:

                                                             [                     ]
                      wij (t ) = wij (t − 1) + MIN (n){α ⋅ y i( n−1) − wij (t − 1) } .
(6.2.7)

В выражении (6.2.7) все величины имеют тот же смысл, что и в (6.2.5), и в (6.2.6).

    Обобщенный алгоритм обучения ИНС, предложенный Кохоненом, имеет примерно
ту же структуру, что и алгоритм метода, основанного на правиле Хебба, но содержание
процедуры 3 – несколько иное. На каждой итерации из всего слоя для подстройки веса
связи выбирается тот синапс, у которого взвешенная разность между выходным сигналом
входного нейрона и весом связи этого же синапса, но на предыдущей итерации, оказалась
минимальной. Эта процедура получила название аккредитации синапса, для которого
указанная разность оказалась минимальной. Аккредитация одного выигравшего синапса
может сопровождаться «замораживанием» (прекращением коррекции весов связей) всех

                                                                                         174