Интеллектуальный анализ данных в менеджменте. Кричевский М.Л. - 115 стр.

UptoLike

Составители: 

115
ды, но имеют ограничения на количество входных переменных. Вслед"
ствие этого возможно построение гибридных нейро"нечетких систем,
в которых выводы формируются на основе НЛ, а ФП подстраиваются
с помощью ИНС. Преимущество таких систем очевидно: построен"
ная структура является логически прозрачной.
Рассмотрим вначале обычный многослойный персептрон, в ко"
торый будем вводить нечеткие величины на входной и выходной
слои [12]. Левая часть правил систем НЛ (предпосылка) генериру"
ется при обратном распространении через сетевые веса, а правая
часть (заключение) – через выходы сети. Алгоритм обучения, ис"
пользуемый для нечеткого персептрона, является расширением тра"
диционного метода ОРО, только вместо среднеквадратичной ошибки
применяется нечеткая ошибка, которая больше подходит для дан"
ных, включающих нечеткости между классами. Входные данные фа"
зифицируются посредством ФП.
В отличие от обычного персептрона эта модель способна иметь
дело с входными переменными, выраженными в лингвистической
форме. Гибридная сеть, как и обычная ИНС, проходит через две
стадии: обучение и тестирование. На стадии обучения использует"
ся супервизорное обучение для присвоения выходных значений ФП
из интервала [0,1] обучающим векторам. Следовательно, каждо"
му нейрону выходного слоя может быть присвоено ненулевое зна"
чение ФП вместо выбора единственного нейрона с наибольшей ак"
тивацией. Это позволяет моделировать нечеткие данные, когда
признаковое пространство включает перекрывающиеся классы
так, что точка образа может принадлежать более чем одному клас"
су с ненулевой ФП. При обучении каждая ошибка в заданной ФП
вводится обратно в сеть, и на обратном проходе изменяются веса
сети. Ошибка обратного распространения вычисляется по отно"
шению к каждому требуемому выходу, которым является значе"
ние ФП, определяющего степень принадлежности входного векто"
ра к рассматриваемому классу. После ряда циклов такая сеть бу"
дет сходиться к решению с минимальной ошибкой.
Алгоритм обучения можно описать следующим образом.
Рассмотрим сеть обратного распространения, в которой общий вход
x
j
h+1
, принятый нейроном j в слое h+1, определяется как
11
,
hhhh
jijij
i
xyw1 2 3
4
где y
i
h
– состояние i"го нейрона в предшествующем скрытом слое; w
ji
h
вес от нейрона i в слое h к j"му нейрону в слое h+1; q
j
h+1
– порог j"го
нейрона в слое h+1.