Интеллектуальные информационные системы. Дубровин А.Д. - 141 стр.

UptoLike

Составители: 

176
Рис
. 6.2.3.
Структурная
схема
искусственной
нейронной
сети
Хопфилда
.
Задача
,
решаемая
данной
сетью
(
как
устройством
,
обладающим
базой
знаний
и
алгоритмом
ассоциативного
сопоставления
любого
внешнего
объекта
с
любым
образом
,
содержащимся
в
этой
базе
знаний
),
формулируется
следующим
образом
.
Известен
некоторый
набор
двоичных
сигналов
(
изображений
,
звуковых
оцифровок
,
прочих
данных
,
описывающих
некие
объекты
или
характеристики
процессов
),
которые
считаются
образцовыми
.
Сеть
должна
уметь
из
произвольного
неидеального
сигнала
,
поданного
на
ее
вход
,
выделить
вспомнить
»
по
частичной
информации
)
соответствующий
образец
(
если
таковой
существует
)
или
«
дать
заключение
»
о
том
,
что
входные
данные
не
соответствуют
ни
одному
из
имеющихся
в
ее
памяти
образов
.
В
общем
случае
,
любой
сигнал
может
быть
описан
вектором
{
Х
}= x
1
, …,x
i
,…,x
N
,
где
N –
число
нейронов
в
сети
и
размерность
вектора
входного
образа
и
выходного
вектора
{Y}
системы
.
Каждый
элемент
x
i
равен
либо
(+1),
либо
(-1).
Обозначим
вектор
Х
,
описывающий
k-
ый
образ
,
через
{X
K
}.
Компоненты
этого
вектора
обозначим
символами
x
k
1
,…,x
k
i
,…,x
k
N
,
где
k = 1,…,M (
М
число
образов
,
описания
признаков
которых
хранятся
в
базе
знаний
системы
).
Когда
сеть
распознает
какой
-
либо
объект
,
описание
которого
подано
на
ее
вход
в
виде
N-
мерного
вектора
,
и
идентифицирует
(
отождествляет
)
его
с
k-
м
образом
,
запомненным
ею
,
то
на
выходе
системы
будет
вектор
сигналов
{Y
K
}
{X
K
}.
То
есть
,
вектор
решения
задачи
распознавания
какого
-
либо
объекта
будет
абсолютно
идентичен
по
составу
и
значениям
компонентов
тому
образу
,
с
которым
ассоциируется
поданный
на
ее
вход
вектор
признаков
опознаваемого
объекта
.
В
противном
случае
,
если
ассоциация
очень
слабая
или
вовсе
отсутствует
,
на
выходе
системы
будет
«
неассоциированный
»
выходной
вектор
.
На
стадии
инициализации
сети
весовые
коэффициенты
синапсов
устанавливаются
следующим
образом
:
w
ij
=
k
j
k
i
xx
при
i
j
и
w
ij
= 0
при
i = j ,
               Рис. 6.2.3. Структурная схема искусственной нейронной сети Хопфилда.

       Задача, решаемая данной сетью (как устройством, обладающим базой знаний и
алгоритмом ассоциативного сопоставления любого внешнего объекта с любым образом,
содержащимся в этой базе знаний), формулируется следующим образом. Известен
некоторый набор двоичных сигналов (изображений, звуковых оцифровок, прочих данных,
описывающих некие объекты или характеристики процессов), которые считаются
образцовыми. Сеть должна уметь из произвольного неидеального сигнала, поданного на ее
вход, выделить («вспомнить» по частичной информации) соответствующий образец (если
таковой существует) или «дать заключение» о том, что входные данные не соответствуют
ни одному из имеющихся в ее памяти образов. В общем случае, любой сигнал может быть
описан вектором
{Х}= x 1 , …,x i ,…,x N , где N – число нейронов в сети и размерность вектора входного образа
и выходного вектора {Y} системы. Каждый элемент x i равен либо (+1), либо (-1).
Обозначим вектор Х, описывающий k-ый образ, через {X K }. Компоненты этого вектора
обозначим символами x 1k ,…,x ik ,…,x kN , где k = 1,…,M (М – число образов, описания
признаков которых хранятся в базе знаний системы). Когда сеть распознает какой-либо
объект, описание которого подано на ее вход в виде N-мерного вектора, и идентифицирует
(отождествляет) его с k-м образом, запомненным ею, то на выходе системы будет вектор
сигналов {Y K }≡{X K }. То есть, вектор решения задачи распознавания какого-либо объекта
будет абсолютно идентичен по составу и значениям компонентов тому образу, с которым
ассоциируется поданный на ее вход вектор признаков опознаваемого объекта. В противном
случае, если ассоциация очень слабая или вовсе отсутствует, на выходе системы будет
«неассоциированный» выходной вектор .
    На стадии инициализации сети весовые коэффициенты синапсов устанавливаются
следующим образом:

      w ij =   ∑x   k
                    i   ⋅ x kj при i ≠ j      и         w ij = 0 при i = j ,



                                                                                          176