Искусственные нейронные сети. Каширина И.Л. - 11 стр.

UptoLike

Составители: 

11
для каждого вектора до тех пор , пока ошибка по всему обучающему массиву не
достигнет приемлемо низкого уровня .
Обучение без учителя не нуждается в целевом векторе для выходов и , следо-
вательно, не требует сравнения с предопределенными идеальными ответами.
Обучающее множество состоит лишь из входных векторов . Обучающий алгоритм
подстраивает веса сети так, чтобы получались согласованные выходные векторы,
т. е. чтобы предъявление достаточно близких входных векторов давало одинако-
вые выходы. Процесс обучения, следовательно, выделяет статистические свойства
обучающего множества и группирует сходные векторы в классы. Предъявление
на вход вектора из данного класса даст определенный выходной вектор , но до
обучения невозможно предсказать, какой выход будет производиться данным
классом входных векторов . Следовательно, выходы подобной сети должны
трансформироваться в некоторую понятную форму, обусловленную процессом
обучения.
2.2. Теорема Колмогорова
Рассмотрим в качестве примера двухслойную нейронную сеть с n входами и
одним выходом , которая достаточно проста по структуре и в то же время широко
используется для решения прикладных задач. Эта сеть изображена на рис . 6. Каж-
дый i-й нейрон первого слоя (
m
i
...,
2
,
1
=
) имеет n входов , которым приписаны ве -
са w
1i
, w
2i
, ..., w
ni
.
Получив входные сигналы, нейрон суммирует их с соответствующими веса-
ми, затем применяет к этой сумме передаточную функцию и пересылает результат
на вход нейрона второго (выходного) слоя . В свою очередь, нейрон выходного
слоя суммирует полученные от второго слоя сигналы с некоторыми весами v
i
. Для
определенности будем предполагать, что передаточные функции в скрытом слое
являются сигмоидальными, а в выходном слое используется тождественная функ -
ция, т. е. взвешенная сумма выходов второго слоя и будет ответом сети.
Подавая на входы любые числа x
1
, x
2
, ..., x
n
, мы получим на выходе значение
некоторой функции Y=F(x
1
, x
2
, ..., x
n
), которое является ответом (реакцией) сети.
Очевидно, что ответ сети зависит как от входного сигнала , так и от значений ее
Рис . 6. Пример нейронной сети
                                         11
для каждого вектора до тех пор, пока ошибка по всему обучающему массиву не
достигнет приемлемо низкого уровня.
      Обучение без учителя не нуждается в целевом векторе для выходов и, следо-
вательно, не требует сравнения с предопределенными идеальными ответами.
Обучающее множество состоит лишь из входных векторов. Обучающий алгоритм
подстраивает веса сети так, чтобы получались согласованные выходные векторы,
т. е. чтобы предъявление достаточно близких входных векторов давало одинако-
вые выходы. Процесс обучения, следовательно, выделяет статистические свойства
обучающего множества и группирует сходные векторы в классы. Предъявление
на вход вектора из данного класса даст определенный выходной вектор, но до
обучения невозможно предсказать, какой выход будет производиться данным
классом входных векторов. Следовательно, выходы подобной сети должны
трансформироваться в некоторую понятную форму, обусловленную процессом
обучения.
                          2.2. Теорема Колмогорова

     Рассмотрим в качестве примера двухслойную нейронную сеть с n входами и
одним выходом, которая достаточно проста по структуре и в то же время широко
используется для решения прикладных задач. Эта сеть изображена на рис. 6. Каж-
дый i-й нейрон первого слоя ( i =1,2..., m ) имеет n входов, которым приписаны ве-
са w1i, w2i, ..., wni .




                   Рис. 6. Пример нейронной сети

     Получив входные сигналы, нейрон суммирует их с соответствующими веса-
ми, затем применяет к этой сумме передаточную функцию и пересылает результат
на вход нейрона второго (выходного) слоя. В свою очередь, нейрон выходного
слоя суммирует полученные от второго слоя сигналы с некоторыми весами vi. Для
определенности будем предполагать, что передаточные функции в скрытом слое
являются сигмоидальными, а в выходном слое используется тождественная функ-
ция, т. е. взвешенная сумма выходов второго слоя и будет ответом сети.
     Подавая на входы любые числа x1, x2, ..., xn, мы получим на выходе значение
некоторой функции Y=F(x1, x2, ..., xn), которое является ответом (реакцией) сети.
Очевидно, что ответ сети зависит как от входного сигнала, так и от значений ее