Нейросетевые технологии. Каширина И.Л. - 11 стр.

UptoLike

Составители: 

11
тивационная функция между слоями не будет линейной. Вычисление вы-
хода слоя заключается в умножении входного вектора на первую весовую
матрицу с последующим умножением (если отсутствует нелинейная акти-
вационная функция) результирующего вектора на вторую весовую матри-
цу. Так как умножение матриц ассоциативно, то двухслойная линейная
сеть эквивалентна одному слою с весовой матрицей
, равной произведению
двух весовых матриц. Следовательно, любая многослойная линейная сеть
может быть заменена эквивалентной однослойной сетью.
Обучение искусственных нейронных сетей
Сеть обучается, чтобы для некоторого множества входов давать тре-
буемое (или, по крайней мере, сообразное с ним) множество выходов.
Каждое такое входное (или выходное) множество рассматривается как век-
тор. Обучение осуществляется путем последовательного предъявления
входных векторов с одновременной подстройкой весов в соответствии с
определенной процедурой. В процессе обучения веса сети постепенно
ста-
новятся такими, чтобы каждый входной вектор вырабатывал выходной
вектор. Различают алгоритмы обучения с учителем и без учителя.
Обучение с учителем предполагает, что для каждого входного вектора
существует целевой вектор, представляющий собой требуемый выход.
Вместе они называются
обучающей парой. Обычно сеть обучается на неко-
тором числе таких обучающих пар. Предъявляется выходной вектор, вы-
числяется выход сети и сравнивается с соответствующим целевым векто-
ром, разность (ошибка) с помощью обратной связи подается в сеть, и веса
изменяются в соответствии с алгоритмом, стремящимся минимизировать
ошибку. Векторы обучающего множества предъявляются последовательно,
вычисляются ошибки,
и веса подстраиваются для каждого вектора до тех
пор, пока ошибка по всему обучающему массиву не достигнет приемлемо
низкого уровня.
Обучение без учителя не нуждается в целевом векторе для выходов и,
следовательно, не требует сравнения с предопределенными идеальными
ответами. Обучающее множество состоит лишь из входных векторов. Обу-
чающий алгоритм подстраивает веса сети так, чтобы получались согласо-
ванные выходные векторы, т. е. чтобы предъявление достаточно близких
входных векторов давало одинаковые выходы. Процесс обучения, следова-
тельно, выделяет статистические свойства обучающего множества и груп-
пирует сходные векторы в классы. Предъявление на вход вектора из дан-
ного класса даст определенный выходной вектор, но до обучения невоз-
можно предсказать, какой выход будет производиться данным классом
входных векторов. Следовательно, выходы подобной сети должны транс-
формироваться в некоторую понятную форму, обусловленную
процессом
обучения.
тивационная функция между слоями не будет линейной. Вычисление вы-
хода слоя заключается в умножении входного вектора на первую весовую
матрицу с последующим умножением (если отсутствует нелинейная акти-
вационная функция) результирующего вектора на вторую весовую матри-
цу. Так как умножение матриц ассоциативно, то двухслойная линейная
сеть эквивалентна одному слою с весовой матрицей, равной произведению
двух весовых матриц. Следовательно, любая многослойная линейная сеть
может быть заменена эквивалентной однослойной сетью.
              Обучение искусственных нейронных сетей
     Сеть обучается, чтобы для некоторого множества входов давать тре-
буемое (или, по крайней мере, сообразное с ним) множество выходов.
Каждое такое входное (или выходное) множество рассматривается как век-
тор. Обучение осуществляется путем последовательного предъявления
входных векторов с одновременной подстройкой весов в соответствии с
определенной процедурой. В процессе обучения веса сети постепенно ста-
новятся такими, чтобы каждый входной вектор вырабатывал выходной
вектор. Различают алгоритмы обучения с учителем и без учителя.
     Обучение с учителем предполагает, что для каждого входного вектора
существует целевой вектор, представляющий собой требуемый выход.
Вместе они называются обучающей парой. Обычно сеть обучается на неко-
тором числе таких обучающих пар. Предъявляется выходной вектор, вы-
числяется выход сети и сравнивается с соответствующим целевым векто-
ром, разность (ошибка) с помощью обратной связи подается в сеть, и веса
изменяются в соответствии с алгоритмом, стремящимся минимизировать
ошибку. Векторы обучающего множества предъявляются последовательно,
вычисляются ошибки, и веса подстраиваются для каждого вектора до тех
пор, пока ошибка по всему обучающему массиву не достигнет приемлемо
низкого уровня.
     Обучение без учителя не нуждается в целевом векторе для выходов и,
следовательно, не требует сравнения с предопределенными идеальными
ответами. Обучающее множество состоит лишь из входных векторов. Обу-
чающий алгоритм подстраивает веса сети так, чтобы получались согласо-
ванные выходные векторы, т. е. чтобы предъявление достаточно близких
входных векторов давало одинаковые выходы. Процесс обучения, следова-
тельно, выделяет статистические свойства обучающего множества и груп-
пирует сходные векторы в классы. Предъявление на вход вектора из дан-
ного класса даст определенный выходной вектор, но до обучения невоз-
можно предсказать, какой выход будет производиться данным классом
входных векторов. Следовательно, выходы подобной сети должны транс-
формироваться в некоторую понятную форму, обусловленную процессом
обучения.
                                  11