Искусственные нейронные сети. Каширина И.Л. - 29 стр.

UptoLike

Составители: 

29
пусть каждый белый пиксель это 1, каждый черный - 0. Если в фрагменте име-
ется п пикселей , то для его передачи потребуется п бит. Множество векторов
фрагментов используется в качестве входа для обучения слоя Кохонена , когда
лишь выход одного нейрона равен 1. Веса слоя Гроссберга обучаются выдавать
бинарный код номера того нейрона Кохонена , выход которого равен 1. Напри-
мер, если выходной сигнал нейрона 7 равен 1 (а все остальные равны 0), то слой
Гроссберга будет обучаться выдавать 00...000111 (двоичный код числа 7). Это и
будет являться более короткой битовой последовательностью передаваемых
символов . На приемном конце идентичным образом обученная сеть встречного
распространения принимает двоичный код и реализует обратную функцию, ап-
проксимирующую первоначальный фрагмент . Написать программу, обучающую
сеть встречного распространения сжатию данных.
Рис . 14. Система сжатия изображений .
§ 6. СТОХАСТИЧЕСКИЕ СЕТИ
Искусственная нейронная сеть обучается посредством некоторого процесса,
модифицирующего ее веса. Если обучение успешно, то предъявление сети мно-
жества входных сигналов приводит к появлению желаемого множества выходных
сигналов . Стохастические методы обучения выполняют псевдослучайные изме-
нения величин весов , сохраняя те изменения, которые ведут к улучшениям .
Локальные минимумы мешают всем алгоритмам обучения, основанным на
поиске минимума функции ошибки, включая сети обратного распространения, и
представляют серьезную и широко распространенную проблему. Стохастические
методы позволяют решить эту проблему. Стратегия коррекции весов , вынуждаю-
щая веса принимать значение глобального оптимума, возможна .
Рис . 15. Проблема локальных минимумов .
                                      29
 пусть каждый белый пиксель – это 1, каждый черный- 0. Если в фрагменте име-
 ется п пикселей, то для его передачи потребуется п бит. Множество векторов
 фрагментов используется в качестве входа для обучения слоя Кохонена, когда
 лишь выход одного нейрона равен 1. Веса слоя Гроссберга обучаются выдавать
 бинарный код номера того нейрона Кохонена, выход которого равен 1. Напри-
 мер, если выходной сигнал нейрона 7 равен 1 (а все остальные равны 0), то слой
 Гроссберга будет обучаться выдавать 00...000111 (двоичный код числа 7). Это и
 будет являться более короткой битовой последовательностью передаваемых
 символов. На приемном конце идентичным образом обученная сеть встречного
 распространения принимает двоичный код и реализует обратную функцию, ап-
 проксимирующую первоначальный фрагмент. Написать программу, обучающую
 сеть встречного распространения сжатию данных.




                        Рис. 14. Система сжатия изображений.

                     § 6. СТОХАСТИЧЕСКИЕ СЕТИ

   Искусственная нейронная сеть обучается посредством некоторого процесса,
модифицирующего ее веса. Если обучение успешно, то предъявление сети мно-
жества входных сигналов приводит к появлению желаемого множества выходных
сигналов. Стохастические методы обучения выполняют псевдослучайные изме-
нения величин весов, сохраняя те изменения, которые ведут к улучшениям.
     Локальные минимумы мешают всем алгоритмам обучения, основанным на
поиске минимума функции ошибки, включая сети обратного распространения, и
представляют серьезную и широко распространенную проблему. Стохастические
методы позволяют решить эту проблему. Стратегия коррекции весов, вынуждаю-
щая веса принимать значение глобального оптимума, возможна.




                   Рис. 15. Проблема локальных минимумов.