ВУЗ:
Составители:
29
пусть каждый белый пиксель – это 1, каждый черный - 0. Если в фрагменте име-
ется п пикселей , то для его передачи потребуется п бит. Множество векторов
фрагментов используется в качестве входа для обучения слоя Кохонена , когда
лишь выход одного нейрона равен 1. Веса слоя Гроссберга обучаются выдавать
бинарный код номера того нейрона Кохонена , выход которого равен 1. Напри-
мер, если выходной сигнал нейрона 7 равен 1 (а все остальные равны 0), то слой
Гроссберга будет обучаться выдавать 00...000111 (двоичный код числа 7). Это и
будет являться более короткой битовой последовательностью передаваемых
символов . На приемном конце идентичным образом обученная сеть встречного
распространения принимает двоичный код и реализует обратную функцию, ап-
проксимирующую первоначальный фрагмент . Написать программу, обучающую
сеть встречного распространения сжатию данных.
Рис . 14. Система сжатия изображений .
§ 6. СТОХАСТИЧЕСКИЕ СЕТИ
Искусственная нейронная сеть обучается посредством некоторого процесса,
модифицирующего ее веса. Если обучение успешно, то предъявление сети мно-
жества входных сигналов приводит к появлению желаемого множества выходных
сигналов . Стохастические методы обучения выполняют псевдослучайные изме-
нения величин весов , сохраняя те изменения, которые ведут к улучшениям .
Локальные минимумы мешают всем алгоритмам обучения, основанным на
поиске минимума функции ошибки, включая сети обратного распространения, и
представляют серьезную и широко распространенную проблему. Стохастические
методы позволяют решить эту проблему. Стратегия коррекции весов , вынуждаю-
щая веса принимать значение глобального оптимума, возможна .
Рис . 15. Проблема локальных минимумов .
29 пусть каждый белый пиксель – это 1, каждый черный- 0. Если в фрагменте име- ется п пикселей, то для его передачи потребуется п бит. Множество векторов фрагментов используется в качестве входа для обучения слоя Кохонена, когда лишь выход одного нейрона равен 1. Веса слоя Гроссберга обучаются выдавать бинарный код номера того нейрона Кохонена, выход которого равен 1. Напри- мер, если выходной сигнал нейрона 7 равен 1 (а все остальные равны 0), то слой Гроссберга будет обучаться выдавать 00...000111 (двоичный код числа 7). Это и будет являться более короткой битовой последовательностью передаваемых символов. На приемном конце идентичным образом обученная сеть встречного распространения принимает двоичный код и реализует обратную функцию, ап- проксимирующую первоначальный фрагмент. Написать программу, обучающую сеть встречного распространения сжатию данных. Рис. 14. Система сжатия изображений. § 6. СТОХАСТИЧЕСКИЕ СЕТИ Искусственная нейронная сеть обучается посредством некоторого процесса, модифицирующего ее веса. Если обучение успешно, то предъявление сети мно- жества входных сигналов приводит к появлению желаемого множества выходных сигналов. Стохастические методы обучения выполняют псевдослучайные изме- нения величин весов, сохраняя те изменения, которые ведут к улучшениям. Локальные минимумы мешают всем алгоритмам обучения, основанным на поиске минимума функции ошибки, включая сети обратного распространения, и представляют серьезную и широко распространенную проблему. Стохастические методы позволяют решить эту проблему. Стратегия коррекции весов, вынуждаю- щая веса принимать значение глобального оптимума, возможна. Рис. 15. Проблема локальных минимумов.
Страницы
- « первая
- ‹ предыдущая
- …
- 27
- 28
- 29
- 30
- 31
- …
- следующая ›
- последняя »