Составители:
Рубрика:
197
Рис. 3.12
Отбор входных переменных, являющийся целью третьей задачи,
представляет собой один из самых трудных вопросов, которые при"
ходится решать разработчику нейросетевых приложений. Качество
работы сети можно улучшить путем уменьшения числа входных пе"
ременных, поскольку заранее не ясно, какие из входных параметров
наиболее важны для решения задачи. Единственный способ полу"
чить гарантию, что входные данные выбраны наилучшим образом,
состоит в том, чтобы перепробовать все возможные варианты вход"
ных наборов данных и выбрать наилучший. Однако практически это
сделать невозможно, поэтому для решения такой проблемы можно
выделить два подхода:
– преобразование всех исходных переменных в меньшее число обоб"
щенных некоторым способом признаков, сохранив при этом макси"
мум информации (этот прием широко используется в методе главных
компонентов);
– выделение тех входных переменных, которые не вносят суще"
ственного вклада в работу сети, и их удаление.
Второй подход можно реализовать путем сочетания вероятност"
ных нейронных сетей (ВНС) или обобщенно"регрессионных нейрон"
ных сетей (ОРНС) с ГА. Поскольку нашей целью является выполне"
ние второго способа, то вначале укажем на характерные особенности
таких сетей.
Обычные архитектуры ИНС, рассчитанные на управляемое обуче"
ние, предполагают построение параметрической модели по имеющим"
ся обучающим данным, где в качестве параметров выступают веса.
Параметрическая модель (сеть) по объему оказывается гораздо мень"
ше, чем набор обучающих данных, и работает достаточно быстро,
хотя время, затрачиваемое на обучение сети, может оказаться значи"
Страницы
- « первая
- ‹ предыдущая
- …
- 195
- 196
- 197
- 198
- 199
- …
- следующая ›
- последняя »