Составители:
Рубрика:
Глава 3. Динамические модели эволюции
139
рядом полезных свойств и способны решать очень важные задачи. К
таким свойствам в первую очередь следует отнести:
1. Обучаемость
. Выбрав одну из архитектур НС и свойства нейронов,
а также проведя алгоритм обучения, можно «обучить» сеть решению
задачи, которая ей по силам. Нет гарантий, что это удастся сделать всегда,
но во многих случаях обучение бывает успешным.
2.
Способность к обобщению
. После обучения сеть становится
нечувствительной к малым изменениям входных сигналов (шуму или
вариациям входных образов) и дает правильный результат на выходе.
3. Способность к абстрагированию
. Если предъявить сети несколько
искаженных вариантов входного образа, то сеть сама может создать на
выходе идеальный образ, с которым она никогда не встречалась.
Среди решаемых задач следует выделить распознавание образов
(например, зрительных или слуховых), реализацию ассоциативной
памяти
15
, кластеризацию (разбиение изучаемой совокупности объектов на
группы схожих между собой), аппроксимацию функций, предсказание
временных рядов (см. п. 10.2.1.3), управление, принятие решений,
диагностику.
Многие из перечисленных задач сводятся к следующей
математической постановке. Необходимо построить такое отображение
Y
X
→ , чтобы в ответ на каждый возможный сигнал X формировался
правильный выходной сигнал Y. Отображение задается конечным числом
пар (вход, известный выход). Число этих пар (обучающих примеров)
существенно меньше общего числа возможных сочетаний значений
входных и выходных сигналов. Совокупность всех обучающих примеров
носит название обучающей выборки. Например, в задачах распознавания
образов X – некоторое представление образа (изображение, вектор), Y –
номер класса, к которому принадлежит входной образ. В задачах
управления X – набор контролируемых параметров управляемого объекта,
Y – код, определяющий управляющее воздействие, соответствующее
текущим значениям управляющих параметров. В задачах прогнозирования
в качестве входных сигналов используются значения наблюдаемой
величины до текущего момента времени, на выходе – следующие во
времени значения наблюдаемой величины.
Эти и вообще большая часть прикладных задач может быть сведена к
построению некоторой многомерной функции. Каковы при этом
возможности нейросетей, которые, как было видно из описания их
15
В модели вычислений фон Неймана (используется в обычных компьютерах)
обращение к памяти доступно только посредством адреса, который не зависит от
содержания памяти. Ассоциативная память доступна по указанию данного содержания.
Содержимое памяти может быть вызвано даже по частичному или искаженному
содержанию.
Страницы
- « первая
- ‹ предыдущая
- …
- 143
- 144
- 145
- 146
- 147
- …
- следующая ›
- последняя »
