Информационные системы в науке, образовании и бизнесе. Ефремов О.В - 25 стр.

UptoLike

Составители: 

При уменьшении α сигмоид становится более пологим, в пределе при α = 0 вырождаясь
в горизонтальную линию на уровне 0,5, при увеличении α сигмоид приближается по внеш-
нему виду к функции единичного скачка с порогом в точке x = 0. Одно из ценных свойств
сигмоидной функциипростое выражение для ее производной.
))(1()()( xfxfxf α=
.
(5)
Теперь рассмотрим, как из таких нейронов можно составлять сети из таких нейронов.
Строго говоря, как угодно, но такой произвол слишком необозрим. Поэтому выделяют не-
сколько стандартных архитектур, из которых путем вырезания лишнего или добавления
строят большинство используемых сетей. Можно выделить две базовые архитектуры: полно-
связные и многослойные сети.
В полносвязных нейронных сетях каждый нейрон передает свой выходной сигнал остальным нейронам, в
том числе и самому себе. Все входные сигналы подаются всем нейронам. Выходными сигналами сети могут
быть все или некоторые выходные сигналы нейронов после нескольких тактов функционирования сети.
В многослойных нейронных сетях (их часто называют персептронами) нейроны объединяются в слои.
Слой содержит совокупность нейронов с едиными входными сигналами. Число нейронов в слое может быть
любым и не зависит от количества нейронов в других слоях. В общем случае сеть состоит из нескольких слоев,
пронумерованных слева на право. Внешние входные сигналы подаются на входы нейронов входного слоя (его
часто нумеруют как нулевой), а выходами сети являются выходные сигналы последнего слоя. Кроме входного и
выходного слоев в многослойной нейронной сети есть один или несколько так называемых скрытых слоев.
В свою очередь, среди многослойных сетей выделяют:
1) Сети прямого распространения (feedforward networks) – сети без обратных связей. В таких сетях нейро-
ны входного слоя получают входные сигналы, преобразуют их и передают нейронам первого скрытого слоя, и
так далее вплоть до выходного, который выдает сигналы для интерпретатора и пользователя. Если не оговорено
противное, то каждый выходной сигнал n-го слоя передастся на вход всех нейронов (n + 1)-го слоя; однако воз-
можен вариант соединения n-го слоя с произвольным (n + p)-м слоем. Пример слоистой сети представлен на
рис. 4.
2. Сети с обратными связями (recurrent networks). В сетях с обратными связями инфор-
мация передается с последующих слоев на предыдущие. Следует иметь в виду, что после
введения обратных связей сеть уже не просто осуществляет отображение множества вход-
ных векторов на множество выходных, она превращается в динамическую систему и возни-
кает вопрос об ее устойчивости.
Теоретически число слоев и число нейронов в каждом слое может быть произвольным, однако фактически
оно ограничено ресурсами компьютера или специализированных микросхем, на которых обычно реализуется
нейросеть. Чем сложнее сеть, тем более сложные задачи она может решать.
Искусственные нейронные сети могут широко использоваться в различных областях, во-
прос в том, как подобрать такие весовые коэффициенты, чтобы сеть, например, решала зада-
чу распознавания или аппроксимировала некоторую функцию. Замечательное свойство ней-
ронных сетей состоит в том, что их этому можно научить.
Способность к обучению является фундаментальным свойством мозга. В контексте ИНС процесс обуче-
ния может рассматриваться как настройка архитектуры сети и весов связей для эффективного выполнения спе-
циальной задачи. Обычно нейронная сеть должна настроить веса связей по имеющейся обучающей выборке.
Функционирование сети улучшается по мере итеративной настройки весовых коэффициентов. Свойство сети
обучаться на примерах делает их более привлекательными по сравнению с системами, которые следуют опре-
деленной системе правил функционирования, сформулированной экспертами.
Рис. 12. Многослойная (трехслойная) сеть прямого распространения
Входной
слой
Скрытые слои
Выходной
слой