Искусственные нейронные сети. Сивохин А.В - 90 стр.

UptoLike

90
Для нейронов выходного слоя функцией взвешивания является
скалярное произведение
dotprod, а функцией накопленияфункция
суммирования взвешенных входов и взвешенного смещения
netsum.
Для того чтобы понять поведение радиальной базисной сети об-
щего вида, необходимо проследить прохождение вектора входа
p.
При задании значений элементам вектора входа каждый нейрон
входного слоя выдает значение в соответствии с тем, как близок век-
тор входа к вектору весов каждого нейрона. Таким образом, нейроны
с векторами весов, значительно отличающимися с вектором входа
p,
будут иметь выходы, близкие к
0, и их влияние на выходы линейных
нейронов выходного слоя будет незначительное. Напротив, входной
нейрон, веса которого близки к вектору p, выдаст значение, близкое
к единице.
Для построения радиальных базисных сетей общего вида и авто-
матической настройки весов и смещений используются две функции
newrbe и newrb. Первая позволяет построить радиальную базисную
сеть с нулевой ошибкой, вторая позволяет управлять количеством
нейронов входного слоя. Эти функции имеют следующие параметры:
net = newrbe(P, T, SPREAD),
net = newrb(P, T, GOAL, SPREAD),
где
Pмассив размера RxQ входных векторов, причем Rчисло
элементов вектора входа, а
Qчисло векторов в последовательно-
сти;
Tмассив размера SxQ из Q векторов цепи и S классов;
SPREADпараметр влияния, определяющий крутизну функции
radbas, значение по умолчания которого равно единице;
GOALсредняя квадратичная ошибка, при этом значение по
умолчанию равно
0.0.
Параметр влияния
SPREAD существенно влияет на качество ап-
проксимации функции: чем больше его значение, тем более гладкой
будет аппроксимация. Слишком большое его значение приведет к
тому, что для получения гладкой аппроксимации быстро изменяю-
   Для нейронов выходного слоя функцией взвешивания является
скалярное произведение dotprod, а функцией накопления – функция
суммирования взвешенных входов и взвешенного смещения netsum.
   Для того чтобы понять поведение радиальной базисной сети об-
щего вида, необходимо проследить прохождение вектора входа p.
При задании значений элементам вектора входа каждый нейрон
входного слоя выдает значение в соответствии с тем, как близок век-
тор входа к вектору весов каждого нейрона. Таким образом, нейроны
с векторами весов, значительно отличающимися с вектором входа p,
будут иметь выходы, близкие к 0, и их влияние на выходы линейных
нейронов выходного слоя будет незначительное. Напротив, входной
нейрон, веса которого близки к вектору p, выдаст значение, близкое
к единице.
   Для построения радиальных базисных сетей общего вида и авто-
матической настройки весов и смещений используются две функции
newrbe и newrb. Первая позволяет построить радиальную базисную
сеть с нулевой ошибкой, вторая позволяет управлять количеством
нейронов входного слоя. Эти функции имеют следующие параметры:

       net = newrbe(P, T, SPREAD),
       net = newrb(P, T, GOAL, SPREAD),

где P – массив размера RxQ входных векторов, причем R – число
элементов вектора входа, а Q – число векторов в последовательно-
сти;
   T – массив размера SxQ из Q векторов цепи и S классов;
   SPREAD – параметр влияния, определяющий крутизну функции
radbas, значение по умолчания которого равно единице;
   GOAL – средняя квадратичная ошибка, при этом значение по
умолчанию равно 0.0.
   Параметр влияния SPREAD существенно влияет на качество ап-
проксимации функции: чем больше его значение, тем более гладкой
будет аппроксимация. Слишком большое его значение приведет к
тому, что для получения гладкой аппроксимации быстро изменяю-



                                90