Нейронные сети и нейроконтроллеры. Бураков М.В. - 143 стр.

UptoLike

Составители: 

143
если вектор веса нейрона равен транспонированному вектору вхо-
да, то выход функции активации равен единице.
Второй слой – это линейный слой с числом нейронов, также рав-
ным R, причем в качестве начального приближения для матрицы
весов LW{2,1} выбирается массив выходов Т.
Блок normprod служит для вычисления нормированного ска-
лярного произведения строки массива весов выходного слоя и век-
тора выхода радиально-базисного слоя.
Таким образом, если вектор входа близок к одному из векторов
входа P
i
из обучающего множества, то значение i-го выхода ради-
ально-базисного слоя будет близко к единице, и iвыход второго
слоя будет близок к Т
i
.
Если параметр влияния SPREAD мал, то диапазон входных зна-
чений, на который реагирует нейрон скрытого слоя, оказывается
малым. С увеличением параметра SPREAD уже несколько ней-
ронов реагирует на значения вектора входа. Тогда на выходе сети
формируется вектор, соответствующий среднему нескольких це-
левых векторов, соответствующих входным векторам обучающего
множества, близких к данному вектору входа.
Пусть
>> P = [0 1 2 3 4 5 6 7 8 9 10];
T = [2 2 2 2 4 4 4 2 2 2 2];
SPREAD = 0.5;
net = newgrnn(P,T);
figure(1), clf,
plot(P,T,'sr','MarkerSize',8,'MarkerFaceColor','y')
hold on;
X = 0:0.01:10; Y = sim(net,X); plot(X,Y,'LineWidth',2), grid on
>> net.layers{1}.size
ans = 11
Результат аппроксимации (рис. 5.16) существенно отличается
от приведенного на рис. 5.14 (при одинаковом обучающем множе-
стве).
Нейронные сети PNN (Probabilistic Neural Network) предназна-
чены для решения вероятностных задач, в том числе и задач клас-
сификации.
В такой сети первый слой содержит радиально-базисные функ-
ции. Второй слой называется слоем конкуренции (рис. 5.17).
Радиально-базисный слой функционирует аналогично соответ-
ствующему слою GRNN-сети.