Моделирование искусственных нейронных сетей в системе MATLAB. Часть 3. Радиальные базисные сети. Донской Д.А - 42 стр.

UptoLike

42
.
)sum(
1
121
2
a
aLW
=n (1)
Первый слойэто радиальный базисный слой с числом нейронов,
равным числу элементов Q обучающего множества. В качестве на-
чального приближения для матрицы весов выбирается массив
P
1
;
смещение
b
1
устанавливается равным вектор-столбцу с элементами
0,8326/SPREAD.
Функция dist вычисляет расстояние между вектором входа и век-
тором веса нейрона; вход функции активации
n
1
равен поэлементно-
му произведению взвешенного входа сети на вектор смещения; вы-
ход каждого нейрона первого слоя
a
1
является результатом преобра-
зования вектора
n
1
радиальной базисной функцией radbas.
Если вектор веса нейрона равен транспонированному вектору
входа, то взвешенный вход равен 0, а выход функции активации – 1.
Если расстояние между вектором входа и вектором веса нейрона
равно spread, то выход функции активации будет равен 0,5.
Второй слойэто линейный слой с числом нейронов, также рав-
ным R, причем в качестве
начального приближения для матрицы ве-
сов
LW{2,1} выбирается массив T.
Предположим, что имеем вектор входа
p
i
, близкий к одному из
векторов входа
p из обучающего множества. Этот вход p
i
генерирует
значение выхода слоя
a
i
1
, близкое к 1. Это приводит к тому, что вы-
ход слоя 2 будет близок к
t
i
.
Если параметр влияния SPREAD мал, то радиальная базисная
функция характеризуется резким спадом и диапазон входных значе-
ний, на который реагируют нейроны скрытого слоя, оказывается
весьма малым. С увеличением параметра SPREAD наклон радиаль-
ной базисной функции становится более гладким, и в этом случае
уже несколько нейронов реагируют на значения вектора входа. Тогда
на
выходе сети формируется вектор, соответствующий среднему не-
скольких целевых векторов, соответствующих входным векторам
обучающего множества, близких к данному вектору входа.
Чем больше значение параметра SPREAD, тем большее число
нейронов участвует в формировании среднего значения, и в итоге
функция, генерируемая сетью, становится более гладкой.
                               LW 21a1
                        n2 =              .                     (1)
                               sum(a1 )
   Первый слой – это радиальный базисный слой с числом нейронов,
равным числу элементов Q обучающего множества. В качестве на-
чального приближения для матрицы весов выбирается массив P1;
смещение b1 устанавливается равным вектор-столбцу с элементами
0,8326/SPREAD.
   Функция dist вычисляет расстояние между вектором входа и век-
тором веса нейрона; вход функции активации n1 равен поэлементно-
му произведению взвешенного входа сети на вектор смещения; вы-
ход каждого нейрона первого слоя a1 является результатом преобра-
зования вектора n1 радиальной базисной функцией radbas.
   Если вектор веса нейрона равен транспонированному вектору
входа, то взвешенный вход равен 0, а выход функции активации – 1.
Если расстояние между вектором входа и вектором веса нейрона
равно spread, то выход функции активации будет равен 0,5.
   Второй слой – это линейный слой с числом нейронов, также рав-
ным R, причем в качестве начального приближения для матрицы ве-
сов LW{2,1} выбирается массив T.
   Предположим, что имеем вектор входа pi, близкий к одному из
векторов входа p из обучающего множества. Этот вход pi генерирует
значение выхода слоя ai1, близкое к 1. Это приводит к тому, что вы-
ход слоя 2 будет близок к ti.
   Если параметр влияния SPREAD мал, то радиальная базисная
функция характеризуется резким спадом и диапазон входных значе-
ний, на который реагируют нейроны скрытого слоя, оказывается
весьма малым. С увеличением параметра SPREAD наклон радиаль-
ной базисной функции становится более гладким, и в этом случае
уже несколько нейронов реагируют на значения вектора входа. Тогда
на выходе сети формируется вектор, соответствующий среднему не-
скольких целевых векторов, соответствующих входным векторам
обучающего множества, близких к данному вектору входа.
   Чем больше значение параметра SPREAD, тем большее число
нейронов участвует в формировании среднего значения, и в итоге
функция, генерируемая сетью, становится более гладкой.

                                  42