Компьютерное моделирование и оптимизация технологических процессов и оборудования. Дворецкий С.И - 32 стр.

UptoLike

Здесь
k
ij
α весовые коэффициенты, являющиеся настраиваемыми параметрами и характеризующи-
ми связь j-го нейрона (k – 1)-го слоя с i-ым нейроном k-го слоя.
0
0
ψ
0
1
ψ
0
2
ψ
0
0
N
ψ
1
0
ψ
1
1
ψ
1
2
ψ
1
1
N
ψ
00
g
k
=ψ
11
g
k
=ψ
22
g
k
=ψ
KK
N
k
N
g=ψ
1
α
2
α
m
α
2
x
0
x
1
x
m
x
1
0 j
α
1
1 j
α
K
jN
k
ij
k
j
k
j
k
j
K
α
α
α
α
α
2
1
0
2
i
k
i
g=ψ
0
α
1
2 j
α
1
ij
α
1
1
jN
α
1
0
k = K
k = 1
k = 0
N
0
2
1
0
N
1
2
1
0
N
K
Входные объекты
Рис. 2.6 Слоистая сеть
Для нулевого слоя имеем mjx
jj
,1,
0
==ψ . С учетом принятых обозначений аппроксимирующая
функция g
i
, i = 1, N
k
, представляет собой персептрон и может быть записана в виде
.1,0,1
,,1,,1),(
,,1,
0
==ψ
==ϕ=ψ
=ψ=
Kk
KkNiz
Nig
k
K
k
i
k
i
K
k
ii
В качестве функций активации нейронов (нелинейного преобразователя нейронов ϕ ) часто исполь-
зуют гладкие функции вида:
.
)exp()exp(
)exp()exp(
)(;
)exp(1
1
)(;)(
zz
zz
z
z
zzz
+
=ϕ
=ϕ=ϕ
Приближение функций с помощью нейронных сетей сводится к их обучению. При этом входные
сигналы х подаются обучаемой сети на обработку, задаются значения весовых коэффициентов
α
, а по-
лучаемые выходные сигналы g сравниваются с экспериментальными данными y. Затем строится оценка
работы сети, например, как критерий максимального правдоподобия
∑∑
=λ=
λ
λ
α=α
P
N
i
ii
K
xgyE
11
2)(
)),((
2
1
)(
,
где ),(
)(
α
λ
xg
i
i-ый выход сети, соответствующий векторам входных сигналов
)(λ
x и весовых коэффи-
циентов α ; Pобъем обучающей выборки ),(
)(
λ
λ
yx .
Поиск оптимальных значений весовых коэффициентов
α
, при которых критерий
)(αE
минимален,
производится с помощью известных методов решения экстремальных задач.
При обучении нейронных сетей целесообразно использовать метод регуляризации, позволяющий
получить сглаженные функции
),(
)(
α
λ
xg
i
. При этом оценка работы сети выбирается в виде
)()(),(
ˆ
αβ+α=αβ EE
,