ВУЗ:
Составители:
53
Поскольку значения w
i
можно определить решением матрично-векторного
уравнения типа (4.12), то главной проблемой обучения остается выбор
i
c
r
и
s
i
, особенно центров RBF
i
c
r
. Одним из простейших (хотя и не самых эф-
фективных) методов является случайный выбор
i
c
r
на основе равномерного
распределения при σ
2
d
K
= , где d – максимальное расстояние между
i
c
r
.
Очевидно, что ширина радиальных функций пропорциональна максималь-
ному разбросу центров и уменьшается с ростом их количества.
Среди специализированных методов выбора центров RBF прежде всего
следует выделить алгоритмы самоорганизации, когда множество входных обу-
чающих данных разделяется на кластеры, которые в дальнейшем представля-
ются центральными точками, определяющими усредненные значения всех их
элементов. Эти точки в дальнейшем выбираются в качестве центров соответ-
ствующих радиальных функций, то есть количество RBF равно количеству
кластеров. Для разделения данных на кластеры чаще всего используют алго-
ритм К-усреднений Линде–Бузо–Грея в прямом («online») или накопительном
(«offline») варианте. При этом начальные положения центров
i
c
r
выбираются
случайным образом на основе равномерного распределения, а затем произво-
дится их уточнение либо после предъявления каждого очередного
x
r
(online),
либо после предъявления всех элементов обучающего множества (offline). Ес-
ли обучающие данные представляют непрерывную функцию, начальные зна-
чения
i
c
r
в первую очередь размещают в точках экстремумов (максимумов и
минимумов) функции, а оставшиеся центры распределяют равномерно среди
незадействованных элементов обучающего множества.
В прямой версии («online») после подачи каждого обучающего век-
тора
k
x
r
выбирается ближайший к
k
x
r
центр
i
c
r
и подвергается уточнению в
соответствии с алгоритмом WTA
(
)
(
)
(
)
1
η ,
iiki
ctctxct
éù
+=+-
êú
ëû
rrrr
(4.16)
где
h
<< 1 – коэффициент обучения, уменьшающийся с ростом t, а осталь-
ные центры не изменяются. Все обучающие
k
x
r
предъявляются случайным
образом по несколько раз, вплоть до стабилизации положения
i
c
r
. В режи-
ме «offline» уточнение положения всех
i
c
r
происходит параллельно после
подачи всех обучающих векторов
k
x
r
согласно
( ) ()
1
1
1,
i
N
ij
j
i
ctxt
N
=
+=
å
rr
(4.17)
где N
i
– количество
k
x
r
, приписанных к
i
c
r
в цикле t. На практике чаще при-
меняется прямой алгоритм, имеющий несколько лучшую сходимость.
Поскольку значения wi можно определить решением матрично-векторного � уравнения типа (4.12), то главной проблемой обучения остается выбор ci и � �i, особенно центров RBF ci . Одним из простейших (хотя и не самых эф- � фективных) методов является случайный выбор ci на основе равномерного d � распределения при σ � , где d – максимальное расстояние между ci . 2K Очевидно, что ширина радиальных функций пропорциональна максималь- ному разбросу центров и уменьшается с ростом их количества. Среди специализированных методов выбора центров RBF прежде всего следует выделить алгоритмы самоорганизации, когда множество входных обу- чающих данных разделяется на кластеры, которые в дальнейшем представля- ются центральными точками, определяющими усредненные значения всех их элементов. Эти точки в дальнейшем выбираются в качестве центров соответ- ствующих радиальных функций, то есть количество RBF равно количеству кластеров. Для разделения данных на кластеры чаще всего используют алго- ритм К-усреднений Линде–Бузо–Грея в прямом («online») или накопительном � («offline») варианте. При этом начальные положения центров ci выбираются случайным образом на основе равномерного распределения, а затем произво- � дится их уточнение либо после предъявления каждого очередного x (online), либо после предъявления всех элементов обучающего множества (offline). Ес- ли обучающие данные представляют непрерывную функцию, начальные зна- � чения ci в первую очередь размещают в точках экстремумов (максимумов и минимумов) функции, а оставшиеся центры распределяют равномерно среди незадействованных элементов обучающего множества. В прямой версии («online») после подачи каждого обучающего век- � � � тора xk выбирается ближайший к xk центр ci и подвергается уточнению в соответствии с алгоритмом WTA � � � � ci � t � 1� � ci � t � � η �� xk � ci � t ��� , (4.16) где � << 1 – коэффициент обучения, уменьшающийся с ростом t, а осталь- � ные центры не изменяются. Все обучающие xk предъявляются случайным � образом по несколько раз, вплоть до стабилизации положения ci . В режи- � ме «offline» уточнение положения всех ci происходит параллельно после � подачи всех обучающих векторов xk согласно � 1 Ni � ci � t � 1� � � x j � t �, (4.17) N i j �1 � � где Ni – количество xk , приписанных к ci в цикле t. На практике чаще при- меняется прямой алгоритм, имеющий несколько лучшую сходимость. 53
Страницы
- « первая
- ‹ предыдущая
- …
- 51
- 52
- 53
- 54
- 55
- …
- следующая ›
- последняя »