Математические методы искусственного интеллекта. Броневич А.Г - 9 стр.

UptoLike

Рубрика: 

9
6. Сравниваем
(1) ( 2 )
11
cc и
(1) ( 2 )
22
cc. Продолжаем выполнение алгоритма.
7.
Разбиваем выборку
16
{ ,..., }xx на два подмножества с новыми цен-
трами по методу ближайшего соседа, получим кластеры
(2)
456
1
{, , }S = xxx и
(2)
123
2
{, , }S = xx x .
8.
Вновь вычисляем новые центры кластеров
(3) (2)
11
=cc,
(3) (2)
22
=cc. Оста-
новка алгоритма.
При практической реализации алгоритма возникают следующие про-
блемы:
1)
нахождение числа кластеров;
2)
качество работы алгоритма зависит от начальной расстановки центров
кластеров.
4.2. Алгоритмы расстановки центров кластеров
4.2.1. Алгоритм простейшей расстановки центров кластеров
Вводится некоторый порог 0h > , в качестве первого центра кластера
назначается первый элемент выборки
11
=cx.
Предположим, что уже выбраны
k центров кластеров. Тогда в качестве
очередного (1)
k + -го центра кластера выбирается такой элемент выборки
j
x ,
что минимальное расстояние от
j
x до центров
i
c ( 1,...,ik= ) будет больше h .
4.2.2. Алгоритм, основанный на методе просеивания
В алгоритме рассматривается некоторая неотрицательная функция
()
f
x , называемая плотностью распределения элементов обучающей выборки
и принимающая тем большее значение, чем ближе элемент
x расположен к
точке сгущения элементов выборки. Например, в качестве ()
f
x можно взять
следующую функцию:
()
2
2
2
:
1
() ()
i
hi
ih
ff h
h
−<
==
xx
xx xx,
где 0h > некоторое пороговое значение. Затем осуществляется упорядочи-
вание элементов обучающей выборки таким образом, чтобы
123
() () () ...fff≥≥xxx Далее осуществляется алгоритм простейшей расста-
новки центров кластеров, в котором в первую очередь в качестве новых цен-
тров кластеров выбираются те элементы обучающей выборки, в которых зна-
чение плотности будет наибольшим.
4.2.3. Алгоритм максиминного расстояния
1. В качестве первого центра кластера выберем элемент
11
=cx.