Задача кластеризации
Алгоритмы кластеризации
Алгоритм кластеризации k-means
Меры расстояний
Пример работы алгоритма k-means
Сети Кохонена
Обучение сети Кохонена
Алгоритм Кохонена включает шаги:
Пример работы сети Кохонена
Карты Кохонена
454.50K
Category: mathematicsmathematics

Задача кластеризации. Алгоритмы кластеризации

1. Задача кластеризации

2.

Кластеризация — группировка объектов по
похожести их свойств; каждый кластер состоит из
схожих объектов, а объекты разных кластеров
существенно отличаются.

3.

Цели кластеризации в Data Mining могут быть
различными и зависят от конкретной решаемой задачи.
Рассмотрим эти задачи.
• Изучение данных. Разбиение множества объектов на
схожие группы помогает выявить структуру данных,
увеличить наглядность их представления, выдвинуть
новые гипотезы, понять, насколько информативны
свойства объектов.
• Облегчение анализа. При помощи кластеризации
можно упростить дальнейшую обработку данных и
построение моделей: каждый кластер обрабатывается индивидуально и модель создается для каждого кластера в
отдельности. В этом смысле кластеризация является
подготовительным этапом перед решением других задач
Data Mining: классификации, регрессии, ассоциации,
последовательных шаблонов.

4. Алгоритмы кластеризации


К-средних (K-means)
Нейронная сеть Кохонена
Графовые алгоритмы кластеризации
Статистические алгоритмы кластеризации
Алгоритмы семейства FOREL
Иерархическая кластеризация или таксономия
Ансамбль кластеризаторов
Алгоритмы семейства КRAB
EM-алгоритм
Алгоритм, основанный на методе просеивания
Метод опорных векторов

5. Алгоритм кластеризации k-means

От англ. mean — «среднее значение». Он состоит из
четырех шагов.
1. Задается число кластеров k, которое должно быть
сформировано из объектов исходной выборки.
2. Случайным образом выбирается k записей исходной
выборки, которые будут служить начальными центрами
кластеров. Начальные точки, из которых потом
вырастает кластер, часто называют «семенами».
Каждая такая запись представляет собой своего рода
«эмбрион» кластера, состоящий только из одного
элемента.
3. Для каждой записи исходной выборки определяется
ближайший к ней центр кластера.
4. Производится вычисление центроидов — центров
тяжести кластеров.

6.

Например, если в кластер вошли три записи с
наборами признаков (х1, у1), (х2,у2), (х3, у3), то
координаты его центроида будут рассчитываться
следующим образом:
Затем старый центр
кластера смещается в его
центроид. На рис. 2 центры
тяжести кластеров
представлены в виде
крестиков.
Таким образом, центроиды
становятся новыми
центрами кластеров для
следующей итерации
алгоритма.

7.

Шаги 3 и 4 повторяются до тех пор, пока выполнение
алгоритма не будет прервано либо пока не будет выполнено
условие в соответствии с некоторым критерием сходимости.
Остановка алгоритма производится, когда границы
кластеров и расположение центроидов перестают
изменяться от итерации к итерации, то есть на каждой
итерации в каждом кластере остается один и тот же набор
записей.
Что касается критерия сходимости, то чаще всего
используется сумма квадратов ошибок между центроидом
кластера и всеми вошедшими в него записями:
где р — произвольная точка данных, принадлежащая
кластеру Сi; mi; — центроид данного кластера.
Иными словами, алгоритм остановится тогда, когда
ошибка E достигнет достаточно малого значения.

8. Меры расстояний

Ключевой момент алгоритма k-means: на каждой
итерации вычисляется расстояние между записями и
центрами кластеров, чтобы определить, к какому из
кластеров принадлежит данная запись.
□ Евклидово расстояние , или метрика L2.
Использует для вычисления расстояний следующее
правило:
n
(x
d ab
d ab
i 1
n
(x
i 1
a
ai
xbi )
2
xb ) ( ya yb )
2
2

9.

□ Расстояние Манхэттена (Manhattan distance), или
метрика L1 вычисляется по формуле
□ Для категориальных признаков в качестве меры
расстояния можно использовать функцию отличия
(different function), которая задается следующим образом:
где xi и y i — категориальные значения.

10. Пример работы алгоритма k-means

Пусть имеется набор из 8 точек данных в двумерном
пространстве, из которого требуется получить 2 кластера.
A
B
C
D
E
F
G
H
(1,3) (3,3) (4,3) (5,3) (1,2) (4,2) (1,1) (2,1)
4
B
A
3
E
y2
G
C
D
F
H
1
m1 = (1; 1)
m2 = (2; 1)
0
0
1
2
3
x
4
5
6

11.

Шаг 1. Определим число кластеров, на которое
требуется разбить исходное множество: k= 2.
Шаг 2. Случайным образом выберем две точки,
которые будут начальными центрами кластеров. Пусть
это будут точки m1 = (1; 1) и m2 = (2; 1). На рис. 3 они
представлены ромбами.
Шаг З, проход 1. Для каждой точки определим
ближайший к ней центр кластера с помощью евклидова
расстояния. В табл. 2 представлены вычисленные с
помощью формулы (7.1) расстояния между центрами
кластеров m1 = (1; 1) и m2 = (2; 1) и каждой точкой
исходного множества и указано, к какому кластеру
принадлежит та или иная точка.

12.

Точ
ка
A
B
C
D
E
F
G
H
х
у
1
3
4
5
1
4
1
2
3
3
3
3
2
2
1
1
Расстоя Расстоя Принадле
ние от ние от
жит
m1
m2
кластеру
2,00
2,24
1
2,83
2,24
2
3,61
2,83
2
4,47
3,61
2
1,00
1,41
1
3,16
2,24
2
0,00
1,00
1
1,00
0,00
2
E
4
5
8
13
1
5
0
0
36

13.

Таким образом, кластер 1 содержит точки А, Е, G, а
кластер 2 — точки В, С, D, F, Н. Как только определятся
члены кластеров, может быть рассчитана сумма
квадратов ошибок:
Шаг 4, проход 1. Для каждого кластера вычисляется
центроид, и в него перемещается центр кластера.
Центроид для кластера 1: [(1 + 1 + 1)/3; (3 + 2 + 1)/3] =
(1; 2).
Центроид для кластера 2: [(3 + 4 + 5 + 4 + 2)/5; (3 + 3 + 3
+ 2 + 1)/5] = (3,6; 2,4).
Расположение кластеров и центроидов после первого
прохода алгоритма представлено на рис. 3

14.

5
4
y
3
2
3,6; 2,4
1; 2
1
0
0
1
2
3
4
5
6
На рис. начальные центры кластеров представлены
светлыми ромбами, а центроиды, вычисленные при
первом проходе алгоритма, — темными ромбами. Они и
станут новыми центрами кластеров, принадлежность
точек данных к которым будет определяться на втором
проходе.

15.

Шаг 3, проход 2. После того как найдены новые
центры кластеров, для каждой точки снова определяется
ближайший к ней центр и ее отношение к
соответствующему кластеру. Для это еще раз
вычисляются евклидовы расстояния между точками и
центрами кластеров. Результаты вычислений приведены
в табл.
Расстояни Расстоян Принадлеж
Точка
х
у
E
е от m1 ие от m2
ит
A
1
3
1,00
2,67
1
1
B
3
3
2,24
0,85
2
0,72
C
4
3
3,16
0,72
2
0,52
D
5
3
4,12
1,52
2
2,32
E
1
2
0,00
2,63
1
0
F
4
2
3,00
0,57
2
0,32
G
1
1
1,00
2,95
1
1
H
2
1
1,41
2,13
1
2
7,88

16.

Таким образом, кластер 1 будет содержать точки А,
Е, G, Н, а кластер 2 — В, С, D, F. Новая сумма
квадратов ошибок составит:
Вычисление показывает уменьшение ошибки
относительно начального состояния центров кластеров
(на первом проходе она составляла 36). Это говорит об
улучшении качества кластеризации, то есть о более
высокой «кучности» объектов относительно центра
кластера.

17.

Шаг 4, проход 2. Для каждого кластера вновь
вычисляется центроид, и центр кластера перемещается
в него.
Новый центроид для кластера 1: [(1 + 1 + 1 + 2)/4, (3
+ 2 + 1 +1)/4] = (1,25; 1,75).
Новый центроид для кластера 2: [(3 + 4 + 5 + 4)/4, (3
+ 3 + 3 + 2)/4] = (4; 2,75).
Расположение кластеров и центроидов после
второго прохода алгоритма представлено на рис. 4.

18.

5
4
y
3
2
4; 2,75
1,25; 1,75
1
0
0
1
2
3
4
5
6
По сравнению с предыдущим проходом центры
кластеров изменились незначительно.
Шаг 3, проход 3. Для каждой записи вновь ищется
ближайший к ней центр кластера. Полученные на данном
проходе расстояния представлены в табл. 3.

19.

Точка
х
A
B
C
D
E
F
G
H
у
1
3
4
5
1
4
1
2
3
3
3
3
2
2
1
1
Расстоя
ние от
1,27
2,15
3,02
3,95
0,35
2,76
0,79
1,06
3 подход
Расстоя Принадл
ние от
ежит
3,01
1
1,03
2
0,25
2
1,03
2
3,09
1
0,75
2
3,47
1
2,66
1
E
1,625
1,0625
0,0625
1,0625
0,125
0,5625
0,625
1,125
6,25
Следует отметить, что записей, сменивших кластер на
третьем проходе алгоритма, не было. Новая сумма
квадратов ошибок составит Е=6,25

20.

Таким образом, сумма квадратов ошибок
изменилась незначительно по сравнению с
предыдущим проходом.
Шаг 4, проход 3. Для каждого кластера вновь
вычисляется центроид, и центр кластера перемещается
в него. Но поскольку на данном проходе ни одна запись
не изменила своего членства в кластерах и положение
центроидов не поменялось, алгоритм завершает
работу.
m1=(1,25;1,75)
m2=(4;2,75)

21. Сети Кохонена

Термин «сети Кохонена» был введен в 1982 г.
финским ученым Тойво Кохоненом. Сети Кохонена
представляют собой разновидность
самоорганизующихся карт признаков, которые, в свою
очередь, являются специальным типом нейронных
сетей.
Основная цель сетей Кохонена — преобразование
сложных многомерных данных в более простую
структуру малой размерности. Таким образом, они
хорошо подходят для кластерного анализа, когда
требуется обнаружить скрытые закономерности в
больших массивах данных.
Сеть Кохонена состоит из узлов, которые
объединяются в кластеры. Наиболее близкие узлы
соответствуют похожим объектам, а удаленные друг от
друга — непохожим.

22.

Объекты имеют 3 признака (на самом деле их может
быть любое количество).
Теперь представим, что все эти три параметра
объектов представляют собой их координаты в
трехмерном пространстве. Тогда каждый объект можно
представить в виде точки в этом пространстве, что мы и
сделаем, в результате чего все точки попадут в куб
единичного размера (рис.).

23.

Взглянув на рисунок, можно увидеть, как
расположены объекты в пространстве, причем легко
заметить участки, где объекты группируются, т.е. у них
схожи параметры, значит, и сами эти объекты, скорее
всего, принадлежат одной группе. Но так легко можно
поступить только в случае, когда признаков немного.
Значит, надо найти способ, которым можно
преобразовать данную систему в простую для
восприятия, желательно двумерную систему так, чтобы
соседние в искомом пространстве объекты оказались
рядом и на полученной картинке. Для этого используем
самоорганизующуюся карту Кохонена. В первом
приближении ее можно представить в виде сети,
изготовленной из резины (рис.).

24.

25.

Берем один объект (точку в этом пространстве) и
находим ближайший к нему узел сети. После этого этот
узел подтягивается к объекту (т.к. сетка "резиновая", то
вместе с этим узлом так же, но с меньшей силой
подтягиваются и соседние узлы). Затем выбирается
другой объект (точка), и процедура повторяется. В
результате получим карту, расположение узлов которой
совпадает с расположением основных скоплений
объектов в исходном пространстве ( рис.3).
Теперь определяем, какие объекты у нас попали в
какие узлы карты. Это также определяется ближайшим
узлом – объект попадает в тот узел, который находится
ближе к нему. В результате всех этих операций объекты
со схожими параметрами попадут в один узел или в
соседние узлы.

26.

27.

В основе построения сети Кохонена лежит
конкурентное обучение, когда выходные узлы
(нейроны) конкурируют между собой за право стать
«победителем». Говорят, что нейроны избирательно
настраиваются для различных входных примеров или
классов входных примеров в ходе соревновательного
процесса обучения.

28.

Входные нейроны образуют входной слой сети, который
содержит по одному нейрону для каждого входного поля.
Как и в обычной нейронной сети, входные нейроны не
участвуют в процессе обучения. Их задача — передать
значения входных полей исходной выборки на нейроны
выходного слоя.
Каждая связь между
нейронами сети имеет
определенный вес,
который в процессе
инициализации карты
устанавливается для
каждой связи случайным
образом и значение
которого лежит в
интервале от 0 до 1.
Процесс обучения
заключается в
подстройке весов.

29.

Однако в отличие от большинства нейронных сетей
других видов сеть Кохонена не имеет скрытых слоев:
данные с входного слоя передаются непосредственно
на выходной слой. Нейроны выходного слоя
упорядочены в одномерную или двумерную решетку
прямоугольной или шестиугольной формы.
Для записи значения каждого поля передаются
через входные нейроны на каждый нейрон выходного
слоя. Предположим, что нормированные значения
возраста и дохода составляют 0,58 и 0,69
соответственно. Значение 0,58 поступает в сеть через
входной нейрон Возраст и передается на все нейроны
выходного слоя. Аналогично значение 0,69 поступает
через нейрон Доход и также распространяется на все
нейроны выходного слоя. Выходной нейрон, имеющий
наилучший итог по некоторой скоринговой функции,
объявляется нейроном-победителем.

30.

В процессе обучения и функционирования сеть KCN
выполняет три процедуры.
1. Конкуренция. Выходные нейроны конкурируют
между собой за то, чтобы векторы их весов оказались
как можно ближе к вектору признаков объекта.
Выходной нейрон, вектор весов которого имеет
наименьшее расстояние до вектора признаков объекта,
объявляется победителем.
2. Объединение. Победивший нейрон становится
центром некоторого соседства нейронов. Все нейроны
такого соседства называют награжденными правом
подстройки весов. Следовательно, несмотря на то что
нейроны в выходном слое не соединяются
непосредственно, они имеет тенденцию разделять
общие свойства благодаря соседству с нейрономпобедителем.

31.

3. Подстройка весов. Нейроны, соседние с
нейроном-победителем, участвуют в подстройке весов,
то есть в обучении. Веса этих нейронов
подстраиваются таким образом, чтобы в дальнейшем
улучшить значение функции. Иными словами, эти
нейроны увеличивают свой шанс стать победителем
для похожих наборов входных значений.

32. Обучение сети Кохонена

Сети Кохонена — это нейросетевые структуры, в
которых используется алгоритм обучения Кохонена.
Рассмотрим набор из m значений полей n-й записи
исходной выборки, который будет служить входным
вектором Хn = (хn1, хn2... хnm), и текущий вектор
весового выходного нейрона Wj= (w1j, w2j, … wmj). В
обучении по Кохонену нейроны, которые являются
соседями нейрона-победителя, подстраивают свои
веса, используя линейную комбинацию входных
векторов и текущих векторов весов:
(1)
где 0 < η < 1 — коэффициент скорости обучения.

33. Алгоритм Кохонена включает шаги:

1. Инициализация. Для нейронов сети устанавливаются
начальные веса, а также задаются начальная скорость
обучения η и радиус обучения R.
η – скорость, с которой происходит обучение
распределение весов.
R – линейное расстояние от любого нейрона до
другого любого. В начале задается достаточно
большим, затем 1 или меньше.
2. Возбуждение. На входной слой подается вектор
воздействия Хn, содержащий значения входных полей
некоторой записи обучающей выборки.
3. Конкуренция. Для каждого выходного нейрона
вычисляется скоринговая функция D(Wj, Хn). Например,
для евклидова расстояния она будет равна:

34.

Иными словами, рассчитывается расстояние между
векторами весов всех нейронов выходного слоя и
вектором входного воздействия. Тот нейрон, для
которого расстояние окажется наименьшим, и будет
нейроном-победителем.
4. Объединение. Определяются все нейроны,
расположенные в пределах радиуса обучения
относительно нейрона-победителя.
5. Подстройка. Производится подстройка весов
нейронов в пределах радиуса обучения в соответствии
с формулой (2). При этом веса нейронов, ближайших к
нейрону-победителю, подстраиваются в сторону его
вектора весов (рис.).
6. Коррекция. Изменяются радиус и параметр
скорости обучения в соответствии с заданным законом.

35.

36. Пример работы сети Кохонена

Имеется множество данных; в нем содержатся атрибуты
Возраст и Доход. Для решения задачи будем использовать
сеть Кохонена, содержащую 2x2 нейрона в выходном слое
(рис.).
Установим радиус обучения R = О, поэтому возможность
подстройки весов будет предоставлена только нейронупобедителю. Коэффициент скорости обучения установим η =
0,5.
Выберем случайным образом начальные веса нейронов:
w11 = 0,9; w21 = 0,8; w12 = 0,9; w22 = 0,2; w13 = 0,1; w23 =
0,8; w14 = 0,1; w24 = 0,2.
Набор записей исходной выборки

1
2
3
4
xi1
x11 = 0,8
х21 = 0,8
x31 = 0,2
Х41 = 0,1
x1j
x12 = 0,8
х22 = 0,1
х32 = 0,8
x42 = 0,8
Описание
Пожилой человек с высоким доходом
Пожилой человек с низким доходом
Молодой человек с высоким доходом
Молодой человек с низким доходом

37.

38.

Для первого входного вектора X1 = (0,8; 0,8) выполним
такие действия, как конкуренция, объединение и
подстройка.
Конкуренция. Вычислим евклидово расстояние между
входным вектором X1 и векторами весов всех четырех
нейронов выходного слоя.

39.

Таким образом, для первой записи победителем
стал нейрон с номером 1, для которого расстояние
между вектором его весов W1 = (0,9; 0,8) и входным
вектором X1 = (0,8; 0,8) оказалось минимальным среди
всех нейронов.
Объединение. В данном примере установлен
радиус обучения R = 0, поэтому уровень объединения
между выходными нейронами также равен 0.
Соответственно, только нейрон-победитель будет
«награжден» возможностью подстройки своего вектора
весов. В связи с этим мы не будем рассматривать этот
этап в дальнейшем.
Подстройка. Поскольку для первого нейрона j = 1,
для первой записи п = 1 при коэффициенте скорости
обучения л = 0,5 в соответствии с правилом 1 получим:

40.

Тогда для признака Возраст:
Тогда для признака Доход:
Веса «подталкиваются» в направлении значений входных полей
записи, то есть w11 и связи нейрона-победителя,
соответствующей признаку Возраст, изначально был равен 0,9
но в результате подстройки изменился в сторону
нормализованного значения Возраст первой записи, равного
0,8. Поскольку коэффициент скорости обучения η = 0,5,
величина подстройки равна половине расстояния между
текущим весом и значением поля. Данная подстройка позволит
нейрону 1 стать более успешным в «захвате» записей,
содержащих информацию о пожилых людях с высоким
доходом.

41.

Произведем аналогичные действия для второго
входного вектора Х2 = (0,8; 0,1).
Конкуренция.

42.

Таким образом, для второй записи победителем
стал нейрон 2. Обратим внимание на то, что он выиграл
соревнование, поскольку вектор его весов W2 = (0,9;
0,2) ближе к входному вектору второй записи Х2 = (0,8;
0,1), чем векторы весов других нейронов. Можно
предположить, что второй нейрон «собирает» записи, в
которых содержится информация о пожилых людях с
низким доходом.
Подстройка весов. Поскольку победил второй
нейрон, то j = 2, и для второй записи n = 2 при
коэффициенте скорости обучения η = 0,5 в
соответствии с формулой 1 получим:

43.

Тогда для признака Возраст:
Тогда для признака Доход:
Как можно увидеть, веса вновь корректируются в
направлении значений входных полей записи. Вес w12
подстраивается так же, как и вес w11 для первой
записи, поскольку текущие веса и значения поля
Возраст для обеих записей одни и те же.
Вес w22 для признака Возраст уменьшился,
поскольку значение поля Доход для второй записи
ниже, чем текущий вес связи Доход нейронапобедителя. Благодаря данной подстройке нейрон 2
сможет лучше «захватывать» записи, содержащие
информацию о пожилых людях с низким доходом.

44.

Теперь выполним ту же последовательность
действий для третьей записи, где входной вектор Х3 =
(0,2; 0,9).
Конкуренция.

45.

Теперь победителем стал нейрон 3, поскольку
вектор его весов W3 = (0,1; 0,8) оказался ближе к
входному вектору третьей записи Х3 = (0,2; 0,9), чем
векторы весов остальных нейронов. Поэтому можно
ожидать, что нейрон 3 станет началом кластера для
молодых людей с высоким доходом.
Подстройка весов. Поскольку победил третий
нейрон, то j = 3, и для третьей записи n = 3 при
коэффициенте скорости обучения η = 0,5 в
соответствии с формулой 1 получим:

46.

И наконец выполним ту же последовательность
действий для входного вектора четвертой записи Х4 =
(0,1; 0,1).
Конкуренция.

47.

Теперь победителем стал нейрон 4, поскольку
вектор его весов W4 = (0,1; 0,2) оказался ближе к
входному вектору 3-й записи Х4 = (0,1; 0,1), чем
векторы весов остальных нейронов. Поэтому можно
ожидать, что нейрон 4 станет основой кластера для
молодых людей с низким доходом.
Подстройка весов. Поскольку победил четвертый
нейрон, то j = 4, и для четвертой записи n = 4 в
соответствии с формулой (2) получим:

48.

Таким образом, можно увидеть, что четыре
выходных нейрона представляют четыре различных
кластера, если выборка данных содержит записи,
схожие с записями из табл. 7.6. Эти кластеры
представлены в табл. 7.7.
Конечно, кластеры, открытые сетью Кохонена в
данном примере, достаточно очевидны. Однако здесь
хорошо проиллюстрированы основы работы KCN с
использованием конкуренции между нейронами и
алгоритма обучения Кохонена.

49.



класт
ера
1
2
3
4
Описание
нейр
она
1
2
3
4
Пожилой человек с высоким доходом
Пожилой человек с низким доходом
Молодой человек с высоким доходом
Молодой человек с низким доходом

50. Карты Кохонена

Самоорганизующиеся карты признаков не только
являются эффективным алгоритмом кластеризации, но
и позволяют представлять ее результаты в виде
двумерных карт, где расстояния между объектами
соответствуют расстояниям между их векторами в
многомерном пространстве, а сами значения признаков
отображаются различными оттенками.
Для отображение глубины выраженности признака
используется специальная цветовая гамма: чем выше
или глубже степень выраженности, тем более темным
цветом он окрашивается. Таким образом, двумерная
карта позволяет показывать три измерения.

51.

В большинстве практических приложений
приходится иметь дело с данными, для которых
размерность пространства признаков больше, чем два.

52.

Методика построения карты
Чем отличаются понятия «сеть Кохонена» и «карта
Кохонена»?
1. сеть Кохонена используется только для
кластеризации объектов, а визуализация результатов
будет производиться с помощью таблиц или диаграмм.
Карта Кохонена позволяет визуализировать результаты
кластеризации, в том числе многомерные.
2. в сети число выходных нейронов соответствует
количеству кластеров, которое должно быть получено,
а в карте — количеству сегментов, из которого будет
состоять карта, или, иными словами, размеру карты.
Из вышесказанного можно сделать вывод, что карта
Кохонена — это разновидность сети Кохонена.

53.

Карта Кохонена состоит из сегментов прямоугольной
или шестиугольной формы, называемых ячейками. Каждая
ячейка связана с определенным выходным нейроном и
представляет собой «сферу влияния» данного нейрона.
Объекты, векторы признаков которых оказываются
ближе к вектору весов данного нейрона, попадают в
ячейку, связанную с ним. Следовательно, если объекты на
карте расположены близко друг к другу, то и векторы
признаков этих объектов близки, и наоборот.

54.

Хотя расстояние между объектами позволяет сделать
выводы о степени их сходства или различия, также важна
информация о том, в чем проявляется это сходство и
различие, по каким признакам объекты различаются в
наибольшей степени, а по каким — в наименьшей и т. д.
Именно специальная раскраска помогает получить ответы
на эти вопросы, выполняя функцию третьего измерения.
Идея состоит в том, что каждой ячейке на карте
назначается цвет в соответствии со значениями признаков
объектов в ней.
Таким образом, есть два важных фактора: положение
объекта на карте (расстояние до других объектов) и цвет
ячейки.
При данном способе визуализации на одной карте
можно использовать расцветку только по одному признаку,
то есть для значений нескольких признаков строятся
отдельные карты.

55.

В зависимости от значения признака определяется
цвет для всех объектов в ячейке. Например, пусть в
некоторую ячейку попали всего два объекта с признаками
Возраст и Доход, для которых эти значения будут (45; 21) и
(34; 14).
Строятся две карты, и цвет ячейки определяется по
среднему в них. Для признака Возраст он будет
соответствовать (45 + 34)/2 = 39,5, то есть серому оттенку
(в цветной палитре — зеленому), а для признака Доход —
(21 + 14)/2 = 17,5, то есть белому оттенку (в цветной
палитре — желто-зеленому). Заметим, что можно не
усреднять значения признака, а брать минимальное или
максимальное из них.

56.

Ячейки бывают прямоугольной и шестиугольной формы.
English     Русский Rules