Участник:Антон Тодуа/Partitioning Around Medoids (PAM): различия между версиями

Материал из Алговики
Перейти к навигации Перейти к поиску
Строка 14: Строка 14:
  
 
Для дальнейшего описания алгоритма введём следующие обозначения:
 
Для дальнейшего описания алгоритма введём следующие обозначения:
* <math>U</math> - множество объектов кластеризации, не выделенных в качестве медоидов
+
* <math>U</math> - множество объектов кластеризации, не выбранных в качестве медоидов
* <math>S</math> - множество объектов кластеризации, выделенных в качестве медоидов
+
* <math>S</math> - множество объектов кластеризации, выбранных в качестве медоидов
 
* <math>D_{i}</math> - непохожесть <math>i</math>-го объекта на ближайший к нему медоид
 
* <math>D_{i}</math> - непохожесть <math>i</math>-го объекта на ближайший к нему медоид
 
* <math>E_{i}</math> - непохожесть <math>i</math>-го объекта на второй ближайший к нему медоид
 
* <math>E_{i}</math> - непохожесть <math>i</math>-го объекта на второй ближайший к нему медоид
  
Выполнение алгоритма состоит из двух
+
Перед выполненением алгоритма множество <math>U</math> содержит все объекты кластеризации, а множество <math>S</math> - пусто. Числа <math>D_{i}</math> и <math>E_{i}</math> могут измениться при изменениях в множествах <math>U</math> и <math>S</math>.
 +
 
 +
Выполнение алгоритма включает в себя подготовительную стадию BUILD и итерационную стадию SWAP.
 +
 
 +
 
 +
'''Стадия BUILD''' (стоит начальное множество медоидов):
 +
 
 +
1. Добавить в множество <math>S</math> объект, для которого сумма непохожести на все остальные объекты минимальна (самый центральный объект):
 +
<math>S = \{ arg\min_{i \in U} \sum_{j \in U} d_{ij} \}</math>
 +
 
 +
2. Для каждого объекта <math>i \in U</math> выполнить шаги 3-5
 +
 
 +
3. Для каждого объекта <math>j \in U - \{i\}</math> вычислить <math>D_{j}</math> и выполнить шаг 4
 +
 
 +
4. Положить <math>C_{ij} = max\{ D_{j} - d_{ij}, 0 \}</math>, мера улучшения кластеризации
 +
 
 +
5. Положить <math>g_{i} = \sum_{j \in U - \{i\}} C_{ij}</math>, улучшение от выбора <math>i</math>-го объекта в качестве медоида
 +
 
 +
6. Выбрать объект, максимизирующий величину <math>g_{i}</math> в качестве медоида:
 +
:<math>
 +
k = arg\min_{i \in U} \sum_{j \in U} d_{ij}
 +
U = U - \{k\}
 +
S = S + \{k\}
 +
</math>
 +
 
 +
7. Если множество <math>S</math> содержит менее <math>K</math> объектов (медоидов) перейти к шагу 2
  
 
=== Вычислительное ядро алгоритма ===
 
=== Вычислительное ядро алгоритма ===

Версия 01:24, 11 октября 2016

Основные авторы описания: Тодуа А.Р., Гусева Ю.В.

1 Свойства и структура алгоритма

1.1 Общее описание алгоритма

Самый распространённый вариант реализации k-medoids называется PAM (Partitioning Around Medoids). Он представляет собой «жадный» алгоритм с очень неэффективной эвристикой. Данный метод был предложен Кауфманом в 1987 году.

Алгоритм начинается с выбора набора данных, состоящих из медоидов и остальных объектов. После выбора k произвольных объектов в качестве медоидов, необходимо для каждой пары {x_i} и {m_k} вычислить значение S({x_{i}}{m_{k}}). По ходу выполнения алгоритма происходит итеративная замена одного из медоидов x_i одним из остальных объектов m_k, если посчитанное ранее значение S меньше нуля. Процесс будет повторятся, пока медоиды не стабилизируются.

1.2 Математическое описание алгоритма

Для заданных входных данных, алгоритм выделяет K объектов - медоидов (medoids) из N объектов кластеризации. Задачей алгоритма является минимизация средней непохожести (average dissimilarity) объектов и ближайшего к ним медоида. Без ограничения общности можно минимизировать сумму непохожестей объектов на ближайший к ним медоид.

Для дальнейшего описания алгоритма введём следующие обозначения:

  • U - множество объектов кластеризации, не выбранных в качестве медоидов
  • S - множество объектов кластеризации, выбранных в качестве медоидов
  • D_{i} - непохожесть i-го объекта на ближайший к нему медоид
  • E_{i} - непохожесть i-го объекта на второй ближайший к нему медоид

Перед выполненением алгоритма множество U содержит все объекты кластеризации, а множество S - пусто. Числа D_{i} и E_{i} могут измениться при изменениях в множествах U и S.

Выполнение алгоритма включает в себя подготовительную стадию BUILD и итерационную стадию SWAP.


Стадия BUILD (стоит начальное множество медоидов):

1. Добавить в множество S объект, для которого сумма непохожести на все остальные объекты минимальна (самый центральный объект): S = \{ arg\min_{i \in U} \sum_{j \in U} d_{ij} \}

2. Для каждого объекта i \in U выполнить шаги 3-5

3. Для каждого объекта j \in U - \{i\} вычислить D_{j} и выполнить шаг 4

4. Положить C_{ij} = max\{ D_{j} - d_{ij}, 0 \}, мера улучшения кластеризации

5. Положить g_{i} = \sum_{j \in U - \{i\}} C_{ij}, улучшение от выбора i-го объекта в качестве медоида

6. Выбрать объект, максимизирующий величину g_{i} в качестве медоида:

k = arg\min_{i \in U} \sum_{j \in U} d_{ij} U = U - \{k\} S = S + \{k\}

7. Если множество S содержит менее K объектов (медоидов) перейти к шагу 2

1.3 Вычислительное ядро алгоритма

1.4 Макроструктура алгоритма

1.5 Схема реализации последовательного алгоритма

1.6 Последовательная сложность алгоритма

При описании последовательной сложности будем считать, что выполняется кластеризация N объектов для K кластеров. В соответствии с приведённым математическим описанием алгоритм включает в себя подготовительную стадию BUILD и итерационную стадию SWAP.

Для выполнения фазы BUILD требуется:

  • Около K * N^2 операций сложения (вычитания),
  • Около K * N^2 операций сравнения (определения максимума/минимума).

Для выполнения одной итерации фазы SWAP требуется:

  • Около K * N^2 операций сложения (вычитания),
  • Около K * N^2 операций сравнения (определения максимума/минимума).

Можно получить точное число приведённых выше операций, но оно практически не будет отличаться от представленных оценок. В то же время приведённые оценки способствуют лучшему восприятию последовательной сложности алгоритма.

При классификации по последовательной сложности, таким образом, данный алгоритм можно отнести к алгоритмам с кубической сложностью.

1.7 Информационный граф

1.8 Ресурс параллелизма алгоритма

1.9 Входные и выходные данные алгоритма

Входные данные:

1. Матрица непохожести объектов кластеризации (dissimilarity matrix) D (элементы d_{ij}). Дополнительные ограничения:

  • D – симметрическая матрица порядка N, т.е. d_{ij}= d_{ji}, i, j = 1, \ldots, N
  • D – содержит нули на главной диагонали, т.е. d_{ii}= 0, i = 1, \ldots, N

2. K - число кластеров, на которое следует разбить объекты кластеризации

Объём входных данных: \frac{N (N - 1)}{2} (в силу симметричности и нулевой главной диагонали достаточно хранить только над/поддиагональные элементы). В разных реализациях эта экономия хранения может быть выполнена разным образом.

Выходные данные: N чисел k_{1}, k_{2}, \ldots, k_{N}, где k_{i} - целое число, соответствующее кластеру i-го объекта.

Выходными данными алгоритма также можно считать K чисел, задающих номера объектов кластеризации, выделенных в качестве медоидов (medoids). Однако в большинстве случаев требуется именно определение кластеров объектов, а не поиск соответствующих медоидов.

Объём выходных данных: N (кластеры объектов кластеризации)

1.10 Свойства алгоритма

2 Программная реализация алгоритма

2.1 Масштабируемость алгоритма и его реализации

2.2 Существующие реализации алгоритма

3 Литература