Участник:Мария Готман/Алгоритм кластеризации, основанный на максимизации ожидания
![]() | Эта работа успешно выполнена Преподавателю: в основное пространство, в подстраницу Данное задание было проверено и зачтено. Проверено Dexter и Algoman. |
Авторы описания: Готман М.Л., Лукашкина Ю.Н.
Содержание
- 1 ЧАСТЬ. Свойства и структура алгоритмов
- 1.1 Общее описание алгоритма
- 1.2 Математическое описание алгоритма
- 1.3 Вычислительное ядро алгоритма
- 1.4 Макроструктура алгоритма
- 1.5 Схема реализации последовательного алгоритма
- 1.6 Последовательная сложность алгоритма
- 1.7 Информационный граф
- 1.8 Ресурс параллелизма алгоритма
- 1.9 Входные и выходные данные алгоритма
- 1.10 Свойства алгоритма
- 2 ЧАСТЬ. Программная реализация алгоритма
- 2.1 Особенности реализации последовательного алгоритма
- 2.2 Локальность данных и вычислений
- 2.3 Возможные способы и особенности параллельной реализации алгоритма
- 2.4 Масштабируемость алгоритма и его реализации
- 2.5 Динамические характеристики и эффективность реализации алгоритма
- 2.6 Выводы для классов архитектур
- 2.7 Существующие реализации алгоритма
- 3 Литература
1 ЧАСТЬ. Свойства и структура алгоритмов
1.1 Общее описание алгоритма
Задача кластеризации — это задача разбиения заданной входной выборки объектов на непересекающиеся подмножества, называемые кластерами, так, чтобы каждый кластер состоял из схожих объектов, а объекты разных кластеров существенно отличались.
Для решения этой задачи можно использовать, например, метод максимизации ожидания, также известный как EM-алгоритм (англ. expectation-maximization) [1]. В таком случае делается предположение, что входные данные — смесь многомерных нормальных распределений, соотвественно отдельный кластер — это одна компонента смеси. Предполагается, что количество кластеров является входным параметром алгоритма (существуют модификации EM-алгоритма, которые автоматически находят число кластеров, но они не рассматриваются в данной статье). Результат работы EM-алгоритма — веса кластеров и найденные параметры нормальных распределений для каждого кластера: вектора математических ожиданий и матрицы ковариации.
Алгоритм EM кластеризации основан на итеративном выполнении двух последовательных шагов: E-шага и M-шага. На E-шаге вычисляются вспомогательные (скрытые) переменные, которые характеризуют апостериорную вероятность того, что определенный обучающий объект получен из фиксированной компоненты смеси. На M-шаге с помощью вычисленных скрытых переменных производится обновление параметров смеси: по определённым формулам пересчитываются веса кластеров, их математические ожидания и матрицы ковариаций.
Стоит отметить, что на работу EM-алгоритма значительно влияет начальное приближение его параметров. При неудачной инициализации алгоритм может не сойтись или сойтись в локальный экстремум.
В данной статье рассматривается частный случай EM-алгоритма, который работает с двумерными входными данными.
1.2 Математическое описание алгоритма
Рассматривается смесь многомерных нормальных распределений p_j(x) = N(x;\mu_j, \Sigma_j) = \frac1{(2\pi)^{d/2}\sqrt{|\Sigma_j|}} \exp \biggl(-\frac{1}{2}(x - \mu_j) \Sigma_j^{-1} (x - \mu_j)^T\biggr) с весами w_j: p(x)=\sum_{j=1}^kw_jp_j(x), \sum_{j=1}^kw_j =1, w_j \ge 0.
На вход алгоритму подаются m объектов, каждый из которых имеет d признаков, в виде матрицы объектов-признаков X \in \R^{m \times d} и k — количество кластеров.
Алгоритм кластеризации, основанный на максимизации правдоподобия, итеративно выполняет два шага: E-шаг и M-шаг. Идея алгоритма заключается в введении матрицы скрытых переменных G, где g_{ij} \equiv P(\theta_j |x_i) обозначает вероятность принадлежности i-го объекта j-му кластеру.
На Е-шаге вычисляется ожидаемое значение скрытых переменных, на М-шаге выполняется максимизация логарифма полного правдоподобия, результатом которой являются новые значения параметров модели.
На выходе получаем набор параметров модели для каждого кластера \Theta = (w_1,...,w_k;\;\mu_1,...,\mu_k;\;\Sigma_1,...,\Sigma_k), где w_j — вес j-го кластера в смеси нормальных распределений, \mu_j — математическое ожидание j-ой компоненты смеси, \Sigma_j — матрица ковариации j-ой компоненты смеси.
E-шаг:
На E-шаге вычисляется значение скрытых переменных g_{ij} по текущему приближению параметров \Theta.
g_{ij} = \frac{w_jp_j(x_i)}{\sum_{s=1}^k w_sp_s(x_i)}, что интерпретируется как вероятность принадлежности объекту x_i к j-ому кластеру.
M-шаг:
Будем максимизировать логарифм полного правдоподобия:
Q(\Theta) = \ln\prod_{i=1}^mp(x_i) = \sum_{i=1}^m\ln\sum_{j=1}^kw_jp_j(x_i) \rightarrow \max_{\Theta}, при условии \sum_{j=1}^kw_j=1
Решением оптимизационной задачи являются формулы для пересчета параметров:
w_j = \frac1m\sum_{i=1}^m g_{ij},
\mu_j = \frac1{mw_j}\sum_{i=1}^m g_{ij}x_i,
\Sigma_j = \frac1{mw_j}\sum_{i=1}^m g_{ij}(x_i - \mu_j)(x_i - \mu_j)^T,\; j = 1, \dots, k
1.3 Вычислительное ядро алгоритма
Вычислительное ядро алгоритма представляет собой итерационное вычисление всех параметров модели, независимое по m объектам выборки X. На каждой итерации алгоритма на Е-шаге пересчитывается значение скрытых переменных, на M-шаге пересчет параметров модели с учетом скрытых переменных.
1.4 Макроструктура алгоритма
Как записано в описании ядра алгоритма, основную часть метода составляют вычисления элементов матрицы G на E шаге, и пересчет параметров \Theta на M-шаге.
1.5 Схема реализации последовательного алгоритма
- Инициализация параметров
- for iter = 1 : max_iterations
- [E-шаг]
- вычисление \Sigma_j^{-1} и \frac1{(2\pi)^{d/2}\sqrt{|\Sigma_j|}}, j = 1 : k
- вычисление g_{ij},\;i = 1 : m, \; j = 1 : k
- вычисление LL_i (логарифм правдоподобия), \;i = 1 : m
- [M-шаг]
- вычисление \tilde w_j = \sum_{i=1}^m g_{ij}, \; j = 1 : m
- вычисление \tilde \mu_j = \sum_{i=1}^m g_{ij}x_i,\; j = 1 : k
- вычисление \tilde \Sigma_j = \sum_{i=1}^m g_{ij}(x_i - \mu_j)^T(x_i - \mu_j),\; j = 1 : k
- нормировка w_j = \frac{\tilde w_j}{m}, \mu_j = \frac{\tilde \mu_j}{w_j}, \tilde \Sigma_j = \frac{\tilde \Sigma_j}{w_j}, \;j = 1 : k
- вычисление изменения логарифма правдоподобия\Delta LL = fabs(\sum_{i=1}^m LL^{iter}_i - \sum_{i=1}^m LL^{iter - 1}_i)
- if (\Delta LL \lt \varepsilon) then break;
- end for
1.6 Последовательная сложность алгоритма
E-шаг:
- вычисление обратной матрицы \Sigma_j^{-1}, j = 1 : k при фиксированном j для двумерного случая по явным формулам имеет сложность O(d^2), для всех кластеров — O(d^2k)
- вычисление g_{ij}, i = 1 : m, j = 1 : k при фиксированных i, j имеет сложность O(d), сложность вычисления матрицы G — O(dmk)
- вычисление LL_i, i = 1 : m при фиксированном i имеет сложность O(k), для всех объектов имеет сложность O(mk),
M-шаг:
- вычисление w_j, j = 1 : k при фиксированном j имеет сложность O(m), для весов всех кластеров — O(mk)
- вычисление \mu_j, j = 1 : k при фиксированном j имеет сложность O(dm), для всех кластеров — O(dmk)
- вычисление \Sigma_j, j = 1 : k при фиксированном j имеет сложность O(d^2m), для всех кластеров — O(d^2mk)
- нормировка w, \mu_j = \frac{\mu_j}{w_j}, \Sigma_j = \frac{\Sigma_j}{w_j}, j = 1 : k имеет сложность O(k), O(dk), O(d^2k)
- вычисление изменения логарифма правдоподобия\Delta LL имеет сложность O(1)
Сложность алгоритма на одной итерации:
O(k(d^2+dm+m+m+dm+d^2m+1+d+d^2)) = O(d^2mk), так как мы рассматриваем задачу для двумерного случая, то есть d=2, множитель d^2 можно отнести в константу, итоговая сложность вычисления на одной итерации O(mk).
Для n итераций итоговая сложность алгоритма будет равна:
O(mkn), где m — число объектов, k — число кластеров, n — число итераций.
1.7 Информационный граф
Опишем граф алгоритма для следующих входных данных: m = 3, то есть 3 входных объекта.
На рис.1 показана макроструктура EM-алгоритма. Входными данными в таком случае являются матрица X \in \R^{3 \times d}, число кластеров = K, число признаков =d.
На шаге \mathbf{init} происходит инициализация начальных приближений параметров модели и затем итеративное повторение \mathbf{E} и \mathbf{M} шагов алгоритма.
E-шаг. На рис.2 детально изображена схема E-шага. Входные параметры x_1,\; x_2,\; x_3 \in \R^{1 \times d} являются строчками входной матрицы X, также на вход подаются текущие приближения векторов средних значений (\mu_1, \dots, \;\mu_K), матриц ковариаций (\Sigma_1, \dots, \Sigma_K) и весов w.
Вершинами \mathbf{eI} обозначена операция нахождения обратной матрицы \Sigma_j^{-1},\; j = 1,\dots,K. Вершины группы \mathbf{eS} обозначают вычитание векторов x_i - \mu_j,\; i = 1,2,3; \; j = 1,\dots,K. Салатовые узлы графа \mathbf{eE} обозначают вычисление ненормированного значения g_{ij}, \;i = 1,2,3;\;j=1,\dots,K по формулам из раздела описания алгоритма. Далее выход вершин этой группы подаётся на вход вершинам \mathbf{eN}, которые обозначают нормировку, затем в \mathbf{eL} происходит подсчет логарифма правдоподобия. На выходе этого графа получаются скрытые переменные g_{ij} и логарифм правдоподобия LL.
M-шаг. На рисунке 3 изображена схема M-шага. Входными параметрами являются: исходные объекты x_1,\; x_2,\; x_3 \in \R^{1 \times d}, скрытые переменные g_{11},\;g_{21},\;g_{31},\;\mu_1 для пересчета параметров первого кластера и g_{1K},\;g_{2K},\;g_{3K},\;\mu_K — для K-ого кластера.
Вершина \mathbf{m}\boldsymbol{\mu} обозначает подсчет слагаемого математического ожидания для одного объекта, затем на шаге \mathbf{mS_1} происходит суммирование слагаемых, и, наконец, на шаге \mathbf{mN_1} нормировка математического ожидания, выходом являются \mu_1,\dots,\;\mu_K. Вершина \mathbf{m}\boldsymbol{\Sigma} обозначает подсчет слагаемого матрицы ковариации для одного объекта, затем на шаге \mathbf{mS_2} происходит суммирование слагаемых, и, наконец, на шаге \mathbf{mN_2} нормировка матрицы ковариации, выходом являются \Sigma_1,\;\dots,\;\Sigma_K. Операция \mathbf{mS_3} обозначает вычисление ненормированного веса для одного шага, затем при выполнении \mathbf{mN_3} происходит нормировка весов, выходом являются w_1,\dots,\;w_K.
На рис.1 показана структура ЕM-алгоритма для кластеризации, на рис.2 — структура E-шага и на рис.3 — структура M-шага.
1.8 Ресурс параллелизма алгоритма
Как видно из информационного графа, возможно распараллеливание как по кластерам, так и по объектам. Однако, в реальных задачах число кластеров много меньше числа объектов, поэтому распараллеливание по кластерам нецелесообразно.
В данной статье рассматривается вариант распараллеливания по объектам. Стоит отметить, что важно корректно организовать работу с параметрами модели (матрицами ковариаций, средними значениями и весами), чтобы не произошло ситуации гонки за ресурсами [2].
1.9 Входные и выходные данные алгоритма
Входные данные: плотная вещественная матрица объектов-признаков X \in \R^{m \times d} и количество кластеров k, где m — количество объектов, d — количество кластеров.
Объём входных данных: m \times d + 1.
Выходные данные: вектор весов w \in \R^{k \times 1}, \;\;k векторов математических ожиданий \mu_j \in \R^{d \times 1}, \;\;k матриц ковариации \Sigma \in \R^{d \times d}
Объём выходных данных: k \times (d \times d + d + 1)
1.10 Свойства алгоритма
EM-алгоритм не является устойчивым, результат его работы сильно зависит от начальных приближений параметров. При неудачном выборе начальных приближений алгоритм может не сойтись или сойтись в локальный экстремум.
Также, алгоритм не является детерминированным. Так как в начале работы алгоритма происходит инициализация начальных параметров случайным образом (с учетом положительной определенности и симметричности матрицы ковариации), он не может быть детерминирован.
Алгоритм сбалансирован по E и M шагам, затраты на выполнение этих этапов примерно одинаковы.
2 ЧАСТЬ. Программная реализация алгоритма
2.1 Особенности реализации последовательного алгоритма
В данном разделе приведем код реализации последовательного алгоритма.
double_vector em_algo::expectation_step(double_matrix& features)
{
long n_objects = features.size1();
int n_clusters = parameters.sigmas.size();
double pi = boost::math::constants::pi<double>();
// precalculate inverse matrices and dets
std::vector<double_matrix> sigmas_inverted(n_clusters);
std::vector<double> norm_distribution_denominator(n_clusters);
for (int i = 0; i < n_clusters; ++i)
{
double_matrix sigma_inverted(parameters.sigmas[i].size1(), parameters.sigmas[i].size2());
double det = InvertMatrix(parameters.sigmas[i], sigma_inverted);
if (det == 0)
{
std::cerr << "Matrix can not be inverted\n";
exit(1);
}
norm_distribution_denominator[i] = sqrt(pow(2 * pi, parameters.n_features) * det);
sigmas_inverted[i] = sigma_inverted;
}
hidden_vars = double_matrix(n_objects, n_clusters);
double_vector log_likelihood(n_objects, 0);
for (auto i = 0; i < n_objects; ++i)
{
double_matrix_row x(features, i);
double norm_value = 0;
for (auto j = 0; j < n_clusters; ++j)
{
double_matrix_column current_means(parameters.means, j);
double_vector x_centered = x - current_means;
double exp_power = -0.5 * inner_prod(prod(x_centered, sigmas_inverted[j]), x_centered);
hidden_vars(i, j) = parameters.weights(j) * exp(exp_power) / norm_distribution_denominator[j];
norm_value += hidden_vars(i, j);
}
double_matrix_row hidden_vars_row(hidden_vars, i);
if (norm_value != 0)
{
hidden_vars_row = hidden_vars_row / norm_value;
log_likelihood(i) = log(inner_prod(hidden_vars_row, parameters.weights));
}
}
return log_likelihood;
}
void em_algo::maximization_step(double_matrix& features)
{
int n_objects = features.size1();
double_vector w = double_vector(n_clusters, 0.0);
double_matrix means = double_matrix(parameters.n_features, n_clusters, 0.0);
std::vector<double_matrix> sigmas;
for (int j = 0; j < n_clusters; ++j)
sigmas.push_back(double_matrix(parameters.n_features, parameters.n_features, 0.0));
for (int i = 0; i < n_objects; ++i)
{
double_matrix_row x_i = row(features, i);
for (int j = 0; j < n_clusters; ++j)
{
double g = hidden_vars(i, j);
w(j) += g;
double_matrix_column single_mean = column(means, j);
single_mean += g * x_i;
double_vector x_centered = x_i - column(parameters.means, j);
for (int k = 0; k < parameters.n_features; ++k)
for (int l = 0; l < parameters.n_features; ++l)
sigmas[j](k, l) = sigmas[j](k, l) + g * x_centered(k) * x_centered(l);
}
}
// update weights
parameters.weights = w / n_objects;
for (int j = 0; j < n_clusters; ++j) {
double weight = w(j);
// update means
double_matrix_column means_old = column(parameters.means, j);
double_matrix_column means_new = column(means, j);
means_old = means_new / weight;
// update sigmas
parameters.sigmas[j] = sigmas[j] / weight;
for (int k = 0; k < parameters.n_features; ++k)
parameters.sigmas[j](k, k) = parameters.sigmas[j](k, k) + tol;
}
}
bool em_algo::is_likelihood_stabilized(double_vector likelihood, double_vector previous_likelihood)
{
double likelihood_diff = sum(likelihood) - sum(previous_likelihood);
return fabs(likelihood_diff) < tol;
}
model em_algo::process(double_matrix& features, int max_iterations)
{
int iteration = 0;
double_vector likelihood, previous_likelihood;
while (iteration++ < max_iterations && (iteration <= 2 || !is_likelihood_stabilized(likelihood, previous_likelihood)))
{
previous_likelihood = likelihood;
likelihood = expectation_step(features);
maximization_step(features);
}
return parameters;
}
Возможной реализацией является перестановка местами циклов по объектам и по кластерам на E и М шаге. В данном случае внешний цикл проходит по объектам, так как подразумевается дальнейшая реализации распараллеливания по объектам. При реализации только последовательного алгоритма более понятной версией будет реализация внешнего цикла по кластерам, и внутреннего по объектам, но такая реализация увеличит число обращений в память и общее время работы алгоритма.
2.2 Локальность данных и вычислений
2.3 Возможные способы и особенности параллельной реализации алгоритма
2.4 Масштабируемость алгоритма и его реализации
Для проведения экспериментов по масштабируемости были выбраны следующие параметры алгоритма: были зафиксированы число кластеров k = 4 , и, также, было зафиксировано ядро рандомизации, чтобы избавиться от случайности различного выбора начального приближения параметров. Для показательности результатов условие досрочного завершения работы алгоритма в случае стабилизации логарифма правдоподобия игнорировалось, и для каждого запуска проводилось 50 итераций EM-алгоритма.
Для экспериментов было сгенерировано 20 выборок разного размера: от 40000 объектов до 200000 с шагом в 10000. Для каждой выборки время работы алгоритма усреднялось по нескольким запускам, чтобы избежать выбросов.
Для работы с многопоточностью использовалась библиотека OpenMP. С помощью нее были распараллелены основные циклы по объектам на E и M шаге.
Эксперименты проводились на компьютере с процессором Intel(R) Core(TM) i7-5820K @ 3.30GHz, который поддерживает до 12ти потоков.
При увеличении числа процессоров производительность растёт. Заметим также, что с увеличением числа точек, скорость работы программы линейно увеличивается.
В результате проведённых экспериментов был получен следующий диапазон эффективности реализации алгоритма:
- минимальная эффективность реализации 0,00072%;
- максимальная эффективность реализации 25.5037%.
2.5 Динамические характеристики и эффективность реализации алгоритма
2.6 Выводы для классов архитектур
2.7 Существующие реализации алгоритма
Существуют следующие последовательные реализации EM-алгоритма для кластеризации: opencv, scikit-learn.
Также существует несколько параллельных реализаций, описанных в следующих статьях:
В статье [3] авторы предлагают распределить вычисление скрытых переменных для каждого объекта между процессорами и на каждой итерации производить нормализацию. M-шаг предлагается параллелить по компонентам, что требует реализации корректного взаимодействия между процессорами. Предложенный вариант распараллеливания был реализован и протестирован авторами статьи с помощью MPI библиотеки MPICH.
Авторы статьи [4] используют MapReduce для распараллеливания EM-алгоритма для PLSI моделей.
3 Литература
<references \>
- ↑ Воронцов К.В.; Математические методы обучения по прецедентам (теория обучения машин)
- ↑ Воеводин В.В., Воеводин Вл.В. Параллельные вычисления. - СПб.: БХВ-Петербург, 2002. - 608 с.
- ↑ López-de-Teruel P. E., García J. M., Acacio; The Parallel EM Algorithm and its Applications in Computer Vision
- ↑ Abhinandan Das, Mayur Datar, Ashutosh Garg; Google News Personalization: Scalable Online Collaborative Filtering