Участник:Александр Куваев/Алгоритм кластеризации, основанный на максимизации ожидания
Авторы описания: Куваев А.С. и Щенявская Е.В.
Содержание
- 1 Свойства и структура алгоритмов
- 1.1 Общее описание алгоритма
- 1.2 Математическое описание алгоритма
- 1.3 Вычислительное ядро алгоритма
- 1.4 Макроструктура алгоритма
- 1.5 Схема реализации последовательного алгоритма
- 1.6 Последовательная сложность алгоритма
- 1.7 Информационный граф
- 1.8 Ресурс параллелизма алгоритма
- 1.9 Входные и выходные данные алгоритма
- 1.10 Свойства алгоритма
- 2 Программная реализация алгоритма
- 2.1 Особенности реализации последовательного алгоритма
- 2.2 Локальность данных и вычислений
- 2.3 Возможные способы и особенности параллельной реализации алгоритма
- 2.4 Масштабируемость алгоритма и его реализации
- 2.5 Динамические характеристики и эффективность реализации алгоритма
- 2.6 Выводы для классов архитектур
- 2.7 Существующие реализации алгоритма
- 3 Литература
1 Свойства и структура алгоритмов
1.1 Общее описание алгоритма
Задача кластеризации заключается в разбиении входного множества объектов на непересекающиеся подмножества, называемые кластерами, так, чтобы каждый кластер состоял из схожих объектов, а объекты разных кластеров существенно отличались друг от друга.
Решение этой задачи принципиально неоднозначно по следующим причинам:
- результат кластеризации зависит от способа задания меры сходства объектов выборки
- не существует однозначно наилучшего критерия качества кластеризации
- число кластеров, как правило, неизвестно заранее и задается из некоторых априорных соображений (хотя существуют алгоритмы, способные определять число кластеров автоматически)
По описанной выше причине существует большое число алгоритмов кластеризации, приводящих к различным разбиениям исходного множества объектов. На этой странице представлено описание одного из таких методов — EM-алгоритма. EM-алгоритм опирается на предположение о вероятностной природе данных: элементы выборки получены случайно и независимо из смеси распределений с фиксированным числом компонент k. Таким образом, плотность распределения на множестве объектов имеет следующий вид:
- p(x)=\sum_{j=1}^{k}w_{j}p_{j}(x), \ \sum_{j=1}^{k}w_{j}=1, \ w_{j} \ge 0 , где p_{j} - плотность распределения j-й компоненты смеси.
Везде в дальнейшем будем предполагать, что p_{j} имеют вид многомерных нормальных плотностей с произвольной матрицей ковариации: смеси нормальных распределений позволяют аппроксимировать произвольные непрерывные функции плотности с наперед заданной точностью. Результатом работы EM-алгоритма являются оценки априорных вероятностей компонент смеси w_{j}, а также оценки векторов математических ожиданий и матриц ковариации для каждой компоненты.
EM-алгоритм позволяет значительно упростить задачу максимизации правдоподобия выборки путем искусственного введения вспомогательной матрицы скрытых переменных G. Алгоритм заключается в последовательном повторении шагов E(expectation) и M(maximization):
- На шаге E на основе текущего приближения параметров смеси по формуле Байеса вычисляются ожидаемые значения скрытых переменных g_{ij} — апостериорные вероятности того, что i-й объект принадлежит кластеру j.
- На шаге M решается задача максимизации правдоподобия для нахождения следующего приближения параметров смеси на основе текущего приближения и матрицы скрытых переменных, при этом решение этой задачи выписывается в явном виде.
1.2 Математическое описание алгоритма
Пусть заданы l объектов x_{1},\dotsc,x_{l}, каждый из которых описывается n числовыми признаками. Таким образом, определена матрица объектов-признаков X \in \R^{l \times n}. Предполагается, что объекты выбраны случайно и независимо из смеси n-мерных нормальных распределений с фиксированным числом компонент k. Плотность распределения на множестве объектов имеет вид:
- p(x)=\sum_{j=1}^{k}w_{j}p_{j}(x), \ \sum_{j=1}^{k}w_{j}=1, \ w_{j} \ge 0 , где p_{j} - плотность распределения j-й компоненты смеси.
Каждая компонента смеси описывается n-мерным вектором математических ожиданий \mu_{j} и матрицей ковариации \Sigma_{j} порядка n, j = 1,\dotsc,k.
Исходные данные: матрица объектов-признаков X, число кластеров k, максимальное число итераций imax, минимальная величина изменения логарифма правдоподобия \varepsilon.
Вычисляемые данные: набор оценок весов, математических ожиданий и ковариационных матриц компонент смеси \theta = (w_{1},...,w_{k}; \; \mu_{1},...,\mu_{k}; \; \Sigma_{1},...,\Sigma_{k}), максимизирующий правдоподобие выборки.
Структура алгоритма:
- Инициализация параметров: существует большое число вариантов инициальзации параметров распределения. Один из возможных подходов - задание векторов математических ожиданий компонент случайными элементами выборки, задание матриц ковариации единичными матрицами и задание весов компонент равными \frac{1}{k}.
- Последовательное выполнение шагов E и M до тех пор, пока правдоподобие выборки не стабилизируется или не будет достигнуто максимальное число итераций:
- Шаг E: вычисление значений скрытых переменных по формуле Байеса:
- g_{ij} = \frac{w_{j} p_{j}(x_{i})}{\sum_{s=1}^{k} w_{s} p_{s}(x_{i})} , где p_{j}(x_{i}) = \frac{1}{(2\pi)^{n/2}\sqrt{|\Sigma_{j}|}} \exp \biggl( -\frac{1}{2}(x_{i} - \mu_{j})^{T} \Sigma_{j}^{-1} (x_{i} - \mu_{j}) \biggr), \ i = 1,\dotsc,l; \ j = 1,\dotsc,k
- Шаг M: перерасчет параметров смеси на основе текущего приближения и матрицы скрытых переменных:
- w_{j} = \frac{1}{l} \sum_{i=1}^{l} g_{ij}, \ j = 1,\dotsc,k;
- \mu_{j} = \frac{1}{l w_{j}} \sum_{i=1}^{l} g_{ij} x_{i}, \ j = 1,\dotsc,k;
- \Sigma_{j} = \frac{1}{l w_{j}} \sum_{i=1}^{l} g_{ij}(x_{i} - \mu_{j})(x_{i} - \mu_{j})^T, \ j = 1,\dotsc,k.
1.3 Вычислительное ядро алгоритма
1.4 Макроструктура алгоритма
1.5 Схема реализации последовательного алгоритма
- Для всех j = 1,\dotsc,k.:
- Инициализировать w_{j}, \mu_{j}, \Sigma_{j}
- Для всех iter = 1,\dotsc,imax:
- Для всех j = 1,\dotsc,k:
- Вычислить |\Sigma_{j}| и \Sigma_{j}^{-1}
- Шаг E:
- Для всех i = 1,\dotsc,l; \ j = 1,\dotsc,k:
- Вычислить p_{j}(x_{i}) = \frac{1}{(2\pi)^{n/2}\sqrt{|\Sigma_{j}|}} \exp \biggl( -\frac{1}{2}(x_{i} - \mu_{j})^{T} \Sigma_{j}^{-1} (x_{i} - \mu_{j}) \biggr)
- Вычислить g_{ij} = \frac{w_{j} p_{j}(x_{i})}{\sum_{s=1}^{k} w_{s} p_{s}(x_{i})}
- Для всех i = 1,\dotsc,l; \ j = 1,\dotsc,k:
- Шаг M:
- Для всех j = 1,\dotsc,k:
- Вычислить w_{j} = \frac{1}{l} \sum_{i=1}^{l} g_{ij}
- Вычислить \mu_{j} = \frac{1}{l w_{j}} \sum_{i=1}^{l} g_{ij} x_{i}
- Вычислить \Sigma_{j} = \frac{1}{l w_{j}} \sum_{i=1}^{l} g_{ij}(x_{i} - \mu_{j})(x_{i} - \mu_{j})^T
- Для всех j = 1,\dotsc,k:
- Вычислить изменения логарифма правдоподобия \Delta
- Если \Delta \lt \varepsilon, то досрочно выйти из цикла
- Для всех j = 1,\dotsc,k:
- Вернуть w_{j}, \mu_{j}, \Sigma_{j}, \ j = 1,\dotsc,k.