EM Алгоритм для пуассон трехточечного распределения
Содержание
- 1 Свойства и структура алгоритмов
- 1.1 Общее описание алгоритма
- 1.2 Математическое описание алгоритма
- 1.3 Вычислительное ядро алгоритма
- 1.4 Макроструктура алгоритма
- 1.5 Схема реализации последовательного алгоритма
- 1.6 Последовательная сложность алгоритма
- 1.7 Информационный граф
- 1.8 Ресурс параллелизма алгоритма
- 1.9 Входные и выходные данные алгоритма
- 1.10 Свойства алгоритма
- 2 Программная реализация алгоритма
- 2.1 Особенности реализации последовательного алгоритма
- 2.2 Локальность данных и вычислений
- 2.3 Возможные способы и особенности параллельной реализации алгоритма
- 2.4 Масштабируемость алгоритма и его реализации
- 2.5 Динамические характеристики и эффективность реализации алгоритма
- 2.6 Выводы для классов архитектур
- 2.7 Существующие реализации алгоритма
- 3 Литература
1 Свойства и структура алгоритмов
1.1 Общее описание алгоритма
EM-алгоритм (англ. expectation-maximization) - алгоритм итерационного типа для численного решения задачи поиска экстремума целевой функции в разнообразных задачах оптимизации. В частности, алгоритм используется в математической статистике для нахождения оценок максимального правдоподобия параметров вероятностных моделей, в случае, когда модель зависит от некоторых скрытых переменных. Каждая итерация алгоритма состоит из двух шагов. На E-шаге (expectation) вычисляется ожидаемое значение функции правдоподобия, при этом скрытые переменные рассматриваются как наблюдаемые. На M-шаге (maximization) вычисляется оценка максимального правдоподобия, таким образом увеличивается ожидаемое правдоподобие, вычисляемое на E-шаге. Затем это значение используется для E-шага на следующей итерации. Алгоритм выполняется до сходимости.
Как правило, ЕМ-алгоритм применяется для решения задач двух типов.
• К первому типу можно отнести задачи, связанные с анализом действительно неполных данных, когда некоторые статистические данные отсутствуют в силу каких-либо причин.
• Ко второму типу задач можно отнести статистические задачи, в которых функция правдоподобия имеет вид, не допускающий удобных аналитических методов исследования, но допускающий серьезные упрощения, если в задачу ввести дополнительные «ненаблюдаемые» (скрытые, латентные) переменные. Примерами прикладных задач второго типа являются задачи распознавания образов, реконструкции изображений. Математическую суть данных задач составляют задачи кластерного анализа, классификации и разделения смесей вероятностных распределений.
1.2 Математическое описание алгоритма
Задача отыскания наиболее правдопободных оценок параметров смесей вероятностных распределений является одним из самых популярных приложений ЕМ-алгоритма.
Базовым предположением в рамках данной задачи является то, что плотность наблюдаемой случайной величины [math]Χ[/math] имеет вид:
где [math]k\geqslant 1[/math] - известное натуральное число, [math]ψ_{1}, ..., ψ_{k}[/math] - известные плотности распределения, неизвестный параметр [math]θ[/math] имеет вид [math]θ=(p_{1}, ..., p_{k}, t_{1},..., t_{k}),[/math] причем [math]p_{i}\geqslant 0,[/math] [math]i = 1, ..., k,[/math] [math] p_{1}+...+p_{k}=1,[/math] [math]t_{i},[/math] [math] i=1,...,k,[/math] - вообще говоря, многомерные параметры. Плотности [math]ψ_{1}, ..., ψ_{k}[/math] будем называть компонентами смеси, параметры [math]p_{1}, ..., p_{k}[/math] будем называть весами соответствующих компонент.
Задачей разделения смеси принято называть задачу статистического оценивания параметров [math]θ=(p_{1}, ..., p_{k}, t_{1},..., t_{k}),[/math] по известным реализациям случайно величины [math]Χ[/math]. Оценивание параметров смешанных пуассоновских моделей сводится к оцениванию смешивающего распределения. Традиционно с этой целью используется классический ЕМ алгоритм. В случае Пуассон трехточечного распределения случайной величины [math]Χ[/math] функция плотности относительно считающей меры имеет вид:
где [math]λ[/math] - трехточечная случайная величина, то есть принимает значения [math]λ_{1}, λ_{2}, λ_{3}[/math] с вероятностями [math]p_{1}, p_{2}, p_{3}[/math] соответственно.
Итерационный ЕМ-алгоритм для оценивания неизвестных параметров [math]p_1,p_2,p_3,λ1,λ_2,λ_3[/math] определяется следующим образом. Дана выборка [math]X_1, ..., X_n[/math] независимых одинаково распределенных случайных величин таких, что
где [math]p_j \geqslant 0, λ_j \gt 0, j = \{1, 2, 3\}[/math] - неизвестные параметры, [math]p_1+p_2+p_3=1[/math]
Пусть [math]p^{(m)}_1, p^{(m)}_2 , p^{(m)}_3, λ_1^{(m)}, λ_2^{(m)}, λ_3^{(m)}[/math] – оценки этих параметров, полученные на [math]m[/math]-й итерации.
Таким образом ЕМ алгоритм для случая пуассон-трехточечного распределения состоит из следующих шагов:
1 шаг алгоритма - вычисление условного математического ожидания:
2 шаг алгоритма - оценивание неизвестных параметров:
1.3 Вычислительное ядро алгоритма
Основные вычисления связаны с поиском параметров пуассон-трехточечного распределения.
1.4 Макроструктура алгоритма
К исходным данным из пуассон-трехточечного распределения применяется ЕМ алгоритм для разделения смеси.
Проводится несколько итераций запуска ЕМ алгоритма на данных.
После каждой итерации получаем параметры распределения. Считаем функцию правдоподобия.
Если ее значение больше, чем в другой итерации, то параметры смеси заменяются на новые.
1.5 Схема реализации последовательного алгоритма
Здесь приведены основные моменты алгоритма.
// Плотность пуассоновского распределения
double poisson_pdf(int x, double lambda_)
{
return pow(lambda_,x) * exp(-lambda_) / factorial(x);
}
// Функция правдоподобия для Пуассон-трехточечного распределения
double likelihood(vector<int> &X, double *lambda_, double *p)
{
double summation = 0.0;
for (int n = 0, length_ext = X.size(); n < length_ext; ++n)
{
double temp = 0.0;
for (int k = 0; k < 3; ++k)
temp += p[k] * poisson_pdf(X[n], lambda_[k]);
summation += log(temp);
}
return summation;
}
//Вычисление начального приближения для EM алгоритма
double p[3], lambda_[3];
double minim = -100000.0;
double sum = 0.0;
for (int i = 0; i < K; ++i)
{
p[i] = rand() % 13371337 + 1;
sum += p[i];
}
for (int i = 0; i < K; ++i)
p[i] /= sum;
for (int i = 0; i < K; ++i)
{
sum = 0.0;
int j, l = 0;
if (i == 0)
j = 0;
else
j = int(N*p[i-1]);
for (int q = j; q < int(N*p[i]); ++q)
sum += X[q];
l += 1;
lambda_[i] = sum/l;
}
double likely = likelihood(X, lambda_, p);
double like = minim;
if (likely > minim)
like = likely;
// ЕМ алгоритм
while (1)
{
//E-шаг
for (int i = 0; i < N; ++i)
{
//Since the denominator is not dependent on k, it is calculated only once at the beginning
double denominator = 0.0;
for (int j = 0; j < K; ++j)
denominator += p[j] * poisson_pdf(X[i], lambda_[j]);
//Calculate the burden ratio for each k
for (int k = 0; k < K; ++k)
gamma[i][k] = p[k] * poisson_pdf(X[i], lambda_[k]) / denominator;
}
//M-шаг
for (int k = 0; k < K; ++k)
{
//Calculate Nk
double Nk = 0.0;
for (int n = 0; n < N; ++n)
Nk += gamma[n][k];
//Recalculate average
lambda_[k] = 0.0;
for (int n = 0; n < N; ++n)
lambda_[k] += gamma[n][k] * X[n];
lambda_[k] /= Nk;
//Recalculate mixing coefficient
p[k] = Nk / N;
}
double new_like = likelihood(X, lambda_, p);
double diff = new_like - like;
if (isnan(diff))
break;
if (abs(diff) < 0.0000000001)
break;
like = new_like;
}
1.6 Последовательная сложность алгоритма
1.7 Информационный граф
1.8 Ресурс параллелизма алгоритма
1.9 Входные и выходные данные алгоритма
1.10 Свойства алгоритма
2 Программная реализация алгоритма
2.1 Особенности реализации последовательного алгоритма
2.2 Локальность данных и вычислений
2.3 Возможные способы и особенности параллельной реализации алгоритма
2.4 Масштабируемость алгоритма и его реализации
2.5 Динамические характеристики и эффективность реализации алгоритма
2.6 Выводы для классов архитектур
2.7 Существующие реализации алгоритма
3 Литература
↑ В.Ю. Королев "Вероятностно-статистические методы декомпозиции волатильности хаотических процессов".
↑ В. Ю. Королев, А. Ю. Корчагин, А. И. Зейфман "Теорема Пуассона для схемы испытаний Бернулли со случайной вероятностью успеха и дискретный аналог распределения Вейбулла".
↑ http://www.machinelearning.ru/wiki/index.php?title=EM-алгоритм