Участник:Emaksimov/Кластеризация сетями Кохонена: различия между версиями

Материал из Алговики
Перейти к навигации Перейти к поиску
Строка 12: Строка 12:
 
=== Математическое описание алгоритма ===
 
=== Математическое описание алгоритма ===
  
Каждый нейрон сети соединен со всеми компонентами n - мерного  входного вектора  <math> x(t)=[\xi_1(t),\xi_2(t),...,\xi_n(t)]</math>  Входной вектор— это описание одного из объектов, подлежащих кластеризации. Количество нейронов совпадает с количеством кластеров, которое должна выделить сеть.
 
 
Каждый j-ый нейрон описывается вектором весов <math> w_j(t)=(w_{j1}(t),...,w_{jn}(t))</math>, где n– число компонентов входных векторов.
 
 
Обучение сети Кохонена представляет собой подбор значений весов,минимизирующих ошибки от замены близких  в смысле используемой метрики входных векторов вектором весов
 
 
====Алгоритм обучения====
 
 
''шаг 0:'' Подача исходных данных на входы. Весовой вектор <math>w</math> выбирается случайным образом. Величины  <math> \alpha </math>,  <math> h_{kc}</math>  известны.
 
 
''шаг 1:'' Выбрать произвольное наблюдение  <math> x ( t ) </math> из множества входных данных.
 
 
''шаг 2:'' Определить расстояние между между входным вектором и каждого вектора весовых коэффициентов
 
 
<center> <math> d_k(t)=||x(t)-w_k(t)||, k=1,...,n</math>, </center>
 
 
''шаг 3:'' Определение нейрона -победителя (веса которого в наименьшей степени отличаются от соответствующих компонентов входного вектора)
 
          <center> <math> d_w(t)=\min\limits_{k}(d_k(t)), k=1,...,n</math> </center>
 
 
''шаг 4:'' Векторы весовых коэффициентов обновляются с помощью функции соседства по формуле
 
 
<center> <math> w_k(t+1)=w_k(t)+\alpha(t)h_{kc}(t)||x(t)-w_k(t)||,</math></center>
 
 
 
''шаг 5:'' Прекратите, если максимальное число итераций достигнуто; в противном случае изменить параметры <math> \alpha </math> и <math> h_{kc} </math>  продолжите с шага 1 .
 
 
 
'''Переменные'''
 
 
* <math>t  </math>      -текущая итерация
 
* <math>\lambda  </math> -предельное значение итераций
 
* <math>x(t)</math>      -вектор входных данных
 
* <math>k</math>        -индекс узла в карте 
 
* <math>w_k</math>      -текущий вектор веса  в узле ''k''
 
* <math>c</math>        -индекс нейрона-побдителя
 
* <math> h_{kc}(t)</math>- функция "соседства", определяет расстояне между нейроном <math> w_k </math> и  <math> w_c </math>
 
* <math>\alpha (t)</math>- монотонно убывающий коэффициент обучения .
 
 
'''Инициализация начальных весов'''
 
 
Удачно выбранный способ инициализации может существенно ускорить обучение, и привести к получению более качественных результатов.
 
Существуют три способа инициирования начальных весов.<br />
 
 
<p align=justify>
 
 
*<span style="color:#006400">''Инициализация случайными значениями''</span>, когда всем весам даются малые случайные величины.
 
 
*<span style="color:#006400">''Инициализация примерами''</span>, когда в качестве начальных значений задаются значения случайно выбранных примеров из обучающей выборки.
 
 
*<span style="color:#006400">''Линейная инициализация''.</span> В этом случае веса инициируются значениями векторов, линейно упорядоченных вдоль линейного подпространства, проходящего между двумя главных собственными векторами исходного набора данных. Собственные вектора могут быть найдены например при помощи процедуры Грама-Шмидта.
 
</p>
 
 
'''Задание <math>h</math>'''
 
 
Часто в качестве функции соседства используется гауссовская функция:
 
 
<math>h_{ci}(t)=\alpha(t)\cdot\exp(-\frac{\|r_c-r_k\|^2}{2\sigma^2(t)})</math>
 
 
где <math>0<\alpha(t)<1</math> — обучающий сомножитель, монотонно убывающий с каждой последующей итерацией (то есть определяющий приближение значения векторов веса нейрона-победителя и его соседей к наблюдению; чем больше шаг, тем меньше уточнение);<br />
 
<math>r_k</math>, <math>r_c</math> — координаты узлов <math>W_k(t)</math> и <math>W_c(t)</math> на карте;
 
 
<math>\sigma(t)</math> — сомножитель, уменьшающий количество соседей с итерациями, монотонно убывает.
 
Параметры <math>\alpha</math>, <math>\sigma</math> и их характер убывания задаются аналитиком.
 
 
Более простой способ задания функции соседства:
 
 
<math>h_{ci}(t)=\alpha(t)</math>,
 
 
если <math>W_k(t)</math> находится в окрестности <math>W_c(t)</math> заранее заданного аналитиком радиуса, и 0 в противном случае.
 
Функция <math>h(t)</math> равна <math>\alpha(t)</math> для BMU и уменьшается с удалением от BMU.
 
  
 
=== Вычислительное ядро алгоритма ===
 
=== Вычислительное ядро алгоритма ===

Версия 21:38, 14 октября 2016

Кластеризация сетями Кохонена

Рисунок 0.

1 Свойства и структура алгоритма

1.1 Общее описание алгоритма

Искусственная нейронная сеть Кохонена или самоорганизующаяся карта признаков (SOM) была предложена финским исследователем Тойво Кохоненом в начале 1980-х годов.

Рисунок 1. Массив узлов в двумерной SOM сетке.

Она представляет собой двухслойную сеть. Каждый нейрон первого (распределительного) слоя соединен со всеми нейронами второго (выходного) слоя, которые расположены в виде двумерной решетки. Нейроны выходного слоя называются кластерными элементами, их количество определят максимальное количество групп, на которые система может разделить входные данные. Увеличивая количество нейронов второго слоя можно увеличивать детализацию результатов процесса кластеризации.

1.2 Математическое описание алгоритма

1.3 Вычислительное ядро алгоритма

1.4 Макроструктура алгоритма

1.5 Схема реализации последовательного алгоритма

1.6 Последовательная сложность алгоритма