оптимальні позиції кодових векторів - для оцінки за методом найменших квадратів це просто середні арифметичні:
де - число елементів в.
Далі ітеріруем. Цей метод розщеплення сходиться за кінцеве число кроків і дає локальний мінімум спотворення.
Якщо ж, наприклад, сукупність заздалегідь не задана, або з яких-небудь причин не зберігається в пам'яті, то широко використовується онлайн метод. Вектори вхідних сигналів обробляються по одному, для кожного з них знаходиться найближчий кодовий вектор («переможець», який «забирає все»). Після цього даний кодовий вектор перераховується за формулою:
де - крок навчання. Решта кодові вектори на цьому кроці не змінюються. Для забезпечення стабільності використовується онлайн метод з затухаючої швидкістю навчання: якщо - кількість кроків навчання, то вважають. Функцію вибирають таким чином, щоб монотонно при і щоб ряд [7]:
розходився, наприклад:
Векторне квантування є набагато більш загальної операцією, ніж кластеризація, оскільки кластери повинні бути розділені між собою, тоді як сукупності для різних кодових векторів не обов'язково являють собою роздільні кластери. З іншого боку, при наявності разделяющихся кластерів векторне квантування може знаходити їх і по-різному кодувати.
Алгоритм роботи мережі складається з наступних кроків:
· Ініціалізація карти, тобто первісне завдання векторів ваги для вузлів. Початкові координати векторів можуть бути задані випадковими числами.
· Цикл. Нехай - номер ітерації (ініціалізація відповідає номеру 0):
· Вибір довільного спостереження - вектора з безлічі вхідних даних.
· Знайти відстані від нього до векторів ваги всіх вузлів карти і визначити найближчий по вазі вузол. Це - BMU або переможець. Умова на відбір:
,
для будь-якого, де - вектор ваги вузла. Якщо знаходиться декілька вузлів, що задовольняють даній умові, BMU вибирається випадковим чином серед них.
· Визначення за допомогою функції (функції сусідства) сусідів і зміна їх векторів ваги за формулою:
.
· Визначення помилки карти за формулою:
де - вагові вектора вузлів карти, - кількість елементів набору вхідних даних,
Функція визначає міру сусідства вузлів і і зміна векторів ваги. Вона повинна поступово уточнювати їх значення, спочатку у більшої кількості вузлів і сильніше, потім у меншого і слабкіше. Часто як функції сусідства використовується гауссова функція:
де - навчальний співмножник, монотонно регресний з кожною наступною итерацией (тобто визначальний наближення значення векторів ваги BMU та його сусідів до спостереження; чим більше крок, тим менше уточнення);
, - координати вузлів і на карті;
- монотонно регресний співмножник, що зменшує кількість сусідів з ітераціями.
Параметри, і їх характер убування задаються аналітиком.
Більш простий спосіб завдання функції сусідства:
,
якщо перебуває в околиці заздалегідь заданого аналітиком радіуса, і 0 в іншому випадку.
Функція дорівнює для BMU і зменшується з віддаленням від BMU.
3.3.3 Алгоритм розширюється нейронного газу
Розширюється нейронний газ (Growing Neural Gas, GNG) - це алгоритм, що дозволяє здійснювати адаптивну кластеризацию вхідних даних, тобто не тільки розділити простір на кластери, а й визначити необхідну їх кількість виходячи з особливостей самих даних. Це новий клас обчислювальних механізмів, що є розвитком мереж Кохонена. Кількість і розташування штучних нейронів в просторі ознак не запитує заздалегідь, а обчислюється в процесі навчання відповідно до особливостей вхідних даних, самостійно підлаштовуючись під них [7].
Існують методики, які здатні виділяти найбільш схожі об'єкти в просторі і формувати з них групи. У процесі аналізу безліч об'єктів організовуються в підмножини на основі вимірюваного схожості. Зазвичай методи грунтуються на стандартною схемою: оптимізація відносин між просторовим розташуванням векторів і безлічі об'єктів, таких, що кожен вектор визначає структуру кластерів. Однак більшість технік мають два значні недоліки: проведення аналізу залежить від заданої кількості кластерів і поділу на кластери локалізовано в часі. Всі сучасні методи кластеризації були статичні і не могли адаптувати...