ть y m в нуль. Єдиний, що залишився активним, нейрон є переможцем. Він і вказує на той клас, до якого належить введений образ. Такий механізм отримав назву "Переможець-Забирає-Все" (Winner Take All - WTA). Нейромережева парадигма Липпмана-Хемінга є моделлю з прямою структурою пам'яті. Інформація, що міститься в бібліотечних образах неможливо узагальнюється, а безпосередньо запам'ятовується в синаптичних зв'язках. Пам'ять тут не є розподіленою, так як при виході з ладу одного нейрона повністю втрачається інформація про все відповідному йому образі пам'яті.
6. Карта самоорганізації Кохонена
Такі мережі являють собою змагальну нейронну мережу з навчанням без вчителя, виконує завдання візуалізації та кластеризації. Є методом проекції багатовимірного простору в простір з більш низькою розмірністю (найчастіше, двовимірне), застосовується також для вирішення задач моделювання, прогнозування та ін Є однією з версій нейронних мереж Кохонена. Самоорганізуються карти Кохонена служать, в першу чергу, для візуалізації і первинного (В«розвідувальногоВ») аналізу даних. p align="justify"> Сигнал в мережу Кохонена поступає відразу на всі нейрони, ваги відповідних синапсів інтерпретуються як координати положення вузла, і вихідний сигнал формується за принципом В«переможець забирає всеВ» - тобто ненульовий вихідний сигнал має нейрон, найближчий (у сенсі ваг синапсів) до подається на вхід об'єкту. У процесі навчання ваги синапсів налаштовуються таким чином, щоб вузли решітки В«розташовувалисяВ» в місцях локальних згущувань даних, тобто описували кластерну структуру хмари даних, з іншого боку, зв'язки між нейронами відповідають стосункам сусідства між відповідними кластерами в просторі ознак. br/>В
Приклад карти Кохонена. Розмір кожного квадратика відповідає ступеню порушення відповідної нейрона. p> Навчання починається з завдання випадкових значень матриці зв'язків. Надалі відбувається процес самоорганізації, що складається в модифікації ваг при пред'явленні на вхід векторів навчальної вибірки. Для кожного нейрона можна визначити його відстань до вектора входу:
В
Далі вибирається нейрон m = m * , для якого це відстань мінімально. На поточному кроці навчання t будуть модифікуватися тільки ваги нейронів з околиці нейрона m * :
В
Спочатку в околиці будь-якого з нейронів знаходяться всі нейрони мережі, в наслідку ця околиця звужується. Наприкінці етапу навчання підлаштовуються тільки ваги самого найближчого нейрона. Нейронна мережа Кохонена може навчатися і на перекручених версіях вхідних векторів, у процесі навчання спотворення, якщо вони не носять систематичний характер...