зультаті чого спочатку на входи мережі подаються практично однакові образи, а з плином часу вони все більше сходяться до вихідних.
Вагові коефіцієнти встановлюються на кроці ініціалізації рівними величині:
(2.13)
де n - розмірність вектора ваг для нейронів ініціалізіруемих шару.
На основі розглянутого вище методу будуються нейронні мережі особливого типу - так звані структури, що самоорганізуються - self-organizing feature maps (цей усталений переклад з англійської, на мій погляд, не дуже вдалий, оскільки, мова йде не про зміну структури мережі, а тільки про підстроюванні синапсів). Для них після вибору з шару n нейрона j з мінімальною відстанню Dj навчається за формулою (2.10) не тільки цей нейрон, але і його сусіди, розташовані в околиці R. Величина R на перших ітераціях дуже велика, так що навчаються всі нейрони, але з часом вона зменшується до нуля. Таким чином, чим ближче кінець навчання, тим точніше визначається група нейронів, що відповідають кожному класу образів.
. 9.3 Процес навчання нейронних мереж
Процес навчання штучної нейронної мережі (ІНС) нового класу завдань включає наступні стадії:
. Формулюється постановка задачі та виділяється набір ключових параметрів, що характеризують предметну область.
. Вибирається парадигма нейронної мережі (модель, що включає в себе вид вхідних даних, порогової функції, структури мережі і алгоритмів навчання), найбільш підходяща для вирішення даного класу задач. Як правило, сучасні Нейропакет, нейроплата й еволюційний дозволяють реалізувати не одну, а кілька базових парадигм.
. Готується, можливо, більш широкий набір навчальних прикладів, організованих у вигляді наборів вхідних даних, асоційованих з відомими вихідними значеннями. Вхідні значення для навчання можуть бути неповні і частково суперечливі.
. Вхідні дані по черзі пред'являються ІНС, а отримане вихідне значення порівнюється з еталоном. Потім проводиться підстроювання вагових коефіцієнтів міжнейронних з'єднань для мінімізації помилки між реальним і бажаним виходом мережі.
. Навчання повторюється до тих пір, поки сумарна помилка у всій безлічі вхідних значень не досягне прийнятного рівня, або ІНС не прийде в стаціонарний стан. Розглянутий метод навчання нейроподібні мережі носить назву зворотне поширення помилки (error backpropagation) і відноситься до числа класичних алгоритмів нейроматематики.
Налагоджена і навчена ІНС може використовуватися на реальних вхідних даних, не тільки підказуючи користувачеві коректне рішення, але і оцінюючи ступінь його достовірності.
2.9.4 Алгоритм січних площин
Існують різні алгоритми, що дозволяють кластеризувати дані. Алгоритм навчання машини дізнаванню класів, заснований на методі січних гіперплоскостей (рис.2.6), полягає в апроксимації розділяє гіперповерхні шматками гіперплоскостей і складається з наступних основних етапів:
Рис. 2.6. Метод посічених площин
А. Навчання
(формування розділяє поверхні):
Проведення січних площин;
Виняток зайвих площин;
Виняток зайвих шматків площин.
Б. Розпізнавання нових об'єктів.
При використанні методу паралельних варіантів одночасно і незалежно один від одного на одному і тому ж матеріалі навчаються кілька машин. При пізнанні нових об'єктів кожна машина буде відносити ці об'єкти до якогось класу, можливо, не до одного і того ж. Остаточне рішення приймається голосуванням машин - об'єкт ставитися до того класу, до якого його віднесло більше число машин (нейронів).
Спосіб підвищення надійності класифікації полягає в деякому поліпшенні методу проведення січних площин. Можна припустити, що якщо проводити січні площині близько до площини, що проходить через середину прямої, що з'єднує об'єкт і опонент, перпендикулярний цій прямій, то результуюча поверхня буде ближче до істинної кордоні між класами. Експерименти підтверджують це припущення.
Алгоритми, засновані на методі потенціалів.
В алгоритмі, заснованому на методі потенціалів, з кожним збудженим елементом поля рецепторів можна пов'язати деякуфункцію, рівну одиниці на цьому елементі і убуваючу по всіх напрямках від нього, тобто функцію ф, аналогічну електричному потенціалу з тією лише різницею, що в даному випадку R є відстань між двома сусідніми елементами поля рецепторів.
) (2.14)
Для підрахунку користуються ...