му навчання
Нейронні мережі відносяться до класу аппроксіматоров і «чорних ящиків», апроксимуючих деякі функції виду=F (X),
де Y - вектор вихідних змінних,
Х - вектор вхідних процесів апроксимації полягає в підборі вагових коефіцієнтів wij і називається навчанням НС.
Тобто НС може функціонувати в двох режимах.
. Експлуатації, коли на вхід подаються сигнали, а на виході знімаються результати обчислень.
. Навчання, коли відбувається коригування ваг таким чином, щоб вихідні сигнали найбільш точно відповідали бажаним.
Від якості навчання НС залежить точність її роботи в режимі експлуатації. Структура процесу навчання представлена ??на малюнку 3, де позначені: жел - бажані значення вихідних сигналів,
Е - помилка навчання (Е=Y жел - Y),
К - коригуючі дії (зазвичай зміни ваг D wij).
Малюнок 3 - Процес навчання нейронної мережі
Для навчання НС складається навчальна вибірка вхідних сигналів і відповідних їм вихідних. Вибірка може бути розділена на дві частини: робочу вибірку (на основі якої проводиться власне навчання) та тестуючу вибірку (для перевірки якості навчання).
Терезам синапсів не навчання НС спочатку присвоюються довільні значення. Далі на вхід НС подається перший вектор Х з робочої вибірки, визначається вектор Y і помилка навчання Е. Виходячи зі значень вектора Е, коригуються ваги синапсів. Потім подається наступний вектор Х з вибірки і т.д. Цикли навчання повторюються багаторазово, поки якість навчання не стане задовільним (це можна перевірити по тестуючої вибірці).
Існує кілька методів навчання, які можна класифікувати за способами використання вчителя:
. навчання з учителем (корекція ваг проводиться виходячи з порівняння поточного і бажаного вихідних векторів);
. навчання з послідовним підкріпленням знань (мережі не даються бажані значення виходів, а ставиться оцінка «добре» чи «погано»);
. навчання без учителя (мережа сама виробляє правила навчання шляхом виділення особливостей з набору вхідних даних).
За використанню елементів випадковості методи навчання поділяються на:
. детерминистские (корекція на основі аналізу вхідних і вихідних сигналів, а також додаткової інформації, наприклад, бажаних виходів);
. стохастичні (випадкове зміна ваг в ході навчання - больцманівського навчання).
Вибираємо для навчання метод навчання з учителем - метод зворотного поширення помилки. Для навчання зазвичай використовується НС з функціями активації сігмоідной типу. Метою навчання за правилом зворотного поширення є мінімізація помилки навчання, яка визначається як
Для зменшення помилки ваги змінюються за правилом
,
де n- константа, що характеризує швидкість навчання. Дана формула описує процес градієнтного спуску в просторі ваг.
Алгоритм зворотного поширенням складається з наступних кроків.
Крок 1. На вхід НС подається вектор Х з навчальної вибірки і обчислюються виходи всіх нейронів Yij.
Крок 2. Визначається величина градієнта помилки EI для кожного нейрона вихідного шару:
,
де Yj - вихід j-го нейрона вихідного шару.
Крок 3. Рухаючись від останнього шару до першого визначаються градієнти EIij для кожного j-го нейрона кожного i-го шару:
,
де k - номер синапсу, що з'єднує нейрон Нijc нейроном Нi + 1следующего шару.
Крок 4. Корекція ваг синапсів:
Корекція ваг для вхідного шару не проводиться.
Крок 5. Якщо навчальна вибірка не закінчилася, то кроки 1-5 повторюються.
Крок 6. Визначається величина помилки Е. Якщо вона не задовільна, то кроки 1 - 6 повторюються.
З описаного алгоритму видно, що процес навчання НС включає два вкладених циклу навчання: внутрішній цикл (кроки 1-5) повторюється відповідно до кількості прикладів з навчальної вибірки, зовнішній (кроки 1-6) - до тих пір, поки не буде досягнуто задовільний (з погляду помилки Е) якість навчання.
Після успішного навчання НС може бути протестована на тестовій вибірці. Якщо помилка навчання на кожному прикладі з тестової вибірки задовільна, то НС можна вважати навченої і приступати до її експлуатації.
Приклад одного циклу навчання НС. Як приклад можна взяти навчальну вибірку:
Таблиця 3
Навчальна вибірка
X1X2Y1022164216
Тут х 1 і х 2 - вхідні параметри НС, у - бажаний ...