ності персептрона, алгоритм сходиться за кінцеве число кроків, якщо існує рішення задачі.
Основні відмінності процедури навчання Розенблатта від правила навчання Хебба полягають в наступному:
- У правилі навчання Розенблатта для персептрона присутній швидкість навчання?;
- Персептрон не змінює вагові коефіцієнти, якщо вихідні сигнали збігаються з еталонними;
- Вхідні образи з навчальної вибірки в моделі персептрона подаються до тих пір, поки не відбудеться навчання мережі.
- Персептрон навчається за кінцеве число кроків, якщо існує рішення задачі.
. 5.3 Правило навчання Відроу-Хоффа
Правило навчання Відроу-Хоффа відомо під назвою дельта правило. Воно передбачає мінімізацію середньоквадратичної помилки нейронної мережі, яка для L вхідних образів визначається наступним чином:
, (2.10)
де E (k) - середньоквадратична помилка мережі для k-го образу;
у1k і tk - відповідно вихідна і еталонне значення нейронної мережі для k-го образу.
Критерій (2.10) характеризується тим, що при малих помилках шкода є також малою величиною, так як Е менше величини відхилення (yt). При великих помилках збиток зростає, оскільки Е зростає з ростом величини помилки.
Середньоквадратична помилка нейронної мережі для одного вхідного образу визначається за формулою:
.
Правило навчання Відроу-Хоффа базується на методі градієнтного спуску в просторі вагових коефіцієнтів і порогів нейронної мережі. Згідно з цим правилом вагові коефіцієнти і пороги нейронної мережі необхідно змінювати з часом за такими виразами:
;
,
де;
?- Швидкість або крок навчання.
Знайдемо похідні середньоквадратичне помилки Е по параметрам мережі wj1 і Т:
;
;
де xjk - j-я компонента k-го образу.
Звідси одержуємо наступні вирази для навчання нейронний мережі по дельта-правилом:
; (2.11)
, (2.12)
де.
Б.Відроу і М.Хофф довели, що даний закон навчання завжди дозволяє знаходити вагові коефіцієнти нейронного елемента таким чином, щоб мінімізувати середньоквадратичнепомилку мережі незалежно від початкових значень вагових коефіцієнтів.
У правилі Відроу-Хоффа існує проблема вибору значення кроку навчання?. Якщо крок? занадто малий, то процес навчання є дуже тривалим, якщо? великий, процес навчання може виявитися розбіжним, тобто не привести до вирішення завдання. Таким чином, збіжність навчання не рятує від розумного вибору значення кроку навчання. У деяких роботах пропонується вибирати значення?, Яке зменшується в процесі навчання наступним чином:
,
де k - номер ітерації в процесі навчання.
Однак тут важливим фактором є швидкість, з якою? наближається до нуля. Якщо швидкість занадто велика, то процес навчання може закінчитися до того, як будуть отримані оптимальні результати.
. 5.4 Алгоритм зворотного поширення помилки
Алгоритм зворотного поширення помилки є одним з найбільш ефективних засобів для навчання багатошарових нейронних мереж. Алгоритм мінімізує середньоквадратичнепомилку мережі, і грунтується на наступних теоремах.
Теорема 3 Для будь-якого прихованого шару i помилка i-го нейронного елемента визначається рекурсивним чином через помилки нейронів наступного шару j:
, (2.13)
де m - число нейронів наступного шару по відношенню до шару i;
wij - синаптична зв'язок між i-м і j-м нейронами різних верств;
Sj - зважена сума j-го нейрона.
Використовуючи результати цієї теореми, можна визначити помилки нейронів прихованого шару через помилки нейронів наступного шару по відношенню до прихованого шару.
Теорема 4 Похідні середньоквадратичне помилки за ваговими коефіцієнтами і порогам нейронних елементів для будь-яких двох шарів i і j багатошарової мережі визначаються наступним чином:
;
.
Слідство 1 Для мінімізації середньоквадратичної помилки мережі вагові коефіцієнти і пороги нейронних елементів повинні змінюватися з плином часу таким чином:
;
,
де?- Швидкість навчання.
Дане наслідок визначає правило навчання багатошарових нейронних мереж в загальному вигляді, яке називається узагальненим дельта-правилом.
Розглянемо сігмоідную функции акти...