й боротьбі в ході навчання і тому залишилися в початковому стані. Для виключення помилкових спрацьовувань в режимі класифікації мертві нейрони після закінчення навчання повинні бути вилучені.
Для зменшення кількості мертвих нейронів (і, отже, підвищення точності розпізнавання) використовується модифіковане навчання, засноване на обліку числа перемог нейронів і шрафованіі найбільш зарвалися серед них. Дискваліфікація може бути реалізована або призначенням порога числа перемог, після якого занадто активний нейрон засинає на задане число циклів навчання, або штучним зменшенням величини пропорційно числу перемог.
2.2.5 Нейрон Хебба lt; # 30 src= doc_zip112.jpg / gt; (11)
де - коефіцієнт навчання, значення якого вибирається з інтервалу (0, 1). Правило Хебба lt;javascript:termInfo(%22%D0%BD%D0%B5%D0%B9%D1%80%D0%BE%D0%BD%20%D0%A5%D0%B5%D0%B1%D0%B1%D0%B0%22)gt; (Штучний нейрон, який використовує для свого навчання безпосередню кореляцію вхідних і вихідного сигналів) застосовне для нейронів з різними функціями активації lt;javascript:termInfo(%22%D1%84%D1%83%D0%BD%D0%BA%D1%86%D0%B8%D1%8F%D0%BC%D0%B8%20%D0%B0%D0%BA%D1%82%D0%B8%D0%B2%D0%B0%D1%86%D0%B8%D0%B8%22)gt;. Навчання нейрона може вироблятися як з учителем, так і без нього. У першому випадку в правилі Хебба замість фактичного значення вихідного сигналу використовується очікувана реакція.
Особливістю правила Хебба є можливість досягнення вагою довільно великого значення за рахунок багаторазового підсумовування прирощення в циклах навчання. Одним із способів стабілізації процесу навчання по Хеббу служить зменшення уточнюваного ваги на величину, пропорційну коефіцієнту забування. При цьому правило Хебба приймає вигляд
(12)
Значення коефіцієнта забування вибирається з інтервалу (0,1), рекомендується дотримуватися умова.
На жаль, при навчанні за правилом Хебба нейрона з лінійною функцією активації стабілізації не досягається навіть при використанні забування. У 1991 р Е. Ойя запропонував модифікацію правила Хебба, що має следующТретій вид:
(13)
2.2.6 Радіальний нейрон lt; # 185 src= doc_zip123.jpg / gt;
Рис. 18. Структурна схема радіального нейрона
(Радіальний нейрон: Штучний нейрон, в якості функції, активації якого виступає радіальна функція (зазвичай, функція Гаусса)) (Радіальна штучна нейронна мережа: Двошарова штучна нейронна мережа, перший шар якої складають радіальні нейрони, а другий - лінійні).
Тут - радіальна функція з центром в точці з координатами. Такі функції різноманітні, але на практиці найчастіше використовується функція Гаусса, що має такий вигляд:
, (14)
де - евклідова норма відстані між вхідним вектором X і центром нейрона, - параметр, що визначає ширину ??raquo; функції. На рис. 19 дано графіки цієї функції в скалярному варіанті для різних значень.
Рис. 19. Графік одновимірної радіальної функції
На рис. 20 дан графік для двох вхідних сигналів.
Рис. 20. Графік двовимірної радіальної функції
Принципова відмінність радіального нейрона від Сигмоїдальні нейрона і персептрона в тому, що вони розбивають багатовимірний простір вхідних сигналів гиперплоскостью, а радіальний - Гіперсфера.
Навчання радіального нейрона полягає в підборі параметрів радіальної функції і. Детально алгоритм навчання мереж на основі радіальних нейронів наведено в модулі Радіальниенейронниесеті. Як приклад наведемо вираз, часто використовується для корегування положення центру нейрона після пред'явлення k-ого навчального вектора
(15)
де - коефіцієнт навчання. Причому такому уточненню піддається тільки центр, найближчий до вхідного вектора (подібний підхід використовується і при навчанні нейронів типу WTA lt;javascript:termInfo(%22%D0%BD%D0%B5%D0%B9%D1%80%D0%BE%D0%BD%D0%BE%D0%B2%20%D1%82%D0%B8%D0%BF%D0%B0%20WTA%22)gt;).
.3 Класифікація штучних нейронних мереж
Штучна нейронна мережа в загальному випадку характеризується наступними параметрами:
o Адаптивна навченість. У контексті штучної нейронної мережі навченість означає, що мережа може засвоювати різні варіанти поведінки в залежності від того. Які дані надходять на її вхід. Замість того щоб диктувати мережі, як вона повинна реагувати на кожну порцію даних (як це було б у випадку звичайного програмування), мережа сама знаходить подібності та відмінності в вступників даних. По мірі надходження нових даних навчання триває, і поведінка мережі змінюється.
o Самоорганізація. У міру того як дані надходять на вхід мережі, мережа має можливість змінювати вагові коефіцієнти тих чи інших сполук. Тим самим, по мірі надходження нових даних, практично змінюється структура мережі. Ефективність сам...