мережі мають різні функції актікацін.
Для вирішення конкретного завдання потрібно вибрати відповідну нейронну мережу. При цьому потрібно враховувати не тільки перераховані в таблиці критерії, але й архітектуру мережі. Вибір архітектури увазі визначення кількості шарів і нейронів у цих шарах. Не існує формального алгоритму за визначенням потрібної архітектури, тому на практиці вибирають або завідомо маленьку мережу і поступово її нарощують або завідомо більшу і поступово виявляють невикористовувані зв'язку і скорочують мережу.
Нейронна мережа, перш ніж використовуватися на практиці для вирішення якої-небудь задачі, повинна бути навчена. Навчання нейронної мережі - це процес налаштування синаптичних ваг. Існує безліч алгоритмів, орієнтованих на певні типи мереж та на конкретні завдання.
. Навчання штучних нейронних мереж
Серед усіх цікавих властивостей штучних нейронних мереж жодне не захоплює так уяви, як їх здатність до навчання. Їхнє навчання до такої міри нагадує процес інтелектуального розвитку людської особистості, що може здатися, що досягнуто глибоке розуміння цього процесу. Можливості навчання штучних нейронних мереж обмежені, і потрібно вирішити багато складних завдань, щоб визначити, чи на правильному шляху. Тим не менше, вже отримані переконливі досягнення, такі як мовець мережу Сейновскі, і виникає багато інших практичних застосувань.
Мета навчання: мережа навчається, щоб для деякого безлічі входів давати бажане (або, принаймні, сообразное з ним) безліч виходів. Кожне таке вхідний (або вихідна) множина розглядається як вектор. Навчання здійснюється шляхом послідовного пред'явлення вхідних векторів з одночасною підстроюванням ваг відповідно до певної процедури. У процесі навчання ваги мережі поступово стають такими, щоб кожен вхідний вектор виробляв вихідний вектор.
Алгоритми навчання: існує безліч різних алгоритмів навчання, які, однак, діляться на два великі класи: детерминистские та стохастичні. У першому з них підстроювання ваг являє собою жорстку послідовність дій, у другому - вона виробляється на основі дій, що підкоряються деякого випадковому процесу.
Для конструювання процесу навчання, насамперед, необхідно мати модель зовнішнього середовища, в якій функціонує нейронна мережа - знати доступну для мережі інформацію. Ця модель визначає парадигму навчання. По-друге, необхідно зрозуміти, як модифікувати вагові параметри мережі - які правила навчання управляють процесом налаштування. Алгоритм навчання означає процедуру, в якій використовуються правила навчання для налаштування ваг.
Існують три парадигми навчання: з учителем raquo ;, без учителя (самонавчання) і змішана.
Навчання з учителем припускає, що для кожного вхідного вектора існує цільовий вектор, що представляє собою необхідний вихід. Разом вони називаються навчальною парою. Зазвичай мережа навчається на деякому числі таких навчальних пар. Пред'являється вихідний вектор, обчислюється вихід мережі і порівнюється з відповідним цільовим вектором, різниця (помилка) за допомогою зворотного зв'язку подається в мережу і ваги змінюються відповідно до алгоритму, що прагнуть мінімізувати помилку. Вектори навчальної множини пред'являються послідовно, обчислюються помилки і ваги підлаштовуються для кожного вектора доти, поки помилка по всьому навчальному масиву не досягне прийнятно низького рівня.
Незважаючи на численні прикладні досягнення, навчання з учителем критикувалося за свою біологічну неправдоподібність. Важко уявити навчальний механізм в мозку, який би порівнював бажані і дійсні значення виходів, виконуючи корекцію за допомогою зворотного зв'язку. Якщо допустити подібний механізм в мозку, то звідки тоді виникають бажані виходи?
Навчання без вчителя є набагато більш правдоподібною моделлю навчання в біологічній системі. Розвинена Кохоненом і багатьма іншими, вона не потребує цільового векторі для виходів і, отже, не вимагає порівняння з зумовленими ідеальними відповідями. Навчальна множина складається лише з вхідних векторів. Навчальний алгоритм підлаштовує ваги мережі так, щоб виходили узгоджені вихідні вектори, тобто щоб пред'явлення досить близьких вхідних векторів давало однакові виходи. Процес навчання, отже, виділяє статистичні властивості навчальної множини і групує подібні вектори в класи. Пред'явлення на вхід вектора з даного класу дасть певний вихідний вектор, але до навчання неможливо передбачити, який вихід буде вироблятися даним класом вхідних векторів. Отже, виходи подібної мережі повинні трансформуватися в деяку зрозумілу форму, зумовлену процесом навчання. Це не є серйозною проблемою. Зазвичай не складно ідентифікувати зв'язок між входом і виходом, встановлену мережею.