ативних або A-елементів (для спрощення зображення частина зв'язків від вхідних S-клітин до A-клітинам не показана). Тільки асоціативні елементи, що представляють собою формальні нейрони, виконують нелінійну обробку інформації і мають змінювані ваги зв'язків. R-елементи з фіксованими вагами формують сигнал реакції персептрона на вхідних стимул. Представлена ​​мережа зазвичай називається одношарової, так як має тільки один шар нейропроцессорних елементів. Одношаровий перцептрон характеризується матрицею синаптичних зв'язків W від S-до A-елементів. Елемент матриці відповідає зв'язку, що веде від i-го S-елементу до j-му A-елементу. br/>
4.1 Теорема про навчання персептрона
Навчання мережі полягає в підстроюванні вагових коефіцієнтів кожного нейрона. Нехай є набір пар векторів (x a , y a ), a = 1 .. p, званий навчальною вибіркою. Будемо називати нейронну мережу навченої на даній навчальній вибірці, якщо при подачі на входи мережі кожного вектора x a на виходах щоразу виходить відповідний вектор y a .
Алгоритм навчання включає кілька кроків:
Крок 0.Начальние значення ваг всіх нейронів покладаються случайнимі.Шаг 1.Сеті пред'являється вхідний образ x ? span> , в результаті формується вихідний образ Крок 2.Вичісляется вектор помилки , робіть мережею на виході. Подальша ідея полягає в тому, що зміна вектора вагових коефіцієнтів в області малих помилок повинно бути пропорційно помилку на виході, і дорівнює нулю якщо помилка дорівнює нулю.Шаг 3.Вектор ваг модифікується за такою формулою: . Тут - темп обученія.Шаг 4.Шагі 1-3 повторюються для всіх навчальних векторів. Один цикл послідовного пред'явлення всієї вибірки називається епохою. Навчання завершується після закінчення декількох епох, а) коли ітерації зійдуться, тобто вектор ваг перестає змінюватися, або б) коли повна підсумувавши по всіх векторах абсолютна помилка стане менше деякого малого значення.
Використовувана на кроці 3 формула враховує такі обставини: а) модифікуються тільки компоненти матриці ваг, що відповідають ненульовим значенням входів; б) знак прирощення ваги відповідає знаку помилки, тобто позитивна помилка ( d > 0, значення виходу менше запланованого) проводить до посилення зв'язку; в) навчання кожного нейрона відбувається незалежно від на...