одінічній вхідній сигнал (рис. 1.2).
Рівняння (1.7) можна обєднати в Одне векторно-матричну
В
де W (і) - матриця ваг сінапсів розміром Sі'Sі-1.
Сигнал j - го нейрона перетворюється функцією актівації у вихідний сигнал нейрона, або у векторній ФОРМІ.
На віході - го кулі мережі отрімуємо векторну величину
В
Рівняння (1.8) є математичность моделлю і-го шару нейромережі.
При створенні архітектури нейромережі розрізняють вагові вхідні матріці и вагові матріці кулі, что є зєднувальною Ланка между двома кулями. Для вхідніх матрицю Використовують позначені IW (1,1), а для вихідних матрицю кулі - LW ​​(і, і-1), де і-номер кулі, а і-1 - номер векторного входу для і-го кулі.
Математична модель нейромережі, что показана на рис. 1.2, может буті описана такою системою рівнянь:
В В
Если Із рівнянь (1.9) і (1.10) Вилучити проміжну змінну, то отрімуємо рівняння, Яке апроксімує функціональне Перетворення.
В
Віхіднімі функціямі актівації є лінійна функція, яка, Наприклад, у середовіщі MatLab, позначається як purelin, тоб
В
Функції актівації вібірають як сігмоідальну, вихід Якої змінюється в межах [-1; 1]. У середовіщі MatLAB вона позначається як tansig. Наприклад, ЯКЩО використовуват функцію tansig, то рівняння (4) Набуда такого вигляд:
В
Тепер математична модель нейромережі в термінах системи MatLAB буде такою:
В
Основна ідея Щодо нейромереж Полягає в тому, что параметри и звітність, відрегулюваті так, щоб мережа Із завданні точністю апроксімувала функціональне Перетворення. Це досягається Шляхом навчання нейромережі. p> Для навчання нейромережі-апроксіматора (1.11) застосовують алгоритм зворотнього Поширення похібкі [37].
У алгорітмі зворотнього Поширення похібкі обчіслюється вектор градієнта поверхні похібкі, что приводити до різніх обчислювальних схем, таких як метод спряжених градієнтів, метод Ньютона, Левенберга-Маркуардт та ін [9].
Одна Із проблем, что может вінікнуті во время навчання нейромережі, - це непрійняття. Суть цієї проблеми в тому, что мережа может буті й достатньо добрі навчася на навчальній послідовності, тоб середньоквадратічне відхілення между виходом мережі и експериментальна Даними має Дуже мале значення, а альо, коли Нові дані представлені, что не входять до навчальної послідовності, похібка становится великою. Один Із способів Усунення непрійняття - це Збільшення розмірності нейромережі. Інший способ - це регулярізація мережі [30]. Дослідження показали, что регулярізація однозначно зменшує неспрійнятлівість мережі, альо при цьом зростають затрати годині на ее навчання. p align="justify"> З точки зору Усунення неспрійнятлівості більш ефективного є радіальні мережі [37], Які, на відміну від мереж Зі зворотнього Поширення, вімагають більшої кількості нейронів.
Основою радіальніх мереж є функція radbas (Radial Basis Neuron)
В
Сигнал n є скалярним добутком величину на мережеве зміщення, де - вектор вхідніх величин, Який інтерпретується як матриця-рядок, а матриця-рядок ваг нейрона. Отже,
В
де функція позначається як dist и означає добуток матріці-рядка на матрицю стовпець.
Функція radbas (n) має одиницю, колі ее вхід - нуль, тоб нейрон працює як детектор, что відає одиницю шкірного разу, коли Вектори и ортогональні.
Радіальна мережа для апроксімації результатів ЕКСПЕРИМЕНТ показана на рис. 1.3. Вона Складається Із двох шарів - прихованого и віхідного. Виходом прихованого кулі є величина, яка генерується функцією radbas
В
де через позначені функцію dist. Вектор зміщення и вихід dist поелементно перемножуються, так что на віході Першого кулі отрімуємо вектор. p> На віході іншого кулі (віхідного) як функцію актівації взято лінійну функцію - purelin (), тоб
В
У работе [12] проаналізовані возможности різніх нейромереж як апроксіматорів перелогових типом (2). За основу такого аналізу Було взято точність відтворення нейромереж функціональніх перелогових. Нами проведень аналіз нейромереж з врахування непрійняття нейромережі, тоб мережа Навчаюсь на Завдання Вузли апроксімації; потім обчіслювалісь Значення Функції у Вузли, Які НЕ співпадають з Навчальних Вузли. У результаті такого аналізу виявлено, что Найкращий є узагальнена регресійна нейромереж, яка захи до класу радіальніх нейромереж. br/>В
Малюнок 1.3 - Радіальна нейромереж для апроксімації залежності (1.6)
Рис. 1.3 відображає результати апроксімації залежності (1.6) за помощью радіальної нейромережі. На вхід мережі подавалися координат та точок відбору проб, Які були Зведені до безрозмірніх величин, за такими формулами:
В В
де: , - координат та ...