Вид (View) - графічне відображення архітектури вибраної мережі;
Гј Видалити (Delete) - видалення обраного об'єкта.
На панелі "Тільки мережі" (Networks only) розташовані клавіші для роботи виключно з мережами. При виборі покажчиком миші об'єкта будь-якого іншого типу, ці кнопки стають неактивними. p align="justify"> При роботі з NNTool важливо пам'ятати, що клавіші View, Delete, Initialize, Simulate, Train і Adapt (зображені на рис. 1 як неактивні) діють стосовно до того об'єкту, який відмічений в даний момент виділенням. Якщо такого об'єкту немає, або над виділеним об'єктом неможливо виробити вказане дію, відповідна клавіша неактивна. br/>
2.2 Завдання
Виконати апроксимацію функції з застосуванням апарату штучних нейронних мереж в якості універсального аппроксіматора. p align="justify"> Сформувати систему приближающую функцію: y = x 1 2 + x 2 2 + kx 1 x 2
Гј На області D = {-2? x 1 ? 2; -2? x 2 ? 2}, де k номер варіанта, відповідно з порядковим номером у журналі старости.
Гј Оцінити похибка обчислень за нормою Гауса.
2.3 Реалізація
. Заготовимо набір навчальних даних
В
. Заготовимо набір цільових даних
В
Навчальні та цільові дані були отримані з м-файлу:
k = 1; (1,25) = 0; i = -2:1:2 j = -2:1:2 (1, k) = i ^ 2 + j ^ 2 + 4 * i * j; = k +1;
Виберемо персептрон (Feed-Forward Back Propa-gation) c десятьма сігмоідную (TANSIG) нейронами прихованого шару і одним лінійним (PURELIN) нейроном вихідного шару. Навчання будемо виробляти, використовуючи алгоритм Левенберга-Маркардта (Levenberg-Mar-quardt), який реалізує функція TRAINLM. Функція помилки - MSE. br/>В
Отримана мережа має вигляд:
В
. Приступаємо до навчання. Для цього необхідно вказати, які набори даних повинні бути використані в якості навчальних і цільових, а потім провести навчання.
В
В