[2 1], ..... % - Кількість нейронів у шарах;
{? tansig?,% - функція активації для 1-го шару;
? logsig?}% - функція активації для 2-го шару;
? traingd?);% - ім'я функції навчання.
2. Переконатися, що ваги і зміщення кожного шару ініціалізовані за допомогою алгоритму Нгуєна-Відроу:
net8.initFcn% - має бути? initlay?;. layers {1}. initFcn% - має бути? initnw?;. layers {2}. initFcn% - має бути? initnw ?;. IW {1,1}% - вага входу;. LW {2,1}% - ваги для 2-го шару .. b {1}. b {2}
3. Задати навчальні послідовності входів і цілей T:
P = [0 1 2 3 4 5];% - вектор входу; = [0 0 0 1 1 1];% - вектор цілей .
. Видати на екран параметри навчальної функції traingd і їх значень за замовчуванням:
info = traingd (? pdefaults?) = epochs: 100% - максимальна кількість циклів
навчання;: 25% - інтервал виведення даних;: 0% - граничне значення критерію навчання;: Inf% - максимальний час навчання; _grad: 1.0e-006% - максимальне значення градієнта
критерію% якості; _fail: 5% - максимально допустимий рівень
% перевищення помилки контрольного
% підмножини в порівнянні з навчальним.
Процедура навчання припиниться, коли буде виконано одну з таких умов:
а) значення функції якості стало менше граничного goal;
б) градієнт критерію якості став менше значення min_grad;
в) досягнуто граничне значення циклів навчання epochs;
г) перевищено максимальний час, відпущений на навчання time;
д) помилка контрольного підмножини перевищила помилку навчає більш ніж в max_fail разів.
Функція traingd припускає, що функції зважування dotprod span> , накопичення netsum і активації transig b> або rogsig мають похідні. Для обчислення похідних критерію якості обу-
чення perf по змінним ваги і зміщення використовується метод зворотного поширення. Відповідно до методу градієнтного спуску вектор настроюються змінних отримує наступне прирощення: = lr * dperf/dx...