,
де tr - параметр швидкості налаштування, рівний за замовчуванням 0,01.
Функцією одночасного пошуку мінімуму вздовж заданого напрямку в даній мережі є функція srchbac.
. Навчити розглянуту мережа: net8.trainParam.epochs = 500;. TrainParam.90al = 0.01;
[net8, TR] = train (net8, P, T);% - характеристики процедури навчання.
6. Провести моделювання мережі і оцінити якість її навчання:
Ynet8 = sim (net8, P)% - цільові значення.
Завдання 9. Повторити 8-е завдання для наступних функцій навчання: traingda, traingdm, traingdx, trainrp, traincgf, traincgp, traincgb, trainscg, trainbfg, trainoss, trainlm. Порівняти отримані результати.
Завдання 10. Створити і навчити мережу для апроксимації синусоїдальної функції, зашумленной нормально розподіленим шумом, виконавши такі дії: p>
. Задати навчальні послідовності:
P = [-1: .05: 1]; = sin [2 * pi * P] + 0.1 * randn (size (P));
2. Сформувати мережу з прямою передачею сигналу:
net10 = newff ([-1 1], [20 січня], {? transig?,? purelin?}, ...? trainbr?);
3. Налаштувати мережу:
net10.trainParam.epochs = 50;. trainParam.show = 10;% для відображення.
4. Навчити мережу і побудувати графік функції, що апроксимується і графік виходу мережі: net10 = train (net, P, T);
Y = sim (net, P); (P, Y, P, T, + )% - два графіка.
5. Змінюючи кількість нейронів у першому шарі, досліджувати якість апроксимації. p align="justify"> Завдання 11. Створити мережу і провести її послідовну адаптацію, виконавши наступні команди:
net11 = newff ([-1 2; 0 5], [3, 1], ... {? tansig?,? purelin?},? traingd?);. inputWeights {1 , 1}. learnFcn =? learngd?;. layerWeights {2, 1}. learnFcn =? learngd?;. biases {1}. learnFcn =? learngd?;. biases {2}. learnFcn =? learngd?;. layerWeights {2, 1}. learnParam.lr = 0.2; = [-1 -1 2 лютого; 0 5 0 5]; = [-1 -1 1 січня]; = num2cell (P, 1); = num2cell (T, 1);. adaptParam.passes = 50;
[net11, a, e] = adapt (net11, P, T); = sim (net11, P)% [-1.02] [-0.99624] [1.0279] [1.0021] ; (e)% - має бути 5,5909 е-004.
Завдання 12.