у кількості циклів; EE> 0.0017176
[net, a {i}, e {i}, pf] = adapt (net, P, T); (i, :) = net. IW {1,1} ; = mse (e {i}); (i) = EE; = i + 1;;
11. Проаналізувати результати і зробити їх порівняння з результатами для послідовного подання навчальної послідовності:
W (63, :) mat (a {63}) = mse (e {63}) (e {1})
12. Для отриманих результатів побудувати графіки і порівняти їх з попередніми:
subplot (3,1,1) i = 1:1:63, plot (i, cell2mat (a {i}),? k?), on; (??) , ylabel (? Виходи a (i??), grid (3,1,2) (0:63, [[0 0]; W],? k?) (??), ylabel (? Веса входів W ( i)?), grid (3,1,3) (1:63, ee,? + k?) (? Цикли?), ylabel (? Помилка?), grid
Завдання 2. Адаптувати параметри одношарової динамічної мережі з одним входом і однією лінією затримки для апроксимації рекурентного співвідношення y (t) = 2 p ( t) + p (t? 1), виконавши такі дії:
. Так як для динамічних мереж груповий спосіб представлення навчальної множини не використовується, підготувати дані для послідовної адаптації у вигляді масивів комірок значень входу і цілі:
P = {-1/2 1/3 1/5 1/4);% - значення входу p (t); = {-1 1/6 11/15 7/ 10};% - значення мети y (t).
2. Виконати адаптацію та побудова графіків
net = newlin ([-1 1], 1, [0 1], 0.5);% - help (newlin); = {0};% - початкова умова для лінії затримки ;. IW {1} = [0 0];% - ваги для основного і затриманого входів;. biasConnect = 0;% - значення зміщення; = 10; i = 1; EE> 0.0001
[net, a {i}, e {i}, pf] = adapt (net, P, T); (i, :) = net.IW {1,1} ; = mse (e {i}); (i) = EE; = i +1; (22, :) {22} (3,1,1) i = 1:1:22, plot (i, cell2mat ( a {i}),? k?) on; (??), ylabel (? Виходи a (i)?), grid (3,1,2) (0:22, [[0 0]; W], ? k?) (??), ylabel ( Веса входів W (i)?), grid (3,1,3) (1:22, ee,? + k ?) (? Цикли?), ylabel (? Помилка?) grid
Завдання 3. Навчити нейронну мережу, для якої модель і залежність виходу від входів приведені в завданні 1, виконавши команди і використовуючи послідовний і груповий способи подання навчальної послідовності:
а) для послідовного способу:
net = newlin ([-1 1; -1 1], 1, 0, 0);. IW {1} = [0 0];. b {1} = 0 ; = {[-1 1] [-1/3; 1/4] [1/2 0] [1/6, 2/3]}; = {-1 -5/12 1 січня}. inputWeights {1 , 1}. learnParam.lr = 0.2;. biases {1}. learnParam.lr = 0;. trainParam.epochs = 30; = train (net, P, T); = net1.IW {1}% - параметри після навчання: = sim (net1, p) = mse ([Y {:}] - [T {:}])% - помилка 1.3817 * e-003
б) для групового способу:
P = [-1 -1/3, 1/2 1/6; 1 1/4 0 2/3]; = [-1 -5/12 1 ...