пізнавання образів.
Практичне завдання
Створюємо обчислювальну модель нейронної мережі з двома виходами, трьома шарами і одним цільовим входом, використовуючи загальний конструктор мережі з параметрами
Net=network (numInputs, numLayers, biasConnect, imputConnect,
layerConnect, outputConnect, tartegtConnect).
Зв'язки між шарами повинні бути тільки прямими, входи необхідно з'єднати з першим шаром, а вихід - з останнім. Вихід повинен бути цільовим, перший шар повинен мати зміщення.
Сенс і значення параметрів конструктора для створення моделі мережі заданої архітектури такі:=2 - кількість входів мережі;=3 - кількість шарів в мережі;=[1; 0; 0] - матриця зв'язності для зміщень розміру numLayers * 1;=[1 1; 0 0; 0 0] - матриця зв'язності для входів розміру numLayers * numImputs;=[0 0 0; 1 0 0 0; 0 1 0] - матриця зв'язності для шарів розміру numLayers * numLayers;=[0 0 1] - матриця зв'язності для виходів розміру 1 * numLayers;=[0 0 1] - матриця зв'язності для цілей розміру 1 * numLayers.
Порядок виконання завдання наступний:
. Створив шаблон мережі, виконавши команду=network (2, 3, [1; 0; 0], [1 1; 0 0; 0 0], [0 0 0; 1 0 0; 0 1 0], [0 0 1 ]), в результаті отримуємо:
Рис. 4. Командне вікно
. Перевірив значення полів обчислювальної моделі нейронної мережі net та їх відповідність заданим значенням в списку параметрів.
. Перевірив значення обчислюваних полів моделі, які доповнюють опис архітектури мережі.=1 - кількість виходів мережі; =0 - кількість цілей мережі; =0 - максимальне значення затримки для входів мережі. NumLayerDelays=0 - максимальне значення затримки для шарів мережі.
Зауважимо, що кожен вихід і кожна мета приєднуються до одного або декількох верствам при цьому кількість компонент виходу або мети дорівнює кількості нейронів у відповідному шарі. Для збільшення можливості моделі в мережу включають лінії затримки або на її входах, або між шарами. Кожна лінія затримує сигнал на один такт. Параметри numInputDelays і NumLayerDelays визначають максимальне число ліній для якого-небудь входу або шару відповідно.
. Проаналізував структурну схему побудованої мережі, виконав команду gensim (net) і деталізуючи блоки за допомогою подвійного клацання лівої клавіші миші з даного блоку.
Рис. 5. Структурна схема створеної багатошарової нейронної мережі
На структурних схемах штучних нейронних мереж в пакеті NNT використовуються наступні позначення:
а) Neural Network - штучна нейронна мережа з позначеннями входів x {1}, x {2}, ... і виходу y {1};
б) входи Input1, або x {1} і Input2, або x {2};
в) дисплей y {1};
г) Layer 1, Layer 2, Layer 3, ... шари нейронів з позначеннями входів x {1}, x {2], a {1}, a {2}, ... і виходів a { 1}, a {2}, a {3}, ..., y {1};
д) TDL - лінії затримки (Time Delay) з іменами Delays1, Delays2, ..., які забезпечують затримку вхідних сигналів або сигналів між шарами нейронів на 1, 2, 3, ... такту;
е) Weights - вагова матриця для вхідних сигналів або сигналів між шарами нейронів; розмір матриці ваг для кожного вектора входу S? R, де S - число нейронів вхідного шару, а R - число компонент вектора входу, помножене на число затримок; розмір матриці для сигналів від шару j до шару i дорівнює S? R, де S - число нейронів у шарі i, а R - число нейронів у шарі j, помножене на число затримок;
ж) dotprod - блок зважування вхідних сигналів і сигналів між шарами, на виході якого виходить сума зважених, т. е. помножених на відповідні ваги компонент сигналу;
з) mux - концентратор вхідних сигналів і сигналів між шарами, перетворює набір скалярних сигналів в вектор, а набір векторів в один вектор сумарної довжини;
і) netsum - блок підсумовування компонент для кожного нейрона шару: компонент від декількох векторів входу з урахуванням затримок, зміщення і т. п.;
к) hardlim, purelin і т. д. - блоки функцій активації;
л) pd {1, 1}, pd {1, 2}, ad {2, 1}, ... - сигнали після ліній затримки (d - delay);
м) iz {1, 1}, iz {1, 2}, lz {2, 1}, lz {3, 2} - вектор-сигнали з виходу концентратора;
н) bias - блок ваг зміщень для шару нейронів;
о) IW - масив комірок з матрицями ваг входів: IW {i, j} - матриці для шару i від вхідного вектора j;
п) LW - масив комірок з матрицями ваг для шарів: LW {i, j} - матриці дл...