fy"> За командою help lvq можна одержати наступну інформацію про М-функціях, що входять до складу ППП Neural Network Toolbox і відносяться до побудови LVQ-мереж:
Таблиця 3
Learning Vector QuantizationСеті для класифікації векторовNew networksФормірованіе сетіnewlvq Створення мережі для класифікації вхідних векторовUsing networksРабота з сетьюsim init adapt train Моделювання Ініціалізація Адаптація Навчання Weight functionsОпераціі з ваговою функціейnegdist dotprod Функція негативного відстані Скалярний проізведеніеNet input functionsОпераціі над входаміnetsum СуммірованіеTransfer functionsФункціі актівацііcompet purelin Конкуруюча ЛінейнаяPerformance functionsФункціі похибки обученіяmse Середньоквадратична помилка обученіяInitialization functionsФункціі ініціалізації сетіinitlay initwb midpoint Пошарова ініціалізація Ініціалізація ваг і зміщень Ініціалізація ваг за правилом середньої точкіLearning functionsФункціі налаштування параметрів learnlv1 learnlv2 Функція настройки lv1 Функція настройки lv2Adapt functionsФункціі адаптацііadapt Адаптація ваг і смещенійTraining functionsФункціі обученіяtrainr Повекторное навчання ваг і смещенійDemonstrationsДемонстраціонние прімериdemolvq1 Приклад класифікації векторів
4. Радіальні базисні мережі
Радіальні базисні нейронні мережі складаються з більшої кількості нейронів, ніж стандартні мережі з прямою передачею сигналів і навчанням методом зворотного поширення помилки, але на їх створення потрібно значно менше часу. Ці мережі особливо ефективні, коли доступна велика кількість навчальних векторів.
Архітектура мережі
Рис. 4
Радіальна базисна мережу в Matlab.
За командою help radbasis можна одержати наступну інформацію про М-функціях, що входять до складу ППП Neural Network Toolbox і відносяться до побудови радіальних базисних мереж:
Таблиця 4
Radial basis networksРадіальние базисні сетіNew networksФормірованіе сетіnewrb Створення радіальної базисної сетіnewrbe Створення радіальної базисної мережі з нульовою ошібкойnewgrnn Створення узагальненої регресійної сетіnewpnn Створення ймовірнісної сетіUsing networksРабота з сетьюsim Моделювання сетіWeight functionsФункціі взвешіваніяdist Евклидово расстояніеdotprod Скалярний проізведеніеnormprod Нормоване скалярний проізведеніеNet input functionsФункціі накопичення netprod Твір зважених входовnetsum Сума зважених входовTransfer functionsФункціі активуцііcompet Конкуруюча функція актівацііpurelin Функція активації з жорсткими ограніченіяміradbas Радіальна базисна функція актівацііPerformanceФункціі оцінки якості сетіmse Середньоквадратична погрешностьSignalsПреобразованіе даннихind2vecПреобразованіе індексного вектора в матрицю связностіvec2ind Перетворення матриці зв'язності в індексний векторDemonstrationsДемонстраціонние прімериdemorb1 Радіальні базисні сетіdemorb3 Приклад неперекривающіхся функцій актівацііdemorb4 Приклад перекриваються функцій актівацііdemogrn1 Мережа GRNN і апроксимація функційdemopnn1Сеть PNN і класифікація векторів нейронний мережу рекурентний Елман
5. Рекурентні мережі
Бувають 2 типу рекурентних нейронних мереж, що представляють найбільший інтерес для користувачів, - це клас мереж Елмана (Elman) і клас мереж Хопфілда (Hopfield). Характерною особливістю архітектури рекуррентной мережі є наявність блоків динамічної затримки і зворотних зв'язків. Це дозволяє таким мережам обробляти динамічні моделі.
. 1 Нейронна мережа (Елмана)
Нейронна мережа Елмана - один з видів рекуррентной мережі, що складається з двох шарів в якій прихований шар охоплений динамічної зворотним зв'язком одержуваного з багатошарового перцептрона введенням зворотних зв'язків, тільки зв'язку йдуть не від виходу мережі, а від виходів внутрішніх нейронів. Це дозволяє врахувати передісторію спостережуваних процесів і накопичити інформацію для вироблення правильної стратегії управління. Ці мережі можуть застосовуватися в системах управління рухомими об'єктами, так як їх головною особливістю є запам'ятовування послідовностей.
На основі мережі Елмана будується нейронна мережа класу RAAM, яка за своєю структурою повторює елмановскую. RAAM (Рекурсивна авто-асоціативна пам'ять) - це подвійна мережу Елмана виду 2N-N - 2N, яку використовують для стиснення і шифрування інформації. На вхід мережі подається бітовий сигнал з 2N бітів. Зазвичай мережа має розмір 20-10-20, перші 10 біт називаються «лівими», другі 10 біт - «правими». На самому початку на ліву матрицю подається нульовий вектор біт (0000000000), а на праву - код символу або пропозиції (наприклад, 0010000000= А ). Те ж саме подається на вихідні матриці. Методом зворот...