align="justify"> p=[p1 p2 p1 p2];=[t1 t2 t1 t2];
% Сформування навчальних послідовностей у вигляді масивів комірок:
Pseq=con2seq (p);=con2seq (t);
R=1; % Число елементів входу=1;% Число нейронів вихідного шару=10; % Число нейронів рекуррентного шару=newelm ([- 2 2-], [S1 S2], { tansig , purelin }, traingdx );
% Навчання мережі .trainParam.epochs=1000; % Максимальна кількість епох тренування; .trainParam.show=25; % Кількість епох між графіками; .trainParam.goal=0.01; % Умова зупинки по відхиленню від еталону;
[net, tr]=train (net, Pseq, Tseq); % Pseq і Tseq вхідні елементи
% Перевірка мережі
% 1 тестування
figure (2)
a=sim (net, Pseq);
time=1: length (p); (time, t, - raquo ;, time, cat (2, a {:})) ([1 80 0.8 2.2])% графік 1
% 2 тестування
p3=sin (1:20) * 1.6;
t3=ones (1,20) * 1.6;=sin (1:20) * 1.2;=ones (1,20) * 1.2;=[p3 p4 p3 p4];=[t3 t4 t3 t4];=con2seq (pg); (3)=sim (net, pgseq);=1: length (pg); (time, tg, - raquo ;, time, cat (2, a { :}))
axis ([1 80 0.8 2.2])% графік 2
Тестування програми
Рис. 7
Рис. 8
Рис. 9
Рис. 10 Графік 1
Рис. 11 Графік 2
Підсумки програми
Як випливає з аналізу графіка 1, мережа справляється з вирішенням задачі детектування амплітуди на наборах навчальної множини. Однак неясно, як вона буде вести себе на інших наборах входу, тому ми подамо на мережу набір сигналів, складений із двох синусоїд з амплітудами 1.6 і 1.2 відповідно. Потім подивимося, чи володіє побудована мережу Елмана властивістю узагальнення.
На графіку 2 ми бачимо, що мережа гірше справляється із завданням. Мережа прагне детектувати значення амплітуди, але робить це не дуже точно. Покращене узагальнення могло бути отримане, навчаючи мережу на більшу кількість амплітуд, ніж тільки на значення 1.0 і 2.0. Використання трьох або чотирьох гармонійних сигналів з різними амплітудами може призвести до набагато кращому датчику амплітуд.
Висновок
Розвиток нейронних мереж викликало чимало ентузіазму і критики. Деякі порівняльні дослідження виявилися оптимістичними, інші - песимістичними. Для багатьох завдань, таких як розпізнавання образів, поки не створено домінуючих підходів. Потрібно намагатися зрозуміти можливості, передумови і область застосування різних підходів і максимально використовувати їх додаткові переваги для подальшого розвитку інтелектуальних систем. Безліч надій щодо нейронних мереж сьогодні пов'язують саме з апаратними реалізаціями, але поки час їх масового виходу на ринок, мабуть, ще не настав. Вони або випускаються в складі спеціалізованих пристроїв, або досить дорогі, а часто і те й інше. На їх розробку витрачається значний час, за яке програмні реалізації на самих останніх комп'ютерах виявляються лише на порядок менш продуктивними, що робить використання нейропроцесор_в нерентабельним. Але все це тільки питання часу - нейронних мереж належить пройти той же шлях, по якому ще зовсім недавно розвивалися комп'ютери, збільшуючи свої можливості і продуктивність, захоплюючи нові сфери застосування в міру виникнення нових завдань і розвитку технічної основи для їх розробки.
Сьогодні нейронні мережі використовуються для роботи у відносно вузьких областях, і невідомо, чи довірять їм коли-небудь рішення питань, які вимагають розуміння соціального контексту. Тим часом нейронні мережі впевнено продовжують проникати в наше життя, і прикладів тому немало.
Список використаної літератури
1) Медведєв В.С. Нейронні мережі. MATLAB 6/В.С. Медведєв, В.Г. Потьомкін//М: Діалог-МІФІ.- 2008
2) Хайкін С. Нейронні мережі - повний курс +2006
3) Уоссермен Ф. - нейрокомпьютерной техніка. Теорія і практика
4) Круглов, Борисов - Штучні нейронні мережі. Теорія і практика, 2012
5) Гольдштейн Б.С.- Інтелектуальні мережі, +2010
6) Смоленцев - Основи теорії вейвлетів в MatLab