50], 1, hardlim raquo ;, learnpn );
Додавання нейрона ініціалізує спробу класифікації графіка.
Початкові значення дорівнюють нулю, так що будь-який вхід дає той же результат і классифицирующая лінія навіть не з'являється на графіку, але це навченості!
holdon=plotpc (net.IW {1}, net.b {1});
ADAPT - повертає новий об'єкт мережі, який працює краще як класифікатор, вихід мережі і помилка. Цей цикл дозволяє мережі адаптуватися за 3 проходу, графік класифікує лінію, і продовжить, поки помилка не дорівнюватиме 0.
E=1; .adaptParam.passes=3; (sse (E))
[net, Y, E]=adapt (net, P, T);=plotpc (net.IW {1}, net.b {1}, linehandle);
drawnow; end
Навчання з LEARNP знадобилося всього 3 проходу, а при вирішенні тієї ж задачі сLEARNPN необхідно 32 проходу. Таким чином, LEARNPN працює набагато краще, ніж LEARNP коли є значні відмінності у вхідних розмірах вектора.
Тепер SIM може бути використаний для класифікації будь-якого іншого вектора входу. Наприклад, класифікувати вхідний вектор [0,7; 1,2].
Графік цієї нової точки з оригінальним навчанням показує, як виконується мережу. Щоб відрізнити його від навчальної множини, його колір червоний
p=[0.7; 1.2];
a=net (p); (p, a);=findobj (gca, type raquo ;, line );
set (circle, Color raquo ;, red );
.
Підключимо «hold», щоб попередній графік не стирався. Додамо набір навчання та классифицирующую лінію на графік.
hold on; (P, T); (net.IW {1}, net.b {1});
holdoff;
Нарешті, збільшує інтерес область.
Персептрон правильно класифікує нашу нову точку (вона червона) як категорію «нуль» (представлену у вигляді кола), і немає «один» (представлену у вигляді плюса). Персептрон вчиться правильно в набагато більш короткі терміни, незважаючи на викид (порівняйте з «викидом вхідних векторів»). ([- 2 2 - 2 2]);
.4 Програмний код
P=[- 0.5 - 0.5 +0.3 - 0.1 - 40; ...% визначає послідовність входу для 5 векторів
. 5 +0.5 - 0.5 +1.0 50];
T=[1 1 0 0 1];% визначає послідовність мети (категорію вектора)
plotpv (P, T);% графічне представлення вхідних цільових векторів
net=newp ([- 40 1; - 1 50], 1, hardlim raquo ;, learnpn ); on=plotpc (net.IW {1}, net.b { 1});=1; .adaptParam.passes=3;% дозволяє адаптацію мережі (sse (E))
[net, Y, E]=adapt (net, P, T);=plotpc (net.IW {1}, net.b {1}, linehandle) ;;=[0.7; 1.2];=net (p); (p, a);=findobj (gca, type raquo ;, line ); (circle, Color raquo ;, red ); on; (P, T);
plotpc (net.IW {1}, net.b {1});% зображення лінії класифікації у векторному просторі персептрона; ([- 2 2 - 2 2]);% встановлює масштаб по осях x, y для активного графічного вікна.
Висновок
У ході роботи була досягнута мета виконання курсового проекту - розширення теоретичних і закріплення практичних знань, отриманих в ході аудиторних і самостійних занять з дисципліни Інтелектуальні інформаційні системи .
Для досягнення поставленої мети були вирішені наступні завдання:
· самостійно вивчена спеціальна література;
· вивчені вбудовані інструментальні засоби системи для математичних розрахунків MATLAB;
· розглянуті можливості та особливості базового програмного забезпечення зі складу ППП NeuralNetworkToolbox (NNT) ПС MATLAB 6;
Список літератури
1.Мартинов Н.Н. Введення в MATLAB 6.х.- М.: Кудіц-образ, 2012. - 347 с.
.Мінскій, М., Пейперт, С. Персептрони.- М .: Світ, 2009. - 261 с.
.Семенов Н.А. Інтелектуальні інформаційні системи: Навчальний посібник. 1-е вид. Твер: ТДТУ, 2004. 100 с.
4.Цісарь І.Ф. MATLABSIMULINK - лабораторія економіста.- М.: Анкил, 2001. - 102 с.
.Медведєв В.С., Потьомкін В.Г. Нейронні мережі. MATLAB 6. - М .: Діалог-МІФІ, 2002. - 489 с.
.Галушкін А.І. Теорія нейронних мереж.- М .: Журн. «Радіотехніка», 2000. - 415 с.
.Каллан Р. Основні концепції нейронних мереж.- М. І ін .: Вільямс, 2001. - 287 с.
.Круглов В.В. Штучні нейронні мережі: Теорія і практика.- М .: Гаряча лінія-Телеком, 2002. - 381 с.