Теми рефератів
> Реферати > Курсові роботи > Звіти з практики > Курсові проекти > Питання та відповіді > Ессе > Доклади > Учбові матеріали > Контрольні роботи > Методички > Лекції > Твори > Підручники > Статті Контакти
Реферати, твори, дипломи, практика » Новые рефераты » Створення нейронної мережі, що виконує логічну функцію &І& і &АБО&

Реферат Створення нейронної мережі, що виконує логічну функцію &І& і &АБО&





тивації (див. малюнок 9.11). В якості функції помилки вкажемо MSE (Mean Square Error - середній квадрат помилки). Нагадаємо, що функція помилки встановлюється у вікні Створення мережі після вибору типу мережі.

Малюнок 9.11 Мережа для вирішення завдання виключає АБО


ініціалізувавши мережу, натиснувши кнопку Initialize Weights на вкладці Initialize, після чого навчимо, вказавши в якості вхідних значень сформовану раніше змінну data1, в якості цілей - новий вектор, відповідний бажаним виходів. У процесі навчання мережа не може забезпечити точного рішення, тобто звести помилку до нуля. Проте виходить наближення, яке можна спостерігати по кривій навчання на малюнку 9.12.

Слід зазначити, що дана крива може змінювати свою форму від експерименту до експерименту, але, у разі успішного навчання, характер функції буде монотонно убутним.

У результаті навчання, помилка була мінімізована до вельми малого значення, яке практично можна вважати рівним нулю.


Малюнок 9.12. Крива навчання в задачі виключає АБО

Завдання синтезу елемента виключає АБО є також прикладом задачі класифікації. Вона відображає загальний підхід до вирішення подібного роду завдань.


Контрольні питання:

1. Як задати вхідні і цільові вектора

. Як створити нейронну мережу

. Яку нейронну мережу використовували

. За який час нейронна мережа досягла мети

нейронна мережа генетичний алгоритм


Лабораторна робота № 10


Створення нейронної мережі, що виконує різні функції


Одним з найбільш чудових властивостей нейронних мереж є здатність апроксимувати і, більше того, бути універсальними аппроксіматорамі.

Сказане означає, що за допомогою нейронних ланцюгів можна апроксимувати як завгодно точно безперервні функції багатьох змінних.


Завдання 1. Необхідно виконати апроксимацію функції наступного вигляду



де x € 1? N, а N - число точок функції.

Заготовимо цільові дані, ввівши в поле Значення (Value) вікна створення нових даних вираз:

(5 * pi * [1: 100]/100 + sin (7 * pi * [1: 100]/100)).


Ця крива являє собою відрізок періодичного коливання з частотою 5p/N, модульованого по фазі гармонійним коливанням з частотою 7 N (див. рис. 10.1).

Тепер заготовимо набір навчальних даних (1, 2, 3, ..., 100), задавши їх виразом: 1: 100.

Виберемо персептрон (Feed-Forward Back Propa-gation) c тринадцятьма сігмоідной (TANSIG) нейронами прихованого шару і одним лінійним (PURELIN) нейроном вихідного шару.


Малюнок 10.1 Архітектура мережі для вирішення задач апроксимації


Навчання будемо виробляти, використовуючи алгоритм Левенберга-Маркардта (Levenberg-Mar-quardt), який реалізує функція TRAINLM. Функція помилки - MSE. Отримана мережа має вигляд (див. Малюнок 10.2).


Малюнок 10.2. Крива навчання в задачі апроксимації


Тепер приступаємо до навчання. Для цього необхідно вказати, які набори даних повинні використовуватися в якості навчальних і цільових, потім провести навчання (див. Рис. 10.2). Малюнок 10.3 ілюструє різницю між цільовими даними і отриманої апроксимуючої кривої.

З малюнків 10.2 та 10.3 видно, наскільки зменшилася помилка апроксимації за 100 епох навчання. Форма кривої навчання на останніх епохах говорить також про те, що точність наближення може бути підвищена.

Однією з популярних областей застосування нейронних мереж є розпізнавання образів. Апроксимаційні можливості NN грають тут першорядну роль.


Завдання - 2. Необхідно побудувати і навчити нейронну мережу для вирішення задачі розпізнавання цифр. Мета цієї лабораторної роботи - показати загальний підхід до вирішення завдань розпізнавання образів. Тому, щоб не захаращувати виклад технічними деталями, позначимо лише ключові моменти, вважаючи, що на даному етапі студент готовий самостійно провести відповідні дії з NNTool.


Малюнок 10.3 Червона крива - цільові дані, синя крива - апроксимуюча функція


Система, яку належить синтезувати за допомогою нейронної мережі, буде навчена сприймати символи, близькі до шаблонним (див. малюнок 10.4).


Малюнок 10.4 Монохромне зображення вихідних даних


Н...


Назад | сторінка 5 з 15 | Наступна сторінка





Схожі реферати:

  • Реферат на тему: Метод навчання нейронних мереж (правило зворотного поширення помилки)
  • Реферат на тему: Розпізнавання образів за допомогою неординарного алгоритму та програмної ре ...
  • Реферат на тему: Пластичний малюнок вистави - рішення простору театралізованого дійства
  • Реферат на тему: Малюнок і перспектива
  • Реферат на тему: Навчальний малюнок