Теми рефератів
> Реферати > Курсові роботи > Звіти з практики > Курсові проекти > Питання та відповіді > Ессе > Доклади > Учбові матеріали > Контрольні роботи > Методички > Лекції > Твори > Підручники > Статті Контакти
Реферати, твори, дипломи, практика » Статьи » Розпізнавання образів за допомогою неординарного алгоритму та програмної реалізації, що здійснює функціонування нової розділеної структури штучної нейронної мережі

Реферат Розпізнавання образів за допомогою неординарного алгоритму та програмної реалізації, що здійснює функціонування нової розділеної структури штучної нейронної мережі





н об'єкт;

в) машина автоматично обробляє отриману інформацію, після чого

г) з достатньою надійністю розрізняє як завгодно велике число нових, раніше їй не пред'являлися об'єктів з класів.

Машини, що працюють за такою схемою, називаються впізнали машину.


. 7 Підготовка даних для навчання


При підготовці даних для навчання нейронної мережі необхідно звертати увагу на такі суттєві моменти. Кількість спостережень в наборі даних. Слід враховувати той фактор, що чим більше розмірність даних, тим більше часу буде потрібно для навчання мережі. Слід визначити наявність викидів і оцінити необхідність їх присутності у вибірці. Навчальна вибірка повинна бути представницької (репрезентативною). Навчальна вибірка не повинна містити протиріч, так як нейронна мережа однозначно зіставляє вихідні значення вхідним. Нейронна мережа працює тільки з числовими вхідними даними, тому важливим етапом при підготовці даних є перетворення і кодування даних. При використанні на вхід нейронної мережі слід подавати значення з того діапазону, на якому вона навчалася. Наприклад, якщо при навчанні нейронної мережі на один з її входів подавалися значення від 0 до 10, то при її застосуванні на вхід слід подавати значення з цього ж діапазону або довколишні. Існує поняття нормалізації даних. Метою нормалізації значень є перетворення даних до вигляду, який найбільш підходить для обробки, тобто дані, що надходять на вхід, повинні мати числовий тип, а їх значення повинні бути розподілені в певному діапазоні. Нормалізатор може призводити дискретні дані до набору унікальних індексів або перетворювати значення, що лежать в довільному діапазоні, в конкретний діапазон, наприклад, [0..1]. Нормалізація виконується шляхом ділення кожної компоненти вхідного вектора на довжину вектора, що перетворює вхідний вектор в одиничний ..

Ємність ІНС - число класів, що пред'являються на входи ІНС для розпізнавання. Для поділу множини вхідних класів, наприклад, за двома класами достатньо всього одного виходу. При цьому кожен логічний рівень - 1 і 0 - Буде позначати окремий клас. На двох виходах можна закодувати вже 4 класу і так далі. Для підвищення достовірності класифікації бажано ввести надмірність шляхом виділення кожному класу одного нейрона у вихідному шарі або, що ще краще, декількох, кожен з яких навчається визначати приналежність образу до класу зі своїм ступенем достовірності, наприклад: високою, середньою і низькою. Такі ІНС дозволяють проводити класифікацію вхідних даних, об'єднаних у нечіткі (розмиті або пересічні) безлічі. Ця властивість наближає подібні ІНС до умов реального життя.


. 7.1 Максимізація ентропії як мета предобработки

Розглянемо основний керівний принцип, загальний для всіх етапів предобработки даних. Припустимо, що у вихідні дані представлені в числовій формі і після відповідної нормировки все вхідні і вихідні змінні відображаються в одиничному кубі. Завдання нейросетевого моделювання - знайти статистично достовірні залежності між вхідними та вихідними змінними. Єдиним джерелом інформації для статистичного моделювання є приклади з навчальної вибірки. Чим більше біт інформації принесе приклад - тим краще використовуються наявні в нашому розпорядженні дані.

Розглянемо довільну компоненту нормованих (предобработанних) даних. Середня кількість інформації, принесеної кожним прикладом, одно ентропії розподілу значень цієї компоненти. Якщо ці значення зосереджені у відносно невеликій області одиничного інтервалу, інформаційний зміст такої компоненти мало. У межі нульової ентропії, коли всі значення змінної збігаються, ця змінна не несе ніякої інформації. Навпаки, якщо значення змінної рівномірно розподілені в одиничному інтервалі, інформація такої змінної максимальна.


. 7.2 Нормировка даних

Як входами, так і виходами можуть бути абсолютно різнорідні величини. Очевидно, що результати нейросетевого моделювання не повинні залежати від одиниць виміру цих величин. А саме, щоб мережа трактувала їх значення одноманітно, все вхідні і вихідні величин повинні бути приведені до єдиного масштабу. Крім того, для підвищення швидкості і якості навчання корисно провести додаткову предобработку, вирівнює розподілу значень ще до етапу навчання.

Індивідуальна нормировка даних.

Приведення до єдиного масштабу забезпечується нормуваннями кожної змінної на діапазон розкиду її значень. У найпростішому варіанті це - лінійне перетворення:



(2.2)


в одиничний відрізок [0; 1]. Узагальнення для відображення даних в інтервал [- 1; 1], рекомендованого для вхідних даних тривіально.

Ліні...


Назад | сторінка 12 з 36 | Наступна сторінка





Схожі реферати:

  • Реферат на тему: Спостереження за передачею даних в мережі організації за допомогою засобів ...
  • Реферат на тему: Розробка бази даних для зберігання інформації даних характеристик товару
  • Реферат на тему: Алгоритм створення бази даних &Значення коефіцієнта і показників ступеня у ...
  • Реферат на тему: Ієрархічна модель даних. Структури даних
  • Реферат на тему: Створення бази даних критичних властивостей речовин в редакторі баз даних M ...