н об'єкт;
в) машина автоматично обробляє отриману інформацію, після чого
г) з достатньою надійністю розрізняє як завгодно велике число нових, раніше їй не пред'являлися об'єктів з класів.
Машини, що працюють за такою схемою, називаються впізнали машину.
. 7 Підготовка даних для навчання
При підготовці даних для навчання нейронної мережі необхідно звертати увагу на такі суттєві моменти. Кількість спостережень в наборі даних. Слід враховувати той фактор, що чим більше розмірність даних, тим більше часу буде потрібно для навчання мережі. Слід визначити наявність викидів і оцінити необхідність їх присутності у вибірці. Навчальна вибірка повинна бути представницької (репрезентативною). Навчальна вибірка не повинна містити протиріч, так як нейронна мережа однозначно зіставляє вихідні значення вхідним. Нейронна мережа працює тільки з числовими вхідними даними, тому важливим етапом при підготовці даних є перетворення і кодування даних. При використанні на вхід нейронної мережі слід подавати значення з того діапазону, на якому вона навчалася. Наприклад, якщо при навчанні нейронної мережі на один з її входів подавалися значення від 0 до 10, то при її застосуванні на вхід слід подавати значення з цього ж діапазону або довколишні. Існує поняття нормалізації даних. Метою нормалізації значень є перетворення даних до вигляду, який найбільш підходить для обробки, тобто дані, що надходять на вхід, повинні мати числовий тип, а їх значення повинні бути розподілені в певному діапазоні. Нормалізатор може призводити дискретні дані до набору унікальних індексів або перетворювати значення, що лежать в довільному діапазоні, в конкретний діапазон, наприклад, [0..1]. Нормалізація виконується шляхом ділення кожної компоненти вхідного вектора на довжину вектора, що перетворює вхідний вектор в одиничний ..
Ємність ІНС - число класів, що пред'являються на входи ІНС для розпізнавання. Для поділу множини вхідних класів, наприклад, за двома класами достатньо всього одного виходу. При цьому кожен логічний рівень - 1 і 0 - Буде позначати окремий клас. На двох виходах можна закодувати вже 4 класу і так далі. Для підвищення достовірності класифікації бажано ввести надмірність шляхом виділення кожному класу одного нейрона у вихідному шарі або, що ще краще, декількох, кожен з яких навчається визначати приналежність образу до класу зі своїм ступенем достовірності, наприклад: високою, середньою і низькою. Такі ІНС дозволяють проводити класифікацію вхідних даних, об'єднаних у нечіткі (розмиті або пересічні) безлічі. Ця властивість наближає подібні ІНС до умов реального життя.
. 7.1 Максимізація ентропії як мета предобработки
Розглянемо основний керівний принцип, загальний для всіх етапів предобработки даних. Припустимо, що у вихідні дані представлені в числовій формі і після відповідної нормировки все вхідні і вихідні змінні відображаються в одиничному кубі. Завдання нейросетевого моделювання - знайти статистично достовірні залежності між вхідними та вихідними змінними. Єдиним джерелом інформації для статистичного моделювання є приклади з навчальної вибірки. Чим більше біт інформації принесе приклад - тим краще використовуються наявні в нашому розпорядженні дані.
Розглянемо довільну компоненту нормованих (предобработанних) даних. Середня кількість інформації, принесеної кожним прикладом, одно ентропії розподілу значень цієї компоненти. Якщо ці значення зосереджені у відносно невеликій області одиничного інтервалу, інформаційний зміст такої компоненти мало. У межі нульової ентропії, коли всі значення змінної збігаються, ця змінна не несе ніякої інформації. Навпаки, якщо значення змінної рівномірно розподілені в одиничному інтервалі, інформація такої змінної максимальна.
. 7.2 Нормировка даних
Як входами, так і виходами можуть бути абсолютно різнорідні величини. Очевидно, що результати нейросетевого моделювання не повинні залежати від одиниць виміру цих величин. А саме, щоб мережа трактувала їх значення одноманітно, все вхідні і вихідні величин повинні бути приведені до єдиного масштабу. Крім того, для підвищення швидкості і якості навчання корисно провести додаткову предобработку, вирівнює розподілу значень ще до етапу навчання.
Індивідуальна нормировка даних.
Приведення до єдиного масштабу забезпечується нормуваннями кожної змінної на діапазон розкиду її значень. У найпростішому варіанті це - лінійне перетворення:
(2.2)
в одиничний відрізок [0; 1]. Узагальнення для відображення даних в інтервал [- 1; 1], рекомендованого для вхідних даних тривіально.
Ліні...