иконується, коли на різні входи подаються дані різної розмірності. Наприклад, на перший вхід мережі подається величини зі значеннями від нуля до одиниці, а на другий - від ста до тисячі. За відсутності нормировки значення на другому вході будуть завжди надавати істотно більший вплив на вихід мережі, ніж значення на першому вході. При нормуванні розмірності всіх вхідних і вихідних даних зводяться воєдино;
Квантування виконується над безперервними величинами, для яких виділяється кінцевий набір дискретних значень. Наприклад, квантування використовують для завдання частот звукових сигналів при розпізнаванні мови; фільтрація виконується для В«зашумленихВ» даних. p align="justify"> Крім того, велику роль відіграє саме уявлення як вхідних, так і вихідних даних. Припустимо, мережа навчається розпізнаванню букв на зображеннях і має один числовий вихід - номер букви в алфавіті. У цьому випадку мережа отримає помилкове уявлення про те, що букви з номерами 1 і 2 більш схожі, ніж букви з номерами 1 і 3, що, загалом, невірно. Для того, щоб уникнути такої ситуації, використовують топологію мережі з великим числом виходів, коли кожен вихід має свій сенс. Чим більше виходів у мережі, тим більшу відстань між класами і тим складніше їх сплутати. p align="justify"> 2) Підготовка і нормалізація даних.
) Вибір топології мережі.
Вибирати тип мережі слід виходячи з постановки завдання і наявних даних для навчання. Для навчання з учителем потрібна наявність для кожного елемента вибірки В«експертноїВ» оцінки. Іноді отримання такої оцінки для великого масиву даних просто неможливо. У цих випадках природним вибором є мережа, яка навчається без вчителя, наприклад, самоорганізована карта Кохонена або нейронна мережа Хопфілда. При вирішенні інших завдань, таких як прогнозування часових рядів, експертна оцінка вже міститься у вихідних даних і може бути виділена при їх обробці. У цьому випадку можна використовувати багатошаровий перцептрон або мережа Ворда. p align="justify"> 4) Експериментальний підбір характеристик мережі.
Після вибору загальної структури потрібно експериментально підібрати параметри мережі. Для мереж, подібних перцептроном, це буде число шарів, число блоків у прихованих шарах (для мереж Ворда), наявність або відсутність обхідних сполук, передавальні функції нейронів. При виборі кількості шарів і нейронів у них слід виходити з того, що здатності мережі до узагальнення тим вище, чим більше сумарне число зв'язків між нейронами. З іншого боку, число зв'язків обмежене зверху кількістю записів у навчальних даних. p align="justify"> 5) Експериментальний підбір параметрів навчання.
Після вибору конкретної топології, необхідно вибрати параметри навчання нейронної мережі. Цей етап особливо важливий для мереж, що навчаються з учителем. Від правильного вибору параметрів залежить не тільк...