го шару з нейронами -го шару. Тоді функціонування персептрона можна описати наступною системою рівнянь:
для вхідного шару
,
де - вхідний вектор;
для прихованого шару
, ; (6)
для вихідного шару
, .
Тут - число нейронів l-го шару; і - величини зсуву нейронів, відповідно, прихованого і вихідного шарів;
- активаційна функція нейрона.
У нашому випадку , а .
Аналіз різних архітектур НС показав, що в якості нейронної мережі доцільно прийняти тришаровий персептрон.
Основними питаннями, що потребують свого рішення, після вибору архітектури НС є:
визначення ширини вікна L;
вибір виду функції активації нейронів;
пошук оптимальної кількості нейронів у прихованому шарі;
вибір алгоритму навчання.
Перераховані вище питання реалізуються на наступному етапі.
.4 Вибір структури НС
Очевидно, що малий розмір ширини вікна не дозволить правильно розпізнати режими роботи ГТД, а великий розмір ширини вікна L захопить сусідні класи, що зменшить достовірність розпізнавання режимів. Залежність помилки навчання НС на виході персептрона від розміру часового вікна показана на рисунку 5. У даному випадку в якості функції активації застосовувалася сігмоідная функція виду [12]:
, (7)
число нейронів прихованого шару приймалося рівним 35.
Аналогічні дослідження проводилися з метою вибору оптимальної кількості нейронів у прихованому шарі. При цьому враховувалося, що мале їх кількість призводить до неякісного навчання НС, а велика - до ефекту перенавчання НС [13]. br/>В
Рисунок 5 - Залежність помилки навчання НС від ширини тимчасового вікна
На малюнку 6 показано залежність помилки навчання персептрона (Е) від кількості нейронів у прихованому шарі (m2).
В
Рисунок 6 - Залежність пом...