илки навчання від складності НС
При навчанні персептрона приймалося значення ширини вікна L = 10, що відповідає входів НС. Аналіз малюнка 5 - малюнка 6 показує, що при вирішенні задачі класифікації (розпізнавання) режимів роботи ГТД досить приймати ширину тимчасового вікна рівною 8 Вё 12, а число нейронів прихованого шару 35 Вё 50.
.5 Вибір алгоритму навчання
На даному етапі досліджувалися процеси навчання НС класифікатора за допомогою наступних алгоритмів навчання [12 - 15]:
) алгоритм зворотного поширення помилки (Back Propagation)
(8)
де h - величина, що задає швидкість збіжності;
В
де - похідна активаційної функції нейрона (в даному випадку сігмоідная функція).
) алгоритм швидкого розповсюдження (Quick Propagation):
, (9)
де a - коефіцієнт моменту, ; g - коефіцієнт мінімізації абсолютних значень вагових коефіцієнтів (зазвичай g = 10-4);
) алгоритм сполучених градієнтів (Conjugate Gradients):
,
, (10)
де - вектор напрямку градієнта;
- значення градієнта;
Н - матриця Гессе (гессіан);
) алгоритм Quasi Newton:
(11)
Графік залежності помилки навчання НС від числа циклів (для різних алгоритмів навчання) наведено на рисунку 7. Як видно з цього малюнка найбільшою швидкістю збіжності володіють алгоритми (3) і (4). Необхідну кількість циклів навчання складає 600 Вё 1000.
В
1 - Back Propagation; 2 - Quick Propagation;
- Conjugate Gradients; 4 - Quasi Newton.
Малюнок 7 - Залежність помилки навчання НС від числа циклів (на різних алгоритмах навчання)
.6 Оцінка ефективності
Як вже за...