п-ого степеня [66]
В
де: t - час;
- вектор параметрів МОДЕЛІ.
Як показали розрахунки з достатності для практики точністю прогнозування на один крок (рік) можна обмежитися . Тоді експоненціальне згладжування на крок вперед буде візначатісь співвідношенням
В
КОЕФІЦІЄНТИ залежності (3.7) віражаються формулами експоненціального згладжування. Для формула експоненціального згладжування буде такою [20]:
В
При переході до поліномів порядку ВИЩОГО за одиницю Використовують експоненціальне згладжування р-го порядку [66]
В
взаємозв язок между коефіцієнтамі залежності (1.24) i величинами и , Які входять у формулу (3.9), можна отріматі Із крітерію мінімуму зваженої суми квадратів [66]
В
де ;
- дискретності годину - порядкові номери відліку значень у моменти годині. Віявляється [66], что Величини и можна віразіті через КОЕФІЦІЄНТИ и згладжені значення. У результаті отрімаємо рекурентні процедури, Які наведено в табл. 3.3 [57, с. 165]. p> У формулах, что наведені у табл. 3.3, набуває значення 0, 1, ..., n. Тоб у процесі прогнозом враховуються Поточні Значення стоку для прогнозування майбутніх значень, де - крок прогнозу. Для пріймають, що. p> Як альтернативний експоненціальному згладжуванню Розглянуто метод прогнозування, Який базується на вікорістанні нейромереж.
Таблиця 3.3 - КОЕФІЦІЄНТИ МОДЕЛІ (2)
МодельКоефіцієнті МОДЕЛІ Постійна (n = 0) . Лінійна (n = 1) , . Квадратичне (n = 2) , , .
Для прогнозом майбутніх значень Функції за ее минули значень вікорістовується адаптивним лінійній зваження суматор, Який відомій в літературі [57] як Адалайн (Adaptive Linear Neuron) (рис. 3.4) . ВІН Складається Із двох частин: лінійно-зваження суматора з адаптивно коректувальнімі вагамі и підсістемі, яка призначила для адаптівної корекції ціх ваг и яка реалізує так звань LMS-алгоритм
,
де: - ваги нейромережі;
- похібка прогнозом;
- коефіцієнт навчання;
- номер відліку ординат Функції;
- кількість минулих значень, Які Використовують для прогнозом.
В
Малюнок 3.4 - нейромереж прогнозом стоку р.. Дністер
До виходе суматора прієднують, як правило, лінійну сігмоїду [57]. Мінулі значення, а подаються у секційну лінію затримки. Кожна лінія затримки на рис. 3.4 позначені буквою D. Вихід адаптивного фільтру обчислюють за такою формулою:
В
де - величина Зсув.
Відбір МОДЕЛІ здійснюється за помощью двох ознакой. Дерло Ознакою служила величина [66]
В
де:; - розмір статистики; - розмір вектора ОЦІНКИ.
Ознака характерізує степінь згладжування статистичних даніх и при співпаданні детермінованої основи и Функції є незміщеною оцінкою дісперсії [66].
Тому, як правило, та пробних функція, для Якої менше, точніше опісує детерміновану основу. Прото НЕ всегда мінімум відповідає мінімуму помилки апроксімації. Можливі випадка, коли Використання позбав цієї ознакой спричиняє грубі помилки, Виникнення якіх пояснюється [66] як неповнотою системи ознакой, так и тім, что розглядається, як правило, неповний кла пробних функцій.
Другою Ознакою Вибори пробної Функції детермінованої основи є коефіцієнт кореляції [66]
В
де .
При співпаданні детермінованої основі І пробної Функції Значення коефіцієнта кореляції буде прямуваті до нуля [66], оскількі. Ця властівість коефіцієнта кореляції служити основою для відбору пробних функцій. Ознака НŠ​​ҳльки показує, яка функція Із системи функцій Найкраще апроксімує експериментальні дані, альо ї дозволяє сделать Висновок погана чг добра сама по Собі функція, яка розглядається. Дійсно, ЯКЩО функція, что розглядається Дає Значення близьким до одініці, то це є Ознакою того, что існує Інша функція, яка краще відповідає статістіці, чем Вихідна функція. p> Для даніх, Які наведені на рис. 3.2, прогн...