Tr>
Дисперсійний аналіз
В
df
SS
MS
F
Значимість F
Регресія
1
304,3725
304,3725
22,30559
0,000116
Залишок
21
286,557
13,64557
Разом
22
590,9296
В В В
В
Коефіцієнти
Стандартна помилка
t-статистика
P-Значення
Нижні 95%
Верхні 95%
Y-перетин
3,014625
1,592152
1,893427
0,072162
-0,29644
6,325686
Мінлива X 1
0,548419
0,11612
4,722879
0,000116
0,306935
0,789903
Регресія для гіперболічної функції:
В
Регресія для параболічної функції:
В
Регресія для показової функції:
В
Як видно з цих даних, коефіцієнт детермінації у регресії для гіперболічної функції значно гірше, ніж у інших моделей. А константа і коефіцієнт при змінної в моделі параболічної регресії не значимі згідно t-критерієм Стьюдента.
Коефіцієнти детермінації для моделей лінійної та показовою регресій приблизно Одинокова, причому R-квадрат більше у показовою регресії. Порівняємо ці 2 моделі за іншими показниками. Розрахуємо середню квадратичну помилку рівняння тренду і інформаційні критерії Акейка і Шварца:
,,
Чим менше значення інформаційних критеріїв, тим краще модель.
Отже, для моделі лінійної регресії одержимо:
AIC = 5,131843277
BIC = 2,658769213 Пѓ = 3,694
Для моделі регресії показовою функції маємо:
AIC = 5,477785725 BIC = 2,831740437 Пѓ = 4,028
Всі 3 показника краще в першому випадку.
Застосуємо модель лінійної регресії для аналітичного вирівнювання вихідного ряду. Модель така:
у = 3,01 +0,55 t;
Значення рівнів ряду, отриманих за моделлю, і залишків представлені в наступній таблиці:
Спостереження
Передвіщене Y
Залишки
1
3,563043478
-0,063043478
2
4,111462451
1,088537549
3
4,659881423
-2,459881423
4
5,208300395
-1,608300395
5
5,756719368
1,343280632
6
6,30513834
0,59486166
<...