У практиці прогнозування економічних процесів переважаючими, принаймні, до останнього часу, є статистичні моделі екстраполяціонного методу. Це викликано, головним чином, тим, що статистичні методи спираються на апарат аналізу, розвиток і практика застосування якого мають досить тривалу історію. Світова практика володіє обширним матеріалом в області перспективного аналізу, і вже зараз очевидно, що успішність прогнозів, одержуваних на основі статистичних моделей, істотно залежить від аналізу емпіричних даних, від того, наскільки такий аналіз зможе виявити й узагальнити закономірності поведінки досліджуваних процесів в часі.
. 2 Завдання кореляційно-регресійного аналізу
У статистиці показники, що характеризують соціально-економічні явища, можуть бути пов'язані або кореляційної залежністю, або бути незалежними. Кореляційна залежність є окремим випадком стохастичної залежності, за якої зміна значень факторних ознак (х 1 х 2 ..., х n) тягне за собою зміну середнього значення результативної ознаки. Кореляційна залежність досліджується за допомогою методів кореляційного і регресійного аналізів.
Кореляційний аналіз - метод, що дозволяє виявити залежність між декількома випадковими величинами. Кореляційний аналіз, як і інші статистичні методи, заснований на використанні імовірнісних моделей, що описують поведінку досліджуваних ознак в деякій генеральної сукупності, з якої отримані експериментальні значення xi і yi.
Методами кореляційного аналізу вирішуються наступні завдання:
1) Взаємозв'язок. Чи є взаємозв'язок між параметрами?
) Прогнозування. Якщо відомо поведінка одного параметра, то можна передбачити поведінку іншого параметра, коррелирующего з першим.
) Класифікація та ідентифікація об'єктів. Кореляційний аналіз допомагає підібрати набір незалежних ознак для класифікації.
Регресійний аналіз полягає у визначенні аналітичного виразу зв'язку у вигляді рівняння регресії.
Метою регресійного аналізу є оцінка функціональної залежності умовного середнього значення результативної ознаки (У) від факторних (х 1. Х 2 ..., х n).
Основні завдання регресійного аналізу наступні:
) визначення виду і форми залежності;
) оцінка параметрів рівняння регресії;
) перевірка значущості рівняння регресії;
) перевірка значущості окремих коефіцієнтів рівняння;
) побудова інтервальних оцінок коефіцієнтів;
) дослідження характеристик точності моделі;
) побудова точкових та інтервальних прогнозів результуючої змінної.
Регресійний аналіз дуже тісно пов'язаний з кореляційним аналізом. У кореляційному аналізі досліджується напрямок і тіснота зв'язку між кількісними змінними. У регресійному аналізі досліджується форма залежності між кількісними змінними. Тобто фактично обидва методи вивчають одну й ту ж взаємозв'язок, але з різних сторін, і доповнюють один одного. На практиці кореляційний аналіз виконується перед регресійним аналізом. Після докази наявності взаємозв'язку методом кореляційного аналізу можна виразити форму цієї зв'язку з допомогою регресійного аналізу. Користуючись методами кореляційно-регресійного аналізу, аналітики вимірюють тісноту зв'язків показників за допомогою коефіцієнта кореляції. При цьому виявляються зв'язки, різні за силою (сильні, слабкі, помірні і ін.) І різні за напрямом (прямі, зворотні). Якщо зв'язку виявляться істотними, то доцільно буде знайти їх математичне вираження у вигляді регресійної моделі і оцінити статистичну значущість моделі.
2.2.1 Кореляція випадкових величин
Пряме токування терміна кореляція - стохастична, ймовірна, можливий зв'язок між двома (парна) або декількома (множинна) випадковими величинами. Для числової оцінки можливого зв'язку між двома випадковими величинами: Y (з середнім M y і середньоквадратичним відхиленням S y) і - X (із середнім M x і середньоквадратичним відхиленням S x) прийнято використовувати так званий коефіцієнт кореляції
xy =.
Цей коефіцієнт може приймати значення від - 1 до +1 - залежно від тісноти зв'язку між даними випадковими величинами. Якщо коефіцієнт кореляції дорівнює нулю, то X і Y називають некоррелірованнимі. Вважати їх незалежними звичайно немає підстав - виявляється, що існують такі, як правило - нелінійні зв'язки величин, при яких R xy=0, хоча величини залежать один від одного. Зворотне завжди вірно - якщо величини незалежні, то R xy=0. Але, якщо модуль R xy=1, то є всі підстави припускати наявність лінійного зв'язку між Y і X....