p>
1
х5
0,45605173
-0,003474
1
х8
0,59499201
-0,342415
0,619844
1
х10
-0,635065
0,297207
-0,685489
-0,6729266
1
Для отримання адекватної моделі необхідно усунути мультиколінеарності, тобто вивести з розгляду фактори, які мають сукупний вплив один на одного. Наявність мультиколінеарності факторів може означати, що деякі з них завжди будуть діяти в унісон. Для оцінки мультиколінеарності факторів може використовуватися визначник матриці парних коефіцієнтів кореляції між чинниками. Чим ближче до нуля цей проеделітель, тим сильніше мультиколінеарності факторів. Для наших парних коефіцієнтів кореляції між чинниками матриця має вигляд:
В
Визначник матриці парних коефіцієнтів кореляції між чинниками дорівнює 0,2, що досить близько до 0, отже, між рештою факторами спостерігається мультиколінеарності.
Продовжимо видалення факторів, що є самими неінформативними, регулярно зіставляючи значення множинного коефіцієнта кореляції і детермінації (який оцінює якість побудованої моделі в цілому) і перевіряючи значимість рівняння регресії.
У наступних таблицях представлені результати регресійного аналізу після виключення факторів х1, х5, х8, х10.
ВИСНОВОК ПІДСУМКІВ
Регресійна статистика
Множинний R
0,999530603
R-квадрат
0,999061427
Нормований R-квад рат
<...