1) зниження точності, дисперсія оцінок збільшується, параметри моделі коррелірованни, що призводить до труднощів у інтерпретації моделі;
2) оцінки коефіцієнтів стають чутливі до особливостей безлічі вибіркових даних. p> Причиною мультіколлінеарності можуть служити:
1) наявність автокореляції в ряду спостережень;
2) кореляція між змінними;
3) високий рівень перешкод.
Під мультіколлінеарності будемо розуміти спряженість незалежних змінних, це означає "майже лінійну залежність "векторів, тобто існування чисел таких, що:
(3.3)
Коли рівність (3.3) має місце, говорять про суворої мультиколінеарності. p> При наявності мультиколінеарності оцінки МНК стають позитивними, тобто дисперсія оцінок буде вельми великий. За наявності (3.3) матриця стає погано обумовленою, зокрема, тобто . br/>
1.4.1 Рекомендації щодо усунення мультиколінеарності
Найбільш простий спосіб усунення мультиколінеарності - виключення однієї змінної з пари змінних, коефіцієнт кореляції між якими більше 0,8. p> Найпростіші рекомендації щодо усунення мультиколінеарності зводяться до скорочення розглянутого безлічі пояснюють змінних за рахунок тих з них, які лінійно пов'язані з уже включеними в модель. Виконання цих рекомендацій веде до побудови скороченої моделі, яка не завжди відповідає вимозі спостережливості і керованості. Щоб уникнути небажаних ефектів мультиколінеарності, зберігши при цьому весь цікавий для нас набір пояснюють змінних, пропонується збільшити розміри вибірки шляхом отримання додаткової інформації. Ясно, що не будь-яке довільне збільшення вибірки веде до ослаблення ефектів мультиколінеарності. p> Часто для усунення мультиколінеарності використовують прийоми, засновані на попередньому перетворенні вихідних даних шляхом отримання відхилень від тренда. Однак, регресійна модель, отримана завдяки таким перетворенням, слабо піддається інтерпретації. Іноді використовують апріорну інформацію про наявні між параметрами зв'язках у вигляді обмежень при обчисленні оцінюваних параметрів регресії. За винятком найпростіших випадків, реалізація цих підходів досягається суттєвим ускладненням обчислювальної процедури знаходження оцінок. Широке поширення отримали методи усунення мультиколінеарності, засновані на заміні вихідного безлічі пояснюють змінних головними компонентами з наступним відкиданням тих з них, які незначні в рівнянні регресії. Близьким до розглянутого можна вважати методи, засновані не так на компонентному, а на факторному аналізі, причому аналогія простежується як по достоїнствах, так і щодо недоліків. p> У тих випадках, коли перелік пояснюють змінних регресійній моделі занадто великий, рекомендується розділити їх на групи високо корельованих і в кожній групі побудувати узагальнюючі фактори у вигляді головної компоненти, які далі використовуються як нові змінні споруджуваної моделі.
1.4.2 Довірчі інтервали для рівняння регресії
Для...