джуваний процес у багатьох випадках описується не одним рівнянням, а системою, де одні й ті ж змінні можуть бути в одних випадках пояснюють, а в інших - залежними. По-третє, досліджувані взаємозв'язки можуть бути (і звичайно є) нелінійними, а процедура лінеаризації не завжди легко здійсненна і може призводити до спотворень. По-четверте, структура описуваного процесу може обумовлювати наявність різного роду зв'язків між оцінюваними коефіцієнтами регресії, що також передбачає необхідність використання спеціальних методів.
Найбільш поширеним в практиці статистичного оцінювання параметрів рівнянь регресії є метод найменших квадратів. Цей метод заснований на ряді передумов щодо природи даних і результатів побудови моделі. Основні з них - це чіткий поділ вихідних змінних на залежні і незалежні, некоррелірованні факторів, що входять до рівняння, лінійність зв'язку, відсутність автокореляції залишків, рівність їх математичних очікувань нулю і постійна дисперсія. Емпіричні дані не завжди володіють такими характеристиками, тобто передумови МНК порушуються. Застосування цього методу в чистому вигляді може призвести до таких небажаних результатами, як зміщення оцінюваних параметрів, зниження їх спроможності, стійкості, а в деяких випадках може й зовсім не дати рішення. Для пом'якшення небажаних ефектів при побудові регресійних рівнянь, підвищення адекватності моделей існує ряд удосконалень МНК, які застосовуються для даних нестандартної природи.
Однією з основних гіпотез МНК є припущення про рівність дисперсій відхилень еi, тобто їх розкид навколо середнього (нульового) значення ряду повинен бути величиною стабільною. Це властивість називається гомоскедастічностью. На практиці дисперсії відхилень досить часто неоднакові, тобто спостерігається гетероскедастичності. Це може бути наслідком різних причин. Наприклад, можливі помилки у вихідних даних. Випадкові неточності у вихідній інформації, такі як помилки в порядку чисел, можуть надати відчутний вплив на результати. Часто більший розкид відхилень єi, спостерігається при великих значеннях залежної змінної (змінних). Якщо в даних міститься значна помилка, то, природно, більшим буде і відхилення модельного значення, розрахованого за помилковим даними. Для того, щоб позбутися від цієї помилки нам потрібно зменшити внесок цих даних в результати розрахунків, задати для них меншу вагу, ніж для всіх інших. Ця ідея реалізована в підвішеному МНК. p> Нехай на першому етапі оцінена лінійна регресійна модель з допомогою звичайного МНК. Припустимо, що залишки еi незалежні між собою, але мають різні дисперсії (оскільки теоретичні відхилення еi не можна розрахувати, їх зазвичай заміняють на фактичні відхилення залежної змінної від лінії регресії ^., для яких формулюються ті ж вихідні вимоги, що і для єi). У цьому випадку квадратну матрицю ковариаций cov (ei, ej) можна представити у вигляді:
В
де cov (ei, ej) = 0 при i В№ j; cov (ei, ej) = S2; п - довжина р...