цієнт Спірмена є аналогом парного коефіцієнта кореляції, але дозволяє виявити взаємозв'язок між якісним і кількісним ознаками:, де d - рангова різниця (-); n - кількість пар варіантів. Значимість коефіцієнта Сірмій перевіряється за допомогою t-критерію Стьюдента. Критичне значення визначається за таблицею розподілу Стьюдента:. Якщо, то основна гіпотеза відкидається, і між змінною і залишками регресійній моделі існує взаємозв'язок, тобто в моделі присутня гетероскедастичності. Усунення гетероскедастичності. Найбільш простим методом усунення гетероскедастичності є зважування параметрів регресійної моделі. Суть методу полягає в тому, що окремим спостереженнями незалежної змінної з максимальним среднеквадратическим відхиленням випадкової помилки надається більша вага, а іншим спостереженнями з мінімальним среднеквадратическим відхиленням випадкової помилки надається меншу вагу. Завдяки цьому оцінки коефіцієнтів рівняння залишаються ефективними. Модель регресії при такому підході називається зваженою регресією з вагами. Після знаходження оцінок дисперсій залишків можна скористатися доступним узагальненим або зваженим методом найменших квадратів для обчислення оцінок коефіцієнтів рівняння регресії, які розрізняються лише оцінкою. Якщо не можна виконати корекцію гетероскедастичності, то цілком можливо обчислити оцінки коефіцієнтів рівняння регресії за звичайним МНК, але коригувати ковариационную матрицю оцінок коефіцієнтів, так як умова гетероскедастичності призводить до збільшення даної матриці. br/>
59. Узагальнений метод найменших квадратів (ОМНК). Властивості ОМНК-оцінок
Заможні, незсунені та ефективні оцінки коефіцієнтів регресійної моделі з гетероскедаскічнимі або корельованими випадковими помилками визначається за допомогою ОМНК.
Нормальна лінійна регресійна модель будується на підставі наступних передумов про випадкових помилках:
Дисперсія випадкової помилки рівняння регресії є величиною, постійною для всіх спостережень:
Випадкові помилки рівняння регресії НЕ коррелірованни між собою, тобто коваріація випадкових помилок будь-яких двох різних спостережень дорівнює 0:, де
У разі гетероскедастичності залишків порушується перше з перерахованих властивостей, де, а в разі автокореляції залишків порушується друга властивість. Регресійна модель, для якої не виконуються зазначені властивості, називається узагальненою лінійної регресійної моделлю. p> У матричному вигляді узагальнену лінійну регресію можна записати так:, де Х - невипадкова матриця факторних змінних; - випадкова помилка регресійній моделі з нульовим матожиданием і дисперсією,, - коваріаційна матриця випадкових помилок узагальненого регресійного рівняння.
Для нормальної регресійній моделі дисперсія випадкової помилки визначалася з умови сталості дисперсій випадкових помилок.
В узагальненій регресійній моделі коваріаційна матриця випадкових помилок будується виходячи з умови непостійності дисперсій регресійних залишків
:
У ковариационной матриці випадкових помилок і полягає основна відмінність узагальненої лінійної регресійної моделі від нормальної лінійної моделі регресії.
Теорема Айткена.
У класі лінійних незміщене оцінок невідомих коефіцієнтів узагальненої регресійної моделі оцінка буде мати найменшу ковариационную матрицю.
Формула для розрахунку матриці ковариаций ОМНК - оцінок узагальненої регресії:.
- є невідомим параметром моделі, який потрібно оцінити:
.
Де n, p-розмірність матриці.
60. Дискримінантний аналіз як метод багатовимірної класифікацій з навчанням
Дискримінантний аналіз є одним з методів багатовимірного статистичного аналізу. Мета дискримінантного аналізу полягає в тому, щоб на основі різних характеристик (ознак, параметрів) об'єкта класифікувати його, тобто віднести до однієї з кількох груп (класів) деяким оптимальним способом. Відмітною властивістю дискримінантного аналізу є те, що досліднику заздалегідь відомо число груп (класів) на які потрібно розбити розглянуту сукупність об'єктів. Завдання полягає в тому, щоб побудувати вирішальне правило, що дозволяє за результатами вимірювань параметрів об'єкта вказати групу, до якої він належить. Розглядаючи завдання класифікації за наявності навчальних вибірок (В«класифікації з навчаннямВ» як її ще називають) в термінах статичного варіанта завдання вихідних статистичних даних на В«входіВ» завдання потрібно мати n класифікуються об'єктів, представлених даними види:
Коли кожна i-й рядок матриці відображає значення p характеризують i-й об'єкт ознак,, ...,. Навчальні вибірки, j = +1, 2, ..., k, кожна j-я з яких визначає значення аналізованих ознак на об'єктах (тобто i = 1, 2, ..., n), про які апріорі відомо, що всі вони належать j- му класу, прич...