и можуть бути абсолютно точними, але це можливо лише в результаті випадкового збіги, і навіть у тому випадку не буде способу дізнатися, що оцінки абсолютно точні.
Першим кроком є ​​визначення залишку для кожного спостереження. Різниця між фактичним і розрахунковим значеннями, тобто Y і Y передбачене, описується як залишок . Позначимо залишок якогось спостереження за ei. p> Стандартний ж залишок (відхилення) - міра розкиду для розподілу ймовірностей, це квадратний корінь з дисперсії.
Очевидно, що ми хочемо побудувати лінію регресії таким чином, щоб ці залишки були мінімальними. Необхідно вибрати якийсь критерій підбору, який буде одночасно враховувати величину всіх залишків. Один із способів вирішення поставленої проблеми полягає в мінімізації суми квадратів залишків
S = ГҐei ВІ
Відповідно до цього критерію, чим менше S, тим суворіше відповідність.
Існують й інші досить розумні рішення, проте при виконанні певних умов метод найменших квадратів дає незсунені та ефективні оцінки a і b.
6. Якість оцінки: коефіцієнт R ВІ
Мета регресійного аналізу полягає в поясненні поведінки залежної змінної Y. Ми намагаємося зробити це шляхом визначення регресійної залежності Y від відповідно обраної незалежної змінної X. Але ми не можемо за допомогою рівняння регресії пояснити розбіжність між фактичним і розрахунковим значеннями Y. Коефіцієнт детермінації R ВІ - та частина дисперсії Y, яка пояснена рівнянням регресії.
R ВІ = D (Y розрахункове)
D (Y)
Максимальне значення коефіцієнта R ВІ одно одиниці. Це відбувається в тому випадку, коли лінія регресії точно відповідає всім спостереженнями, так що Y = Yрасчетному для всіх спостережень і всі залишки дорівнюють нулю.
Якщо у вибірці відсутня видима зв'язок між X і Y, то R ВІ буде близький до нуля. За інших рівних умов бажано, щоб коефіцієнт R ВІ був якомога більше.
7. Точність коефіцієнтів регресії
Збільшуючи u, ми збільшуємо його стандартне відхилення, отже, збільшуємо стандартні відхилення a і b. Чим більше число спостережень, тим менше дисперсії оцінок. Чим більшою інформацією ми володіємо, тим більше точними будуть наші оцінки. Чим більше дисперсія X, тим менше будуть дисперсія коефіцієнтів регресії. p> Коефіцієнти регресії обчислюються на підставі припущення, що спостережувані зміни Y відбуваються внаслідок змін Х, але насправді вони лише частково викликані зміною Х, а почасти варіаціями u. Чим менше дисперсія Х, тим більше, ймовірно, буде відносний вплив фактора випадковості при визначенні відхилень Y і тим більше ймовірно, що регресійний аналіз може виявитися невірним. Важливі значення мають дисперсія випадкового члена і дисперсія Х.
Дисперсія випадкового члена нам невідома, але ми можемо отримати її оцінку на основі залишків. Розкид залишків щодо лінії регресії буде відображати не...