можливості її практичного застосування досить обмежені. Для оцінки функції регресії необхідно знати аналітичний вид двовимірного розподілу (X, Y). Тільки знаючи вигляд цього розподілу, можна точно визначити вид функції регресії, а потім оцінити його параметри. Однак для подібної оцінки ми найчастіше маємо лише вибіркою обмеженого обсягу, по якій потрібно знайти вид двовимірного розподілу (X, Y), а потім вид функції регресії. Це може привести до значних помилок, тому що одну і ту ж сукупність точок (x i , y i ) на площині можна однаково успішно описати за допомогою різних функцій.
Для характеристики форми зв'язку при вивченні кореляційної залежності користуються поняттям кривої регресії. Кривий регресії Y по X (або Y по X) називається умовне середнє значення випадкової змінної Y (Х), що розглядається як функція від x (у). Ця функція володіє однією чудовою властивістю: вона дає найменшу середню похибку оцінки прогнозу.
2. Постійна і випадкова складові випадкової зміною
Часто замість розгляду випадкової величини як єдиного цілого можна і зручно розбити її на постійну і чисто випадкову складові, де постійна складова завжди є її математичне сподівання. Якщо x випадкова змінна і m - її математичне сподівання, то декомпозиція випадкової величини записується таким чином:
x = m + u,
де u чисто випадкова складова (в регресійному аналізі вона зазвичай представлена ​​випадковим членом)
3. Модель парної лінійної регресії
Коефіцієнт кореляції показує, що дві змінні зв'язані один з одним, проте не дає уявлення про те, яким чином вони пов'язані.
Розглянемо найпростішу модель: y = a + bx + u
Величина y розглядається як залежна змінна, що складається з:
1. невипадковою складової a + bx, де x виступає як пояснює (або незалежна) змінна, а постійні величини a і b - як параметри рівняння
2. випадкового члена u
На графіках підбору в виконану роботу ми бачимо Y передбачене (в– ) і Y отримане. На них показано, як комбінація цих двох складових визначає величину Y. Показники Xi - це гіпотетичні значення пояснюватиме змінної. Якби співвідношення між Y і X було точним, то відповідні значення Y були б представлені Y передбачене (в– ). Наявність випадкового члена призводить до того, що в дійсності значення Y виходить іншим.
Завдання регресійного аналізу полягає в одержанні оцінок a і b і, отже, в визначенні положення прямої по точках.
Очевидно, що чим менше значення u, тим легше це завдання. Дійсно, якби випадковий член відсутній зовсім, то точки Y збігалися б з точками Y передбачене і точно б показали положення прямій. У цьому нагоди було б досить просто побудувати цю пряму і визначити значення a і b.
Чому існує випадковий член:
1. Невключення пояснюють змінних. Співвідношення між X і Y майже завжди є дуже великим спрощенням. У дійсност...