і існують інші фактори впливають на Y, що не враховані у формулі y = a + bx + u. Вплив чинників призводить до того, що спостережувані точки лежать поза прямою. Часто відбувається так, що маються змінні, які ми хотіли б включити в регресійне рівняння, але не можемо цього зробити тому, що не знаємо, як їх виміряти, наприклад психологічні чинники. Можливо, що існують також інші фактори, які ми можемо виміряти, але які чинять такий слабкий вплив, що їх не варто враховувати. Крім того, можуть бути фактори, які є суттєвими, але які ми через відсутність досвіду такими не вважаємо. Об'єднавши всі ці складові, ми отримуємо те, що позначено як u. p> 2. Агрегування змінних. під багатьох випадках розглянута залежність - це спроба об'єднати разом деяке число співвідношень. Так як окремі співвідношення, ймовірно, мають різні параметри, будь-яка спроба визначити співвідношення між ними є лише апроксимацією. Спостережуване розбіжність при цьому приписується наявності випадкового члена.
3. Неправильне опис структури моделі. Структура моделі може бути описана неправильно або не цілком правильно. Іноді може здатися, що існує залежність між Y і X, але це буде лише апроксимація, і розбіжність знову буде пов'язано з наявністю випадкового члена. p> 4. Неправильна функціональна специфікація. Функціональне співвідношення між Y і X математично може бути визначено неправильно. Наприклад, справжня залежність може не бути лінійної, а бути більш складною. Безумовно, треба постаратися уникнути виникнення цієї проблеми, використовуючи відповідну математичну формулу, але будь-яка сама витончена формула є лише наближенням, і існуюче розбіжність вносить внесок у залишковий член.
5. Помилки вимірювання. Якщо в вимірі однієї або більше взаємопов'язаних змінних є помилки, то спостережувані значення не відповідатимуть точному співвідношенню, і існуюче розбіжність буде вносити внесок у залишковий член.
Залишковий член є сумарним проявом всіх цих факторів. Очевидно, що якби вас цікавило тільки вимір впливу X на Y, то було б значно зручніше, якби залишкового члена не було. Якби він був відсутній, ми б знали, що будь-яка зміна Y від спостереження до спостереження викликано зміною X, і змогли б точно обчислити b. Проте насправді кожна зміна Y почасти викликано зміною u, і це значно ускладнює життя.
5. Регресія за методом найменших квадратів
Нехай ми маємо спостереження X і Y, то перед нами стоїть завдання - визначити значення a і b. В якості грубої апроксимації можна це зробити на око, побудувавши пряму, найбільшою мірою відповідну цим точкам. Відрізок, що відсікається прямій на осі OY, являє собою оцінку a, а кутовий коефіцієнт прямої являє собою оцінку b.
Необхідно визнати, що ми ніколи не зможемо розрахувати істинні значення a і b при спробі побудувати пряму і визначити положення лінії регресії. Ми можемо отримати лише оцінки, і вони можуть бути добрими чи поганими. Іноді оцінк...