Теми рефератів
> Реферати > Курсові роботи > Звіти з практики > Курсові проекти > Питання та відповіді > Ессе > Доклади > Учбові матеріали > Контрольні роботи > Методички > Лекції > Твори > Підручники > Статті Контакти
Реферати, твори, дипломи, практика » Новые рефераты » Множинна регресія. Верифікація моделі

Реферат Множинна регресія. Верифікація моделі





Зміст


Множинна лінійна регресія: специфікація моделі, оцінка параметрів

Проблеми верифікації моделі

Завдання

Тести

Список літератури




Множинна лінійна регресія: специфікація моделі, оцінка параметрів


Специфікація моделі - формулювання виду моделі, виходячи з відповідної теорії зв'язку між змінними. У рівнянні регресії кореляційна по суті зв'язок ознак представляється у вигляді функціонального зв'язку, вираженої відповідної математичної функцією.

Включення в рівняння множинної регресії того чи іншого набору факторів пов'язано, насамперед, з поданням дослідника про природу взаємозв'язку модельованого показника з іншими економічними явищами. Фактори, що включаються у множинну регресію, повинні відповідати наступним вимогам:

Вони повинні бути кількісно вимірні. Якщо необхідно включити в модель якісний фактор, який не має кількісного виміру, то йому потрібно надати кількісну визначеність (наприклад, в моделі врожайності якість грунту задається у вигляді балів; в моделі вартості об'єктів нерухомості районам присвоюються ранги);

Фактори не повинні бути взаємно корельовані і тим більше перебувати в точної функціонального зв'язку. Якщо між факторами існує висока кореляція, то не можна визначити їх ізольоване вплив на результативний показник, і параметри рівняння регресії виявляються неінтерпретіруемимі.

Включаються під множинну регресію фактори повинні пояснити варіацію незалежної змінної. Якщо будується модель з набором р факторів, то для неї розраховується показник детермінації R2, який фіксує частку поясненої варіації результативної ознаки за рахунок розглянутих в регресії р факторів. Вплив інших, не врахованих у моделі, факторів оцінюється як 1 - R2 з відповідною залишкової дисперсією S2.

При додатковому включенні в регресію (р + 1) -Фактори хр + 1 коефіцієнт детермінації повинен зростати, а залишкова дисперсія зменшуватися, т. е.


R2 gt; R2 і S2 lt; S2.


Якщо ж цього не відбувається і дані показники практично мало відрізняються один від одного, то включається в аналіз фактор хР + 1 не покращує модель і практично є зайвим фактором.

Насичення моделі зайвими чинниками не тільки не знижує величину залишкової дисперсії і не збільшує показник детермінації, а й призводить до статистичної незначущості параметрів регресії за ґ-критерієм Стьюдента.

Відбір чинників виробляється на основі якісного теоретико економічного аналізу та зазвичай здійснюється в дві стадії:

на першій підбираються фактори виходячи із сутності проблеми;

на другий - на основі матриці показників кореляції визначають ґ-статистики для параметрів регресії.

Коефіцієнти интеркорреляции (т. е. кореляції між пояснюючими змінними) дозволяють виключати з моделі дублюючі фактори. Вважається, що дві змінні явно колінеарні, т. Е. Перебувають між собою в лінійній залежності, якщо г gt; 0,7.

За величиною парних коефіцієнтів кореляції виявляється лише явна коллинеарность факторів. Найбільші труднощі у використанні апарату множинної регресії виникають при наявності мультиколінеарності факторів. Чим сильніше мультиколінеарності факторів, тим менш надійна оцінка розподілу суми поясненої варіації за окремими факторами за допомогою методу найменших квадратів.

Для оцінки мультиколінеарності факторів може використовуватися визначник матриці парних коефіцієнтів кореляції між факторами.

Якби чинники не корелювали між собою, то матриця парних коефіцієнтів кореляції між факторами була б одиничною матрицею, оскільки всі недіагональні елементи були б рівні нулю. Так, для включає три пояснюють змінних рівняння



матриця коефіцієнтів кореляції між факторами мала б визначник, рівний 1:



так як і.

Якщо ж, навпаки, між факторами існує повна лінійна залежність і всі коефіцієнти кореляції рівні 1, то визначник такої матриці дорівнює 0:


.


Чим ближче до 0 визначник матриці межфакторной кореляції, тим сильніше мультиколінеарності факторів і ненадійніше результати множинної регресії. І навпаки, чим ближче до 1 визначник матриці межфакторной кореляції, тим менше мультиколінеарності факторів.

Перевірка мультиколінеарності факторів може бути проведена методом випробування гіпотези про незалежність змінних. Доведено, що величина має наближене розподіл з ступенями свободи. Якщо фактичне значення перевершує табличне (критичне), то гіпотеза відхиляється. Це означає, що, недіагональні ненульові коефіцієнти кореляції вказують на коллинеарность факторів. Мультиколінеарності вважається доведеною.

Для застосування МНК потрібно, щоб дисперсія залишків була гомоскедастичність. Це означає, що для кожного значення фактора залишки мають одн...


сторінка 1 з 6 | Наступна сторінка





Схожі реферати:

  • Реферат на тему: Оцінка значущості коефіцієнтів регресії і кореляції з допомогою f-критерію ...
  • Реферат на тему: Рівняння регресії. Коефіцієнт еластичності, кореляції, детермінації і F-кр ...
  • Реферат на тему: Поле кореляції. Неколінеарна фактори, їх коефіцієнти приватної кореляції
  • Реферат на тему: Економетричного моделювання: розрахунок коефіцієнтів кореляції і регресії, ...
  • Реферат на тему: Моделі лінійної та множинної регресії і економічний сенс їх параметрів