Теми рефератів
> Реферати > Курсові роботи > Звіти з практики > Курсові проекти > Питання та відповіді > Ессе > Доклади > Учбові матеріали > Контрольні роботи > Методички > Лекції > Твори > Підручники > Статті Контакти
Реферати, твори, дипломи, практика » Новые рефераты » Економетричні моделі

Реферат Економетричні моделі





стого обчисленню невідомих коефіцієнтів; доступність математичних висновків.

Недоліки МНК: чутливість оцінок до різких викидам, що зустрічається у вихідних даних.

Метод найменших квадратів є найбільш поширеним методом оцінки невідомих параметрів моделі парної лінійної регресії.

2. Метод найменших модулів (МНМ), при якому розраховується сума модулів відхилень спостережуваних значень результативної змінної від теоретичних значень. Відповідно до цього методу невідомі параметри і вибираються таким чином, щоб сума модулів відхилень емпіричних значень від теоретичних значень була мінімальною.

Переваги МНМ: нечутливість оцінок до різких викидів.

Недоліки МНМ: 1) складність обчислювальної процедури; 2) можливість відповідності різним значенням оцінюваних коефіцієнтів, однакових сум модулів відхилень.

Таким чином, метод найменших квадратів істотно простіше при проведенні обчислювальної процедури і дає хороші по статистичних властивостях оцінки. Цим і пояснюється його широке застосування в оцінюванні параметрів економетричних моделей.

Для того, щоб регресійний аналіз, заснований на методі найменших квадратів (МНК), давав найкращі з усіх можливих результати, повинні виконуватися умови Гаусса-Маркова. Модель парної лінійної регресії, для якої виконуються умови Гаусса-Маркова, випадковий член? I має нормальний розподіл, його значення некорреліровани і незалежні, називається класичною нормальної лінійної регресійної моделлю.

Поряд з умовами Гаусса-Маркова звичайно передбачається, що випадковий член має нормальний розподіл. При цьому вимога некоррелированности значень випадкового члена еквівалентно їх незалежності.

Умови Гаусса-Маркова:

1. Математичне сподівання випадкового члена в будь-якому спостереженні має дорівнювати нулю - М (? I)=0.

. Дисперсія випадкового члена повинна бути постійною для всіх спостережень  - D (? I)=s 2, s - теоретичне значення стандартної помилки моделі.

. Випадкові члени повинні бути статистично незалежні (некорреліровани) між собою.

. Пояснююча змінна х повинна бути невипадковою.

Перша умова Гауса-Маркова означає, що випадковий член не повинен мати систематичного зсуву. Якщо постійний член включений в рівняння регресії, то ця умова виконується автоматично.

Друга умова означає, що дисперсія випадкового члена в кожному спостереженні має тільки одне значення. Але її величина заздалегідь невідома, і одне із завдань регресійного аналізу полягає в її оцінці. Умова незалежності дисперсії випадкового члена від номера спостереження називається гомоскедастичність. Залежність дисперсії випадкового члена від номера спостереження називається гетероскедастичності. Якщо умова гомоскедастичність не виконується, то оцінки коефіцієнтів регресії будуть неефективними, хоча й незміщеними.

Третя умова вказує на некоррелірованні випадкових членів для різних спостережень. Ця умова часто порушується, коли дані є тимчасовими рядами. У випадку, коли третя умова не виконується, говорять про автокореляції залишків. Якщо умова незалежності випадкових членів не виконується, то оцінки коефіцієнтів регресії, отримані по МНК, виявляються неефективними, хоча й незміщеними.

Четверта умова. Якщо умова про невипадковість пояснюватиме змінної не виконується, то оцінки коефіцієнтів регресії виявляються зміщеними і неспроможними.

Теорема Гаусса-Маркова. Якщо умови Гаусса-Маркова виконуються, то оцінки, зроблені за допомогою МНК, є найкращими оцінками. Вони володіють властивостями:

- незсуненості, це означає відсутність систематичної помилки в положенні лінії регресії;

- ефективності - мають найменшу дисперсію в класі всіх лінійних незміщених оцінок;

заможності - при достатньо великому обсязі даних оцінки наближаються до істинним значенням.

Мірою відхилення залежної змінної від значень, пророкуються рівнянням регресії, служить залишкова дисперсія:


,


де S2 - залишкова дисперсія;

еi - залишок, тобто різниця між виміряними і розрахованими за допомогою рівняння регресії значеннями залежної змінної;

n - число пар змінних у вибірці; - порядковий номер пари змінних у вибірці.

Дисперсія коефіцієнтів регресії визначається наступним чином:


,

де і - дисперсії коефіцієнтів і рівняння регресії;

- i-е і середнє значення пояснюватиме змінної;

- число пар змінних у вибірці;

- порядковий номер пари змінних у вибірці.

Величини і - стандартні помилки коефіцієнтів регресії.

Дуже важливим етапом перед практичним використанням побудованої мод...


Назад | сторінка 7 з 9 | Наступна сторінка





Схожі реферати:

  • Реферат на тему: Перевірка гіпотез щодо коефіцієнтів лінійного рівняння регресії
  • Реферат на тему: Рівняння лінійної регресії, коефіцієнт регресії
  • Реферат на тему: Оцінка значущості коефіцієнтів регресії і кореляції з допомогою f-критерію ...
  • Реферат на тему: Економетричного моделювання: розрахунок коефіцієнтів кореляції і регресії, ...
  • Реферат на тему: Побудова двофакторної моделі, моделей парної лінійної прогресії і множинної ...