Зміст
Введення
1. Теоретична частина
.1 Лінійна регресія
.1.1 Парна лінійна регресія
.1.2 Множинна лінійна регресія
.2 Теорема Гаусса-Маркова
. Практична частина
.1. Характеристика екзогенних і ендогенних змінних
.2 Побудова двухфакторного рівняння регресії
2.3 Побудова однофакторних рівнянь регресії
.4 Прогнозування значення результативної ознаки
Висновок
Список використаних джерел
Введення
При вирішенні практичних завдань дослідники стикаються з тим, що кореляційні зв'язки не обмежуються зв'язками між двома ознаками: результативним у і факторним х.
У дійсності результативний ознака залежить від декількох факторних.
Завдання багатофакторного аналізу:
. Обгрунтувати взаємозв'язку факторів, що впливають на досліджуваний показник.
2. Визначити ступінь впливу кожного фактора на результативний ознака шляхом побудови моделі-рівняння множинної регресії, яка дозволяє встановити, в якому напрямку і на яку величину зміниться результативний показник при зміні кожного фактора, що входить в модель.
. Кількісно оцінити тісноту зв'язку між результативною ознакою і факторами.
1. Теоретична частина
. 1 Лінійна регресія
. 1.1 Парна лінійна регресія
Регресійне рівняння, дозволене щодо досліджуваної змінної у при наявності однієї факторної змінної x, в загальному вигляді записується як:
(1.1)
рівняння регресія екзогенний гаус
і показує, яким буде в середньому значення змінної y, якщо змінна х набуде конкретне значення. Індекс р вказує на те, що ми отримуємо розрахункове значення змінної y. Термін в середньому ужитий тому, що при впливі неврахованих в моделі факторів і в наслідок похибок вимірювання фактичне значення змінної y може бути різним для одного значення x.
Якщо f (x) є лінійною функцією, то отримаємо загальний вигляд моделі парної лінійної регресії:
(1.2)
де a Ї постійна величина (або вільний член рівняння), Ї коефіцієнт регресії, що визначає нахил лінії, уздовж якої розсіяні спостереження.
Коефіцієнт регресії характеризує зміну змінної y при зміні значення x на одиницю. Якщо, то змінні позитивно коррелірованни, якщо Ї негативно коррелірованни. Фактичне значення досліджуваної змінної y тоді може бути представлено у вигляді:
, (1.3)
де е Ї різниця між фактичним значенням (результатом спостереження) і значенням, розрахованим по рівнянню моделі.
Якщо модель адекватно описує досліджуваний процес, то е Ї незалежна нормально розподілена випадкова величина з нульовим математичним очікуванням (Ме=0) і постійної дисперсією (Dе=у2). Наявність випадкової компоненти е відображає той факт, що присутні інші фактори, що впливають на досліджувану змінну і не враховані в моделі.
Побудова рівняння регресії зводиться до оцінки її параметрів. Для оцінки використовується метод найменших квадратів (МНК). МНК дозволяє отримати такі оцінки параметрів, при яких сума квадратів відхилень фактичних значень результативної ознаки у від оцінок мінімальна, тобто
min.
У результаті операції МНК виходять оцінки коефіцієнтів регресії:
b=Cov (X, Y) :, (1.4)=(1.5)
=уi: n; =Хi: n; Cov (X, Y) =; =.
Надійність оцінок a і b характеризується їх дисперсіями:
Перевірка якості рівняння регресії здійснюється по ряду позицій.
Оцінка статистичної значущості коефіцієнтів регресії.
(1.6)
, (1.7)
S2=еi2: (n - 2),.
Використовується критерій Стьюдента. Обчислюються і порівнюються з tкріт. Результатом порівняння є висновок про значущість коефіцієнтів a і b.
Інтервальні оцінки коефіцієнтів рівняння регресії.
Так як обсяг вибірки обмежений, то a і b Ї випадкові величини, тому бажано знайти довірчі інтервали для істинних значень 0,1. Для цього також використовується t Ї критерій Стьюдента.
Перевірка значущості рівняння регресії в цілому.
Дозволяє встановити, чи відповідає математична модель експериментальними даними і чи достатньо включених в рівняння пояснюють змінних для опису залежною змінною. Мірою загальної якості рівняння регресії є коефіцієнт детермінації R 2:
. (1.8)
Вираз (1.8) випливає з співвідношення:
, (1.9)
де Ї пояснена сума квадратів, вона характеризує розкид, обумовлений регресією;
Ї залишкова (не...