Теми рефератів
> Реферати > Курсові роботи > Звіти з практики > Курсові проекти > Питання та відповіді > Ессе > Доклади > Учбові матеріали > Контрольні роботи > Методички > Лекції > Твори > Підручники > Статті Контакти
Реферати, твори, дипломи, практика » Отчеты по практике » Аналіз ефективності проведення соляно-кислотних обробок ПЗП на Югомашевском родовищі

Реферат Аналіз ефективності проведення соляно-кислотних обробок ПЗП на Югомашевском родовищі





множинна регресія дозволяє досліднику задати питання (і, ймовірно, отримати відповідь) про те, В«що є кращим предиктором для ...В». Термін В«множиннаВ» вказує на наявність декількох предикторів або регресорів, які використовуються в моделі. Загальна обчислювальна задача, яку потрібно вирішити при аналізі методом множинної регресії, складається у вишукуванні рівнянні зв'язку між незалежними змінними і параметрами характеризує той чи інший процес (залежною змінною). p align="justify"> Метод найменших квадратів.

За координатами з незалежних змінних або змінних Х і залежною змінною Y будується діаграма регресії. Метою процедури лінійної регресії є підгонка прямої лінії по точках. А саме діаграма будує лінію регресії так, щоб мінімізувати квадрати відхилення цієї лінії від спостережуваних точок. Тому на цю загальну процедуру іноді посилаються як на оцінювання за методом найменших квадратів. p align="justify"> Рівняння регресії.

Пряма лінія на площині (у просторі двох вимірів) задається рівнянням:


Y = a + b * X (3.1)


Більш детально: змінна Y може бути виражена через константу (а) і кутовий коефіцієнт (b), помножена на змінну Х. Константу іноді називають також вільним членом, а кутовий коефіцієнт - регресійним або В-коефіцієнтом.

У багатовимірному випадку, коли є більше однієї незалежної змінної, лінія регресії не може бути відображена в двовимірному просторі, однак вона також може бути легко оцінена. У загальному випадку, процедури множинної регресії будуть оцінювати параметри лінійного рівняння виду:


Y = a + b1 * X1 + b2 * X2 + ... + bp * Xp (3.2)


Однозначну прогноз і приватна кореляція.

Регресійні коефіцієнти (або В-коефіцієнти) представляють незалежні вклади кожної незалежної змінної в пророкування залежною змінною. Іншими словами, змінна Х1, наприклад, корелює зі змінною Y після врахування впливу всіх інших незалежних змінних. Цей тип кореляції згадується також під назвою приватної кореляції. Якщо одна величина корельована з іншого, то це може бути відображенням того факту, що вони обидві корельовані з третьої величиною або з сукупністю величин. p align="justify"> Лінія регресії висловлює найкраще передбачення залежною змінною (Y) із незалежним змінним (X). Однак, природа рідко (якщо взагалі коли-небудь) буває повністю передбачуваною і зазвичай є істотний розкид спостережуваних точок щодо підігнаною прямій. Відхилення окремої точки від лінії регресії (від передвіщеного значення) називається залишком. p align="justify"> Залишкова дисперсія і коефіцієнт детермінації R2. p align="justify"> Чим менше розкид значень залишків біля лінії регресії по відношенню до загального розкиду значень, тим краще прогноз. Наприклад, якщо зв'язок між змінними X і Y відсутній, то відношення залишкової мінливості змінної Y до вихідної дисперсії дорівнює 1. Якщо X і Y жорстко пов'язані, то залишкова мінливість відсутня, і ставлення дисперсії буде дорівнює 0. У більшості випадків ставлення буде лежати десь між цими екстремальними значеннями, тобто між 0,0 ... 1,0. Параметр, що характеризує совпадімость точок на діаграмі розсіювання з прямою, яка описується деяким лінійним рівнянням зв'язку, називається R2 або коефіцієнтом детермінації. Це значення безпосередньо інтерпретується наступним чином. Якщо мається R2 рівний 0,4, то мінливість значень змінної Y біля лінії регресії складаємо 1-0,4 від вихідної дисперсії; іншими словами, 40% від вихідної мінливості можуть бути пояснені, а 60% залишкової мінливості залишаються незрозумілими. Бажано мати пояснення якщо не для всієї, то хоча б для більшої частини вихідної мінливості. Значення R2 є індикатором ступеня підгонки моделі до даних (значення R2 близьке до 1,0 показує, що модель пояснює майже всю мінливість відповідних змінних). p align="justify"> Інтерпретація коефіцієнта множинної кореляції R.

Зазвичай, ступінь залежності двох або більше предикторів (незалежних змінних або змінних Х) з залежною змінною (Y) виражається за допомогою коефіцієнта множинної кореляції R. За визначенням він дорівнює кореню квадратному з коефіцієнта детермінації. Це неотрицательная величина, що приймає значення між 0 і 1. Для інтерпретації напрямку зв'язку між змінними дивляться на знаки (плюс або мінус) регресійних коефіцієнтів або В-коефіцієнтів. Якщо В-коефіцієнт позитивний, то зв'язок цієї змінної з залежною змінною позитивна; якщо В-коефіцієнт негативний, то і зв'язок носить негативний характер. Звичайно, якщо В-коефіцієнт дорівнює 0, зв'язок між змінними відсутній. p align="justify"> Таким чином, множинний регресійний аналіз дозволяє обчислити значення коефіцієнтів регресійної моделі, оцінити вплив кожної змінної та їх загальний внесок в оц...


Назад | сторінка 9 з 13 | Наступна сторінка





Схожі реферати:

  • Реферат на тему: Рівняння регресії. Коефіцієнт еластичності, кореляції, детермінації і F-кр ...
  • Реферат на тему: Рівняння лінійної регресії, коефіцієнт регресії
  • Реферат на тему: Коефіцієнт детермінації. Значимість рівняння регресії
  • Реферат на тему: Оцінка значущості коефіцієнтів регресії і кореляції з допомогою f-критерію ...
  • Реферат на тему: Економетричного моделювання: розрахунок коефіцієнтів кореляції і регресії, ...