адкові величини Y і X називаються корельованими, якщо їх кореляційний момент відмінний від 0; Y і X називаються некоррелірованнимі величинами, якщо їх кореляційний момент дорівнює 0.
Коефіцієнтом кореляції випадкових величин X і Y називають відношення кореляційного моменту до твору середніх квадратичних відхилень цих величин
.
Гістограмою частот називається стовпчасті діаграма, що складається з прямокутників, підставами яких служать часткові інтервали довжиною h, а висоти дорівнюють відношенню (щільність частоти).
Гістограмою нормованих відносних частот називається діаграма, на якій зображені стовпці, при цьому вісь Х - це інтервали, а вісь Y - це відносна частота народження:
В
Полігоном частот називається ламана, відрізки якої з'єднують точки. Для побудови полігону на осі абсцис відкладають варіанти, а на осі ординат - відповідні їм частоти. p> Полігоном відносних частот називають ламану, відрізки якої з'єднують точки. Для побудови полігону на осі абсцис відкладають варіанти, а на осі ординат - відповідні їм відносні частоти. p> Функцією розподілу називають функцію, що визначає ймовірність того, що випадкова величина Х в результаті випробування прийме значення, менше х:
В
Функцією розподілу вибірки є емпірична функція розподілу. p> Емпіричною функцією розподілу називають функцію, що визначає для кожного значення х відносну частоту події Х <х:
В
де - число варіант, менших х; n - обсяг вибірки.
Регресійний аналіз
Регресія - залежність середнього значення якої-небудь величини Y від іншої величини X. Поняття регресії в деякому сенсі узагальнює поняття функціональної залежності y = f (x). Тільки у випадку регресії одному і тому ж значенню x в різних випадках відповідають різні значення у. p> Регресійний аналіз полягає у визначенні аналітичного вираження зв'язку, в якій зміна однієї величини (званою залежною або результативним ознакою) обумовлено впливом однієї або декількох незалежних величин (факторів).
За формою залежності розрізняють:
лінійну регресію, яка виражається рівнянням прямої:
В
нелінійну (параболічну):
В
Дослідження лінійної регресії:
Визначимо коефіцієнти лінійної функції методом найменших квадратів. Для цього складемо суму
В
Для того щоб ця сума була мінімальною, необхідно, щоб її приватні похідні за параметрами A і B були рівні нулю
В В
Розкривши дужки, ми отримаємо
В В
Висловимо a і b
В В
Одним з найважливіших методів визначення залежності між X і Y є метод найменших квадратів. Бачачи загальне розташування точок, можна припустити, що ця залежність лінійна. Кількість прямих, що проходять через задану сукупність точок, нескінченно. Виберемо оптимальну з них. Для цього сумарне відхилення між теоретичними і експериментальним...