адкові величини Y і X називаються корельованими, якщо їх кореляційний момент відмінний від 0; Y і X називаються некоррелірованнимі величинами, якщо їх кореляційний момент дорівнює 0.  
 Коефіцієнтом кореляції випадкових величин X і Y називають відношення кореляційного моменту до твору середніх квадратичних відхилень цих величин 
 . 
   Гістограмою частот називається стовпчасті діаграма, що складається з прямокутників, підставами яких служать часткові інтервали довжиною h, а висоти дорівнюють відношенню (щільність частоти). 
  Гістограмою нормованих відносних частот називається діаграма, на якій зображені стовпці, при цьому вісь Х - це інтервали, а вісь Y - це відносна частота народження: 
 В   
 Полігоном частот називається ламана, відрізки якої з'єднують точки. Для побудови полігону на осі абсцис відкладають варіанти, а на осі ординат - відповідні їм частоти. p> Полігоном відносних частот називають ламану, відрізки якої з'єднують точки. Для побудови полігону на осі абсцис відкладають варіанти, а на осі ординат - відповідні їм відносні частоти. p> Функцією розподілу називають функцію, що визначає ймовірність того, що випадкова величина Х в результаті випробування прийме значення, менше х: 
 В   
 Функцією розподілу вибірки є емпірична функція розподілу. p> Емпіричною функцією розподілу називають функцію, що визначає для кожного значення х відносну частоту події Х <х: 
 В   
 де - число варіант, менших х; n - обсяг вибірки. 
   Регресійний аналіз 
				
				
				
				
			   Регресія - залежність середнього значення якої-небудь величини Y від іншої величини X. Поняття регресії в деякому сенсі узагальнює поняття функціональної залежності y = f (x). Тільки у випадку регресії одному і тому ж значенню x в різних випадках відповідають різні значення у. p> Регресійний аналіз полягає у визначенні аналітичного вираження зв'язку, в якій зміна однієї величини (званою залежною або результативним ознакою) обумовлено впливом однієї або декількох незалежних величин (факторів). 
  За формою залежності розрізняють: 
  лінійну регресію, яка виражається рівнянням прямої: 
 В   
 нелінійну (параболічну): 
 В   
 Дослідження лінійної регресії: 
  Визначимо коефіцієнти лінійної функції методом найменших квадратів. Для цього складемо суму 
 В   
 Для того щоб ця сума була мінімальною, необхідно, щоб її приватні похідні за параметрами A і B були рівні нулю 
 В В   
 Розкривши дужки, ми отримаємо 
 В В   
 Висловимо a і b 
 В В  
 Одним з найважливіших методів визначення залежності між X і Y є метод найменших квадратів. Бачачи загальне розташування точок, можна припустити, що ця залежність лінійна. Кількість прямих, що проходять через задану сукупність точок, нескінченно. Виберемо оптимальну з них. Для цього сумарне відхилення між теоретичними і експериментальним...