ульові значення параметрів, а сам коефіцієнт характеризує середнє значення показника за відсутності впливів параметрів.  
 Аналіз рівняння (1.1) і методика визначення параметрів стають більш наочними, а розрахункові процедури істотно спрощуються, якщо скористатися матричної формою запису: 
   (1.2). 
   Де - вектор залежної змінної розмірності  п   ?   1 , що представляє собою п спостережень значень. 
  - матриця п спостережень незалежних змінних, розмірність матриці дорівнює  п   ?   (k +1).  Додатковий фактор, що складається з одиниць, вводиться для обчислення вільного члена. У якості вихідних даних можуть бути тимчасові ряди або просторова вибірка. 
  - кількість факторів, включених в модель. 
  a - підлягає оцінюванню вектор невідомих параметрів розмірності ( k +1) ? 1 
  - вектор випадкових відхилень (збурень) розмірності п ? 1. відображає той факт, що зміна буде неточно описуватися зміною пояснюють змінних, так як існують і інші чинники, невраховані в даній моделі. 
  Таким чином, 
   Y =, X =,, a =. 
   Рівняння (1.2) містить значення невідомих параметрів a 0 , a 1 , a 2 , ..., a k . 
				
				
				
				
			  Ці величини оцінюються на основі вибіркових спостережень, тому отримані розрахункові показники не є істинними, а являють собою лише їх статистичні оцінки. 
  Модель лінійної регресії, в якій замість істинних значень параметрів підставлені їх оцінки (а саме такі регресії і застосовуються на практиці), має 
  , (1.3) 
   де A - вектор оцінок параметрів; е - вектор «оцінених» відхилень регресії, залишки регресії е=Y - ХА ;-Оцінка значень Y , рівна ХА. 
  Побудова рівняння регресії здійснюється, як правило, методом найменших квадратів (МНК), суть якого полягає в мінімізації суми квадратів відхилень фактичних значень результатного ознаки від його розрахункових значень, тобто: 
  . 
   Формулу для обчислення параметрів регресійного рівняння за методом найменших квадратів наведемо без виведення 
   (1.4). 
   Для того щоб регресійний аналіз, заснований на звичайному методі найменших квадратів, давав найкращі з усіх можливих результати, повинні виконуватися такі умови, відомі як умови Гаусса - Маркова. 
   Перша умова. Математичне сподівання випадкової складової в будь-якому спостереженні має дорівнювати нулю . Іноді випадкова складова буде позитивною, іноді негативною, але вона не повинна мати систематичного зсуву ні в одному з двох можливих напрямків. 
    Фактично якщо рівняння регресії включає постійний член, то зазвичай ця умова виконується автоматично, так як роль константи полягає у визначенні будь-якої систематичної тенденції, яку не враховують пояснюючі змінні, включені в рівняння регресії. 
   Друге   умова означає, що дисперсія випадкової складової повинна бути постійна для всіх спостережень . Іноді випадкова складова буде більше, іноді менше, однак не повинно бути апріорній причини для того, щоб вона породжувала велику помилку в одних спостер...