собою. В якості міри зв'язку тут виступає матриця ковариаций помилок моделей, тобто щоб оцінити, наскільки непов'язаними вийдуть рівняння попиту та пропозиції при розрахунку їх окремо, потрібно розрахувати ковариацию помилок е і е '. Для збільшення цьому зв'язку на наступному етапі, при черговому розрахунку коефіцієнтів регресії враховується матриця ковариаций помилок. Таким прийомом досягається взаімосязанность всієї системи рівнянь. [1] В
Нелінійна регресія
На практиці часто зустрічається ситуація, коли апріорно відомий нелінійний характер залежності між пояснювати й пояснювати змінними. У цьому випадку функція f в рівнянні у = (а, х) нелінійна (а - вектор параметрів функції, які нам потрібно оцінити). Наприклад, вид залежності між ціною і кількістю товару в тій же моделі попиту і пропозиції: вона не завжди передбачається лінійної, як у нашому прикладі. Нелінійну функцію можна перетворити в лінійну, як це було зроблено, наприклад, логарифмування з функцією Кобба-Дугласа. Однак не всі функції піддаються такій безпосередній лінеаризації. Будь-яку дифференцируемую потрібне число раз функцію можна розкласти в функціональний ряд і потім оцінити регресію пояснюється змінної з членами цього ряду. Проте таке розкладання завжди здійснюється в околиці певної точки, і лише в цій околиці досить точно апроксимує оцінювану функцію. У той же час оцінити залежність потрібно зазвичай на більш-менш значній інтервалі, а не тільки в околиці деякої точки. При лінеаризації функції або розкладанні її в ряд з метою оцінки регресії виникають й інші проблеми: спотворення відхилень їй порушення їх первинних властивостей, статистична залежність членів ряду між собою. Наприклад, якщо оцінюється формула
В
отримана шляхом лінеаризації або розкладання в ряд, то незалежні змінні х і х2 пов'язані між собою навіть не статистично, але функціонально. Якщо вихідна помилка е тут пов'язана з змінної х, то додавання х2 призводить до появи (з відповідними коефіцієнтами) квадрата цієї змінної і її подвоєного твори з х, що спотворює вихідні передумови моделі. Тому в багатьох випадках актуальна безпосередня оцінка нелінійної формули регресії. Для цього можна скористатися нелінійним МНК. Ідея МНК заснована на тому, щоб мінімізувати суму квадратів відхилень розрахункових значень від емпіричних, тобто потрібно оцінити параметри про функції f (a, x) таким чином, щоб помилки еi = уi-f (а, х), точніше - їх квадрати, за сукупністю були мінімальними. Для цього потрібно вирішити завдання мінімізації
(4.1)
Для вирішення цього завдання існує два шляхи. По-перше, може бути здійснена безпосередня мінімізація функції F за допомогою методів нелінійної оптимізації, що дозволяють знаходити екстремуми опуклих ліній. Це, наприклад, метод найшвидшого спуску, при використанні якого в деякій вихідної точки визначається антіградіента (напрям найбільш швидкого спадання) ф...