мірним вектором параметрів. Вироблено додаткове спостереження над об'єктом, що належить одній з сукупностей. Потрібно побудувати правило віднесення спостереження х до однієї з цих сукупностей. p> Зазвичай в задачі розрізнення переходять від вектора ознак, що характеризують об'єкт, до лінійної функції від них, дискриминантной функції гіперплощини, найкращим чином розділяє сукупність вибіркових точок.
Найбільш вивчений випадок, коли відомо, що розподіл векторів ознак в кожній сукупності нормально, але немає інформації про параметри цих розподілів. Тут природно замінити невідомі параметри розподілу в дискриминантной функції їх найкращими оцінками. Правило дискримінації можна засновувати на ставленні правдоподібності. p> Непараметричні методи дискримінації не вимагають знань про точний функціональному вигляді розподілів і дозволяють вирішувати завдання дискримінації на основі незначної апріорної інформації про сукупностях, що особливо цінно для практичних застосувань.
У параметричних методах ці точки використовуються для оцінки параметрів статистичних функцій розподілу. У параметричних методах побудови функції, як правило, використовується нормальний розподіл. br/>
.2.2 Лінійний дискримінантний аналіз
Припущення:
1) є різні класи об'єктів;
) кожен клас має нормальну функцію щільності від k змінних
;
В
де - вектор математичних очікувань переменниx розмірності k;
- коваріаційна матриця при;
- зворотна матриця.
Матриця - позитивно визначена.
У разі якщо параметри відомі дискримінацію можна провести наступним чином.
Є функції щільності нормально розподілених класів. Задана точка х у просторі k вимірювань. Припускаючи, що має найбільшу щільність, віднесемо точку x до мy класу. Існує доказ, що якщо апріорні ймовірності для визначених точок кожного класу однакові і втрати при неправильної класифікації i-ї групи в якості j-й не залежать від i і j, то вирішальна процедура мінімізує очікувані втрати при неправильної класифікації. p> Наведемо приклад оцінки параметра багатовимірного нормального розподілу і.
і можуть бути оцінені за вибірковими даними: і для класів. Визнач вибірок з деяких класів. Математичні очікування могyт бути оцінені середніми значеннями
(7)
Незміщені оцінки елементів ковариационной матриці є
(8)
Отже, можна визначити і за вибірками в кожному класі за допомогою (7), (8).
Отримавши оцінки, точку x віднесемо до класу, для якої функція максимальна.
Введемо припущення, що всі класи, серед яких повинна проводитися дискримінація, мають нормальний розподіл з однієї і тієї ж ковариационной матрицею.
У результаті істотно спрощується вираз для дискримінантної функції.
Клас, до якого має належати точка x, можна визначити на основі нерівності
>. (9)
Скор...