на за допомогою алгоритмів Літвакова і Кестонит. В результаті цієї оптимізації, параметр не впливає на оцінку параметра. Доказом чого є процес збіжності при різних.
) y=0,35 * cos (0.5x) - пробний експеримент
Як наближення була обрана наступна залежність -
При вибірці n=100
Збільшимо вибірку (n=400):
Апроксимація стає краще.
Як наближення візьмемо -
При збіжності за параметрами, але при неправильному виборі структури, модель може бути неадекватною реальному об'єкту чи процесу, вимагають знання структури.
) y=sin (0.5x)
Як наближення була обрана наступна залежність -
В цілому, можна відзначити, що отримані результати досить непогані, тому що графік функції і наближення схожі, а значення середньоквадратичної помилки не так велике.
Висновок: При збіжності за параметрами, але при неправильному виборі структури, модель може бути неадекватною реальному об'єкту чи процесу, вимагають знання структури. Якщо структура вибрана вірно, то зі збільшенням вибірки апроксимація стає краще.
Практична частина № 2
параметричний стохастический апроксимація регресія
Постановка завдання
У даній частині роботи необхідно отримати наближення залежності за допомогою непараметричних методів оцінки.
Також як і в першій роботі, спочатку відома функція - y=7? cos (x), для якої необхідно отримати наближення. Виходячи з даної залежності, необхідно отримати вибірку значень. Після чого, отримані вибіркові значення повинні бути використані для отримання залежності. Залежність потрібно відновити, використовуючи методи непараметричної оцінки.
Практичні результати
У даній роботі отримання наближення здійснювалося за допомогою наступної оцінки:
Параметр розмитості (згладжування) був визначений наступним чином -=0,4. У результаті вийшло таке наближення:
При вибірці n=100
Спробуємо збільшити вибірку (n=400)
Апроксимація стає краще.
Для того щоб переконатися в правильності роботи процедури, дана непараметрична оцінка була застосована до іншої функції: y=sin (x)
При вибірці n=400
У даній роботі проводилися експерименти зі значенням параметра розмитості. Значення спочатку було збільшено, потім зменшено. Підсумком збільшення параметру стало наступне наближення:
При вибірці n=100 і=7
Апроксимація гірше, що ще раз доводить правильність роботи процедури.
А при вибірці n=100 і=0.2:
Зменшення ж параметра не щеплена, до яких або кардинальних змін, в силу того, значення параметра=0,4 досить мало, щоб отримати гідне наближення.
Спробуємо одночасно збільшити вибірку і параметр розмитості:
n=400 і=0.2
Точна апроксимація, збіг з істиною.
Висновок: При збільшенні обсягу вибірки і зменшенні параметра розмитості апроксимація поліпшується, незалежно від функції, для якої необхідно отримати наближення, не потрібно знання структури.
ВИ...