я формулою: xj +1 = xj + f (R (xj)). p align="justify"> Нехай є деяка початкова точка x0 і R (x1, x2). Спочатку будемо шукати по першій змінної x1, при цьому фіксуючи значення інших змінних і починаємо міняти x1. Дивимося результат. Знайдену точку з найкращим значенням по першої змінної фіксуємо і починаємо міняти другу змінну x2. Знайдена найкраща точка x1 завершує перший цикл. Послідовний пошук екстремуму по кожній змінної не приводить нас в загальному випадку, до екстремуму функції, тому після завершення першого циклу настає другий, третій і т. д. Точність знаходження екстремуму залежить від величини кроку по змінної. Його вибирають так, щоб:
- впевнено відчути зміну функції за наявності перешкод;
загальне число екстремумів не надто велике;
далеко не проскакувати оптимум за напрямком.
Основна особливість розглянутого методу - відсутність обчислення градієнта критерію оптимальності. Ряд методів прямого пошуку базується на послідовному застосуванні одновимірного пошуку за змінним або з інших задається напрямками, що полегшує їх алгоритмізацію і застосування. p align="justify"> Метод має низькою ефективністю в яружних функціях, може застрявати в В«пасткахВ», особливо при порівняно великих кроках h при пошуку оптимуму по кожній змінної, дуже чутливий і до вибору системи координат. Метод простий в реалізації. На ефективність методу впливає порядок чергування змінних. p align="justify"> Переваги методу:
очевидна простота стратегії і наочність;
висока перешкодозахищеність в сенсі вибору напрямку руху.
Недоліки методу:
при великому числі впливають n факторів шлях до головного екстремуму виявляється зазвичай довгим;
в умовах великого промислового виробництва виявляється важким застабілізувати n-1 чинників на тривалий час;
якщо поверхня відгуку має складну форму (вузькі гребені, яри тощо), то використання методу може призвести до помилкового відповіді на питання про місце розташування екстремуму;
метод не дає інформації про взаємодії факторів.
Умовою закінчення пошуку є малість зміни критерію оптимальності за один цикл або неможливість поліпшення критерію оптимальності ні по одній із змінних.
.2 Метод з покаранням випадковістю
Метод є аналогом методу найшвидшого спуску, тільки напрямок локального пошуку не градієнтне, а випадкове. Метод відноситься до методів багатовимірної випадкової оптимізації, де величина кроку при побудові поліпшуючої послідовності формується випадковим чином. Тому в одній і тій же ситуації крок може бути різний на відміну від регулярних методів. p> Суть методу полягає в наступному: з поточної точки роблять випадкові кроки до тих пір, поки не буде знайдена точка з кращим значенням критер...