Теми рефератів
> Реферати > Курсові роботи > Звіти з практики > Курсові проекти > Питання та відповіді > Ессе > Доклади > Учбові матеріали > Контрольні роботи > Методички > Лекції > Твори > Підручники > Статті Контакти
Реферати, твори, дипломи, практика » Статьи » Оптимізація аеродинамічних характеристик крила в умовах стохастичною невизначеності

Реферат Оптимізація аеродинамічних характеристик крила в умовах стохастичною невизначеності





очок. Витрати в цьому випадку різко зростають експоненціально і застосування лінійного регресійного аналізу стає фактично неможливим.

Іншим критичним параметром в задачах оптимізації є час необхідний на одноразове обчислення цільової функцій.

Якщо для цього використовувати програми прямого аеродинамічного розрахунку, то цей час неприйнятно велике, тому що в задачах оптимізації потрібно дуже багато раз обчислювати цільову функцію. Це приводить нас до необхідності використовувати багатовимірні аппроксіматори для обчислення аеродинамічних функцій. Виникає завдання побудови багатовимірних аппроксіматоров.

Існує підхід до вирішення цього завдання, а саме, застосування штучних нейронних мереж (далі - мережі, нейронні мережі або ІНС) певної конфігурації. Розглянемо одну з таких конфігурацій на прикладі нейронної мережі, використовуваної в даній роботі. Вона схематично представлена ??на Рис.7 і являє собою простий варіант мереж більш загальної конфігурації, званої багатошаровим персептроном.


Рис.7 Схематичне уявлення багатошарового персептрона з одним прихованим шаром


Ця нейронна мережа, складається з трьох шарів, нейрони яких мають свою функцію активації, тобто деяку функцію, яка перетворює сигнали, що входять до нейрон, в один виходить сигнал. Перший шар називається вхідним. Число нейронів n цього шару, як правило, дорівнює числу вхідних параметрів задачі. Функція активації нейронів даного шару лінійна. Другий шар відноситься до категорії прихованих шарів. В даному випадку такий шар всього один, але їх може бути і декілька. Число нейронів m визначається, виходячи з обсягу даних навчальної множини. Функція активації нейронів цього шару сігмоідной:


(4.1)


Третій шар називається вихідним і в даному випадку складається всього з одного нейрона, що має лінійну функцію активації.

Всі нейрони попереднього шару пов'язані з кожним нейроном наступного шару. Ці зв'язки реалізуються у вигляді синоптичних ваг (на Рис.7 вони позначені як,), або просто ваг. Процес навчання нейронної мережі полягає якраз в налаштуванні цих самих ваг. У даній роботі для навчання використаний алгоритм зворотного поширення помилки.

З математичної точки зору, нейронна мережа, описана вище, являє собою наступну функцію змінних


(4.2)


де - вектор зміщень;- Функція, визначена будь формулою з (4.1). У теорії нейронних мереж доведена наступна теорема (Цибенко) [2, 3]:



Таким чином, ІНС, використовувана в даній роботі, являє собою універсальний аппроксіматор в багатовимірному просторі. Це випливає з тільки що сформульованої теореми, яка б показала здатність нейронної мережі (4.2) описати будь-яку безперервну залежність із заданою точністю.

Кількість прикладів (точок) для навчання штучної нейронної мережі фактично не залежить від розмірності задачі. Воно визначається числом m нейронів на прихованому шарі. Практика показує, що для мінімального навчання ІНС достатньо взяти приблизно 20 розрахункових точок на кожен прихований нейрон. А це на кілька порядків зменшує витрати, в порівнянні з використанням методів лінійного регресійного аналізу.

Таким чином, використання ІНС для задач з великим числом параметрів є не тільки доцільним, а часом і єдиним відомим на даний момент рішенням. Тому аппроксіматори аеродинамічних функцій у даній роботі будується на базі персептрона подібного (4.2), але можливо з великим числом прихованих шарів для збільшення узагальнюючої здатності.


4.2 Реплікатор - нейронна мережа для стиснення розмірності даних і для генерації нових компонувань крила


Для зменшення розмірності простору завдання оптимізації скористаємося методом репликатора. Суть його полягає в тому, що будується нейронна мережа (Рис.8) яка навчається видавати на виході той же самий набір даних, які подаються на вхідний шар. Але в середині цієї нейронної мережі нейронів менше, ніж на вході і виході.


Рис.8 Схематичне уявлення репликатора


В результаті, можна вважати, що в міру проходження сигналу така мережа (надалі - реплікатор) зменшує розмірність даних, тобто буде стискати інформацію, а потім знову відновлює. У даній роботі реплікатор це повнозв'язкову п'ятишаровий персептрон, який навчається на наборі компонувань крил методом зворотного поширення помилки (back propagation). Вхідний і вихідний шари складаються з 590 нейронів, другий і четвертий з 320, а третій з 60 нейронів. Функції активації другого та четвертого шарів сігмоідной функція, для інших верств - лінійна функція. З такого репликатора можна отримати нові мережі меншого розміру. Уявімо, що нова нейронна мережа складається з перших трьох шарів репликатора, попередньо навченого на множині даних...


Назад | сторінка 5 з 9 | Наступна сторінка





Схожі реферати:

  • Реферат на тему: Створення нейронної мережі, що виконує логічну функцію &І& і &АБО&
  • Реферат на тему: Метод навчання нейронних мереж (правило зворотного поширення помилки)
  • Реферат на тему: Реалізація одношарової нейронної мережі (персептрона)
  • Реферат на тему: Біологічна нейронна мережа
  • Реферат на тему: Розробка штучної нейронної мережі для розпізнавання статі по фотографії