Теми рефератів
> Реферати > Курсові роботи > Звіти з практики > Курсові проекти > Питання та відповіді > Ессе > Доклади > Учбові матеріали > Контрольні роботи > Методички > Лекції > Твори > Підручники > Статті Контакти
Реферати, твори, дипломи, практика » Курсовые проекты » Нейроінформатика та нейросистеми

Реферат Нейроінформатика та нейросистеми





stify"> · Або на циклі, в якому все,

· або після досягнення граничної кількості циклів.

Слід зазначити, що правило персептрона являє собою окремий випадок запропонованого багато пізніше універсального правила навчання Відроу-Хоффа (Універсальне правило коригування вхідних ваг штучної нейронної мережі в режимі навчання онлайн )


(3)


Функціонування навченого персептрона в режимі класифікації легко проілюструвати графічно на прикладі двухвходового нейрона з поляризацією, структурна схема якого дана на рис. 4.

Для такого нейрона Це вираз визначає площину в тривимірному просторі, ця площина перетинається з площиною по лінії, яка визначається рівнянням як це показано на рис. 5.


Рис. 4 Структурна схема двухвходового персептрона


Ця лінія розбиває простір вхідних сигналів на дві області: в одній з них (заштрихованої) значення, і, отже, функція активації (Функція, що обчислює значення вихідного сигналу штучного нейрона, використовуючи як аргумент зважену суму вхідних сигналів штучного нейрона) приймає значення 1; в іншій -, і.


Рис. 5 Роздільна простору вхідних даних двухвходового персептроном


Таким чином, наочно видно, що персептрон є найпростішим лінійним класифікатором. З його допомогою можна забезпечити, наприклад, класифікацію, що реалізовує логічні функції І і АБО над входами і, як це показано на рис. 6.


Рис. 6 Реалізація логічних функцій Ії АБО двухвходового персептроном

нейрокомпьютер мережу штучний

Однак реалізувати логічну функцію виключає АБО двухвходового персептроном вже неможливо (див. рис. 7).


Рис. 7 Поділ простору вхідних даних для реалізації функції виключає АБО


2.2.2 Сигмоїдальні нейрон lt; # 25 src= doc_zip42.jpg / gt ;. Структурна схема нейрона даного типу представлена ??на рис. 8.


Рис. 8 Структурна схема Сигмоїдальні нейрона


Як функції активації виступає сигмоїдальна функція (тобто функція, графік якої схожий на букву S ). На практиці використовуються як уніполярні, так і біполярні функції активації.

Уніполярна функція, як правило, представляється формулою


, (4)


тоді як біполярна функція задається у вигляді



Графіки уніполярних і біполярних сигмоїдальних функцій представлені на рис. 9 і рис. 10 відповідно.


Рис. 9 Графік уніполярної сигмоидальной функції


Рис. 10 Графік біполярної сигмоидальной функції


Коефіцієнт b визначає крутизну функцій і вибирається розробником мережі (на практиці b для спрощення призначають зазвичай рівним 1).

Похідна уніполярної функції активації має вигляд



а похідна біполярної функції -



Графіки похідних мають колоколобразний вигляд і представлені на рис. 11 і рис. 12.


Рис. 11 Графік похідною уніполярної сигмоидальной функції

Рис. 12 Графік похідною біполярної сигмоидальной функції


Для навчання Сигмоїдальні нейрона використовується стратегія з учителем (Спосіб навчання штучної нейронної мережі шляхом пред'явлення їй серії еталонних навчальних вибірок і векторів очікуваних значень вихідних сигналів), проте, на відміну від персептрона, для пошуку мінімуму целевойфункціі (1), тут використовуються методи пошукової оптимізації першого порядку, в яких цілеспрямована зміна вагових коефіцієнтів здійснюється в напрямку негативного градієнта.

j-а компонента вектора градієнта має вигляд


(5)

Позначивши, маємо


Також можливе навчання Сигмоїдальні нейрона і дискретним способом - серіями циклів уточнення вхідних ваг (синаптична вага) для кожної еталонної пари (див. правило персептрона). При цьому корекція ваг після кожного циклу виконується за наступною формулою:


,


где ?? - коефіцієнт навчання, значення якого вибирається з діапазону (0, 1).

Необхідно нагадати, що всі методи пошукової оптимізації першого порядку - це методи локального пошуку, що не гарантують досягнення глобального екстремуму. В якості спроби подолати цей недолік було запропоновано навчання з моментом, в якому корекція ваг виконується таким чином:


(6)


Останній доданок у формулі називається моментом і характеризує фактична зміна ваги в попередньому циклі (вибирається в діапазоні (0, 1)). Існує надія, що при наближенні до точки локального мінімуму (де градієнтна складова прагне до нуля) складова моменту виведе пошук з області локального мінімуму в більш перспективну обл...


Назад | сторінка 2 з 7 | Наступна сторінка





Схожі реферати:

  • Реферат на тему: Навчання персептрона з використанням нормованої функції настройки
  • Реферат на тему: Навчання персептрона з використанням нормованої функції настройки
  • Реферат на тему: Програма для пошуку мінімуму функції двох дійсних змінних в заданій області
  • Реферат на тему: Реалізація одношарової нейронної мережі (персептрона)
  • Реферат на тему: Показова функція: властивості і графік