самоорганізується, якщо її структура виникає, зберігається і ускладнюється в результаті відбуваються в ній внутрішніх процесів, а не нав'язується їй ззовні. Структура досить складних систем приймає
ієрархічний характер. Її елементи об'єднуються в структурні утворення (підсистеми) різного рівня, серед яких можуть виділятися структурні утворення вищого рангу, виконують функцію управління всією системою в цілому.
Самоорганізація людського суспільства історично відбувається у вигляді розвитку різноманітних форм управління соціальними процесами. Особливості самоорганізації суспільства пов'язані з поняттям влади. Володіння владними повноваженнями є основою для виконання управлінських функцій з усіма витікаючими звідси привілеями. Боротьба за владу на різних рівнях суспільної структури складає сутність політики в широкому сенсі цього слова - політичної сфери суспільного життя. На вищому рівні структурної ієрархії суспільства знаходиться державна влада. Історично утворюються і змінюють один одного різні її форми. Залежно від їх пристрою і перевлаштування складаються різні варіанти режиму громадської життя - від наведення жорсткого порядку і суворого припинення будь-яких спроб його порушення до анархії, дезорганізації й хаосу.
Гј Зростання обсягу використовуваної інформації. Інформацію можна розуміти як міру порядку, тобто як протилежність ентропії, яка є мірою безладдя, дезорганізації, хаотичності.
Для допитливих, але не знають або які забули фізику. У термодинаміки порядок і безлад визначаються за кількістю способів, якими можна розставити елементи системи за умови, що їх перестановки не змінять її загальних властивостей (її макроскопічного стану). Чим більше це число, тим більше в системі безладу. Логарифм цього числа і є ентропія (за Больцману): S = k ln W , де S - ентропія, W - число різних мікроскопічних (відносяться до окремих елементам) станів, що породжують одне і те ж макроскопічне стан, до - константа (постійна Больцмана).
Ентропію можна трактувати також і як невизначеність мікроскопічного стану системи, пов'язану з тим, що невідомо, який саме з усіх можливих способів розташування її елементів реалізований в дійсності. Число S характеризує цю невизначеність. Очевидно, що позбутися від неї ми змогли б, якби перебрали всі можливі способи і для кожного з них вирішили б питання, є чи не є він шуканим. Якщо вважати, що вирішення цього питання для кожного з них дає нам один біт інформації, то всього нам потрібно отримати рівно стільки бітів інформації, скільки всіх цих способів існує. Отже, інформація I в такому випадку чисельно дорівнює ентропії S. Це визначення інформації (його називають статистичними) дано К. Шенноном.
Але отримання інформації про те одному способі розташування елементів, що реалізований в системі, означає ліквід...