складність структури (а це завжди упорядкована складність) - досить позитивна, грамотна, здатна надійно працювати абстракція, тоді як складність системи поєднує два різнорідних типу складності воєдино, звідси багатоелементні слабо інтегровані, ділені освіти можуть здаватися високоскладних об'єктами. Складність ця, однак, має мало відношення до впорядкованої складності. У цьому зв'язку складність системи слід визнати вельми незадовільною, неакуратною, непозітівной абстракцією.
Отже, в як ключовий термін ми вибираємо структурність, який трактуємо як - складність або міру складності структур (структури) = складність (Висококогерентного) впорядкування = упорядковану складність. Даний термін досить точний і лаконічний. Даної суті для майбутніх коротких посилань і математизації ставимо у відповідність символ s '.
Складність невпорядкованого, хаотичного виводиться за рамки цього розгляду.
Теорія інформації дала додаткові концептуальні засоби оцінки складності.
Зв'язок між ентропією і ймовірністю була встановлена ​​Л. Больцманом і виражається його знаменитою формулою:
H = a В· lnW,
де H - ентропія, W - термодинамічна ймовірність стану.
Пізніше, в роботах Е. Шредінгера, було запропоновано більш широке розуміння ентропії - як заходи дезорганізації систем будь-якої природи, а К.Шеннон зауважив, що математичний вираз кількості інформації збігається з формулою Больцмана. Нарешті, Н.Вінер в 1948р. констатував, що В«кількість інформації, будучи негативним логарифмом величини, яку можна розглядати як ймовірність, по суті є певна негативна ентропія В»[4].
Взаємозв'язок понять ентропії та інформації знайшла відображення у формулі H + I = 1.
Таким чином, рівень впорядкованості ряд авторів пропонує зчитувати по ентропії - наприклад: кількість інформації, необхідної для переходу від деякого рівня організації n - 1 до більш високого рівня n, визначається як різниця ентропій:
О”I (t - П„) = Hn-1 (t, П„) - Hn (t, П„),
де Hn-1 (t, П„) = ОЈ Pn-1 (t, П„) logPn-1 (t, П„) - ентропія стану об'єкта на рівні n-1; Hn (t, П„) = ОЈ Pn (t, П„) logPn (t, П„) - ентропія стану на рівні n [4].
Теоретико-інформаційний підхід до визначення міри складності має свої недоліки. Наведені викладки занадто складні для обчислень, тому поки вони мають швидше тільки теоретичний інтерес.
З іншого боку, міра різноманітності, формалізується в теорії інформації, на наш погляд, не схоплює належним чином упорядковану складність. Складність як різноманітність не враховує вписаність елементів в структуру, їх інтегрованість, зв'язаність і тому служить мірилом складності невпорядкованого.
Автори монографії В«Принцип простоти і міри складностіВ» зазначають:
В«Коректність і застосовність тієї чи іншої теоретико-інформаційної міри складності в значною мірою визначається тією інтерпретацією, яка дається субстрату різноманітності. У цьому ...