значав: «Якщо D - міра невпорядкованості, то зворотну величину 1 / D можна розглядати як пряму міру впорядкованості. Оскільки логарифм 1 / D є те ж, що і негативний логарифм D, ми можемо написати рівняння Больцмана таким чином: - (ентропія)=k lg (1 / D) ... ентропія, взята з протилежним знаком, є сама по собі міра впорядкованості »[9]. Подібну думку висловив Н.Вінер, зазна-
чаю, що «поняття кількості інформації абсолютно природно зв'язується з класичним поняттям статистичної механіки - поняттям ентропії. Як кількість інформації в системі є міра організованості системи, точно також ентропія системи є міра дезорганизованности системи, одне одно іншому, взятому з оберненим знаком »[10].
Надалі ці висновки знайшли свій розвиток у формуванні ентропійної парадигми співвідношення хаосу і порядку в системі, відповідно до якої хаос і порядок по своїй величині дорівнюють один одному, а їх загальною мірою є ентропія. Подібний підхід трохи дає для знання про хаотичності системи, оскільки хаос і порядок у структурі дискретних систем оцінюються за допомогою однієї і тієї ж функції, значення якої відрізняються тільки знаком, а не величиною. Водночас, інформаційна ентропія Шеннона дозволяє оцінити ступінь хаотизації системи, якщо використовувати характеристики системної складності і різноманітності в системі.
Поняття інформаційної ентропії для оцінки складності системи першим використав У. Ешбі [6]. Відповідно до його уявленнями, складність системи (у тому числі й економічної) характеризується її розмаїттям, під яким зазвичай розуміється кількість станів, яке може приймати система. При оцінці ентропії (за формулою Шеннона) це розмаїття станів враховується, але, в той же час, враховується і ймовірність їх прояву. Таким чином, інформаційна ентропія, як міра різноманітності і організованості системи оцінює також і ступінь її невизначеності, або іншими словами, детермінованості, хаотичності.
Якщо розглядати фінансово-економічні показники функціонуючого підприємства як параметри стану, то їх значення в будь-який момент часу утворюють вектор, який містить в собі інформацію про ступінь хаотичності об'єкта. Тоді оцінкою заходи хаотичності може служити функція інформаційної ентропії (ентропійна міра) [8]:
H =] Cp, log2p,,
1
де р!- Ймовірність (або частота) знаходження значення показника в певному інтервалі.
У разі равновероятного знаходження значення показника ентропійна міра розраховується за такою формулою:
H" = log2 N,,
де N - кількість показників.
Тоді ж, коли система може прийняти тільки один стан з частотою рівною 1, ентропія її дорівнює нулю. Отже, для будь-якої невиродженої системи значення ентропії лежить в інтервалі від 0 до 1.
Для оцінки інформаційної невизначеності, хаотичності конкретних підприємств нами, як параметрів стану, розглядалася група, що складається з 25 показників, що характеризують рентабельність, лик-
видність, ділову активність, фінансову стійкість і платоспроможність. Спостереження за зміною показників проводилося протягом 30 періодів на двох підприємствах (ВАТ «Суднобудівний завод імені Жовтневої революції» і ВАТ «Амурський ремонтний завод»). Примітно, що ВАТ СЗОР має позитивну динаміку загальної рентабельності, а ВАТ АРЗ, негативну. Порівняння ознак, що мають різні величини вимірювання, зажадало попередньої стандартизації показників. Тому кожне вихідне значення у вибірці (xi) з...