ацію невизначеності. Це дозволяє розглядати ентропію як міру нестачу інформації про мікроскопічних станах системи, а інформацію - як величину, протилежну їй за знаком (нищівну ентропію). Параметр N, рівний ентропії з протилежною знаком (N =-S), називається негативною ентропією або негентропії. Таким чином, I =-S = N. Цю взаємозв'язок інформації та ентропії висловлює негентропійної принцип інформації, сформульований Бріллеюном.
Якщо інформацію про мікроскопічних станах системи можна витягти тільки зі спостережень над її макроскопічним станом, то останнє повинно цю інформацію містити в собі (по крайней міру, потенційно). Термодинамічна система в стані максимуму ентропії - теплового рівноваги - не може зберігати інформацію (книга, що зберігає інформацію, - Не в тепловій рівновазі: вона його досягне, коли друкарська фарба розпливеться і змішається з папером в однорідну масу). Згідно НЕГЕНТРОПІЙНОЇ принципом інформацією, кількість зберігається в системі інформації одно зменшення її ентропії, тобто. Отже, чим вище ентропія системи, тим більше в пий безладу і невизначеності, і, навпаки, чим більше в системі інформації, тим більше визначеним і впорядкованим є її стан.
У. Р. Ешбі пов'язав поняття ентропії і інформації з поняттям різноманітності. Під різноманітністю розуміється безліч помітних частин системи. Здатність системи зберігати інформацію тим більше, чим більше її (системи) різноманітність. Зростання ентропії стирає відмінності між частинами системи і робить її більш однорідною, тобто зменшує її різноманітність. А це обмежує інформаційну ємність системи. Різноманітність і складність системи взаємопов'язані. Складні системи характеризуються великою різноманітністю і тому здатні утримувати в собі великий обсяг інформації.
Г. Хакен запропонував розглядати що зберігається в системі інформацію як безліч сигналів, якими обмінюються її елементи при взаємодії один з одним. У відкритій нерівноважної системі при достатньому припливі енергії ззовні елементи внаслідок такого обміну починають функціонувати узгоджено, когерентно. У результаті всередині системи виникає В«інформаційне середовищеВ», характеризується параметром порядку. Цей параметр, з одного боку, породжує кооперативне поведінка частин системи, а з іншого - сам породжується їх спільною дією. Разом з тим він дає спостерігачеві відомості про макроскопічно впорядкованої організації системи, оскільки він як продукт кооперації її частин підсумовує, В«стискаєВ» в собі інформацію про мікроскопічному стані системи, і в результаті вона з'являється на макрорівні. Хакен називає цей параметр інформатором, а інформацію, породжену кооперативним дією системи, - синергетичної інформацією. Зростання синергетичної інформації - умова самоорганізації системи.
Людське суспільство як надскладне система відрізняється колосальною кількістю зберігається в ній інформації. Однак специфіка його визначається не ...