|
|
||
Марк Алескер
О ХАОСЕ И ПОРЯДКЕ / Глава из книги "Информация и время в макромире"/
Аннотация
Обычно, следуя Винеру (1894-1964), полагают, что информация характеризует меру порядка, а энтропия - меру хаоса. "Как количество информации в системе есть мера организованности системы, точно также энтропия системы есть мера дезорганизованности системы" - говорит Винер [1]. Из утверждения Винера следует, что в организованной системе много информации и мало энтропии (в дезорганизованной - наоборот). Но согласно Шеннону (1916-2001) энтропия источника информации есть величина, которая измеряет "как много информации создается" источником ([2], с. 259). Возникает, как будто бы, противоречие. С одной стороны, в организованной системе, согласно Винеру, много информации, с другой стороны, от такой системы много информации не получить, потому что в системе мало энтропии, а ведь именно она, согласно Шеннону, определяет, как много информации можно от системы получить. По-видимому, это противоречие есть результат разного смысла, вкладываемого цитируемыми авторами в слова "энтропия", "информация", "хаос" и пр. Поэтому следует подробнее разобраться в этих терминах, и, прежде всего, что есть хаос и связан ли он с информацией, которую можно от системы получить. (До подробного рассмотрения понятия информации в других главах, в этой главе представление об этом понятии остается в значительной мере интуитивным).
Понятие энтропии впервые введено Клаузиусом (1822-1888) в 1865
году. Он заметил, что при обратимых тепловых процессах "не убывает и не прибывает"
([4], с.352) величина
где Q - поглощаемое или выделяемое телом тепло, Т - температура тела, при которой происходит поглощение или выделение тепла соответственно. Изменение величины (1) при переходе "рабочего тела" обратимых машин из одного состояния в другое не зависит от пути (способа) перехода, и поэтому S есть функция только состояния (объема и температуры), названная термодинамической энтропией ([4], с. 352-354).
В необратимых процессах энтропия с течением времени возрастает. Полагая, что
этот рост связан с переходом систем во все более вероятные состояния, в 1872
году Больцман (1844-1906) на основе молекулярно-кинетических представлений пришел
к идее вероятностной трактовки энтропии, суть которой заключена в формуле
k (постоянная Больцмана) - кинетическая энергия, которую приобретает (в среднем) молекула одноатомного газа при нагревании его на 2/3 градуса ([4], с. 255). W - термодинамическая вероятность (статистический вес состояния).
К этому понятию (статистический вес состояния) можно прийти, рассмотрев простой
пример.
Рис. 1
В сосуде могут свободно перемещаться из одной половины в другую четыре частицы 1, 2, 3 и 4, обладающие одинаковой энергией, например, молекулы газа. Тогда возможно шестнадцать вариантов расположения этих четырех частиц в зонах А и В (N предметов можно поместить в M ящиков MN способами, в нашем случае это 24 = 16). Эти варианты представлены в таблице 1.
Таблица 1.
Макросостоянием называют такую ситуацию, которая соответствует одним и тем же значениям некоторого макропараметра, (то есть параметра, который можно измерить прибором), например, давления частиц на стенки в каждой половине сосуда. Это давление не зависит от того, какая именно частица находится в той или иной зоне, важно лишь, чтобы энергии частиц были одинаковы, и они одинаково воздействовали бы на стенки сосуда. В этом случае давление будет зависеть только от количества частиц, находящихся в соответствующих зонах А и В. Однако одно и то же количество частиц, определяющих одно и то же давление, может получиться разными способами. Например, четыре варианта под номерами 2, 3, 4 и 5 в таблице 1 характеризуют ситуацию (макросостояние II), когда в зоне А находится одна частица, а в зоне В - три частицы. Каждый из этих вариантов является одним из микросостояний газа. Другое макросостояние III, характеризуемое одинаковым количеством частиц (по две) в зонах А и В, образуется из шести микросостояний (номера 6-11 в таблице 1). Количество микросостояний W для некоторого макросостояния называют статистическим весом данного макросостояния. То есть вес макросостояния II равен четырем, а вес макросостояния III - шести. Понятно, что на опыте мы будем обнаруживать преимущественно наиболее вероятные макросостояния, то есть такие, статистический вес которых больше. И максимальным этот вес будет при термодинамическом равновесии. Вес любого макросостояния можно определить сразу, не прибегая к утомительным переборам комбинаций. Если в первой зоне имеется N1 частиц, во второй - N2 частиц и т.д. вплоть до зоны M (N= N1+N2+....+NM), то вес W макросостояния равен
Например, для макросостояния II этот вес равен WII=C14*C33 = 4, а для макросостояния III он равен WIII=C24*C22= 6 в соответствии с таблицей 1.
Из формулы (3) следует, что максимальным весом обладает макросостояние, которое характеризуется наиболее равномерным распределением частиц по зонам объекта. В этом случае максимально число способов, которыми можно переставить части объекта так, что при этом всё (в нашем примере давление на стенки) будет выглядеть без изменений. Полагают, что числом этих способов измеряется "беспорядок", имеющийся в объекте, а "логарифм числа способов - это энтропия" ([4], с. 383). Таким образом, одна из характеристик термодинамического хаоса может быть сформулирована следующим образом: чем больше способов переставить части объекта так, чтобы при этом макропараметры объекта не менялись, тем выше хаос внутри объекта. Такой взгляд на хаос в какой-то мере согласуется с нашими представлениями о беспорядке. Действительно, если на некотором складе на каждой полочке лежит по одинаковой неподписанной коробочке, и поэтому мы не знаем, что и в какой коробочке находится, то это беспорядок, так как надо много раз заглянуть в разные коробочки, чтобы отыскать нужное содержимое (можно переставлять неподписанные коробочки, и внешне все будет выглядеть одинаково). Математики в такой ситуации говорят, что вероятность найти некоторый элемент в какой-нибудь коробочке равна вероятности обнаружить этот элемент в любой другой коробочке.
Чем еще характеризуется хаос, который мы связываем с термодинамическим
равновесием, например, идеального газа? При таком равенстве всех средних параметров выяснить исходное состояние, например, капли чернил не представляется возможным (информация о начальном состоянии теряется). После перемешивания, таким образом, теряется корреляция между частицами, из которых состоит система, и она "забывает" свое начальное состояние. Механизм "забывания" прошлого связан с разрушением корреляций между молекулами. Примерную схему разрушения корреляций молекул в идеальных газах можно представить себе на упрощенном примере движения молекул в одной плоскости. Пусть пара молекул изначально скоррелирована так, что они движутся рядом друг с другом примерно в одном и том же направлении со скоростью, существенно превышающей скорости остальных молекул. Тогда эту ситуацию приближенно можно представить в виде движения бильярдных шаров по плоскому столу с наличием многих (выпуклых) покоящихся препятствий (в виде других молекул). Подобные ситуации проанализированы во многих работах по анализу динамического хаоса (см., например, [7], [8], [9]), в которых доказано, что уже небольшое количество столкновений с препятствиями полностью разрушает корреляции между исходной парой шаров (молекул). Все сказанное выше про термодинамический хаос не встречает возражений при рассмотрении газов или жидкостей, когда можно наглядно представить себе перемешивание частиц, случайное распределение их скоростей и пр. Однако при рассмотрении систем, состоящих из плотных тел, в которых межмолекулярные силы накладывают связи, ограничивающие свободное движение частиц, возникают трудности с представлениями о хаосе и порядке. "Именно из-за трудностей, возникающих при рассмотрении плотных систем с взаимодействующими частицами, яркая пионерская теория Больцмана осталась незавершенной" ([3], с. 313), - говорит Пригожин (1917-2003).
Система любой природы является динамической, если можно
указать ее динамические переменные (координаты точек, их скорости и т.
д.), характеризующие состояние системы, и так называемый оператор эволюции. Несмотря на такую предопределенность ближайших во времени состояний, для больших промежутков времени состояние многих динамических систем оказывается непредсказуемым. Эта непредсказуемость, если она имеет место быть, ассоциируется с понятием хаоса. Мы не будем подробно останавливаться на всем огромном перечне вопросов теории динамических систем и ее важных разделов - теории хаоса и фракталов. Обратим внимание лишь на критерии, на основании которых определяют, где есть хаос, а где его нет. Это позволит выяснить, как связан динамический хаос с термодинамическим. Собственно, с этой единственной целью мы и "заглянули" в эту необозримую по своему объему и сложности тему (см., например, [10], [11], [12], [13]). Итак, считают, что развитие динамической системы достигает хаоса, если один или несколько динамических параметров системы становятся случайными, и заранее их точное значение (из области возможных значений) непредсказуемо. Возникает вопрос, каким образом детерминированная система может приобрести случайное состояние? Ведь ясно, что любое конкретное состояние, которое система достигла на текущий момент времени, предопределено непосредственно предшествующим состоянием и действием оператора эволюции. В этом смысле всякое текущее состояние системы не случайно. Оказывается, однако, что случайность может "родиться из детерминизма", если эволюция системы (ее траектория в фазовом пространстве) чувствительна к незначительным изменениям начальных условий. Открытие такой возможности ("рождения" случайности из детерминизма) является "очень важным открытием" ([9], стр. 47). Оно доказало, что нашим миром не правит "демон" лапласовского детерминизма. Это открытие (и разработанный в связи с ним математический аппарат) позволило также эффективно решать практические задачи, например, анализа систем на устойчивость. Обычно хаос в динамических системах рассматривают, анализируя эволюцию не одной системы, а ансамбля систем. Ансамбль состоит из множества одинаковых копий систем, незначительно отличающихся одна от другой лишь начальными условиями, и геометрически выглядит в фазовом пространстве в виде "облака" точек, изменяющего свою форму с течением времени. Хаос консервативных систем (систем без потери энергии) характеризуется уже известным нам "перемешиванием", но в данном случае речь идет не о перемешивании внутренних элементов системы, а о перемешивании ансамбля систем: облако точек ансамбля с течением времени расплывается по всему фазовому пространству (сохраняя свой объем). Траектории его отдельных точек удаляются друг от друга, и поскольку при конечном фазовом пространстве удалиться на бесконечность невозможно, перепутываются друг с другом. Между исходными точками облака теряется связь (происходит "распад" корреляций), а информация о положении точек облака, известная изначально и в первые моменты эволюции, со временем теряется. Скорость потери этой информации определяет так называемая энтропия Колмогорова-Синая ([10], стр. 104). Таким образом, хаос, который может возникнуть в консервативных динамических системах, не подверженных никаким случайным воздействиям, заключается в том, что состояние системы в долгосрочной перспективе оказывается непредсказуемым, случайным. Хаос диссипативных систем (системы теряют энергию) характеризуется существованием аттрактора в фазовом пространстве: вследствие потери энергии исходное облако ансамбля уменьшается в объеме. При этом могут возникнуть сомнения в возможности возникновения хаоса, потому что точки облака с течением времени приближаются к некоторому постоянному, а не случайному, множеству точек (аттрактору). Так оно и будет, хаос не возникнет, если аттрактор представляет собой единственную точку в фазовом пространстве, или, например, какую-нибудь замкнутую кривую. Тем не менее, для многих систем обнаружены странные аттракторы - сложно устроенные фрактальные множества ([14]). Как возникает случайность при движении по аттрактору, если случайных воздействий на систему нет? Нестрого этот феномен можно описать следующим образом. Пусть, например, аттрактор представляет собой сложную многослойную поверхность, похожую на голову кролика с двумя длинными ушами. Зашифруем "уши" кролика цифрами: 0 - левое ухо, 1 - правое ухо. Теперь найдем некоторое случайное число путем подбрасывания монеты: запишем 0 в первом разряде числа, если при первом бросании монеты выпала решка, и запишем 1, если выпал орел. Таким же образом определим с помощью бросания монеты остальные разряды числа. В итоге мы получим случайное число, например, такое: 11000101110010....1. Оказывается, что в процессе эволюции ансамбля систем, "стартующих" из некоторой малой области фазового пространства (вне аттрактора или с него самого), в "облаке" этого ансамбля найдется точка А, траектория которой точно будет соответствовать нашему случайному числу: траектория дважды "посетит" правое ухо, затем трижды пройдет по левому уху, далее опять правое и так далее в соответствии с разрядами числа 11000101110010....1. Порядок обхода "ушей" системой В, начальные условия которой незначительно отличаются от системы А, будет соответствовать другому случайному числу. Это так, потому что одна из траекторий (системы А или В) после удаления от другой, "пропустит" некоторое ухо, в то время как другая траектория его посетит, и тогда будущие истории систем А и В станут независимыми. Таким образом, хаос, наблюдаемый при эволюции динамических систем в ограниченной области пространства, представляет собой нерегулярный тип движения, характеризуемый чувствительной зависимостью траекторий от начальных условий. Это приводит к долгосрочной непредсказуемости (случайности) одного или нескольких параметров системы, несмотря на то, что каждое последующее состояние системы обусловлено (детерминировано) предыдущим состоянием. Итак, если термодинамический хаос характеризуется отсутствием
в системе информации о прошлом этой системы (о ее прошлых состояниях),
то динамический хаос характеризуется отсутствием информации о будущих
состояниях системы. Динамический хаос характеризует процесс изменения состояния системы во времени для систем, чувствительных к незначительному изменению их начального состояния, но не характеризует самое текущее состояние системы как хаотическое или упорядоченное. Поэтому, исходя из критериев динамического хаоса, относительно хаотичности или упорядоченности текущего состояния системы ничего сказать нельзя. В отличие от динамического хаоса понятие термодинамического хаоса относится к текущему состоянию системы. При этом представление о хаосе (при стремлении системы к термодинамическому равновесию) формируется, исходя из неразличимости элементов системы относительно макропараметров. Однако можно развить и иное представление о хаосе, основанное на различимости внутренних элементов системы. Вот некоторые соображения в пользу такого представления. Во-первых, суждение о хаосе или порядке в расположении каких-либо объектов формируется у нас в зависимости от имеющейся информации, позволяющей конкретный предмет быстро отыскать (а для этого он должен отличаться от других!). Не зря же некоторые люди, имеющие обыкновение держать свои вещи, книги, записи и пр. "разбросанными" в самых неподходящих местах, бывают крайне возмущены, если кто-то приведет эти вещи в "порядок" - теперь уже нужную вещь трудно отыскать, уверяют они. Беспорядок, - говорим мы, - если в длинном списке фамилии не расположены в алфавитном порядке, и требуется много времени, чтобы отыскать фамилию нужного человека. А если улицы и дома расположены не строгими рядами, а как придется, тогда даже таблички с номерами домов мало помогают найти нужный адрес. Или еще пример: файлы на жестком диске компьютера (и даже их отдельные части) разбросаны в самых разных местах диска, тем не менее, на диске полный порядок, потому что в файловой системе имеются адреса для быстрого поиска нужных файлов. При потере этих адресов, на диске воцаряется хаос. Иначе говоря, расположение элементов системы мы воспринимаем как беспорядочное не только в случае неразличимости элементов системы и поэтому незнания их местонахождения, но и в случае различимости этих элементов при отсутствии информации об их расположении относительно друг друга. Во-вторых, в любой системе (газ, жидкость, твердые тела) энтропия определяется тепловой составляющей внутренней энергии системы. Другие, макроскопически различимые составляющие энергии, могут обусловливать как упорядоченное, так и хаотическое состояние системы. Рассмотрим это подробней. Первый закон термодинамики (закон сохранения внутренней энергии
dU системы) выражается
следующей дифференциальной формулой (система не изолирована и не обязательно
находится в термодинамическом равновесии):
где
- малое изменение работы, совершаемой системой над окружающей средой.Работа может производиться не только за счет поступившего тепла , но и за счет механической, электрической и пр. внутренней энергии, имеющейся в системе. Согласно закону сохранения энергии необходимо лишь, чтобы соблюдалось равенство (5), принимающее с учетом (6) вид:
Слагаемым в правой части формулы (7) представлена та составляющая внутренней энергии системы, которая описывает неконтролируемые степени свободы микроскопического движения частиц вещества, ответственные за термодинамический хаос. А слагаемое содержит энергетические составляющие, которые можно проконтролировать, измерив действие механических сил, электромагнитного поля и т.д. на окружающие тела. Например, механическая работа, совершаемая газом при поглощении тепла и изобарном расширении (при постоянном давлении), равна , где P - давление, V - объем. Таким образом, соотношение (7) означает, что внутренняя энергия сохраняется в результате "конкуренции" тепловой энергии и других ее видов, которые могут быть измерены. Как говорит Пригожин, "при низких температурах перевес на стороне энергии, и мы наблюдаем образование таких упорядоченных (с малой энтропией) и низкоэнергетических структур, как кристаллы,... при высоких температурах доминирует энтропия и в системе устанавливается молекулярный хаос" ([3], стр. 179). Иначе говоря, между элементами системы, когда "перевес на стороне энергии" (не тепловой), возникают связи, позволяющие отличать друг от друга отдельные части системы (кристаллы и пр.). Именно в связи с различимостью отдельных подсистем понятию хаоса можно придать иной смысл, не только отличный от смысла термодинамического хаоса, но и полностью противоположный ему. Этот тип хаоса уместно назвать информационным хаосом. Он наступает не тогда, когда различия между подсистемами с ростом теплового движения молекул уменьшаются, а, наоборот, когда различий становится больше в связи с удалением от термодинамического равновесия. Представляется разумным в качестве меры информационного хаоса текущего (зафиксированного) состояния системы принять количество разнообразных частей, которые могут быть выделены из этой системы (это количество назовем энтропией структуры или информационной энтропией системы). Тогда критерий наличия информационного хаоса может быть сформулирован, например, так: наибольший информационный хаос в системе наблюдается тогда, когда из системы можно вычленить максимально возможное количество ее различимых частей. Или так: хаоса в текущем состоянии системы больше всего тогда, когда полное описание этого состояния (то есть описание подсистем и связей между ними) при оптимальном кодировании информации содержит максимум бит по сравнению с подобными описаниями других состояний.
Покажем на примере условного газа состоящего из четырех частиц (см. таблицу 1), как "работает" указанный критерий. Пусть молекулы различимы, например, по величине энергии, которую мы предполагаем условно измеримой за короткий промежуток времени, в течение которого рассматривается состояние системы. Можно ли теперь, заглядывая в сосуд несколько раз и всякий раз обнаруживая там разные состояния, сказать, что одно состояние более хаотично по сравнению с другим, или нет? Чтобы ответить на этот вопрос, нам надо для наглядности найти удобную математическую схему для обозначения элементов. Ранее в таблице 1 мы присваивали номера отдельным молекулам нашего условного газа, выписывали возможные комбинации этих молекул, и, в свою очередь, присваивали номера этим комбинациям. Однако такой способ хоть и нагляден для малого количества молекул, но для большого числа элементов он неприемлем. Много проще для маркировки частиц воспользоваться тем, что любой объект, состоящий из n элементов, каждый из которых может находиться в одном из m состояний, может быть приведен во взаимно однозначное соответствие с n-разрядным числом m-ичной системы счисления. Для этого надо конкретному элементу объекта поставить в соответствие определенный разряд числа, а конкретному состоянию - определенную цифру. И тогда можно анализировать структуру чисел, что проще, чем непосредственно анализировать структуру самих объектов. Давайте, так и сделаем. Пусть номер частицы соответствует
номеру разряда двоичного числа, нахождение некоторой частицы в зоне А
соответствует значению "1" этого разряда (нахождение в зоне В -
значению "0"). Тогда каждое микросостояние отобразится на некоторое четырехразрядное
двоичное число, указанное в колонке "число" таблицы 2, причем всем
микросостояниям будут соответствовать разные числа. Таблица 2
Выясним, какие из чисел таблицы 2 имеют наиболее хаотичную структуру. Для этого в соответствии с критерием информационного хаоса будем извлекать из некоторого числа любые его части в виде подряд стоящих разрядов. Если проделать эту процедуру без "соединения" первого и последнего разрядов, то, например, из числа 1100 получим следующие 8 вариантов "подсистем" числа: 0, 1, 00, 10, 11, 100, 110 и 1100 (количество вариантов помещено в столбцы "энтропия структуры" таблицы 2). Количество "подсистем" числа будем называть статистическим весом числа, определяющим меру его информационной хаотичности. Если же повторить эту процедуру с циклической связью разрядов (при этом первый и последний разряды считаются стоящими рядом), то количество вариантов (для того же исходного числа 1100) увеличится до четырнадцати: 0, 1, 00, 01, 10, 11, 001, 011, 100, 110, 0011, 0110, 1001 и, наконец, 1100 (см. табл. 2). В связи с малым количеством молекул (разрядов числа) меры их хаотичности различаются незначительно. Но при увеличении количества молекул хотя бы до десяти это различие проявляется больше. Например, согласно "термодинамическому" критерию хаоса, когда молекулы неразличимы, в соответствии с формулой (3) имеется 252 наиболее хаотичных состояния (0000011111, 0000111110, 0101010101 и т.д.), когда в каждой из зон находится по пять молекул. Однако согласно "информационному" критерию, когда молекулы различимы, почти все эти 252 комбинации упорядочены, и только следующие восемь
обладают максимальным статистическим весом (равным 42 при отсутствии зацикливания разрядов). А, например, комбинация 0101010101 имеет статистический вес, равный 19, что в соответствии с "информационным" критерием хаоса свидетельствует о значительной упорядоченности ее структуры, несмотря на то, что это микросостояние характеризует термодинамический хаос. То есть, при термодинамическом хаосе во многих микросостояниях наблюдается информационный порядок (подробнее этот вопрос будет рассмотрен в пятом параграфе этой главы).
Числа, обладающие максимальной энтропией структуры, содержат в себе и максимальное количество информации, необходимой для описания их структуры. Эта информация не может быть "сжата" никакими способами, в отличие от чисел, содержащих много идущих подряд нулей или единиц, которые могут быть "сжаты". Например, есть последовательность шестидесяти четырех нулей подряд. Такая последовательность может быть "сжата", то есть, записана с использованием меньшего числа бит без потери информации. Например, так: 011001000. Вначале этого числа (слева направо) указано количество нулей в двоично-десятичном коде, а последний разряд равен символу, имеющемуся в последовательности. Зная правила расшифровки, мы можем понять, что этими девятью битами записана последовательность нулей в 64 бита. Если же попытаться "сжать" другую комбинацию 64-х нулей и единиц, например, такую
то это окажется невозможным, потому что эта комбинация содержит максимальное количество информации (информационная энтропия, характеризующая беспорядочное расположение нулей и единиц этой комбинации, максимальна). Действительно, путем произвольной выборки из данной закольцованной комбинации каждый раз не более 64-х разрядов, расположенных подряд, можно получить 3838 различных чисел, что является максимально возможным значением.
Величину максимальной информационной энтропии Е "n"-разрядного двоичного
числа можно определить по одной из формул:
где m целое и m = kmax в неравенстве 2k < n (k целое), По формуле (8) вычисляется максимальная энтропия "закольцованного" числа, по формуле (9) - числа с "разомкнутым" кольцом между первым и последним разрядами. Для объектов со многими зонами и элементами подсчет информационной энтропии, разумеется, много сложней.
Таким образом, кроме хаоса термодинамического и динамического можно указать
еще на одну "разновидность" хаоса - информационный хаос. Мерой этого хаоса
является информационная энтропия. Чем она больше, тем больше разнообразных
подсистем содержит система.
Пусть система находится в термодинамическом равновесии
(с максимальной энтропией Smax), и пусть в результате внешнего воздействия
количество микросостояний в системе уменьшилось так, что энтропия системы
стала равной S < Smax.
Соотношение (10) можно переписать в виде
На схеме оси энтропии S и негэнтропии N направлены в противоположные
стороны, так что их величины, отсчитываемые от соответствующих нулевых
значений, положительны. Значения энтропии S0 и негэнтропии N0 соответствуют
некоторому текущему состоянию системы. Эти значения изменяются до величин
S1 и N1, если из системы была извлечена некоторая информация (система
совершила работу над внешней средой). Если же система получила информацию
извне, то соответствующие величины энтропии и негэнтропии станут равными
S2 и N2. Во-первых, оценивая хаос или порядок, имеющийся в системе, необходимо различать те основания, на которых может базироваться наша оценка. Например, можно сказать, что с ростом энтропии беспорядок растет, если имеется в виду термодинамический хаос, но можно сказать и, наоборот: с ростом энтропии увеличивается порядок, если имеется в виду информационный хаос. Действительно, с ростом энтропии при достижении термодинамического равновесия, с одной стороны, наблюдается термодинамический хаос среди микроэлементов системы, с другой стороны, наблюдается полный информационный порядок: все наблюдаемые макропараметры детерминированы и неизменны. А при температуре, приближающейся к абсолютному нулю, когда энтропия стремится к нулю, наблюдается "полный термодинамический порядок" (каждый элемент системы покоится на своем месте) и максимальный информационный хаос. Именно информационный хаос, потому что в системе можно обнаружить максимальное количество различающихся подсистем, ибо неразличимых "неподконтрольных" элементов в связи с отсутствием энтропии в системе нет. "Энтропия есть мера недостатка информации; она выражает общее количество отсутствующей информации об ультрамикроскопической структуре системы" ([15], с. 17), и равенство энтропии нулю свидетельствует о том, что в системе содержится максимально возможное количество связанной информации. На противоположный смысл информационного и термодинамического хаосов указывал еще Бриллюэн. Правда, он не вводил в свою теорию понятия информационного хаоса, а указал лишь на совпадение понятий "энтропии информации" и негэнтропии: то, что "Шеннон называет энтропией информации, в действительности означает негэнтропию" ([15], с. 212). Во-вторых, говоря о наличии термодинамического хаоса или информационного порядка (например, при максимальном значении энтропии), мы имеем дело лишь с терминологическим различием, потому что в первом случае при утверждении о наличии "хаоса" имеют в виду те же физические обстоятельства, что и во втором случае при утверждении о наличии "порядка". Это так, если информационный хаос определен на том же структурном уровне, что и термодинамический порядок, и тогда оси энтропии и негэнтропии на схеме рис 2 отличаются лишь направлением, но не масштабом. Однако эти понятия могут быть определены на разных уровнях рассмотрения элементов. В таком случае полного соответствия термодинамического хаоса и информационного порядка (и наоборот) не будет.
Обычно при измерении количества информации в битах, а энтропии - в безразмерных единицах согласно формуле (1"), отношение этих единиц измерения друг к другу равно примерно 10-16 ([15] с. 22).
6. Не много ли модификаций информации? Мы говорили уже о том, что внутреннюю энергию любой системы можно разграничить на неупорядоченную ( ) и упорядоченную ( ) составляющие. При этом упорядоченная составляющая энергии ответственна за работу, которую может совершить система, и она же представляет собой зону негэнтропии, область, в которой хранится связанная информация системы. Неупорядоченная часть энергии определяет энтропию текущего состояния системы. Эта составляющая является зоной информации, имеющейся в системе, но потерянной для внешних систем (назовем ее "термодинамической информацией"). Происходит так потому, что хаотическое поведение элементов системы не может быть проконтролировано извне, а нулевые средние значения импульса и момента импульса хаотически движущихся элементов не могут совершить работу. Таким образом, можно говорить о двух модификациях информации, содержащейся в системе. Первая модификация - связанная информация - находится внутри системы, принадлежит ей, ассоциируется с негэнтропией, и может быть передана вовне системы за счет работы, совершаемой системой. Вторая модификация - термодинамическая информация. Она есть в структуре молекул, атомов и прочих элементарных образований ("гипнонов" Пригожина см. подробно [3], с. 239, 357), никак не проявляющих своей внутренней организации, и поэтому вовне системы эта информация не передается. О третьей модификации мы уже упоминали - это информация Шеннона, передаваемая от источника информации приемнику (ее обсуждение проведем в другой главе). Перечень "версий" информации этими тремя видами, к сожалению, не исчерпывается. Например, чтобы ответить на вопросы, связанные с передачей и копированием информации, в работе [15] используется еще несколько "сортов" информации. Вот неполный перечень "жертв", принесенных на алтарь спасения понятия информации: свободная информация ([15] с. 200), запасенная информация ([15] с. 339), абсолютная и распределенная информация ([15] с. 345). Существует мнение, что синтез всех модификаций информации 'очень труден и полностью еще не осуществлен; эта проблема относится к числу глубоких научных проблем, которые ждут своего решения' [16]. Однако
мы не будем обсуждать ни приведенные выше термины, ни
их "живые" и "мертвые" ([15] с. 338-339) варианты. Потому что столь обширный
набор "сортов" информации свидетельствует просто о неблагополучной ситуации
с определением этого понятия. По-видимому, осмысление информации возможно
на ином, "событийном" уровне, когда при анализе понятия информации внимание
концентрируется на событиях, реализация которых "рождает" информацию.
Некоторые соображения по этому поводу, сводящие все мыслимые и немыслимые
виды информации, в основном, к двум сущностям - информации и информационному
сообщению, будут рассмотрены в других главах.
Существует, по крайней мере, два представления о хаотичности текущего состояния системы. Первое (термодинамическое) связано с неразличимостью элементов системы относительно макропараметров (и невозможностью следить за степенями свободы этих элементов). При таком представлении мера хаоса - термодинамическая энтропия. Второе представление о хаосе (информационное) связано с различимостью элементов системы (и возможностью контролировать степени свободы этих элементов). Мера такого хаоса - информационная энтропия Шеннона (негэтропия Бриллюэна). Эти представления противоположны друг другу по смыслу, и когда термодинамический хаос растет, информационный хаос убывает, и наоборот. Кажущееся противоречие, упомянутое в начале главы, возникло как раз потому, что один и тот же термин "энтропия" употреблен Винером и Шенноном "с привязкой" к разным представлениям о хаосе. Винер, например, говорит о связанной информации Бриллюэна и о термодинамическом хаосе и порядке: больше хаоса - больше энтропия, больше порядка - больше связанной информации в структуре системы. И в этом смысле информация (связанная!) есть мера порядка (термодинамического!). А Шеннон говорит об информации, получаемой от системы, об ее информационном хаосе и порядке: больше в системе хаоса (информационного!) - больше негэнтропия, больше порядка (информационного!) - меньше информации от системы можно получить. Так что информация (шенноновская!) есть мера хаоса (информационного!).
Итак, одним и тем же словом "хаос" обозначают порой разные сущности. Забвение
этого обстоятельства может привести к неоднозначности высказываний. Поэтому,
если это не следует из контекста, необходимо уточнять, какой хаос имеется
в виду, информационный, термодинамический или динамический.
1. Винер Н. Кибернетика, или управление и связь в животном и машине;
М: Наука, 1958.
Нарва, Эстония
Новые книги авторов СИ, вышедшие из печати:
|