Космос - «мир, вселенная и мироздание» (др. греческий), первоначальное значение - «порядок, гармония, красота».
Впервые термин Космос для обозначения Вселенной был применён Пифагором...








Интересные сайты:




Феномен человека на фоне универсальной эволюции

Глава III Энтропия и беспорядок

Попытки решения

3.2.8. Пятое направление: рост энтропии может сопровождаться ростом сложности даже в изолированной системе

Это то же первое направление (см. разд. 3.2.1), только на новом витке понимания проблемы. Ученые подходят здесь к пониманию того, что рост сложности вообще не противоречит росту энтропии.

Дж. Уйлсон [Wilson, 1968], поддерживающий, как говорилось в разд. 3.2.6, идею «энтропийного насоса», полагает, в отличие от других участников дискуссии по поводу этой идеи, что естественный отбор вносит в живые системы информацию и потому увеличивающиx энтропию. При этом он не дает себе труда согласовать рост энтропии с ростом сложности организма.

Ряд авторов, высказывая сомнения относительно традиционной увязки энтропии с беспорядком, корректируют либо понятие беспорядка/сложности (одна группа авторов), либо понятие энтропии (другая группа авторов). К первой группе относится П. Райт [Wright, 1970], который ограничивается туманным призывом к умеренности [moderation] в употреблении трактовки энтропии как меры беспорядка, поскольку идеи, касающиеся «порядка», имеют «интуитивный качественный» характер.

С. Бир более категоричен: «Почему бы нам не настаивать на том, что наиболее вероятное следует считать и наиболее упорядоченным? Можно ли представить себе что-либо более упорядоченное, чем идеально равномерное распределение молекул, теплоты или каких-то иных объектов...?» [Бир, 1965. С. 285].

Биру, конечно, не запретишь считать равномерное распределение наиболее упорядоченным. Только это ни на йоту не сдвигает с места проблему соотношения энтропии и эволюции. В самом деле, если мы полагаем, что при переходе в равновесие ранее неравновесного газа имеет место упорядочение, то мы должны признать за процессы упорядочения и происходящие в природе процессы дезинтеграции, также сопровождающиеся выравниванием соответствующих распределений. И наоборот, происходящие в ней процессы структурирования, делающие распределения все менее равномерными, придется отождествить с процессами уменьшения порядка. Тогда проблема, подлежащая решению, будет звучать таю энтропия является (по Виру) мерой порядка, ее рост означает увеличение упорядоченности; как связать с законом возрастания энтропии идущие в ходе эволюции процессы, связанные с уменьшением упорядоченности? Проблема, таким образом, вывернулась наизнанку, но осталась.

С.М. Стишов утверждает, что «геометрический беспорядок и энтропия неоднозначно связаны между собой» [1988. С. 119], поскольку термин «„беспорядок"... следует понимать только в том смысле, что микроскопическое состояние системы многих частиц задается набором случайных величин, исчисляемых на основе вероятностных законов» [Там же. С. 93]. К сожалению, он не расшифровывает далее свое понимание беспорядка.

Именно трудности, возникающие при использовании энтропии в качестве меры беспорядка, способствовали, представляется, появлению колмогоровской меры сложности [Chaitin, 1975, 1988; Papentin, 1980; Landauer 1988]. При этом сложность данной структуры измеряется длиной минимальной математической программы, необходимой, чтобы записать эту структуру. Такое переопределение понятия сложности, однако, не отменяя факта эволюционного усложнения, не дает ничего нового и для решения проблемы соотношения энтропии и эволюции.

Н. Георгеску-Роеген предлагает вообще отказаться от понятия беспорядка/сложности. «Беспорядок, — говорит он, — в высокой степени относительное, если не вообще неуместное понятие» [Georgescu-Roegen, 1971. Р. 142]. После столь конструктивного заявления ему уже ничто не мешает рассматривать экономические процессы с позиции закона возрастания энтропии.

К числу авторов, поднимающих руку на понятие энтропии, относится А. М. Хазен [1992, 1993, 1998 а, б, 2000], который переопределяет энтропию Больцмана, пропорциональную логарифму макросостояния системы, вводя собственную энтропию, пропорциональную логарифму коэффициента пропорциональности в «старом» определении Больцмана и связанный с ними текст). Новая энтропия, полагает он, подчиняется закону возрастания энтропии, а ее рост сопровождается эволюционным усложнением. У позиции Хазена имеются сторонники [Мезенцева, 1997], однако, на наш взгляд, для введения новой — хазеновской — энтропии нет достаточных оснований, решение проблемы соотношения энтропии и эволюции, как будет показано в разд. 3-3, не требует столь сильных средств.

А.П. Левич [2002, 2004] переходит от энтропии Больцмана, которую принято считать равной (точнее — пропорциональной) логарифму числа возможных микросостояний системы, к обобщенной энтропии, равной «логарифму удельного числа допустимых преобразований данного состояния системы» [Левич, 2004. С. 91]. На наш взгляд, и этот переход недостаточно обоснован, или, другими словами, является слишком сильным средством решения обсуждаемой проблемы.

Версия М.И. Штеренберга [2003] представляет собой «энтропийный аналог» упомянутой выше версии Н. Георгеску-Роегена. Обнаружив, что рост энтропии может сопровождаться ростом упорядоченности даже в случае изолированной системы, он предлагает отказаться от понятия энтропии при обсуждении второго начала термодинамики: «Таким образом, ответ на замечание Дж. фон Неймана мог бы прозвучать так: „Никто не знает, что же такое в действительности энтропия, потому что она не имеет определенного физического смысла". Поэтому представляется рациональным при формулировке второго закона делать акцент на тех определениях, которые не содержат понятия „энтропия"» [Там же. С. 110]. «Конечно, все сказанное не означает для функции (а не понятия) энтропии „запрета на профессию". Более того... ее используют для решения ряда задач. Однако здесь напрашивается аналогия с использованием в математике функции комплексного переменного в промежуточных операциях. Но, естественно, никто не предпримет попытку найти физический смысл комплексного числа» [Там же. С.111].

На наш взгляд, Штеренберг ошибается, у энтропии имеется совершенно определенный смысл, и состоит он в том, что скорость роста энтропии характеризует скорость (интенсивность) необратимых процессов превращения друг в друга разных форм взаимодействий (см. гл. 1).

Более полезными представляются рассматриваемые далее работы, в которых поиск путей объяснения роста сложности с ростом энтропии ведется без переопределения понятий энтропии и сложности/порядка и без отказа от них. При всем разнообразии появляющихся здесь исследований все они кружатся около одних и тех же идей.

Я.Б. Зельдович и И. Д. Новиков полагают, что происходящее в ходе эволюции Вселенной усложнение ее пространственной структуры, связываемое ими с уменьшением энтропии, происходит благодаря параллельному упрощению импульсной структуры, которое они связывают с ростом энтропии [Зельдович, Новиков, 1967. С. 640]. Непонятно, однако, на каком основании они трактуют эволюционное усложнение Вселенной как чисто пространственное. Кроме того, весь их подход страдает механистичностью, поскольку полная энтропия вводится ими в пространстве координат и импульсов, что возможно лишь для механических систем, которые занимают в наблюдаемом мире достаточно скромное место (см. гл. 1). Тем не менее, будучи внутренне непротиворечивой, эта конструкция появляется в узнаваемом виде и у других авторов.

Я.А. Виньковецкий расщепляет энтропию на структурную (пространственную), с которой он связывает рост сложности, и «энергетическую», отвечающую, как он полагает, за упрощение. Причем для произведения значений этих двух видов энтропии у него действует «закон сохранения» [Виньковецкий, 1971. С. 32]. Эта конструкция также остается игрой ума.

Е.А. Седов [1976, 1980, 1982] выдвигает «закон всемирного равновесия», который, как он утверждает, является «следствием закона всемирного тяготения» [Седов, 1980. С. 441]. «Можно предполагать, что наряду с законом всемирного тяготения в масштабах Вселенной действует также закон всемирного равновесия, суть которого заключается в том, что обесценивание энергии (рост энтропии), обусловленное рассеиванием тепловой энергии, компенсируется накоплением информации (уменьшением энтропии), обусловленным концентрацией массы, осуществляющейся под действием гравитационных сил» [Седов, 1976. С. 35-36].

Можно, конечно, сказать, что решение Седова несостоятельно, потому что нет никакого «закона всемирного равновесия» (гипотеза о таком законе является слишком сильной). Однако не все так просто, за этим «законом» у Седова стоит реальный факт. В ходе длящегося около 15 млрд лет расширения нашей Метагалактики и на самом деле происходит, с одной стороны, ее охлаждение (см. разд. 6.5.3 и 6.10) с превращением тепла в другие формы энергии, а с другой стороны — ее гравитационное структурирование. Вот Седов и полагает, что эти два процесса в части усложнения/упрощения и возрастания/убывания энтропии компенсируют друг друга.

К сожалению, этот факт осмыслен Седовым недостаточно четко. Во-первых, не может быть и речи о взаимной компенсации процессов возрастания и убывания энтропии, так как полная энтропия растет. Во-вторых, ему не стоило жестко связывать процессы охлаждения нашей Метагалактики (Седов говорит о Вселенной) с ростом энтропии, а ее гравитационного структурирования — с убыванием последней, здесь все достаточно зыбко. Скажем, превращение тепла в другие формы энергии, как и всякий необратимый процесс, сопровождается ростом энтропии, однако уменьшение количества тепла в нашей Метагалактике происходит с уменьшением тепловой энтропии (энтропии Клаузиуса). Сегодня вообще не существует теории необратимых процессов, которая бы позволяла анализировать энтропийный баланс для реальных систем (см. гл. 1).

В более поздних работах Седов [1988, 1993] утверждает, что упорядочение материи на верхних уровнях структурной организации компенсируется ее разу-порядочением на нижних, и наоборот. У «закона иерархической компенсации Седова» имеются свои сторонники [Назаретян, 19996, 2004]. И хотя автор этих строк когда-то думал подобным образом [Хайтун, 1974], сегодня он уверен в ошибочности этой точки зрения. Просто потому, что процессам усложнения «незачем» уравновешиваться процессами упрощения, поскольку энтропия реальных систем не является мерой беспорядка (см. разд. 3.3). Дихотомическое разведение процессов усложнения и упрощения — система/среда, пространственные/импульсные структуры, верхние/нижние уровни организации и т.д., — на мой взгляд, непродуктивно.

Д.С. Чернавский [Романовский и др., 1984. С. 33-39], опираясь на предлагаемый им «закон» постоянства суммы «информации, заключенной в системе в данный момент» [Там же. С. 39], и информационной энтропии, утверждает, что в ходе эволюции имеет место уменьшение информационной энтропии и увеличение информации. «Все процессы от стадии „бульона" до образования объектов единого кода, — пишет он, — часто связывают с возникновением биологической информации и уменьшением информационной энтропии» [Там же. С. 38]. Увеличение сложности в ходе эволюции совмещается, таким образом, с ростом заключенной в системе информации.

Надо сказать, что «закон» Чернавского — это чистейшей воды недоразумение, поскольку постоянство суммы информации и информационной энтропии выражает собой определение информации, и только. Дело в том, что, информация может быть введена двумя разными способами, в зависимости от того, как при этом подключается наблюдатель.

Если мы говорим об информации, которая содержится в системе (в тексте) и которую наблюдатель может из нее извлечь, то справедлив энтропийный принцип информации (информация растет с энтропией). Соответствующая информация (Шеннона) совпадает с физической (и информационной) энтропией. На таком языке говорят специалисты по теории связи, так как они имеют дело с передачей информации, а передавать, разумеется, имеет смысл то новое, что содержится для корреспондента (наблюдателя) в тексте, а не то, что ему уже известно. Если же мы говорим об информации, которой наблюдатель уже располагает о системе (о тексте), то справедлив негэнтропийный принцип информации (информация убывает с ростом энтропии). Соответствующая информация (Бриллюэна), с точностью до произвольной аддитивной постоянной, отличается от физической (и информационной) энтропии знаком, поскольку информация, которой мы располагаем в некоторый начальный момент времени о реальной системе, в ходе ее естественной эволюции уменьшается (наша информация устаревает), тогда как энтропия системы при этом растет.

Вот это второе определение, в которое входит произвольная аддитивная постоянная, Чернавский и трактует как «закон» природы.

На аналогичной путанице с определением информации, позволяющей совместить рост сложности с ростом информации (Бриллюэна), основано решение проблемы несоответствия роста энтропии росту эволюционной сложности Н.Н. Заличевым, согласно которому «общая ЭИ человечества постоянно возрастает» [Заличев, 1995. С. 88]. Здесь ЭИ — это энтропия информации, определяемая Заличевым как энтропия, только с обратным знаком [Там же. С. 85].

Точка зрения А. Н. Панченкова [1999] также подобна точке зрения Чернавского. Отличие в том, что он говорит только о физической энтропии, деля ее на координатную (структурную) и импульсную, которую он отождествляет с термодинамической. Полная энтропия у Панченкова в ходе эволюции наблюдаемого мира остается постоянной, тогда как импульсная растет, обеспечивая упрощение импульсных структур, а координатная уменьшается, обеспечивая усложнение пространственных структур.

Против конструкции Панченкова могут быть высказаны те же аргументы, что и против конструкции Зельдовича и Новикова, плюс возражение против его закона сохранения полной энтропии, который ни на чем не основан.

Более чем странная идея принадлежит Д.Р. Бруксу и Е.О. Уилею [Wiley, Brooks, 1982; Brooks, 1983; Brooks, Wiley, 1986], работы которых вызвали острую критику [Lovtrup, 1983; Bookstein, 1983]. Отталкиваясь от работ Дж. Уикена (о которых мы расскажем чуть погодя), эти авторы, однако, согласовывают рост энтропии, имеющий место, как они полагают, в ходе индивидуального развития организма (онтогенеза), с ростом сложности вполне оригинальным образом.

В основе представления Бруксом и Уилеем процесса образования структуры в ходе онтогенеза лежит элементарная последовательность геометрических фигур, показанная на рис. 1

«Четыре простых геометрических фигуры, — комментируют авторы свой рисунок... — Вершины представляют дискретные элементы („частицы"), образующие структуры. Линии, связывающие вершины, представляют взаимосвязи между элементами, которые определяют структуры» [Brooks, Wiley, 1986. P. 59]. Вводя вероятность, с которой данная «частица» попадает в соответствующую вершину, они посредством несложных расчетов получают рост энтропии при переходе от более простых фигур к более сложным.

Ошибка Брукса и Уилея очевидна: они не учитывают, что в ходе образования новой структуры вещество этих новых структур не возникает из ничего. Вместо, скажем, предложенной ими элементарной схемы, фрагмент которой воспроизведен на рис.2, следует брать схему, показанную на рис. 3, для которой с усложнением фигуры энтропия уменьшается, т.е. мы снова получаем уменьшение энтропии при образовании структуры, с чем так неудачно борются Брукс и Уилей.

Более плодотворной представляется идея, согласно которой усложнение системы может происходить с ростом энтропии за счет увеличения максимального числа возможных микросостояний. В общем виде эту идею предложил П. Т. Ландсберг [Landsberg, 1984 а]. В содержательном плане мысль Ландсбер-га проста — мы знаем, что энтропия распределения тем больше, чем оно шире, и что распределение тем шире, чем оно проще по форме (см. гл. 1). Уменьшение энтропии распределения, вызванное усложнением его формы, полагает Ландсберг, может быть превзойдено увеличением энтропии, вызванным расширением распределения за счет роста числа возможных микросостояний.

Мыслимы разные реализации этой идеи. Дж.С.Уикен [Wicken, 1978, 1987, 1988] первым предложил вариант такой реализации, причем раньше, чем Ландсберг сформулировал обсуждаемую идею в общем виде. Рассматривая процесс образования молекул-полимеров из мономеров, он показывает, что этот процесс может идти с ростом энтропии за счет роста числа доступных системе конфигурационных возможностей.

Уикен иллюстрирует свои рассуждения на следующем простом примере. Допустим, у нас есть молекулы-мономеры А, В, С и D в равном числе. Допустим, далее, что некоторая доля молекул-мономеров всех четырех типов образовала димеры. Всего, таким образом, имеем теперь 20 типов молекул — 4 типа мономеров и 16 типов димеров:

Опираясь на классическое определение энтропии Больцмана, Уикен вводит энтропию данной системы как пропорциональную логарифму числа комбинаций, которые могут быть образованы из всех молекул (мономеров и димеров). Он обнаруживает, что эта энтропия максимальна при некотором значении доли молекул, образовавших димеры, так что при меньшем значении этой доли их образование происходит с ростом энтропии.

Поддерживая вывод Уикена о том, что образование молекул-полимеров может идти как с уменьшением энтропии, так и с ее ростом, мы должны, тем не менее, указать, что использованное им выражение для вероятности макросостояния справедливо только для модели газа невзаимодействующих частиц, неприменимой к реальным системам, все развитие которых, включая образование полимеров, осуществляется за счет взаимодействий.

С. Фраучи [Frautschi, 1982, 1988] дает другую реализацию идеи Ландсберга. Рассматривая вопрос о том, как примирить наблюдаемую эволюцию Вселенной с законом возрастания энтропии, он в качестве источника роста энтропии указывает увеличение числа фотонов. Фраучи, несомненно, прав, рост числа фотонов (и других частиц) и связанное с этим увеличение числа возможных микросостояний является одним из каналов роста энтропии во Вселенной, который уже сам по себе мог бы, наверное, компенсировать многие идущие здесь процессы усложнения, если бы они в том нуждались (см. разд. 3-3). Однако во Вселенной, кроме процессов возникновения частиц, происходят и процессы их поглощения и аннигиляции.

Ф. А. Цицин [1988] приходит к выводу о возможности уменьшения энтропии замкнутой системы при одновременном росте вероятности ее состояния. Ножницы между энтропией и вероятностью состояния появляются у него за счет флуктуаций энтропии: «С учетом... флуктуаций функциональная связь между энтропией... и вероятностью состояния... системы отсутствует... Поэтому неправомерно отождествление процесса релаксации, идущего при обязательном увеличении вероятности состояния системы, с процессом роста энтропии. В свете полученных результатов не исключены и такие процессы, в которых увеличение вероятности состояния... сопровождается понижением энтропии [Цицин, 1988. С. 152-153].

Все бы ничего, да только флуктуации энтропии, пропускающие усложнение реальных систем, должны были бы быть в схеме Цицина достаточно редкими событиями, тогда как усложнение является вектором всей универсальной эволюции.

Существует другая, гораздо более глубокая и общая идея, объясняющая, почему рост энтропии может сопровождаться ростом сложности даже в изолированной системе.





Назад     Содержание     Далее















Друзья сайта: