Только хорошо поняв второе начало термодинамики, можно ответить на вопрос, почему вообще возможна жизнь.
Разумеется, в эволюционном движении живого, как разновидности движения материи и энергии, нет никакого предопределенного смысла, а тем более замысла – ни скрытого, ни тем более явного, несмотря на то что они «ясно видны» многим «посвященным». Если где-то в данной книге и используются выражения вроде «эволюция сделала вот это, чтобы решить вот то», на самом деле это всего лишь «обытовленное» объяснение динамики генетических ансамблей, к которым «принципы статистической физики применимы столь же, сколь и к ансамблям молекул» (Кунин Е. В., 2012).
Все формы взаимодействия в биологических и протобиологических средах (сложных органических молекул) можно в своих крайних пределах свести к двум формам: отношениям протагонистов или дружественности (сотрудничество, синтрофия, симбиоз, кооперация и т. д.) и отношениям антагонистов или враждебности (прямое соперничество, конкуренция, с одной стороны, и хищничество, паразитизм, зачастую вырастающий из сотрудничества, с другой). Граница между ними тонкая, если не зыбкая; нейтральных же взаимодействий, пожалуй, нет совсем. Соответственно, ответ на вопрос, на каких этапах развития материи и в какой последовательности эти явления возникают, и каким образом они вытекают из оснований статистической физики, может стать и предвестником ответа на вопрос о сущности болезней, воспринимаемых часто как потери совершенства изначально почти безупречных организмов или как прямые следствия их некоего изначального несовершенства. Представляется, однако, что именно несовершенства, как отклонения от совершенного низкоэнтропийного «идеала», реальные или кажущиеся, и делают живой (и не только живой) мир таким, каков он есть: развивающимся от простого к все более сложному, постоянно генерирующим что-то новое, неизбежно забывающим и неизбывно повторяющим (почти) все старое, в котором все в отдельности неизбежно скоро заканчивается и когда-то закончится и все целиком.
В третьей главе на отдельных примерах были кратко рассмотрены квантовые и энтропийные основания базовых энергетических предпосылок жизни и сопутствующая им диссипативность, то есть «набор свойств открытой, неравновесной, рассеивающей энергию системы, движимой градиентом энергии, что увеличивает энтропию окружающей среды». Несомненно, что физические, в первую очередь термодинамические основания, второе начало термодинамики являются наиболее всеобъемлющим оправданием существования всего живого с его общим движением к нарастанию энтропии, но с неизбежным возникновением локальных и преходящих ее снижений (флуктуаций), то есть упорядочиваний хаоса. Рассмотрение энтропии как чистой «меры беспорядка» может запутать: очевидно, что энтропия «покоящейся» системы – ровного песка в пустыне, сбалансированной группы клеток, стагнирующего человеческого общества – гораздо выше, соответственно, энтропии осыпающегося бархана, смеси клеток хозяев и клеток новых паразитов, общества в состоянии революции и гражданской войны, ввиду того, что совокупность или возможность «выбора» доступных состояний для каждой единицы или вариантов совокупностей микросостояний в «спокойной» системе гораздо больше возможностей выбора в состоянии «революции».
Так, лидер партии «Яблоко» Григорий Явлинский в своей статье «Политическая энтропия. Цифровые технологии и глобализация беспорядка» (2020) предполагает, что на смену эпохи глобализации, предположительно, более упорядоченной, приходит «век беспорядка», где «существует множество труднопредсказуемых событий и развилок, и куда, как говорится, кривая выведет, не знает никто». И этот переход с ростом беспорядка предполагается рассматривать как рост «политической энтропии». Однако более правильным будет скорее обратное – падение энтропии: несмотря на возникновение потоков событий с непредсказуемой динамикой, для отдельных людей – совокупности элементов системы – количество вариантов выбора («свободы») на самом деле уменьшается, о чем совершенно справедливо указывает и сам Г. Явлинский в заключение своей статьи, связывая это в первую очередь с добровольным отказом людей от свободы выбора, нежели направленной деятельностью авторитарных лидеров. Отдельный большой вопрос, разумеется, насколько этот выбор на самом деле доброволен, но несомненно, что само уменьшение свободы выбора для подавляющего большинства элементов системы – это несомненно снижение ее энтропии. Тем более актуальное в свете взрывного развития информационных технологий и роста все более детализированной информации о системе. Информации, к сожалению, неравномерно распределяемой, но в итоге дающей уменьшение неполноты информации о системе (см. ниже), что также показывает скорее падение «политической энтропии», нежели ее возрастание. И тем более, что «добровольный отказ от свободы» и рост информационной насыщенности общественного пространства могут оказаться двумя сторонами одной медали.
Со времен установления принципа Людвига Больцмана (ок. 1875 г.) стало возможным рассматривать классическую термодинамическую и информационную энтропию как практически и теоретически очень близкие, если не равнозначные. В формулировке Макса Планка (ок. 1900 г.) этот принцип как связь средней энтропии системы с вероятностью данного состояния определяется логарифмической зависимостью:
S = kln(Ω),
где S – общая энтропия состояния системы, константа k = = 1,38*10-23 Дж/К, названная Планком постоянной Больцмана, а Ω – статистический вес состояния, являющийся числом возможных равновероятных микросостояний (способов), с помощью которых можно составить данное макроскопическое состояние. Более ранняя формулировка Джозайя Гиббса (1878 г.) для микросостояний, имеющих разную вероятность, устанавливает зависимость в виде суммы произведения вероятности состояний на натуральные логарифмы этих же вероятностей, взятой с противоположным знаком:
где Pi – вероятность пребывания системы в состоянии i. Минус в начале формулы необходим для приведения обеих частей формулы к общему знаку из-за постоянной отрицательности логарифмов вероятности (так как вероятности всегда меньше 1) и неизменной положительности энтропии. Сам Больцман, комментируя свое физико-статистическое определение энтропии, отмечал, что энтропия характеризует недостающую информацию о системе. В этой интерпретации энтропия может считаться мерой неполноты информации о системе.
В ходе разработки углубленной теории информации информационной энтропией стала считаться мера неопределенности, независимо выведенная как сумма произведений вероятностей событий на логарифмы этих же вероятностей (формула Хартли-Шеннона, основателей теории информации), взятая с противоположным знаком:
где H(x) – средняя энтропия сообщения, иногда обозначаемая также как мера неопределенности какого-либо события, или даже как количество информации, Pi – вероятность отдельного события i. Основание логарифма в принципе может быть любым больше 1: в двоичных информационных системах – 2, математические статистики, использующие формулу в различных научных дисциплинах, в том числе биологических и клинических, часто используют натуральный логарифм.
Отрицательная энтропия, которую описывал Эрвин Шредингер, это, разумеется, не энтропия с отрицательным знаком – это, очень условно говоря, мера удаленности от максимальной энтропии в рассматриваемой системе, хотя само понятие негативной энтропии (негэнтропии) на самом деле гораздо более сложное, глубокое и весьма запутанное, даже в сравнении с часто неоднозначно понимаемой «обычной», «позитивной» энтропией в своих самых разнообразных интерпретациях. Некоторые исследователи, вслед за Норбертом Винером, увидевшим за очевидным сходством формул Больцмана-Гиббса и Хартли-Шеннона более глубокую связь термодинамической и информационной энтропий, ассоциируют негэнтропию с информацией, что представляется красивым, но до сих пор далеко не всеми признаваемым суждением.
Одной из точек смыкания термодинамической и информационной энтропии являлся, например, известный парадокс «демона Максвелла», гипотетического устройства, стоящего на границе двух объемов и способного различать быстрые и медленные молекулы и, соответственно, пропускать или не пропускать молекулы в одну сторону, что спонтанно ведет к увеличению упорядоченности системы и падению энтропии, что формально противоречит второму началу термодинамики. Решение парадокса было предложено французским и американским физиком Леоном Бриллюэном, математически показавшем, что даже демон ничего не хочет делать бесплатно: чтобы увидеть скорость молекулы, ему нужно заплатить энергией, которая не может быть менее энергии одного теплового кванта (0,025 эВ при комнатной температуре), и эта энергия соответствует минимальной цене одного бита информации. То есть демон совершает работу по обработке информации, и эта работа охлаждает одно тело и нагревает другое, и так же, как за работу любого домашнего холодильника, за эту работу надо платить.
Демон Максвелла получает (увеличивает) информацию о системе, равную уменьшению энтропии (или увеличению негэнтропии), и, казалось бы, отсюда информация = негэнтропия. Однако Бриллюэн различал свободную информацию (без четкого определения) и связанную, возникающую, когда возможные случаи могут быть представлены как микроинформация физической системы, и замечал, что «только связанная информация будет представляться связанной с энтропией».
В российской литературе и части зарубежной со связанной информацией Бриллюэна наиболее соотносится термин «микроинформация», отличающийся от «макроинформации» (практически всегда соответствующей общему термину «информация» в большинстве резонов его применения) тем, что не обладает свойством фиксируемости (запоминаемости). В работах Дэвида Уолперта (см. ниже) с микроинформацией может быть сопоставлена «синтаксическая информация», а с макроинформацией – «семантическая (смысловая) информация». Помимо запоминаемости вторым критерием информации в наиболее оптимальном для практического применения определении информации по Генри Кастлеру является случайность: «информация есть случайный и запомненный выбор одного варианта из нескольких возможных и равноправных» (Кастлер Г., 1967). Важнейший момент в данной теории информации следует из ее определения: возникновение (генерация) информации – это случайный, но запомненный выбор. Второй важный момент – это наличие ценности информации, мерилом которой служит степень ее соответствия цели системы. Она может определяться как функция, включающая отношение вероятности достижения цели (или уменьшения энергетических, временнЫх или материальных затрат, если цель безусловно достижима) после получения информации, к этой вероятности или снижению затрат без обладания этой информацией (Чернавский Д. С., 2004). До получения информации вероятность достижения цели определяется тем, какой предварительной запомненной информацией (тезаурусом) уже располагает принимающий ее элемент. Имея минимумом информации, хотя бы минимальной запомненной информацией «о самом себе», элемент располагает минимальным тезаурусом.
В новой математической теории семантической информации Дэвида Уолперта и Артемия Колчинского (Artemy Kolchinsky and David H. Wolpert, 2018) эта мысль развивается с учетом ключевого влияния окружающей среды: семантическая («макро-») информация определяется как синтаксическая («микро-») информация, которую физическая система располагает о своей окружающей среде, и которая ситуативно (casually) необходима системе, чтобы поддерживать свое существование во времени (что созвучно понятию ценности информации).
Семантическая информация поддерживает длительное существование системы за счет минимизации энтропии системы. Дэвид Уолперт разделяет два вида семантической информации: сохраненную семантическую информацию, которая основывается на обмене общей информацией между системой и окружением в некий исходный момент времени, и наблюдаемую информацию, которая основывается на переносе энтропии между системой и окружением за время от исходного до момента наблюдения. В отличие от синтаксической микроинформации семантическая информация, располагая критерием ценности, может быть ценной (положительной), малоценной или вовсе ошибочной, то есть отрицательной, наносящей урон системе, сокращающей время ее существования. Семантическая информация, в противоположность синтаксической, по Уолперту, фундаментально ассиметрична в ходе любого обмена ею. Другое ключевое понятие, вводимое Уолпертом, это понятие «автономного агента» – физическая система способна быть автономным агентом в той степени, в какой она располагает объемом семантической информации. Данной теорией предполагается, что способность быть живым – это способность быть чрезвычайно развитым автономным информационным агентом.
Можно обсуждать, на каком уровне организации материи вообще возникает эта способность – обладать тезаурусом / быть минимальным автономным агентом. Она, связана с возможностью объекта случайно «выбирать» из нескольких (минимум двух) устойчивых состояний.
Квантовая теория информации в версии Сета Ллойда (Seth Lloyd, Ллойд С, 2013, Extreme Quantum Information Theory, xQIT) устанавливает, что уже каждая элементарная частица несет в себе информацию; даже исходя из принципа Паули каждая частица во Вселенной «знает», где находится другая аналогичная частица и может находиться как во многих «определенных» состояниях, так и «неопределенных» (суперпозициях). В квантовой механике, согласно xQIT, информация может возникать как бы «из ничего», что немыслимо для классической физики. Информация «из ничего», как увеличение энтропии (то есть микроинформация), возникает вследствие феномена квантовой запутанности из любого взаимодействия квантовых частиц – квантовых единиц информации (кубитов). И эта информация, вследствие дальнейшей цепи взаимодействий, имеет тенденцию к максимальному распространению в пространстве-времени, то есть обладает некоей «заразностью».
Сама Вселенная в рамках xQIT описывается как единый квантовый компьютер, вычисляющая сама себя. Кроме того, любые системы, имеющие в основе физические взаимодействия, понимаются ею как вычислительные. Доказывается, что вычислительная мощность любой физической системы может быть подсчитана как функция количества доступной системе энергии вместе с размером этой системы (Lloyd S., 2000). Своеобразные пределы вычислительной мощности (скорости обработки и генерации информации) задает теорема Марголюса – Левитина, устанавливающая, что максимальная частота, с которой физическая система (например, даже элементарная частица – такая, как электрон) может переходить из одного состояния в другое, пропорциональна доступной энергии системы: чем больше доступной энергии, тем меньше времени нужно системе (электрону) для перехода из одного состояния в другое (Margolus N. and Levitin L. B., 1998). Полными признаками вычислительных систем обладают химические и биологические системы. Даже в рамках ньютоновской механики столкновения атомов, как столкновения бильярдных шаров естественным образом совершают базовые логические операции «или», «и», «не», «копировать», согласно концепции «бильярдного» или обратимого механического компьютера Эдварда Фредкина и Томазо Тоффоли (Edward Fredkin and Tommaso Toffoli, 1982). И, соответственно, любая химическая система или реакция также могут быть описаны в терминах базовых логических операций.
Нет оснований сомневаться и в вычислительном характере поведения биологических систем. Наиболее очевидным образом это можно увидеть на примере простейших, как нам кажется, организмов. В эксперименте Липин Чжоу и соавт. (Liping Zhou et al., 2018) группа китайских и японских исследователей заставляла амебу Physarum polysarum решать классическую задачу коммивояжера – поиск оптимального маршрута через n городов. Причем не в простом варианте выбора из 3 вариантов маршрута для 4 «городов», а из 2 520 вариантов движения для 8 пунктов назначения (число вариантов = (n – 1)!/2).
Амеба, умеющая, казалось бы, только вытягивать свои ложноножки в сторону еды и сжимать их в сторону от света, была поставлена в условия, когда ей нужно вытягивать свои выросты по всему своему периметру в каналы с едой в их конце. Выбор канала влиял на частоту выключения света в других каналах и служил аналогом «удаленности» других «городов» от выбранного. Неожиданно, но амеба решала эту задачу оценки своей окружающей среды быстрее большинства современных компьютеров! Таким же весьма показательным образом некоторые реснитчатые черви (планарии) способны вычислять «самих себя»: рассеченный хоть на 279 частей вдоль, поперек или наискось червячок длиной не более 2 см способен полностью восстановиться из каждой отдельной части. Если планарию бить током и при этом светить ярким светом в микроглазки, эту комбинацию воздействия запомнит каждый из достаточно больших обрубков: восстановившись до целого червяка, каждый из обрубков будет съеживаться от новых вспышек света, то есть планария помнит всем телом.
Нет оснований считать, что вычислительные возможности гораздо более сложных организмов, включая человека, хоть сколько-то меньше. Однако их нацеленность и заточенность на решение гораздо более сложных, менее дефинированных и трудноформулируемых нашим языком задач не позволяет им в обыденной жизни проявлять такие удивительные феномены, на которые способны «простейшие» организмы в обработке семантической информации. Весьма похоже, что чем меньше или проще автономный информационный агент, тем на большие вычислительные «чудеса» он способен с простой человеческой точки зрения.
Тем не менее изначальный вопрос, в какой момент базовая квантовая информация может начать соответствовать требованиям смысловой (семантической) макроинформации, и, соответственно, могут возникать автономные агенты, остается пока без определенного ответа. В любом случае можно сказать, что органические молекулы, имея возможность «выбирать» из нескольких стабильных состояний, уже обладают тезаурусом, и, таким образом, могут в составе динамической системы приобретать цель в данном информационном смысле.
Д. С. Чернавский (2004) выводит возможность спонтанного возникновения цели у элемента информационной системы (то есть системы, способной воспринимать, запоминать и генерировать информацию) из формальных математических оснований, на основании анализа поведения модели автономной динамической многокомпонентной мультистабильной системы, являющейся условным подобием живой или протоживой системы, или системы живых существ. Анализируемая Д. С. Чернавским модель информационной динамической системы многочленна: она включает временной член автокаталитического воспроизводства, отрицательный (то есть антагонистический) член взаимодействия разнородных элементов, член перенаселенности однородных элементов. В расширенный вариант модели добавлены выражения, симулирующие взаимопомощь однородных элементов, сотрудничество (симбиоз) разнородных элементов и модернизацию «своей» информации элемента.
Как показано Д. С. Чернавским, в таких информационных динамических системах с заданными свойствами целью каждого элемента становится сохранение своей информации. Эквивалентными формулировками данной цели с измененными акцентами могут, по Д. С. Чернавскому, быть «выбор такой информации, которая сохранится в будущем» и «распространение своей информации на всю систему». В последней формулировке можно увидеть ее конгруэнтность идее «заразности» бита квантовой информации Сета Ллойда. Можно зафиксировать, что индивидуальность объекта (агента), обладающего «разумностью» (достаточной вычислительной сложностью в обмене информацией с окружающей средой, предиктивностью и так далее), то есть живого, соотносится со способностью поддерживать цель в сообразном ему масштабе системы. А сама цель, как показано выше, в принципе, может возникать спонтанно. В обзорной визионерской работе Майкла Левина (Michael Levin, 2020) близкие положения формализируются на основе огромного свода публикаций последних лет в форме гипотезы «безмасштабной когнитивности» (Scale-Free Cognition). Вот ее основные положения в кратком, насколько возможно, изложении:
1. Когнитивная индивидуальность (Self, «Я» объекта) может быть определена по отношению к способности преследовать отдельные цели через поддержание гомеостаза, сопротивляющегося возмущениям.
2. Когнитивный мир индивидуальности характеризуется пространственно-временными границами его области интереса, в которых она может измерять, влиять и функционально связывать разрозненные события.
3. Границы временных и пространственных событий, которые могут быть измерены и воздействованы данной системой, составляют «когнитивный световой конус» – границу в информационном пространстве «разума» системы. Эти границы могут увеличиваться или уменьшаться во временных масштабах эволюции или индивидуального развития (онтогенеза). Ключевым моментом является поддержание баланса селективного совместного использования информации (balance of selective information sharing) через некие «синапсы» – в данном случае произвольные физические структуры. «Синапсы» позволяют совместно использовать свою способность регулировать прохождение сигналов на основе состояния аналогичных элементов. Недостаточность совместного использования ведет к неспособности объединить субъединицы в новую индивидуальность. Чрезмерность совместного использования (в пределе – абсолютная равнодоступность информации) приводит к однородному бульону с недостаточной дифференциацией составных частей и недостаточным абстрагированием информации.
4. Расширение масштабов агентов движется их активной интерференцией с окружением. Объединение в более крупные коллективы с оптимальной информационной структурой улучшает вычислительные (предиктивные) возможности и порождает функциональные связи.
5. Инфотаксис (стремление к лучшей действенной разумности/пониманию типичных паттернов во внешнем окружении и внутри собственных механизмов агента) побуждает отдельных агентов объединяться в группы посредством обмена информацией через сигнальные системы. Можно сказать, что идея инфотаксиса – это мотор гипотезы когнитивной индивидуальности, заставляющий агентов «двигаться», взаимодействовать и выбирать стратегию. Вообще, изначально идея инфотаксиса – это выбор той стратегии поиска информации, которая максимизирует ожидаемые выгоды (Vergassola M, Villermaux E. and Shraiman B, 2007).
6. Важно сотрудничество не само по себе, а сотрудничество эгоистичных агентов, сводящее к минимуму их стресс (неожиданность) и конкуренцию за информацию. Стремление отдельного агента к информации (инфотаксис) стимулирует кооперативность, поскольку каждая единица расширяет свои вычислительные границы через обмен информацией с соседями и неизбежно становится частью большей индивидуальности с более крупными гомеостатическими аттракторами. Это выглядит как чистая кооперация только с точки зрения более высокого уровня.
7. Между анатомическими механизмами контроля и когнитивными механизмами существует фундаментальная симметрия. Совместная коэволюция и экзаптация (функциональное перепрофилирование) служат драйверами взаимного расширения механизмов, контролирующих формирование морфофункциональных паттернов и поведенческие цели.
8. Нейроны используют те же биоэлектрические вычислительные стратегии, которые использовались эволюцией еще в древних бактериях. Функциональный изоморфизм (внешнее подобие) между формированием паттернов и когнитивными процессами также отражается в древней молекулярной консервации механизмов: практически идентичные ионные каналы и нейротрансмиттеры распространены повсеместно по всему древу жизни. Биоэлектрическая интеграция помогла развить стратегии управления и когнитивный контент по всему континууму от химических сетей до человеческого разума.
9. Существует глубокая функциональная масштабная инвариантность, проявляющаяся в единой структуре принятия решений отдельными клетками при формировании тела нового организма, работой колонии насекомых и интегрированным поведением человека в обществе: это кибернетические процессы обучения и оптимизации параметров, реализуемые большим количеством субагентов, движимых инфотаксисом и стремлением к устойчивости гомеостаза.
10. Один из основных рычагов управления, используемых эгоистичными агентами, – динамика границ между их «индивидуальностью» и «окружающей средой». Передача сигналов между животными в экосистеме принципиально не отличается от передачи сигналов внутри мозга (или, в более широком охвате масштабов, внутри организма или внутри клетки) – все являются примерами информации, распространяющейся через сети локально-компетентных микроагентов, имеющих свои подвижные границы (Pais-Vieira et al., 2013; Kingsbury et al., 2019; Zhang and Yartsev, 2019).
Гипотеза безмасштабной когнитивности рассматривает опухоли многоклеточных как сжатие вычислительной границы клеточной биосистемы (потенциально обратимое): изолируя себя от физиологических сигналов окружающей ткани, когнитивная граница клетки сжимается до того небольшого размера, который свойственен одноклеточным. Раковые клетки не более эгоистичны, чем соматические клетки многоклеточного животного, но их индивидуальность теперь уменьшена до одной клетки, тогда как нормальные физиологические отношения в здоровых тканях связывают каждую клетку с общей целью организма. Майкл Левин считает, что принципы гипотезы в понимании опухолевого роста применимы не только к клеткам в органах, но и к скоплениям (роям) целых организмов, таких как пчелы и термиты (Seeley, 2009; Turner, 2011): в них наблюдается особая динамика сбоев в координации, имеющая существенные сходства, например между раком и колониями социальных насекомых. Также есть указания на параллели между динамикой рака и деградацией на уровне экосистем (Degregori and Eldredge, 2019). Обоснованно полагать, что аналогичный информационный подход применим и к другим патологиям как организмов, так и надорганизменных индивидуальностей, например роев, сообществ, организаций. То есть принципиально возможна система знаний, занимающаяся их «здоровьем» и «болезнями», которые вполне могут быть соотнесены с их инфекционными, метаболическими, опухолевыми аналогами на уровне организма.
Удивительно, насколько формулировки безмасштабной когнитивности Майкла Левина и автономной динамической информационной системы Д. С. Чернавского в применении к реальным биологическим системам перекликаются с концепцией «эгоистичного гена» Ричарда Докинза, который, как ни странно, в своих основных прорывных работах не опирается прямо на принципы статистической физики.
Важно понимать, что цель элемента (отдельного агента) отличается от целевой функции всей системы. Максимально общую целевую функцию можно предположить, на первый взгляд, как стремление к наиболее однородному (то есть термодинамически наиболее выгодному) состоянию, что в принципе может быть сообразно и цели отдельного элемента. Но в наиболее полной мере цели «выживших» («победивших») элементов и целевая функция всей системы могут совпадать лишь на последней стадии развития системы, когда почти все элементы обладают практически одинаковой информацией, и окончательное состояние системы полностью предсказуемо.
Однако время достижения этого состояния может стремиться к бесконечности, особенно когда есть непрерывный поставщик энергии в систему, и сама система является частью большой надсистемы. Более того, при условии постоянного поступления энергии в систему сама система может спонтанно самоусложняться и создавать иерархию (см., например, ниже теорию Джереми Ингланда). Также было показано, что в подобных моделях цели элементов могут изменяться в зависимости, скажем, от формирования новых иерархических над-уровней, а также может меняться (актуализироваться) тезаурус, то есть «своя информация» в зависимости от рецепции и генерации новой информации, когда новый случайный выбор делается в изменившемся контексте. Соответственно, имеющиеся ограничения в емкости «тары информации», особенно для сравнительно примитивных систем и их элементов, требуют избирательности в накоплении информации; минимально ценная информация в таких системах накапливаться не должна: в них просто может не хватить ни емкости «информационной тары», ни энергии, необходимой для ее поддержания.
Более развитые информационные системы, обеспечившие себе постоянный приток энергии и информации (в виде или рецепции, или генерации), могут позволить роскошь сохранять все менее ценную информацию, которая, с одной стороны, может оказаться чрезвычайно ценной в будущем, но, с другой стороны, служить источником противоречий с другими хранящимися информационными единицами, что, впрочем, может также служить и источником развития, что, в свою очередь, перекликается с концепцией цикла Дарвина-Эйгена (БОН: глава VI). В крайнем обобщении всю эволюцию материи можно представить, наверное, как непрерывное усовершенствование ее «информационной тары».
Как мы видим, задав определение «информационной системы», возможно прийти к выводу о способности самогенерации внутри ее первичной цели (ОП!). Согласно Д. С. Чернавскому, здесь важно взаимодействие всех трех важнейших аспектов: способностей к рецепции информации, генерации и сохранению. Так, для генерации информации необходимо сочетание как минимум двух условий: наличие хаоса (в математическом понимании, для случайности выбора) и механизма запоминания. Такое сочетание свойств есть по умолчанию далеко не у всех динамических систем, а только у тех, которые включают в себя, в терминологии Д. С. Чернавского, «перемешивающий слой». В самом общем определении «перемешивающий слой» – это область фазового пространства (то есть представления множества возможных состояний) мультистабильной (то есть потенциально способной находиться в нескольких устойчивых состояниях) динамической системы, обладающая следующими свойствами.
1. Все траектории системы (то есть последовательности смены состояний), исходящие из определенной области начальных условий, в момент времени t0 попадают в перемешивающий слой.
2. Все траектории в момент времени Т выходят из перемешивающего слоя и переходят в область мультистабильного динамического режима.
3. В области перемешивающего слоя имеет место стохастический (абсолютно случайный) режим, где произведение времени Т на величину С – аналога числа Ляпунова – много больше единицы:
где Δx(t0) и Δx(T) – расхождения траекторий в моменты входа и выхода из перемешивающего слоя, соответственно. Величина С переходит в соответствующее число Ляпунова при Т → ∞.
Числа Ляпунова (λ) – показатели, характеризующие устойчивость системы (математически – относящихся к ней странных аттракторов, см. ниже); если числа отрицательны, состояние системы устойчиво, если хотя бы одно из чисел положительно, то стационарное состояние системы неустойчиво.
Очень упрощая, можно сказать, что перемешивающий слой – та область фазового пространства, в котором неопределенность поведения объекта резко возрастает. В работах Г. Г. Малинецкого и соавторов (2000) области с подобными характеристиками называются областями со сверхбыстрой и малопредсказуемой динамикой или «джокерами» (jockers), а противоположные им по свойствам динамические области с медленной динамикой и хорошей предсказуемостью – «руслами» (channels), в которых неизбежно собираются множество изначально весьма различных траекторий. Последние области применительно к биологии можно сопоставить с креодами Конрада Уоддингтона (Conrad Waddington, 1964): «самоканализирующимися» траекториями развития организмов, которые определяются не только собственно генетической наследственностью, но и, например, ее эпигенетическим ландшафтом. При определенных условиях подобная канализация траекторий развития может выражаться в сходстве фенотипов при весьма различных генотипах, что может служить, например, причиной возникновения вавиловских гомологичных рядов у растений.
Соответственно, исходя из изложенных выше предпосылок, в большом обобщении любое развитие можно представить как чередование динамических и хаотических стадий (стадий перемешивающего слоя). В этом смысле необходимость чередования «сухих» и «влажных» фаз в рассматриваемых выше гипотезах зарождения жизни можно считать вполне обоснованной. В еще большем обобщении Д. С. Чернавский сопоставляет данную схему развития с гегелевской триадой «тезис→антитезис→синтез», где тезис и синтез соотносятся с динамическими стадиями, но с разным объемом содержащейся информации, а антитезис соответствует хаотической стадии: перемешивающему слою (джокеру).
Если у Д. С. Чернавского и М. Левина индивидуальность агента или элемента информационной системы фактически возникает в момент [спонтанного] возникновения цели, то у Дэвида Кракауэра и коллег (Krakauer D. et al., 2020) в информационной теории индивидуальности (ИТИ, the information theory of individuality) индивидуальность агента при определенных условиях возникает в многоуровневой системе, где есть поток информации между агентами, но также исключительно из формальных информационно-математических оснований.
Сама индивидуальность в ИТИ понимается как некая совокупность (агрегат) элементов, способная сохранять свою целостность во времени и распространять связанную с собой информацию из прошлого в будущее. Переформулировка одного из вариантов определения цели информационной динамической системы Д. С. Чернавского («целью является выбор такой информации, которая сохранится в будущем») дает общую платформу для ИТИ и рассмотренных выше целеполагающих подходов при рассмотрении возникновении цели и индивидуальности. В ИТИ индивидуальность в итоге обладает несколькими неожиданными характеристиками.