Парадоксы эволюции. Как наличие ресурсов и отсутствие внешних угроз приводит к самоуничтожению вида и что мы можем с этим сделать — страница 30 из 93

В общем случае усовершенствование системы (увеличение адаптации) всегда сопровождается ростом функциональной сложности, но не наоборот: рост функциональной сложности системы не всегда сопровождается ее пропорциональным или сколько-нибудь существенным усовершенствованием.

Теория вычислительной сложности – частный раздел теории алгоритмов и информатики – рассматривает вычислительную сложность алгоритмов, определяемую как функцию зависимости объема информационных ресурсов системы (памяти и быстродействия) от размера (описательной сложности) входных данных.

К сожалению, прямое применение методов вычислительной сложности к биологическим системам сталкивается пока еще с фундаментальными трудностями описания биологических процессов и систем «инженерным» языком (эту задачу также можно отнести к области биоматематики). Как показано ранее, биологические системы в принципе обладают вычислительной сложностью, которая может быть определена как минимальный объем их информационных ресурсов, требуемый для прогнозирования состояния на заданное время с заданной точностью. Возможно, вместе с обменом веществ и энергией или вместо них достаточная вычислительная сложность служит водоразделом живого и неживого, и именно это направленная вовне функция является основной для всех систем живого, включая человеческий мозг. Напротив, стремящиеся к нулю временной и погрешностный пределы этой функции обращают ее вовнутрь, к «осознанию» самой себя, что естественным образом вытекает из квантовой теории информации (Ллойд С., 2013), согласно которой любая физическая система мгновенно «вычисляет» саму себя (состояние, в котором она должна оказаться в данный момент). Соответственно, еще раз экстраполируя обратно, появление у такой системы предиктивной способности может означать возникновение (признаков) живого.

Принцип свободной энергии Карла Фристона

В более строгой и невероятно сложной математической форме обоснование результата предикативной деятельности – разницы между вычисленным (предсказанным) и сенсорным (наблюдаемым), как основополагающей характеристики живого, дает Карл Фристон (Karl Friston, 2013; Allen M. and Friston K., 2018). Эта разница обозначается им как «свободная энергия». Эта свободная энергия не эквивалентна «классической» свободной энергии Гиббса, это скорее информационное понятие: оно ограничивает верхний предел статистической неожиданности, к которой стремится названная разница. Принцип свободной энергии (ПСЭ, Free Energy Principle, FEP) постулирует, что живые биологические объекты стремятся минимизировать свободную энергию, то есть действовать так (именно действовать), чтобы избегать феноменов неожиданности. Это вполне сообразуется с фундаментальным (и также труднодоказуемым) принципом наименьшего действия, введенного в научный оборот еще Готфридом Лейбницом и Леонардом Эйлером в XVIII веке. Свободная энергия Фристона – то, что «экономят» живые сущности, то «наименьшее действие» в биологических объектах.

Как работает ПСЭ? Полагается, что живые системы имеют свое внутреннее и внешнее состояние и могут воспринимать структурные закономерности из флуктуаций окружающей среды (например, ее физических параметров или изменений концентрации химических веществ) и отображать их в динамике своего внутреннего состояния. Отображая, они сами становятся моделями причинной структуры своего локального окружения, что позволяет им прогнозировать дальнейшее развитие событий и активно реагировать на неожиданные нарушения сделанных прогнозов. Через радикальное ограничение числа своих возможных состояний появляется способность поддерживать гомеостаз (постоянство внутренней среды). Статистически эта способность показывает высокую вероятность нахождения системы в одном из немногих избранных состояний, и низкую вероятность – в любом другом.

Карл Фристон для исследования динамики взаимодействия внутреннего состояния системы с окружающей средой через ее внешнее состояние использует понятие марковского ограждения. Марковское ограждение узла (концептуальной информационной единицы, обладающей свойствами хранить информацию и ссылаться на другие узлы), или группы узлов – это набор «родителей» этих узлов, «детей» этих узлов и других «родителей его детей», то есть содержит все переменные, которые отделяют узел от остальной сети (рис. 18).


Рис. 18. Схема марковского ограждения. В байесовской сети марковское ограждение узла А формируют его «родительские» узлы, узлы «детей» и другие «родительские» узлы его детей


Фактически марковское ограждение узла является единственным и исчерпывающим знанием, необходимым для предсказания поведения узла и его «детей».

Термин марковского оргаждения, введенный израильским и американским ученым-информатиком Джудой Перл (Judea Pearl) в 1988 году для описания открытых им особых свойств так называемых байесовских сетей – множеств переменных и их вероятностных зависимостей по Байесу, то есть позволяющих оценить по априорным вероятностям взаимозависимых событий (до совершения событий) апостериорные вероятности (после совершения части событий). Эти сети в модели Перла обладают марковским свойством, то есть их условное распределение вероятностей будущих состояний зависит только от нынешнего состояния, но не от последовательности предшествующих событий, что отличает эту модель, например, от пригожинских диссипативных структур, концепции динамического хаоса и СОК.

Именно марковские свойства – «отсутствие памяти» – связаны с экспоненциальным распределением вероятности, в отличие от СОК со степенными распределениями, что ведет к отсутствию «критичности» и катастрофических «хвостов». Здесь можно сделать весьма важное замечание: как указывалось, СОК предполагает биологические системы как неэргодические, то есть их динамика определяется совокупностью всех предыдущих состояний. Карл Фристон рассматривает для ПСЭ эргодические системы, то есть среднее по времени любой измеримой функции такой системы сходится за достаточный промежуток времени. Среднее количество времени, в течение которого занимается определенное состояние, можно интерпретировать как вероятность того, что система находится в этом состоянии при случайном наблюдении. Наиболее существенным в любом случае представляется то, что и неэргодичность в СОК, и эргодичность в теории Фристона обеспечивают так или иначе необратимость системы и продолжительность ее существования во времени. Фристон в строгой математической форме доказывает, что «жизнь – или биологическая самоорганизация – является неизбежным и эмерджентным (то есть возникающим только в системе, отсутствующим у отдельного элемента системы) свойством любой эргодической случайной динамической системы, обладающей марковским ограждением». Можно сказать, что марковское ограждение обеспечивает индивидуальность, а эргодичность – необратимость. Для обеспечения выживания во взаимодействии с окружающей средой биологическая система должна минимизировать неопределенность в причинах динамики входных сигналов из окружающей среды (Friston K. et al., 2012).

В ответ на неожиданность биологическая система оказывается должной поступать двумя способами – активно воздействовать на локальное окружение или/и изменять в себе его внутреннюю модель. Данный алгоритм позволяет сводить к минимуму свободную энергию и в конечном счете избегаемую неожиданность (минимизировать ошибку в предсказании).

С некоторыми оговорками априорную информацию (Prior belief по Фристону), на основе которой формируется предсказание, сравниваемое с «фактическими» сенсорными данными системы (Likelihood) и происходит апостериорное обновление (Posterior belief), можно соотнести с ценной информацией тезауруса и его пересмотром.

О сложности и случайности

Из всего сказанного выше можно сделать, на мой взгляд, грустный вывод в отношении искусственного интеллекта как потенциальной формы жизни: предиктивная способность компьютеров пока не сопровождается их автономностью (способностью обеспечивать свой гомеостаз), основанной на широком обмене не только информацией, но веществом и энергией с окружающей средой, то есть достаточной встроенностью во всеобъемлющий контекст Природы (что является достаточно условным и, возможно, скоро преодолимым ограничением) и в информационном смысле не основывается пока на наличии самостоятельной цели (что также не выглядит фундаментальным запретом). Грустным этот вывод делают неясные перспективы неизбежной конкуренции нескольких форм живого с совершенно разными, и хорошо, если не противоположными целями.

Саму сложность по совокупности вышеприведенных рассуждений можно понимать и как меру способности системы к локальным (подсистемным) уменьшениям энтропии (минимизация наблюдаемой энтропии). С другой стороны, еще со времени прорывных работ А. Н. Колмогорова и П. Мартина-Лефа, выполненных в МГУ в 1965-1966 годах (Martin-Lӧf P., 1966), показавших идентичность последовательностей с максимальной сложностью случайным последовательностям, становится больше свидетельств того, что случайность и сложность неразличимы. По этой линии рассуждений, система, стремящаяся достичь максимальной сложности, должна иметь [в себе] источник случайности. Другим основанием необходимости источника случайности внутри открытой, обрабатывающей входящую информацию динамической системы может быть феномен внутренних неоправданных искажений входящей информации при ее разложении на бинарные сигналы (а значительная доля молекулярно-биологических систем работает именно по этому принципу – «да-нет» на выходе вне зависимости от особенностей входящего сигнала), в силу, например, возникновения корреляции между «шумом квантования» (то есть бинарным разложением сигнала, а не квантовым физическим процессом) и обрабатываемым сигналом. Наложение случайного шума определенного спектра на квантованный сигнал может снизить нелинейные искажения и «улучшить качество» сигнала. Подобный прием (дизеринг, наложение псевдослучайного шума) применяется и при цифровой обработке звуков и изображений, позволяя значительно с