Выбрать главу

Работа Зурека стала триумфом не только для Зурека, но и для всего собрания. Люди собрались для того, чтобы услышать описание физики в рамках информации. Идея, конечно, не нова — еще со времен теории информации Шеннона в 1948 году люди пытаются практически все объяснить в рамках информации.

Новым стало то, что теперь было похоже — они куда-то пришли, как будто алгоритмическая информационная теория внезапно сделала возможной соединить физическую энтропию с информацией описания, как будто беспорядок и случайность могли быть поняты физикой, которая в основном сосредоточена на правилах и порядке.

Демон Максвелла действительно оказался ключом. Изучение этого хитрого маленького интригана оказалось наиболее полезным для понимания этих новых идей.

Ученым удалось создать «вычислительный аналог второго закона термодинамики», как Зурек нескромно сформулировал это в «Nature». Физическую энтропию можно понимать, как беспорядок, который можно объяснить через алгоритмическую информационную теорию. Плюс, конечно, невежество, которого у нас всегда в избытке. Сама безотзывность отсеивания информации решила эту задачу: «Я продемонстрировал, что второй закон термодинамики находится в безопасности даже от «интеллектуальных существ», пока их способность обрабатывать информацию поддается тем же законам, по которым работают универсальные машины Тьюринга… Теорема остановки Тьюринга подразумевает, что информация, которая необходима для работы с максимальной эффективностью, может быть защищена только посредством бесконечно длинных вычислений. Неразрешимость Геделя можно назвать дополнительным источником рассеивания».

Демон Максвелла не был изгнан. Он больше не угрожает второму закону, но вместо вредного демона он превратился в настоящего друга, в доказательство глубокого родства в нашем мире, о молекулярных составляющих которого мы не хотим знать — а, следовательно, никогда и не будем. Мы лучше будем просто ощущать тепло.

Если бы мир можно было исчерпывающе описать как произвольно короткое число алгоритмов, с демоном Максвелла возникла бы проблема. Но это невозможно. Древняя мечта ученых о всеобъемлющей теории, формуле мира, по которой можно было бы предсказать что угодно, осталась в прошлом.

Немецкий биолог Бернд-Олаф Купперс говорит об этом так: «… в рамках алгоритмической информационной теории существует строгое математическое доказательство утверждения, что мы никогда не сможем узнать, обладаем ли мы минимальной формулой, с помощью которой могут быть предсказаны все явления реального мира. Полнота научной теории в принципе никогда не может быть доказана».

Мы получаем удовольствие от таких кратких, элегантных построений, как формулы Максвелла для электромагнетизма. Но мы никогда не узнаем, можно ли выразить их еще более кратко — до того дня, когда нам удастся это сделать.

Жизнь всегда останется для нас открытой. Мы никогда не узнаем о том, что ее нельзя выразить еще прекраснее.

Количество красоты в мире увеличивается.

Глава 4. Глубина сложности

«Какое яблоко?» — Сет Ллойд был быстр. Очень быстр. На самом деле ему удалось выдать довольно хорошую практическую шутку.

Физик из Калифорнийского института технологии стоял спиной к затихшей аудитории. Он писал на доске формулы и одновременно объяснял, как ему удастся вывести сущность всех вещей из определения информации.

Был день пятницы 20 апреля 1990 года, и в начале недели Джон Вилер предсказал, что к этому моменту все собравшиеся получат объяснение того, как сложена Вселенная. Конечно, в Институте Санта Фе этого пока не произошло, но многие физики ощущали, что конференция по сложности, энтропии и информационной физике действительно приближалась к чему-то интересному. «Все от бита», — как объяснял это седеющий провидец Джон Вилер, имея в виду вывод теории вещей из теории информации.

Сет Ллойд начал свою лекцию «Логические разногласия» рассказом о яблоке и его самости. «Я хочу попытаться сделать то, что предложил Вилер — и вывести это из бита», — сказал Ллойд и откусил от яблока (игра слов: bit — бит и bite — кусать).

Но вскоре он переключился со своего материального яблока к более теоретическим материям, обернутым в очень длинную серию уравнений, которые Ллойд царапал на доске, а пара дюжин физиков в это время старались не уснуть в конце этого последнего дня недели.

Во время одного из длинных вычислений Ллойда физик Джон Денкер из знаменитой лаборатории AT&T Bell Laboratories смел яблоко с кафедры Ллойда. Оно исчезла. Другой его коллега из Bell Labs Йан Ле Кан ухватился за идею и прервал поток слов Сета Ллойда, все еще вычислявшего. «Как конкретно это понятие относится к самости яблока?» — его вопрос не демонстрировал особой проницательности, но все затаили дыхание, ожидая реакции Ллойда.

Сет Ллойд повернулся к аудитории, чтобы ответить, но он тут же заметил ловушку. «Какое яблоко?» — спросил он, повернулся обратно к доске и продолжил вычисления.

Когда в следующий раз его прервали, на этот раз более серьезным вопросом, он повернулся к аудитории и заметил: «Я отказываюсь отвечать на какие-либо вопросы, пока не получу назад свое яблоко!». Но к этому моменту яблоко снова было на кафедре, а аудитория старалась притвориться, что не имеет понятия, о чем он говорит.

Когда лекция закончилась, начался шум. Дойн Фармер, возглавлявший группу нелинейных исследований в лаборатории Лос Аламос возле Санта Фе, попытался завладеть яблоком Ллойда. «Я очень хочу это яблоко», — прокричал он, но Ллойд не собирался просто так сдаваться. Яблоко раздора завершило свой жизненный путь на полу лекционного зала Института Санта Фе, раздавленное на кусочки.

На этой неделе из бита ничего не было выведено. Но перспективы того, что это будет действительно так, насколько реальны, что ученые уже устроили соревнование: кто решит загадку сложности.

«Сложность занимает огромную территорию, которая простирается между порядком и хаосом», — написал в своей провидческой книге «Сны разума» (1988 г.) физик Хайнц Пагельс. Факт состоит в том, что спектр возможностей, которые предлагают нашей космологии порядок и беспорядок, очень невелик.

Полный беспорядок не представляет интереса. Бардак, не стоящий того, чтобы о нем говорили, так как мы не можем дать ему убедительного описания. Беспорядок говорит сам за себя — и добавить к этому нечего.

Аналогично и полный порядок не представляет большого интереса. Решетка атомов в кристалле, методично организованная схема повторений. Все, что можно сказать о таком порядке, может быть сказано очень быстро и сразу становится тривиальным.

Таким образом, должна существовать третья возможность, которая не будет ни полным порядком, ни полным беспорядком, чем-то, что определенно не будет тривиальным и будет при этом сложным, но не хаотичным: сложность.

Территория между порядком и хаосом охватывает практически все, о чем стоит говорить, все, о чем мы говорим и с чем сталкиваемся в своей повседневной жизни: живые существа, изменения погоды, прекрасные ландшафты, дружеские разговоры, вкусные салаты, веселье и игры.

Возьмите что-либо написанное. Если оно находится в полном порядке и предсказуемо, оно представляет мало интереса. В тексте, который состоит из повторения серий букв, к примеру, АААААААААА — масса порядка. Алгоритмическая информационная теория объясняет, почему это скучно. Не составит никакой сложности вывести краткое описание, которое позволит воспроизводить подобный текст: 10 раз А.

И наоборот, полностью беспорядочный текст тоже не представляет особого интереса: LIUQWEGAEIUJO. Согласно алгоритмической информационной теории, самая короткая программа, которая может воспроизвести эту цепь случайных букв — сама эта цепь. Потому что это случайная цепь букв.

Широкому распространению алгоритмической информационной теории всегда мешал тот факт, что в тексте, написанном обезьяной, всегда будет гораздо больше информации, чем в тексте, написанном знаменитым писателем. Но это естественно, так как в том, что пишет обезьяна, нет никакой системы (скорее всего, при любой системе оценки), так что написанное ею не получится выразить более кратко. В то же время авторский текст всегда содержит определенную избыточность — текст, в котором присутствует значение, всегда можно выразить несколько более кратко, так как язык содержит определенное количество избыточных символов. Вы мо-ете п-очит-ть, чт- здес- напе-атан-, даже — есмо-ря на — о, что к-ждая — ятая буква — дале-а, вер-о?