Выбрать главу

Людям сложно отделить информацию от значения, поскольку мы склонны к интерпретации сообщений. Мы наделяем сообщения смыслом автоматически, ошибочно полагая, чтозначение сообщения заключается в самом сообщении. Однако это не так. Это только иллюзия. Значение выводится из контекста и уже имеющегося знания. Значение – это интерпретация, которую познающий субъект, например человек, дает сообщению, но которая отличается от физического порядка, передающего данное сообщение, а также от самого сообщения. Значение возникает тогда, когда сообщение достигает формы жизни или машины, способной обрабатывать информацию. Оно не заключено в чернильных пятнах, звуковых волнах, лучах света или электрических импульсах, передающих информацию.

Подумайте о фразе «11 сентября». Когда я произношу эту фразу, большинство американцев автоматически вспоминают об атаке на башни-близнецы в 2001 году. Чилийцы обычно думают о государственном перевороте в 1973 году. Однако, произнося фразу «11 сентября», я могу просто сказать своим студентам о том, что в этот день я планирую вернуться в Массачусетский технологический институт. Как видите, значение придаете вы. Оно не является частью сообщения, хотя так может показаться. Значение – это то, что мы бесшовно присоединяем при интерпретации сообщений, поскольку людям свойственно интерпретировать проявления физического порядка. Однако эта цельность не означает то, что значение и информация являются одним и тем же.

Чтобы создать машину, которая могла бы передавать информацию, независимо от значения сообщения, Шеннону требовалась формула для оценки минимального количества символов, необходимых для кодирования сообщения. Основываясь на работе Гарри Найквиста и Ральфа Хартли, Шеннон приблизительно определил объем информации, требуемый для передачи сообщения через чистый или подверженный помехам канал. Он также оценил экономичность коммуникации, обусловленную корреляциями в структуре сообщений, например тем фактом, что в английском языке буква t чаще предшествует букве h, чем букве q. Философские рассуждения Шеннона привели его на математический путь, подобный тому, который прошел Больцман. В конце пути Шеннон вывел основную формулу для максимально эффективного кодирования произвольного сообщения. Эта формула позволяла заключить информацию в магнитном диске, электромагнитных волнах или в чернилах на бумаге. Формула Шеннона была идентична той, которую Больцман предложил почти пятьдесят лет назад.[8] Это совпадение не было случайностью.

* * *

Совпадение формул Шеннона и Больцмана говорит о физической природе информации. Эта физическая реальность имеет решающее значение для понимания того, как изучение атомов может помочь нам разобраться в экономике. По большей части естественные науки сосредоточивались на описании нашей Вселенной, начиная с атомов и заканчивая людьми, соединяя простоту атома со сложностью жизни.[9] Социальные науки фокусировались на связях между людьми, обществом и экономикой, рассматривая человека в качестве основополагающего блока – социального и экономического атома, если можно так выразиться. Тем не менее это разделение не обошлось без потерь, поскольку механизмы, позволяющие информации накапливаться, преодолевают барьеры, отделяющие неживое от живого, живое от социального и социальное от экономического.

Поэтому я посвящу следующие страницы описанию механизмов, которые способствуют росту объема информации на всех уровнях, начиная с атомов и заканчивая экономиками. Не от атомов к людям или от людей к экономике, как это обычно делается. Это поможет нам навести мосты между физическими, биологическими, социальными и экономическими факторами, которые способствуют накоплению информации, а также ограничивают нашу способность ее обрабатывать. К способности обработки информации относится вычисление, и на уровне человека она требует «программного обеспечения», которое мы называем «знанием» и «ноу-хау». В результате получится книга об истории нашей Вселенной, основанной не на стреле времени, а на стреле сложности.

И это именно стрела сложности, то есть роста объема информации, определяет историю нашей Вселенной и живущих в ней видов. Миллиарды лет назад, вскоре после Большого Взрыва, наша Вселенная не могла создавать порядок, который восхищал Больцмана и который все мы воспринимаем как должное. С тех пор наша Вселенная двигалась к беспорядку, как предсказывал Больцман, однако параллельно с этим она создавала места, в которых концентрировались огромные объемы физического порядка или информации. Наша планета является явным примером такого места.

вернуться

8

Формула энтропии Больцмана (SB): SB = kB ln(W), где kB – постоянная Больцмана, определяющая связь между температурой и энергией, а W – это количество микросостояний, соответствующих данному макросостоянию. Гиббс обобщил формулу для энтропии, определив ее в терминах вероятности того, что система будет находиться в микросостоянии (pi) вместо общего количества эквивалентных микросостояний (W). Энтропия Гиббса определяется как: SG = – Σi pi ln (pi). Обратите внимание на то, что энтропии Больцмана и Гиббса являются эквивалентными (SG = SB), когда pi = 1/N для всех i.

Это означает, что формула Гиббса сводится к формуле Больцмана для системы в состоянии теплового равновесия, поскольку в данном случае все микросостояния равновероятны. Формула Шеннона для энтропии информации: H = – ∑i pi log2 (pi), где pi – это вероятность появления символа. Формула Шеннона функционально эквивалентна энтропии Гиббса за исключением мультипликативной константы. Мы можем использовать константу, чтобы абсорбировать изменение основания логарифма (с основания равного 2 на основание натурального логарифма е) и постоянную Больцмана.

вернуться

9

Очевидными исключениями из этого правила являются геология и астрономия.