Выбрать главу

Оказывается, ответы на эти вопросы так или иначе связаны с современной трактовкой понятия энтропии, возникшей благодаря теории информации.

Информация — это третья героиня книги, с которой читателю предстоит часто встречаться на ее страницах.

До создания теории информации в понятие «информация» никто не пытался вкладывать строгий научный смысл. Слово «информация» толковалось как простое осведомление о чем-либо. Факты, новости, сведения, полученные путем общения, чтения или наблюдения и все подобное этому объединялись в одном слове «информация» практически во всех толковых словарях и энциклопедических справочниках. Такое определение информации казалось вполне исчерпывающим как для науки, так и для повседневной практики до тех пор, пока не возникла необходимость в количественном измерении всех этих новостей, сведений, знаний с помощью специально введенных для этой цели единиц (бит).

Измерение количества информации — не прихоть «кабинетных» ученых. Сама жизнь поставила перед наукой эту проблему. Наше время — это время необычайного возрастания скоростей, время стремительного движения. Никто уже не удивляется тому, что весть о каком-либо событии с быстротой молнии облетает весь земной шар А самой информации появляется столько и она так многообразна, что этот процесс невольно стали сравнивать со взрывом. Вошло в обиход понятие информационного взрыва, с которым надо было как-то справиться, как-то его «укротить». Вот так и возникла потребность в машинной переработке огромных массивов информации и хранении ее в памяти электронных систем. В связи с этим задач — и теоретических, и практических — пришлось решить не мало. Но возникают все новые и новые. В частности, информационные потоки продолжают нарастать, поэтому надо все время увеличивать быстродействие электронных машин и объемы их памяти.

Но чтобы решить задачу количественного измерения информации, надо было отойти от традиционного понимания информации и выработать некий универсальный подход. Прикладная поначалу задача явно перерастала в естественнонаучную. И стоило лишь науке отыскать универсальный способ измерения информации, как ему сразу открылась широкая дорога в самые различные отрасли знания — от физики до языкознания... Ныне в научных изданиях можно встретить утверждения, которые в прошлом были просто невозможны. Например, такое: микроскопическая половая клетка содержит в себе такое количество наследственной информации, которое не уместилось бы на страницах тысячи книг.

Позвольте, сказал бы некто в недалеком прошлом, книга содержит мысли и чувства ее автора, какие-то сведения, но причем здесь половая клетка, о какой информации тут можно говорить!? Вы объединяете в одно разные вещи... Конечно, разные. И конечно же, не разные. К такому подходу надо было привыкнуть и уже, кажется, привыкли, как привыкли к тому, что природа света одновременно и корпускулярная и волновая.

Для измерения количества информации американский ученый К. Шеннон предложил использовать заимствованную у термодинамики вероятностную формулу энтропии. Сначала многие ученые, включая и самого Шеннона, склонны были объяснять этот факт ссылками на удобства расчетов. Но постепенно стал проясняться скрытый ссылками на удобства глубокий смысл. Информация содержится не только в книге. Она есть и в живой клетке, и в мертвом кристалле, ее может хранить и наша естественная память и память бездушной машины. Информационное взаимодействие так же присуще материальному миру, как присущи ему и другие формы взаимодействий, объединенные таким понятием, как всеобщая связь явлений. Понимание и признание этого открыли перед естествознанием еще один путь познания мира, причин и механизмов возникновения и развития разнообразных самоорганизующихся систем, противостоящих энтропии.

В этой книге читатель узнает о том, как постепенно, с разных ракурсов и со многих заходов наука постигала сложную и многогранную сущность абстрактного и всеобъемлющего понятия энтропии, пока различные толкования не стали сливаться в единое представление (разумеется, еще далеко не завершенное).