Техногнозис: миф, магия и мистицизм в информационную эпоху | страница 82
Сердцем информационной теории, таким образом, является вероятность, которая представляет собой меру возможности выбора одного специфического результата (артикля «the» или валета пик) из открытого поля возможных значений (английского языка или тасованной колоды карт). Вероятность играет огромную роль в предсказаниях, которые ученые имеют обыкновение делать по поводу существующего мира, но, даже если рассматривать их в качестве не лишенной смысла статистической науки, есть в них что-то от плутовства.[20] Вероятность обитает в зазоре между объективным и субъективным, случайностью и порядком, разумным знанием и тайными узорами мира — запутанной зоны, которую математик Джеймс Ньюман назвал «коварной западней». Четкие диаграммы теории информации начертаны на песках более зыбучих, чем кажется на первый взгляд.
Клод Шеннон открыл еще более устрашающую корзину со змеями, когда свел свою теорию к базовому уравнению и обнаружил, что его абстрактное техническое описание информации имеет точно такую же форму, как термодинамическое уравнение энтропии, которое физик Людвиг Больцман вывел в самом начале парового века. Как знает каждый поклонник творчества Томаса Пинчона, энтропия — это дурное путешествие, метафизический и экзистенциальный ребус, но, кроме того, неотменяемый закон космоса. В соответствии со знаменитым вторым законом Максвелла, поле битвы в итоге останется за энтропией: как бы ни была упорядочена и наполнена энергией закрытая система, ее энергия, консервируясь, неизбежно иссякнет, а ее форма распадется. Перемешайте несколько кубиков льда в горячей ванне, и вы увидите, как работает энтропия: кристальные решетки молекул замерзшей воды тают в сплошном случайном супе из Н>2О. Хотя мы редко встречаемся с закрытыми системами в реальной жизни: дети, болота и Интернет — это, бесспорно, открытые системы. Второй закон термодинамики позволяет всем интересным вещам во Вселенной лишь недолго держаться на плаву до тех пор, пока их не втягивает в поток холодного аморфного моря все-успокаивающего беспорядка. Больше, чем какая-либо другая сила в физике, энтропия поражает сознание как некий темный и древний рок, воплощенный в законе природы.
На первый взгляд тот факт, что описание информации, предложенное Шенноном, совпадает с описанием столь значимых физических процессов, выглядит как синхрония, рожденная в космическом центре контроля за совпадениями. Настоящие причины этого замечательного точного сходства довольно сложны, но суть вертится вокруг вероятности. С одной стороны, мы можем сказать, что, чем более непредсказуемой является система, в которой возникает потенциальное сообщение, то есть чем больше у нее свойств случайного шума, тем больше энтропии в системе. В этом смысле она напоминает ванну с горячей водой после того, как кубики льда растаяли. С другой стороны, мы с тем же основанием можем сказать, что непредсказуемые системы в действительности богаты информацией, так как любое отдельное сообщение, которое мы получаем, с большой вероятностью будет для нас новостью. Эта двойственность объясняет тот факт, что, в то время как Шеннон описывал информацию как энтропию, король математики и крестный отец кибернетики Норберт Винер противопоставлял эти два термина, утверждая, что информация — это мера организации, паттерн, форма, связность, в то время как энтропия означает меру случайности и дезорганизации в системе.