Битва за хаос | страница 21
Н. Чернышевский, даже не будучи физиком, довольно четко разобрался в ситуации и одним махом «отбрил» всех прорицателей «тепловой смерти». «Формула, предвещающая конец движения во Вселенной, противоречит факту существования движения в наше время. Эта формула фальшивая… Из того факта, что конец еще не настал, очевидно, что ход процесса прерывался бесчисленное множество раз действием процесса, имеющего обратное направление, превращающего теплоту в движение…».[11]
«Противостояние» энтропии как явлению работающему «на деградацию» началось сразу после введения этого понятия, здесь мощным союзником антиэнтропийных сил выступили биологи. Как раз в те же годы в мир входила органическая химия и теория эволюции. Становилось ясно, что в органическом, а тем более — в биологическом мире, идет постоянное упорядочивание и усложнение, хотя он вроде бы пущен на самотек. Но все же пока можно было вести речь только о пассивном противостоянии. А о начале планового противостояния стало возможным говорить тогда, когда возникли устройства не допускающие (при нормальной работе) хаоса в принципе, когда возникала кибернетика и теория автоматического управления, когда возникли первые роботы и вычислительные машины, работающие строго по заданной программе. Собственно, кибернетика как раз и изучала системы вне зависимости от их материальной природы, но сугубо в контексте приема, обработки, запоминания и передачи информации, разумеется, путем их математического моделирования. Например, человеческий мозг — типовая биологическая кибернетическая система. А ЭВМ — небиологическая. Кибернетические построения, и теоретически, и практически, допускали сбои (дезорганизацию) в работе реальной системы, поэтому понятием «энтропия» стали оперировать и там, только теперь оно было прочно связано с понятием «информация». Сделали это не так давно, в 1949 году. К. Шеннон, через два года после выпуска первого «настоящего» компьютера «Эниак», предложил и формулу для расчета количества информации, которая (что теперь вполне понятно) оказалась изоморфной формуле Больцмана с точностью до постоянной.[12]
Теперь, если мы поставим перед суммой множитель — постоянную Больцмана, то сможем говорить об информационной энтропии, а сама похожесть «термодинамической» и «информационной» формулы наталкивает нас на мысль о схожести понятия энтропии в этих, казалось бы совершенно несвязанных областях знания. И действительно, в термодинамике энтропия показывает уровень связанной энергии, меру хаоса, который невозможно превратить в полезную работу, но что такое информация? Определений этому понятию несчетное множество, но в нашем «социальном» контексте мы понимаем под ней некоторые данные, которые мы хотим получить. Допустим, мы тянем из мешка шары. Мы достоверно знаем, что в мешке 100 шаров, причем 95 — красного цвета, а 5 — неизвестно какого. Может тоже красного, а может и нет. Т. е. степень нашего знания о содержимом мешка — 95 %, а степень незнания — 5 %. Вместе они составляют стопроцентный результат. Нулевой энтропии соответствует полное знание о чем либо, т. е. если в мешке было бы 100 красных шаров, степень нашей информационной энтропии оказалось бы равной нулю. Отсюда информационное понимание энтропии — это мера недостатка информации о некоторой системе, мера нашего незнания об этой системе. Сумма нашего знания и незнания дает некую константу (в вероятностном приложении—единицу) — она и есть мера нашего полного знания о системе.