Лучшая зарубежная научная фантастика | страница 8



Он просто заговорил о работе:

— Сейчас у нас есть данные за шесть лет — шесть импульсов, каждый по секунде. И в них много информации. Они используют метод, сходный с нашим мультиплексированием длины волны, когда сигнал делится на секции шириной примерно по килогерцу. Мы извлекли гигабайты…

Я сдался. Вышел, заварил кофейник кофе и принес его в кабинет. Когда я вернулся, Уилсон стоял на том же месте, где я его оставил, точно выключенный робот. Он взял кофе и сел.

— Гигабайты? — напомнил я.

— Гигабайты. Для сравнения, вся «Британская энциклопедия» — всего лишь гигабайт. Проблема в том, что мы не можем понять смысл этой информации.

— А откуда вы знаете, что это не шум?

— Есть методы, чтобы это проверить. Теория информации. Они основаны на экспериментах по общению с дельфинами.

Он вытащил из кармана наладонник и показал мне некоторые результаты.

Первый оказался достаточно прост, и назывался «граф Зипфа». Сообщение разбивается на блоки, которые выглядят как компоненты — возможно, это слова, буквы или фонемы английского языка. Затем делается подсчет частоты: сколько раз встречается «а», сколько раз «е», сколько раз «р», и так далее. Если это случайный шум, то количество букв будет примерно одинаковым, и получится плоское распределение. Если это чистый сигнал без информационного содержимого, то есть строка из одной и той же буквы — а, а, а, а, — то получится график с пиком. Осмысленная информация даст наклонный график, нечто среднее между этими горизонтальными и вертикальными пределами.

— И мы получили замечательную прямую в логарифмической шкале в минус первой степени, — сказал он, показывая мне график. — Информация там есть, это точно. Но возникло много споров по идентификации самих элементов. Они не послали нам аккуратный двоичный код. Данные частотно модулированы, а их язык полон подъемов и спадов. Он скорее напоминает фильм о растущем саде, запущенный на быструю перемотку, чем любой человеческий поток данных. Я все гадаю, не связано ли это как-то с их молодыми небесами… Как бы то ни было, после Зипфа мы испробовали энтропийный анализ Шеннона.

Он сводится к поиску взаимоотношений между элементами сигнала. Вырабатываются условные вероятности: при наличии пары элементов, насколько вероятно, что ты увидишь U после Q? Затем переходишь, как говорится на нашем жаргоне, на «уровни энтропии» более высокого порядка, начиная с троек элементов: насколько вероятно, что ты увидишь G после I и N?