Информация. Собственность. Интернет. Традиция и новеллы в современном праве | страница 10



. Важно отметить и еще один момент: если информация предстает в виде отношений между сигналами (зарядами, знаками), которые имеют количественное измерение, то содержание, или семантическая сторона взаимодействия отходит на второй план, так как является, как указывает сам Шеннон во введении к своей книге, "иррелевантной в отношении инженерной проблемы"10.

Информация не только тесно связана с процессом ее передачи (трансмиссии), но в конечном итоге определяется этим процессом. Иными словами, информация представляет собой не столько совокупность сведений, сколько совокупность символов, подлежащих декодированию. Декодирование или распознавание рассматривается при этом как снятие неопределенности (энтропии) посредством выбора, осуществляемого получателем информации. Дальнейшая разработка теории информации велась в направлении расширения понятия "информации", которое включает отныне семантический и прагматический аспекты.

Так, уже Н. Винер, также один из основоположников кибернетики и современной теории информации, понимает под информацией "обозначение содержания, полученного из внешнего мира в процессе нашего приспособления к нему и приспосабливания наших чувств"11. В определении информации для Винера первоочередным является момент активного обмена со средой, в результате чего достигается приращение знания. Таким образом, собственно "информацией", по Винеру, является "информация воздействия" (или "взаимодействия", что ближе к количественной концепции Хартли). Представленная в таком виде информация теряет свою автономность, свойство быть независимой от какого-либо субъекта (носителя). Иными словами, она уже не может рассматриваться как некое субстанциальное начало — нечто вроде платоновского "мира идей" или попперовского "третьего мира", — существующее помимо опыта.

В приведенных определениях информации содержится указание и еще на одно неотъемлемое свойство информации — ее противостояние хаосу. Конструктивный или творческий потенциал информации в теории информации нашел выражение в понятии "негэнтропия". "Негэнтропию, — как указывает Э.Х. Лийв, — часто ошибочно дефинируют как энтропию с отрицательным знаком. Это может вызывать большие недоразумения. Негэнтропия (ОНГ) действительно измеряется в тех же единицах, как энтропия (например, в битах). Направление ее действительно противоположное энтропии. Ее увеличение вызывает такое же уменьшение энтропии. Однако эти величины изменяются в системе по самостоятельным закономерностям и их абсолютные значения мало зависят друг от друга. Негэнтропия является мерой порядка, упорядоченности, внутренней структуры, связанной информации"