Право интеллектуальной собственности в цифровую эпоху. Парадигма баланса и гибкости | страница 52



Информация как предмет научного познания и «псевдопроблема» правовых дефиниций

«Здание нашего несколько искусственно созданного благополучия слишком легко может рухнуть, как только в один прекрасный день окажется, что при помощи всего лишь нескольких слов, таких как «информация», «энтропия», «избыточность», нельзя решить всех наших проблем».

Клод Шеннон[149]

Понятие «информация» оказалось в центре как научных, так и общественно-политических дискуссий главным образом благодаря технологическому всплеску, результатом которого стала «компьютерная революция». Первые шаги в теории информации были сделаны еще в первой половине 20 века: в 1928 году Р. Хартли впервые дал количественное определение информации, а в 1948 году вышла знаменитая книга К. Шеннона «Математическая теория связи», где информации дается уже статистическое определение[150]. В теории Шеннона понятие «информации» тесно связано с понятиями «энтропии» и «связи». Информацией оказываются только те передаваемые сообщения, которые уменьшают неопределённость у получателя информации.

Дальнейшая теоретическая разработка теории информации велась в направлении расширения понятия «информации», которое включало отныне семантический и прагматический аспекты.

Так, уже Н. Винер, также один из основоположников кибернетики и современной теории информации, понимает под информацией «обозначение содержания, полученного из внешнего мира в процессе нашего приспособления к нему и приспосабливания наших чувств»[151]. В определении информации для Винера первоочередным является момент активного обмена со средой, в результате чего достигается приращение знания. Таким образом, собственно «информацией», по Винеру, является «информация воздействия» (или «взаимодействия», что ближе к количественной концепции Хартли). Представленная в таком виде информация теряет свою автономность, свойство быть независимой от какого-либо субъекта (носителя). Иными словами, она уже не может рассматриваться как некое субстанциальное начало – нечто вроде платоновского «мира идей» или попперовского «третьего мира», – существующее помимо опыта.

В приведенных определениях информации содержится указание и еще на одно неотъемлемое свойство информации – ее противостояние хаосу. Конструктивный, или творческий, потенциал информации в теории информации нашел выражение в понятии «негэнтропии». «Негэнтропию, – как указывает Э.Х. Лийв, – часто ошибочно дефинируют как энтропию с отрицательным знаком. Это может вызывать большие недоразумения. Негэнтропия (ОНГ) действительно измеряется в тех же единицах как энтропия (например, в битах). Направление ее действительно противоположное энтропии. Ее увеличение вызывает такое же уменьшение энтропии. Однако эти величины изменяются в системе по самостоятельным закономерностям и их абсолютные значения мало зависят друг от друга. Негэнтропия является мерой порядка, упорядоченности, внутренней структуры, связанной информации»