Феномен науки. Кибернетический подход к эволюции | страница 16



на такую безынерционную и «беззаконную» подсистему B. Пусть B под действием A переходит в некоторое совершенно определенное состояние. Ясно, что «сила влияния», которая требуется для этого от A, зависит от числа N и тем больше, чем больше N. Если, например, N = 2, то система B, даже будучи совершенно не связана с A, под действием каких-то случайных причин может с вероятностью >1/>2 перейти в то самое состояние, которое «рекомендует» система A. Если же N = 10>9, то, заметив такое совпадение, мы вряд ли усомнимся во влиянии A на B. Следовательно, мерой «силы влияния» A на B в данном единичном акте, т. е. по существу мерой интенсивности причинно-следственной связи между двумя событиями — состоянием подсистемы A в интервале времени от t>1 до t>2 и состоянием подсистемы B в момент t>2 — должна служить какая-то монотонно возрастающая функция N. В кибернетике эта мера называется количеством информации, переданной от A к B между моментами времени t>1 и t>2, а монотонно возрастающей функцией служит логарифм. Итак, в нашем примере количество информации I, переданное от A к B, равно log N.

Выбор логарифмической функции определяется тем ее свойством, что

log N>1N>2 = log N>1 + log N>2.

Пусть система A действует на систему B, состоящую из двух независимых подсистем B>1 и B>2 с возможным числом состояний N>1 и N>2 соответственно (рис. 1.3). Тогда число состояний системы B есть N>1×N>2, а количество информации I, которое надо передать системе B, чтобы она приняла одно определенное состояние, есть благодаря указанному свойству логарифма сумма

I = log N>1N>2 = log N>1 + log N>2 = I>1 + I>2,

где I>1 и I>2 — количества информации, потребные подсистемам B>1 и B>2. Благодаря этому свойству информация принимает определенные черты субстанции, она распределяется по независимым подсистемам подобно жидкости, разливающейся по сосудам. Мы говорим о слиянии и разделении информационных потоков, об информационной емкости, о переработке информации и ее хранении.

Вопрос о хранении информации связан с вопросом о законе движения. Выше мы мысленно отключили закон движения, чтобы определить понятие передачи информации. Если мы теперь рассмотрим закон движения с новой точки зрения, то он сводится к передаче информации от системы B в момент времени t>1 к той же самой системе B в момент t>2. Если состояние системы не меняется с течением времени, то это и есть хранение информации. Если состояние S>2 однозначно определяется состоянием