Текст книги "Информация как основа жизни"
Автор книги: В. Корогодин
Соавторы: В. Корогодина
сообщить о нарушении
Текущая страница: 2 (всего у книги 17 страниц)
Все теории происхождения жизни вращаются вокруг попыток ответить на вопрос: как возникла ДНК и та информация, которая записана в ней [17]?
Поведенческая информация
Генетическая информация и ее изменчивость полностью определила эволюцию всех организмов, ведущих преимущественно прикрепленный образ жизни, т. е. растений и грибов. Однако, с развитием подвижности животных, активации поисков пищевых ресурсов и половых партнеров, все большую роль в их жизнедеятельности начинают играть новые, случайно возникающие ситуации, которые невозможно заранее предвидеть и «запастись» генетически детерминированными ответами на них. Это, видимо, и послужило основой для возникновения поведенческой информации. Поведенческой будем называть информацию, лежащую в основе поступков, контролируемых особенностями нервной системы, которые формируются временно, под влиянием жизненного опыта или процессов научения, например путем подражания родителям или другим сородичам.
С возникновением поведенческой информации роль генетической информации в жизни высших животных начинает изменяться. Теперь все большая роль в их выживании принадлежит не только генетически детерминированным ответным реакциям на те или иные ситуации, но и таким особенностям нервной системы, которые обеспечивают эффективное использование обучения и научения, в том числе решение без предварительного опыта внезапно возникающих задач [22]. Поведенческая информация постепенно играет все большую роль в выживании высших животных, примеры чему можно найти как у классиков [22, 23], так и у наших современников [24-27]. Максимальное развитие поведенческая информация получила у млекопитающих. Мы еще не знаем материальной (точнее, молекулярной) природы носителей этого вида информации и не умеем определять ее количество. Но нет поведения, которое не обеспечивало бы целесообразность поступков высших животных в разных ситуациях. Здесь тоже "работает" дарвиновский отбор: неадаптивные реакции приводят, как правило, к гибели животных, а вместе с ними погибает и "неправильная" информация.
Мы убеждены в том, что именно те генетически детерминированные структуры клеток и особенности организации нервной системы, которые делают ее способной накапливать и использовать поведенческую информацию, являются основой для формирования третьего вида информации – логической, с которой связаны возникновение и эволюция человека.
Логическая информация
Вряд ли можно сомневаться, что человек стал тем, что он есть, только обретя дар речи. «В начале было Слово...» (Иоанн, 1, 1). Первоначально логическая информация, носителем которой является речь, играла роль, скорее всего, лишь для ускорения и упрощения обмена между людьми поведенческой информацией. Но затем эта ее функция отошла на второй план. Основная роль и главная функция логической информации связаны, видимо, с особенностями ее носителя – человеческой речью. Речь, язык присущи только человеку. У других живых организмов (в том числе у обезьян и дельфинов) языка нет – есть лишь сигнальное общение, ничего общего, кроме внешнего сходства, с человеческой речью не имеющее [26]. Уникальная особенность языка, как носителя информации, состоит в том, что он позволяет информации существовать вне зависимости от индивидуумов, ее создающих или использующих. Именно язык создал единый информационный пул планеты, открытый для всех населяющих Землю людей.
Логическая информация не имеет четких границ с другими, неинформационными, языковыми феноменами, относящимися, например, к областям искусства, религии и т. п. Но все эти феномены, при тщательном рассмотрении, выполняют общую функцию содействия распространению и сохранению разных видов логической информации. Такую же роль играют и этика, и мораль, и другие стороны социальной жизни людей [28]. Все это, вместе взятое, оказывает на человека давление, направленное на все большее сплочение, объединение всех представителей человечества в единую общность и развитие единого информационного пула.
Подстать развитию информационного пула идет и реализация логической информации. Операторами, способствующими осуществлению целенаправленных действий и кодируемыми генетической информацией, служат все негенетические компоненты живых организмов. В случае поведенческой информации таким оператором является поведение животных в разных ситуациях. Дли логической информации в роли операторов выступают технологии – вся совокупность технологических приемов и процессов, известных человеку. Эти операторы существуют вне зависимости от желания и воли отдельных людей, как и кодирующая их логическая информация.
Мы сейчас находимся в фазе становления "информационного общества". Все новые достижения логической информации и основанных на ней технологий уже практически полностью объединены в единый информационный пул и единую технологическую систему планеты. Этому соответствует такое же (правда, идущее с некоторым запаздыванием) объединение человечества в разных регионах земного шара. Ведущая роль информации в этом процессе очевидна и не требует доказательств. От предсказаний: "Что нас ожидает завтра?" – мы воздержимся по той простой причине, что наше будущее принципиально непредсказуемо: даже небольшие изменения в информационном пуле, непредвидимые заранее, могут существенным образом видоизменить связанные с ними технологии, а следовательно, и наше с вами существование.
Автогенез информации
Первичные живые организмы возникли на нашей планете более 4 млрд. лет назад. Тем самым предшествовавшая неорганическая эволюция дополнилась эволюцией живых организмов [17], в форме которой выступила новая, ранее не существовавшая на Земле сущность – генетическая информация. Закономерности развития информации позволяют понять, как появились новые виды живых организмов, а по существу -новые варианты генетической информации [28]. Попадая во все более сложные условия, в создании которых информация принимала все большее участие через «наработку» побочных продуктов своей деятельности, живые организмы, подчиняясь естественному отбору, увеличивали количество содержащейся в них информации, повышали ее ценность, оптимизировали эффективность.
Различные варианты генетической информации менялись как количественно, так и качественно. В результате живой мир постепенно распространялся по всей планете. Вслед за прокариотами (бактериями) появились эукариоты – растения, грибы и животные. Количество генетической информации, содержащейся в клетках этих организмов, стремилось к возможному для них максимуму [29]. Для координации действий у одной из групп гетеротрофных организмов – многоклеточных животных – образовалась нервная система. У высших животных поведенческие реакции, играющие все большую роль в их жизнедеятельности, не ограничивались уже теми, которые передаются по наследству, а создавались и самостоятельно, на основании "жизненного опыта", и передавались потомкам через обучение. Так возникла поведенческая информация, по лабильности и скорости передачи существенно превосходящая генетическую.
Поведенческая информация образовалась на основе врожденных поведенческих реакций, генетически запрограммированных в нервной системе. Это – ярчайший пример перехода информации из одной формы в другую, с носителей одной природы (молекулы ДНК) на носители другой природы (нервные клетки). Для высших животных, обитающих в сложной природной среде, умение "вести себя" в тех или иных ситуациях играет такую же роль для выживания, как для простых живых существ "умение" потреблять нужную пищу, строить из нее свое тело и вырабатывать нуклеотиды, необходимые для размножения молекул ДНК. Поведенческая информация позволяла высшим животным не только ориентироваться в окружающей среде, но и взаимодействовать друг с другом в поисках пищи и половых партнеров, в воспитании и обучении потомства, в защите от врагов. Вырабатывались различные сигналы, которыми обменивались друг с другом высшие животные: химические метки, знаки на земле или коре деревьев и, конечно, звуки, имеющие разное значение в разных ситуациях. Так постепенно готовилась почва для формирования речи – способа обмена информацией путем различной последовательности звуков и их комбинаций. Складывалась человеческая речь.
Появление владеющего речью "человека говорящего" означало возникновение нового вида информации – информации логической. Б. Ф. Поршнев [30] связывал появление речи с формированием самого человека. Не труд, а речь сделала человека тем, что он есть. Трудиться может и "бессловесная тварь", не жалея сил и преодолевая разные препятствия для достижения своей цели – построения гнезда или плотины, при охоте за дичью. Но организовать труд, передавать друг другу уже приобретенные трудовые навыки, обобщать опыт и в сжатом виде трансформировать его в понятия – для всего этого необходима речь.
Если генетическая информация породила жизнь, поведенческая – обеспечила разнообразие поведения высших животных, то логическая информация, передаваемая с помощью речи, вначале устной, а затем и письменной, ознаменовала начало эры ноогенеза, эры рождения сферы разума, охватывающего, вслед за биосферой, весь земной шар. На основе логической информации, или, другими словами, на основе накапливаемого человечеством знания, начали развиваться технологии. Этим термином называют искусственно создаваемые человеком структуры и процессы, обеспечивающие его существование, а тем самым и размножение тех фрагментов логической информации, которые вызвали их к жизни. Если технология себя не оправдывает, человек ее отбрасывает, и лежащая в ее основе логическая информация утрачивается (забывается).
Так же, как биологическая эволюция представляет собой лишь "отражение в мире вещей" развивающейся генетической и поведенческой информации, так и техногенез – лишь отражение развития логической информации, существующей вне отдельных человеческих существ.
Предвидимо ли будущее?
Мы живем в мире неравновесных процессов. Математические задачи при решении нелинейных дифференциальных уравнений, о которых шла речь выше, приводят к области, называемой теорией бифуркаций. Это говорит о том, что если близко от точки равновесия система имеет единственное решение, то вдали от равновесия при некотором значении критических параметров в области неустойчивости она достигает точки бифуркации, начиная от которой для системы открываются новые возможности, приводящие к одному или нескольким решениям. Теория бифуркаций находит бесчисленные приложения начиная от физики, кончая экономикой и социологией. Попробуем построить приблизительные решения для судьбы логической информации.
Судя по аналогии с предыдущими видами информации, можно предположить автотрофное существование логической информации, подобно автотрофному типу питания, избранному растениями. Но у растений переход этот был связан с совершенствованием отдельных индивидуумов, представляющих собой искусные "живые фабрики" по производству глюкозы из воды и углекислого газа (с помощью квантов солнечного света) и использующих этот продукт для энергообеспечения синтеза молекул, слагающих их тела. В случае же логической информации иной путь к автотрофности – возникновение технологий, использующих тот же солнечный свет (а может быть, и термоядерный синтез) как источник энергии и "подручное" неорганическое сырье для создания сначала – систем жизнеобеспечения человека, а затем, возможно, и для строительства самовоспроизводящихся автоматов. Следует, однако, подчеркнуть, что автотрофность человечества – это такая же вольная фантазия, как и все другие футурологические рассуждения. Единственное, чему нас учит история, – это непредсказуемость будущего.
Пусть читатель не судит очень строго нашу попытку, в меру понимания, представить эволюцию информации, в особенности последний, биологический, этап ее развития. Нашей задачей мы считали не столько ответить, сколько поставить вопросы эволюции, используя идеи из разных областей знания.
Литература
1. Шеннон К. Математическая теория связи // «К. Шеннон. Работы по теории информации и кибернетике». М.: И ИЛ, 1963. С. 243-332.
2. Бриллюэн Л. Научная неопределенность и информация. М.: "Мир", 1966.
3. Кадомцев Б. Б. Динамика и информация. Редакция журнала "Успехи физических наук", 1997.
4. Kolmogorov А. N. Infomation transmission. V.I, 1965. № 3.
5. Zurek W. H. Complexity, Entropy and Phisics of Information (Ed. W. H. Zurek). Addison-Wesley. 1990.
6. Дастр Н. Жизнь материи. Краткий систематический словарь биологических наук. Ч. 3. СПб.: 1904. С. 5-31.
7. Лункевич В. В. Основы жизни. Ч. 1., М.-Л.: 1928
8. Дриш Г. Витализм. Его история и система. М.: 1915.
9. Харкевич А. А. О ценности информации. Проблемы кибернетики. Вып. 4, М.: Физматгиз, 1960. С. 53-72.
10. Корогодин В. И. Определение понятия "информация" и возможности его использования в биологии. Биофизика, 1983, Т. 28., вып. 1, С. 171-177.
11. Prigogine I. Introduction to Nonequilibrium Thermodynamics. Wiley-Interscience. NY. 1962.
12. Баблоянц А. Молекулы, динамика и жизнь. М.: "Мир", 1970.
13. Моисеев Н. Расставание с простотой. М.: Аграф. 1998.
14. фон Нейман Дж. Общая и логическая теория автоматов. В кн.: Тьюринг А. Может ли машина мыслить? М.: Гос. изд. физ.-мат. лит., I960, С. 59-101.
15. Винер Н. Кибернетика, или управление и связь в животном и машине. М.: "Советское радио", 1968.
16. Серавин Л. Н. Теория информации с точки зрения биолога. Л.: Изд. Лен. унив., 1973.
17. Эйген М., Шустер П. Гиперцикл. М.: "Наука", 1980.
18. Шредингер Э. Что такое жизнь? М.: Изд. Ин. Лит.. 1947.
19. Тимофеев-Ресовский Н. В., Циммер К. Г., Дельбрюк М. О природе генных мутаций и структуре гена. В кн: Н. В. Тимофеев-Ресовский. Избранные труды. М.: "Медицина", 1996. С. 105-153.
20. Меллер Г. Д. Проблема изменчивости гена. В кн.: Г.Д.Меллер. Избранные работы по генетике. М.-Л.: Огизсельхозгиз, 1937, С. 178-205.
21. Меллер Г. Д. Ген как основа жизни. // Г. Д. Меллер. Избранные работы по генетике. М.-Л.: Огизсельхозгиз, 1937, С. 148-177.
22. Северцов А. Н. Эволюция и психика. М.: Изд. Собакиных. 1922.
23. Северцов А. Н. Морфологические закономерности эволюции. В кн.: А.Н. Северцов, Собр. сочинений, Т. 5, М.-Л.: Изд. АН СССР. С. 210-216.
24. Tinbergen N. The Study of Instinct. Oxf.: 1969.
25. Лоренц К. 3. Кольцо царя Соломона. М.: "Знание", 1978.
26. Панов Е. Н. Этология – ее истоки, становление и место в исследовании поведения. М.: "Знание", 1975.
27. Крушинский Л. В. Биологические основы рассудочной деятельности. М.: Изд-во МГУ, 1977.
28. Корогодин В. И. Информация и феномен жизни. Пущшо: 1991.
29. Korogodin V. I., Fajszi Cs. Int. J. System set, 1986, v.17, №12. P. 1661-1667.
30. Поршнев Б. Ю. О начале человеческой истории (Проблемы палеопсихологии). М.: "Наука", 1976.
Глава первая
ИСТОРИЧЕСКАЯ СПРАВКА
Термин «информация»
Термин «информация» пришел к нам из латинского языка (informatio), и обычно переводится как «представление», «понятие» (о чем-либо), «изложение», «сведения», «осведомление», «сообщение» и т. п. Термин этот интуитивно ясный, обладает широчайшим смысловым полем и поэтому столь же трудно поддается определению, как и его русские синонимы. В. В. Налимов [1] приводит несколько попыток определить понятие «информация», предпринятых разными авторами, ни одну из которых нельзя признать удавшейся. «Даже эта совсем небольшая подборка определений понятия „информация“, – пишет он, показывает, сколь полиморфно по своему смысловому значению это слово. Здесь развитие полиморфизма связано прежде всего с тем, что ни одно из определений не отвечает нашим интуитивным представлениям о смысле этого слова. И всякая попытка определения приписывает этому слову совершенно новые черты, отнюдь не раскрывающие, а суживающие и тем самым затемняющие его смысл и уже безусловно увеличивающие семантический полиморфизм этого слова» (стр. 127). Это отражает саму специфику феномена, обозначаемого этим термином.
Определить понятие можно двумя способами – либо сведя его к более элементарным (фундаментальным), либо перечислив круг явлений, к нему относящихся. В основе обоих видов определения лежит возможность расчленить, подразделить смежные понятия или феномены, т. е. дискретность. Дискретность, как известно, фундаментальное свойство материального мира, т. е. мира вещей и энергии. Именно дискретность природных явлений составляет базу всех естественных наук. В случае информации дело обстоит иначе. Слагается ли информация из отдельных дискретных составляющих, или это непрерывный, точнее, – неразрывный поток, лишь искусственно расчлененный на отдельные сообщения или сведения? Ответить на этот вопрос мы не можем. Но, может быть, именно эта особенность информации отражает тот факт, как пишет Н. Винер [2], что "Информация есть информация, а не материя и не энергия" (стр. 201), т. е. не принадлежит миру вещей. Ниже мы еще не раз к этому будем возвращаться. Сейчас же важно понять, почему никто из упомянутых выше ученых, стоявших у истоков теории информации, не попытался дать строгого определения этого термина.
Так складывалась теория, объект которой не был определен. В науке впервые возникла ситуация, подобная той, которая характерна для древнееврейской религии: Бог имеет множество имен, но ни одно из них нельзя произносить вслух. В области религии это вполне допустимо. В науке же все идеи и направления постоянно дискутируются. Мы дадим главные идеи из разных областей, где может быть использован этот термин.
Формула Шеннона
Возникновение классической теории информации было индуцировано развитием технических систем связи, призванных служить обмену информацией между людьми. Подчеркнем – технических систем, работа которых определяется законами физики, т. е. законами материального мира. Задача оптимизации работы таких систем требовала, прежде всего, решить вопрос о количестве информации, передаваемой по каналам связи. Поэтому вполне естественно, что первые шаги в этом направлении сделали сотрудники Bell Telephon Companie – X. Найквист, Р. Хартли и К. Шеннон [3].
В 1924 г. X. Найквист предложил измерять количество информации, приходящееся на одну букву текста, передаваемого по каналу связи, величиной Н-1/п, где п – число букв в используемом языке. Спустя четыре года Р. Хартли, исходя из требования аддитивности, в качестве такой меры начал применять логарифм этой величины, т. е. log(1/n). Двадцать лет спустя, в 1948 г., К. Шеннон для этой же цели ввел величину (6)
где Hi – количество информации, связанное с i-ой буквой алфавита, pi – частота встречаемости этой буквы в данном языке, q – основание логарифмов, а k – коэффициент пропорциональности, величина которого зависит от q и от избранных единиц измерения количества информации; знак «минус» перед k поставлен для того, чтобы величина Hi всегда была положительной. Тогда суммарное количество информации для сообщения, состоящего из М букв, будет (7):
где mi – число i-х букв в сообщении
К. Шеннон показал, что с увеличением длины сообщения М почти всегда будет иметь «типичный состав»: (тi/М ® рi). Следовательно, (8)
В случае бинарного кода, когда n = 2, а р1 = р2 = 0.5, q=2 и k=1, количество информации Нм становится равным М и выражается в так называемых бинарных единицах – битах.
Приведенные формулы послужили К. Шеннону основанием для исчисления пропускной способности каналов связи и энтропии источников сообщений, для улучшения методов кодирования и декодирования сообщений, для выбора помехоустойчивых кодов, а также для решения ряда других задач, связанных с оптимизацией работы технических систем связи. Совокупность этих представлений, названная К. Шенноном "математической теорией связи", и явилась основой классической теории информации.
Теперь обратим внимание на три характерные черты этой работы К. Шеннона. Во-первых, в ней отсутствует определение понятия "информация". Во-вторых, термин "количество информации" здесь используется как синоним статистических характеристик букв, составляющих сообщение. В-третьих, по отношению к источнику сообщений здесь применяется слово "энтропия". Черты эти, несущественные в контексте математической теории связи, оказали значительное влияние на судьбу теории информации.
Отсутствие определения понятия "информация" в работах К. Шеннона и его предшественников, по-видимому, довольно естественно – они в нем просто не нуждались. Ведь работы эти были посвящены не теории информации, а теории связи. То, что по каналам связи передают осмысленные сообщения, т. е. информацию, было очевидно, – ведь для этого их и создавали. Замечательной особенностью каналов связи является то, что по ним можно передавать любую информацию, пользуясь ограниченным числом сигналов или букв. При этом передают по каналам связи именно буквы, сигналы, а не информацию как таковую. Объекты передачи, следовательно, имеют материальную, физическую природу – обычно это модуляции напряженности электрического тока. Ответа требовал не вопрос "Что такое информация?", а вопрос "Какое количество информации можно передать в единицу времени, пользуясь данным набором сигналов?". Предложенное К. Шенноном определение "количества информации" (6) хорошо согласовывалось с дискретной[1] природой сигналов, обычно передаваемых по каналам связи. И в то же время, такая мера "количества информации" создавала ощущение, не встречающее сопротивления на психологическом уровне, что чем реже происходит данное событие – появление данного сигнала на выходе канала связи, тем больше это событие "несет с собой" информации.
Со всем этим можно было бы вполне согласиться, если бы не одно обстоятельство: отдельные сигналы или буквы, передаваемые по каналам связи, сами по себе не несут той информации, для обмена которой существуют системы связи. Информацию содержат лишь сочетания сигналов или букв, причем отнюдь не любые, а лишь осмысленные, наполненные определенным содержанием. Введение единой меры количества информации, содержащейся в сообщениях, меры, не зависящей от их семантики, как будто бы блестяще решало задачу соизмеримости бесконечного количества возможных различающихся по смыслу сообщений. И в то же время введение такой меры создавало видимость дробления, квантируемости информации, видимость возможности оценивать ее количество как сумму элементарных количеств информации, связанных с каждой отдельной буквой содержащего ее сообщения.
Напомним, что ко времени выхода в свет работы К. Шеннона [3] научная общественность была уже подготовлена к ее восприятию. Зарождавшаяся тогда же кибернетика, или "наука об управлении и связи в животном и машине" [2], уже использовала термин "информация" для обозначения тех сигналов, которыми могут обмениваться между собой люди или животные, человек и машина, или сигналов, воспринимаемых животными или машиной с помощью специальных рецепторов из окружающей среды с целью оптимизировать свое "поведение". Уже был пущен в оборот термин "генетическая информация" [4]. Бурное развитие самых разных технических систем связи (телеграфа, телефона, радио, телевидения) остро нуждалось в ограничении присущего понятию "информация" полиморфизма в целях разработки все более совершенных методов ее передачи, приема и хранения. Всем этим запросам, казалось, прекрасно соответствовала шенноновская концепция количества информации.
Однако надо ясно представить себе, что, не давая определения понятию "информация" и в то же время называя "количеством информации" частотную характеристику букв кода, К. Шеннон как бы создавал возможность для отождествления двух совершенно разных по своей природе феноменов информации как семантики сообщения и "информации" как частоты осуществления какого-либо события. Это делало возможной подмену терминов, что и было быстро реализовано. Уже через несколько лет французский физик Л. Бриллюэн [5,6] в качестве основного достоинства новой теории называл отождествление информации с величиной, обратной частоте осуществления какого-либо события. Термин "информация" в указанном выше смысле окончательно слился с термином "количество информации".
Формула К. Шеннона (6) по структуре своей подобна формуле, предложенной Л. Больцманом для выражения количества энтропии. Это формальное сходство послужило К. Шеннону поводом называть "энтропией", по аналогии с физической энтропией, свойство источника сообщений порождать в единицу времени то или иное число сигналов на выходе, а "энтропией сообщения" – частотную характеристику самих сообщений, выражаемую формулами (6) и (7).
Кажущаяся простота предложенного К. Шенноном решения проблемы измерения количества информации создавала видимость столь же легкого решения и других связанных с использованием термина "информации" проблем. Это и породило ту эйфорию, ту шумиху вокруг зарождающейся теории информации, характерную для пятидесятых годов, которую одним из первых заметил сам К. Шеннон и против которой было направлено его провидческое эссе "Бандвагон" [7].
Информация и энтропия
Своей зрелости классическая теория информации достигла к середине пятидесятых годов. Главная причина столь быстрого «созревания» – простота и элегантность ее математического аппарата, опирающегося на теорию вероятности.
Отсутствие строгого определения понятия "информация" создавало впечатление, что объектом теории информации является нечто, имеющее мало общего с тем, что называют информацией в обыденной жизни. Действительно, если "в быту" доминирует содержательная, смысловая сторона информации, то здесь семантика информации вообще не рассматривалась. Представление об энтропии сообщений, развитое К. Шенноном и вскоре дополненное другими авторами (см. напр. [8-10]), как бы открывало возможность для отождествления понятия "информация" с понятиями "разнообразие" и "термодинамическая энтропия". Это порождало соблазн распространения классической теории информации далеко за пределы теории связи, в том числе на явления неживой и живой природы и даже на различные области искусства [11-13].
Два утверждения характерны для классической теории информации периода зрелости. Первое это постулирование "всюдности" информации. Второе утверждение – это то, что мерой количества информации, связанной с тем или иным объектом или явлением, может служить редкость его встречаемости или сложность его структуры. Эти утверждения можно назвать постулатами классической теории.
Указанные постулаты, а также следствия из них, наиболее полно были изложены Л. Бриллюэном в его книгах [5, 6]. Прежде всего, за универсальную меру количества информации Л. Бриллюэн принял величину I = klnP, где Р – вероятность осуществления некоторого события или "сложность устройства" какого-либо объекта, k – постоянная, величина которой зависит от выбора системы единиц измерения, a ln – натуральный логарифм. Далее Л. Бриллюэн обратил особое внимание на сходство указанной формулы с формулой Л. Больцмана для исчисления количества энтропии S = klnW, где W – число микросостояний некоторой системы, соответствующей ее макросостоянию, а k – "постоянная Больцмана", равная 1,4·10-16 эрг-град-1 или 3,3·10-24 энтропийных единиц (1 э.е. = 1 кал'град-1). Отсюда Л. Бриллюэн сделал вывод, что, приняв k = 3,3·10-24 э.е., мы получим возможность выражать количество информации в энтропийных единицах (1 бит = 2,3·10-24 э.е.), а величину энтропии, напротив, в единицах информационных (1 э.е. = 4,3·1023 бит). Затем он сделал последний шаг в построении «негэнтропииного принципа»: сформулировал утверждение, согласно которому информация – это не что иное, как энтропия с обратным знаком, или негэнтропия.
Используя вероятностный подход, мы проведем следующие рассуждения. Пусть физическая система имеет W возможных состояний. Увеличение информации о ней, что было бы эквивалентно фиксации в определенном состоянии, приведет к уменьшению энтропии системы. Другими словами, (9)
I + S = const.
Чем больше известно о системе, тем меньше ее энтропия. Важно еще одно обстоятельство. Утрачивая информацию, мы увеличиваем энтропию системы. Увеличивать информацию о системе мы можем, лишь увеличивая количество энтропии вне этой системы, во внешней среде, причем всегда
Формула Шеннона для определения количества информации (2) и формула Больцмана S = lnW для случая, когда вероятности отдельных состояний системы различаются (3), формально совпадают. Мы замечали, что они имеют совершенно различный смысл: информация (2) соответствует одному единственному состоянию системы из всех возможных W, мера этой информации I = lnW. Энтропия (3) соответствует возможности нахождения системы с некоторой вероятностью I/W в каждом из доступных состояний. Информация (2) и энтропия (3) оказались равны между собой, потому, что I соответствует максимальной информации одного единственного состояния, а 5 определена по множеству всех состояний.
В замкнутой системе (возьмем, например, текст) увеличение энтропии приводит к "забыванию" информации, и мы приходим к соотношению I + S = const. В соответствии со вторым законом термодинамики энтропия замкнутой системы не может убывать со временем. Поэтому в замкнутых системах соотношение (9) может сдвигаться только к забыванию информации. Это означает, что рождение новой информации требует выхода за пределы изолированной системы.
Мы рассмотрели соотношение I + S = const с точки зрения второго закона термодинамики. Формулу Шеннона можно было бы назвать "физической информацией". Колмогоров [15] ввел понятие "алгоритмической информации". Алгоритмическую информацию можно рассматривать как меру алгоритмической хаотичности. Алгоритмическая информация практически совпадает с информацией по Шеннону.
Поясним эти понятия и их соотношение на двух примерах из живого мира. Предположим, что мы хотим определить радиочувствительность клеток популяции дрожжей. Мы ставим эксперимент: делаем суспензию клеток, облучаем ее, высеваем клетки на чашки Петри с питательной средой, затем определяем радиочувствительность клеток по числу выросших колоний. В ходе этого эксперимента мы заставляем геном клеток дрожжей работать по определенной схеме, одной единственной для каждой клетки. Тем самым мы выбираем и фиксируем одно единственное состояние из всех возможных. Этот эксперимент, который выявляет реакцию данных клеток на облучение, сводит все возможные состояния макромолекул, характеризующиеся некой максимальной энтропией, к одному единственному. Он может быть проведен за счет внешних ресурсов (питательной среды, источника облучения, работы лаборанта и т. д.). Второй пример – завоевание электората перед выборами. Хаотичные настроения толпы, характеризующиеся максимальной энтропией в обычное время, после агитации средствами массовой информации (накачивание внешней 7) перед выборами сменяются крайней политизацией. После выборов определяется количество проголосовавших за того или иного кандидата – поведение электората соответствует максимуму "информированности" о том или ином кандидате, какое-то количество неголосовавших составляет инертную константу.