Архитектура неосязаемого
АрхивНе верю, - сказал я сам себе, вслух, один на один с компьютером и письмом потенциального автора этой темы номера, кандидата физмат-наук, который проповедовал "всеобщую теорию Мирового информационного поля", основываясь на работах Маркса.
Не верю, - сказал я сам себе ["Не верю" - знаменитая фраза Станиславского, которую он часто употреблял в качестве режиссерского приема при работе с актерами, уличая их в ненатуральной игре], вслух, один на один с компьютером и письмом потенциального автора этой темы номера, кандидата физмат-наук, который проповедовал (иного слова не подберу!) "всеобщую теорию Мирового информационного поля", основываясь на работах Маркса (1843 год, sic!). Не будучи знатоком наследия знаменитого теоретика классовой борьбы, я, тем не менее, совершенно уверен, что никаких упоминаний об информационной сущности мироздания у Маркса нет. Если ошибаюсь - с благодарностью приму критику своего невежества…
Понятие энтропии было впервые введено в 1865 году Рудольфом Клаузиусом. Он определил изменение энтропии термодинамической системы при обратимом процессе как отношение изменения общего количества тепла {Q к величине абсолютной температуры T.
ΔS= ΔQ / T
Рудольф Клаузиус дал величине S имя "энтропия", происходящее от греческого слова фсoрЮ, "изменение" (изменение, превращение, преобразование). Это равенство относится к изменению энтропии, не определяя полностью саму энтропию.
И это не единственное письмо подобного рода, полученное мною. Очень скоро я узнал о существовании еще нескольких "всеобщих теорий", как-то: "новая теория информации", "теория перманентных информационных взаимодействий", "принцип информационного единства Вселенной" и "информационная модель миросозидания". Таки прав оказался отец синергетики…
Поэтому обозначить свою позицию в отношении термина "информация" мне показалось важным. Тем более в преддверии разговора об информационной архитектуре и информационных архитекторах.
Итак. В своей знаменитой книге [Г. Хакен Информация и самоорганизация. Макроскопический подход к сложным явлениям М.Мир. 1991] Г. Хакен предуведомляет читателей, что хотя основным инструментом исследования самоорганизующихся систем будет являться информационный подход, однако при этом дает понять, что не намерен выходить за рамки определения информации, данной К. Шенноном [В 1948 году, исследуя проблему рациональной передачи информации через зашумленный коммуникационный канал, Клод Шеннон предложил вероятностный подход и создал первую, истинно математическую, теорию энтропии. Его идеи послужили также основой разработки основных направлений теории информации. Понятие энтропии, как меры случайности, введено Шенноном в его статье "A Mathematical Theory of Communication", опубликованной в Bell System Technical Journal]. По Шеннону, информация характеризует термодинамическое состояние физической системы и не имеет ни смысла, ни пользы в обыденном бытовом значении этих слов. Впоследствии Джейнс сформулировал более общий принцип максимума информационной энтропии, позволивший выводить основные уравнения термодинамики, а Ингарден разработал основы информационной термодинамики, введя в рассмотрение понятие температур более высоких порядков… Но это все - статистическая физика! Не философия и не мировоззрение.
Сторонникам взгляда на информацию как на некую "надматериальную" сущность стоит поразмышлять о мнении Г. Хакена, утверждавшего, что информационным процессам, происходящим в Мире, обязательно сопутствуют процессы материальные, физические - даже если речь заходит о процессах в "нематериальных", многомерных фазовых пространствах, которые оппоненты Хакена так любят приводить в качестве примера "чистых информационных процессов".
Что ж, самое время вспомнить работы Бориса Борисовича Кадомцева [Выдающийся советский физик, академик АН СССР. Возглавлял Институт ядерного синтеза Российского научного центра Курчатовский институт с 1973 по 1998 г., был главным редактором журнала "Успехи Физических Наук"], посвященные, в числе прочего, анализу именно такого рода информационных объектов [В частности, эту: Б. Б. Кадомцев Динамика и информация, 2-я редакция. - М.: Редакция журнала "Успехи физических наук", 1999]. Кстати, если уж говорить об информационной архитектуре, об архитектуре информационных объектов, то, конечно же, задача синтеза структуры фазового пространства физической системы, исходя из ее требуемых свойств, будет являться чисто архитектурной. Особенно это касается неравновесных, диссипативных систем, конструирование которых сводится, по сути, к формированию в некоторых областях фазового пространства (нематериального!) необходимого числа фокусов - аттракторов, которые будут определять установившееся поведение системы. Однако и в этом случае мы видим, что информационные характеристики все же определяются соотношением физических параметров системы.
Красиво выглядит определение количества информации по Кадомцеву через параметры эволюции системы - здесь количеством информации называется величина ln(V/dV), где V - полный "объем" фазового пространства в момент наблюдения, а dV - доля объема фазового пространства, занимаемого системой в начальном состоянии. Заметим, здесь вовсе отсутствуют параметры каналов передачи каких бы то ни было сигналов и статистические характеристики, а количество информации, присущей системе, связывается с процессом ее эволюционирования. При этом система оказывается наделенной памятью, она накапливает информацию: в качестве "запоминающих элементов" используются возникающие в ходе эволюции степени свободы динамической системы. Под термином "динамическая система" можно понимать чрезвычайно широкий класс объектов. Б. Б. Кадомцев пишет: "Например, барханы пустыни можно рассматривать как медленно эволюционирующую динамическую систему, запоминающую историю взаимодействия поверхности песка с ветрами".
В общем, мы видим, что усложнение, структурное развитие, архитектура системы вызывают к жизни такие ее свойства, которые изначально в ней не присутствовали. Особенно интересно наблюдать взаимодействие систем с памятью. Тут начинают происходить процессы самопроизвольной адаптации одних систем к другим. С точки зрения Кадомцева, этот процесс аналогичен появлению новой понятийной категории - знания. Знания системы о реакциях других систем на поведение данной. В контексте нашего разговора это означает буквально следующее: архитектура сети взаимодействия систем (сети? почему нет?) порождает знание. Не в смысле объема накопленной информации, сведений, а именно как продукт отношений и "опыта".
Что дальше? А дальше мы видим, что знание и опыт, накопленные в ходе совместной эволюции динамических систем, используются для выработки поведения, реакций, которые становятся все менее привязанными к ближайшим по времени внешним воздействиям, то есть приобретают, по словам Кадомцева, "невременной характер". И далее: "Благодаря этому акт выбора реакции (волевой акт) выглядит как бы свободным - он не предопределен видимыми в настоящий момент причинами. Более того, проинтегрированные за большой промежуток времени и накопленные в памяти сведения содержат информацию о прошлом поведении системы и ее окружения, поэтому появляется возможность предугадывания событий, а следовательно, принятия решений с определенной целью".
Божественный Принцип свободной воли, низложенный до уровня необходимо возникающего свойства, предопределенного архитектурой системы… Н-да…
Границы применимости меры беспорядка
Проблемы начинаются в двух случаях:
- когда начинают смешивать различные понимания беспорядка, и энтропия становится мерой беспорядка вообще;
- когда понятие энтропии применяется для систем, не являющихся термодинамическими.
В обоих этих случаях применение понятия термодинамической энтропии совершенно неправомерно. Другой пример - учет электромагнитных сил взаимодействия между ионами. В этом случае наиболее вероятным состоянием, соответствующим максимуму энтропии, будет упорядоченное кристаллическое состояние, а совсем не "хаос". (Термин "хаос" здесь понимается в смысле беспорядка - в наивном смысле. К хаосу в математическом смысле, как сильно неустойчивой нелинейной системе, это не имеет отношения.) Однако многие ученые стали отождествлять информацию с "отрицательной энтропией" ввиду совпадения выражений для этих понятий. На самом деле энтропия не является мерой дезорганизации, мерой беспорядка и хаоса вообще, а информация далеко не всегда является мерой упорядоченности, организованности и порядка.