Архивы: по дате | по разделам | по авторам

Социализм с кибернетическим лицом

Архив
автор : Юрий Ревич   03.11.2003

В начале шестидесятых годов ХХ века разработку информационных аспектов системы преобразования экономики ("косыгинской реформы") поручили директору Киевского института кибернетики Виктору Михайловичу Глушкову.

В «КТ» #511 была опубликована статья Леонида Отоцкого «Стаффорд Бир и перспективы ИТ», в которой затрагивается старая, как сам мир, проблема научного переустройства общества — только не на основе марксизма, претензии которого на «научность» ныне похоронены, кажется, окончательно, а на, так сказать, «действительно научной» основе — кибернетической.

Напомним кратко, о чем речь: с 1971 по 1973 год в Чили при правительстве президента-социалиста Альенде работала группа ученых, возглавляемая английским кибернетиком Стаффордом Биром (Stafford Beer), чьей целью было построение кибернетической системы управления экономикой всей страны. В сентябре 73-го выдающийся (без иронии) эксперимент был вынужденно прекращен по известным причинам — к власти пришла хунта под предводительством Пиночета. Альенде убили.

Подробности этой истории, изложенной самим Биром в книге «Мозг фирмы» («Brain of the firm»), потрясают прежде всего фантастическим энтузиазмом участников — достаточно сказать, что на всю страну было всего 2 (два!) компьютера, а средства связи ограничивались телексом и военными радиосетями сантиметрового диапазона. Детализированный план работы, включавший в себя построение системы «Киберсин» с информационной сетью «Кибернет», был составлен всего за восемь дней!

Мы не будем анализировать эту историю с политической или экономической точек зрения. Зададимся иным вопросом, который ближе к информационным технологиям: можно ли в принципе довести до успешного конца подобный эксперимент? Ведь теперь под рукой есть технологии, которые Биру и не снились, — один Интернет чего стоит. Но сначала — пара малоизвестных подробностей о нас. То есть о России, точнее — СССР.

Кибернетика в одной отдельно взятой стране

В начале шестидесятых годов ХХ века разработку информационных аспектов системы преобразования экономики («косыгинской реформы») поручили директору Киевского института кибернетики Виктору Михайловичу Глушкову. Глушков разработал глобальную систему управления экономикой под названием «Общегосударственная автоматизированная система» (ОГАС), которая должна была полностью реализовать потенциальные преимущества плановой системы ведения хозяйства. Внедрение системы было рассчитано на три-четыре пятилетки. Алексея Косыгина (тогдашнего премьер-министра СССР) Глушков предупредил, что осуществить проект1 гораздо труднее, чем программы космических и ядерных исследований вместе взятые, к тому же он затрагивает политические и социальные стороны жизни общества (не правда ли, Виктор Михайлович оказался куда обстоятельнее своего английского коллеги?). Характерно для Глушкова, что в процессе разработки проекта он только за 1963 год лично посетил сто предприятий, проследил всю цепочку прохождения статистических данных, что дало ему основания заявить в своих воспоминаниях: «…я очень хорошо, возможно, как никто другой, представляю себе народное хозяйство в целом». Кроме структуры сети, была разработана система математических моделей экономики (Глушков говорил о советских экономистах, что они вообще ничего не считают). Была даже предусмотрена система безденежных расчетов для физических лиц! Разумеется, все это было похоронено представителями партийной элиты, причем один из характерных доводов звучал так: «Методы оптимизации и автоматизированные системы управления не нужны, поскольку у партии есть свои методы управления: для этого она советуется с народом, например, созывает совещание стахановцев или колхозников-ударников». Усугублялось все это иронией иностранной прессы: «Глушков собирается заменить кремлевских шефов вычислительными машинами!»2

ОГАС (да и косыгинская реформа в целом) была, казалось, благополучно забыта. В 1982 году крупнейший советский кибернетик Виктор Михайлович Глушков скончался. А через год, когда к власти пришел Юрий Андропов, с чьим именем многие до сих пор связывают нереализованные возможности ренессанса советского строя, появилась аналитическая записка за авторством специалистов ПГУ КГБ СССР и одного из оборонных министерств. В ней предлагалось пригласить для работы в СССР группу Стаффорда Бира! В этой связи нелишне вспомнить, что еще в начале шестидесятых чуть ли не единственным высшим чиновником, который поддерживал Глушкова с его ОГАС, был куратор оборонки, зампред Совета Министров и будущий министр обороны Дмитрий Устинов. Все наоборот по сравнению с Чили — военные оценили, гражданские отнеслись равнодушно, если не сказать сильнее.

Чем же так привлекательна идея кибернетического управления обществом? Для ответа на этот вопрос мы кратко остановимся на том, что же кибернетика предлагала такого, чего не было ни у Платона с Кампанеллой, ни у Фурье с Марксом.


1 (назад)Его первоначальное название — ЕГСВЦ (Единая государственная сеть вычислительных центров).
2 (назад) Подробности см. в книге Б. Н. Малиновского «История компьютерной техники в лицах» (lib.ru/MEMUARY/MALINOWSKIJ), а также в воспоминаниях В. М. Глушкова на сайте «Киевский компьютерный музей» (www.icfcst.kiev.ua/Museum/Gl_HALL2/life_r.html).

Кибернетический ликбез

Кибернетика определялась как наука об общих принципах управления объектами, независимо от их физической природы. В ее основе лежат несколько принципов, главным из которых является для нас принцип системного подхода. Система — это любой объект, характеризующийся не только составными частями, но и взаимодействиями между ними, а также связями с внешней средой — другими системами. Независимо от физической природы, любая система может быть представлена в виде «черного ящика», имеющего входы и выходы. Связь между входами и выходами описывается математическим уравнением — моделью системы.

Вспомним еще и положение о классификации систем. В кибернетике они делятся на детерминированные и вероятностные, а также на простые и сложные (большие). Физическая сложность системы при таком подходе ни о чем не говорит — характерным примером простой детерминированной системы является компьютер. Технически это невероятно сложное устройство, но тем не менее информация на его выходах однозначно зависит от входной информации (программы и состояния внутренних частей), а это и есть признак простоты и детерминированности. Заметим кстати, что отсюда следует один категорический вывод — с точки зрения теории, компьютер никакой новой информации не создает. Все, что он умеет, — преобразовывать информацию из одной формы в другую, например последовательность бит, записанных на жестком диске или вычисленных по определенному (заранее известному!) алгоритму, в рисунки букв и цифр на экране монитора.

Еще сам Бир отмечал3, что множество сложных детерминированных систем является пустым — нет таких в природе. А вот сложных вероятностных — мы их в дальнейшем будем называть «большими» — в природе хоть пруд пруди. К ним относятся и живые организмы, и их сообщества, и сообщества сообществ (биосистемы), — и человек, и его общества, как отдельные (коллективы, нации), так и человечество в целом, экономика этих обществ… — в общем, большую систему легче найти, чем детерминированную. Скажем, бильярд является простой системой, описываемой точными математическими уравнениями — но лишь пока мы не включаем в систему людей с киями в руках. Еще интереснее Интернет, совокупность простых детерминированных систем-компьютеров, но тем не менее — типичный пример большой системы, и не только потому, что его неотъемлемой частью являются люди за клавиатурами, но и потому, что при таком количестве составных частей мы обязаны учитывать фактор их надежности.

Итак, большой называется система, на которую воздействует так много факторов, что размерность модели выходит за разумные пределы. Причем в особо сложных случаях — а именно таковые возникают в задачах управления обществом и экономикой — размерность эта принципиально превышает возможности не только всяких ASCI Red и White, но и любых мыслимых конструкций будущего.

И что с того?

Фокус, однако, в том, что кибернетики этим не смущаются. Они предлагают свои методы для управления такими системами. Да, я забыл сказать, что описанный выше подход оказался необычайно плодотворным в управлении сложными техническими объектами — производственными процессами, производствами в целом или, скажем, искусственными спутниками Земли. Именно это и породило оптимизм кибернетиков и заставило их обещать, что те же принципы могут быть перенесены на компоненты человеческого общества. Так ли это? Нет ли тут какой-то капитальной ошибки, не появляется ли с расширением масштаба некое новое качество, которое сводит на нет все попытки управлять обществом теми же методами, что и прокатным станом? Да, к сожалению это так. Но дело тут не в некоем неопределенном «человеческом факторе», за игнорирование которого часто упрекают Бира — утверждение можно обосновать, не выходя за рамки теории систем.

Как поступают системщики, если нужно построить модель любой реальной — необязательно такой уж сверхсложной — системы? Примерно так же, как физики, когда придумывают идеализацию типа «абсолютно твердое тело» — они отсеивают незначимые факторы (входные параметры) системы и строят модель для тех, что, по их мнению, действительно влияют на изучаемые процессы. Незначимые же — как априорно известные, так и неизвестные — воздействия полагаются случайными, и им приписывается некий заданный закон распределения вероятностей. После этого с моделью, которая связывает входные воздействия с выходной величиной (целевой функцией4)a, можно работать — писать алгоритм, загонять в машину… Конечно, выглядеть все может гораздо сложнее, но принцип все же таков и никакого другого не существует, по причине, которую мы приводили выше — компьютер есть штука детерминированная и новых сущностей не выдает по определению. Поэтому в любой (любой!) модели общества уже должны содержаться все жизненные ситуации, подобно тому, как в алгебраическом уравнении потенциально уже содержатся его решения, хотя их, может быть, и непросто получить. Меня могут упрекнуть, что я забываю о принципе обратных связей (гомеостаза), когда система как бы сама «принимает решения». Но ведь системы с обратными связями описываются ничуть не менее однозначными уравнениями. Применительно к нашей ситуации это означает, что если мы, скажем, забыли учесть какой-то значимый фактор, или некий фактор вдруг спонтанно перешел из незначимых в значимые, или поменялся закон распределения вероятностей для случайных воздействий, или изменилась структура обратных связей, или, наконец — ситуация совершенно реальная! — цель функционирования системы внезапно изменилась или даже изначально оказалась совершенно не той, что мы предполагали — во всех этих случаях мы с нашей моделью немедленно оказываемся в… в общем, у кота под хвостом.


3 (назад) Ст. Бир, «Кибернетика и управление производством». — М.: «Наука», 1965.
4 (назад) Она может быть только одна, поэтому если у системы несколько несвязанных выходных величин, из них образуют удобный в работе комплекс.

Можно легко показать на примере, чего не учел в своей чилийской модели Бир. Очень просто — он не учел пиночетовского переворота, когда цели функционирования системы поменялись и радикально. А кому, простите, нужно управление экономикой в масштабах страны, если оно заточено под правление конкретного… ну, пусть не человека, а конкретной идеологии? Не учел он и предсказуемую реакцию США на национализацию их предприятий, и недовольство СССР отклонениями Альенде от единственно верного учения. Можно еще много такого перечислить, и пусть в меня бросит камень тот, кто скажет, что все эти факторы — незначимые! Пожалуй, наоборот. Но вот вопрос: а можно ли их учесть, хотя бы в принципе? Ответьте сами.

В семидесятые годы мне рассказывали такую притчу. Построили биологи компьютерную модель экосистемы Азовского моря. Долго строили — с десяток лет кропотливо собирали информацию, фильтровали данные, уравнения писали — не чета штурмовой восьмидневке Бира. И победно отрапортовали о том, что теперь, дескать, мы могём предсказывать запасы рыбы аж на годы вперед! А тут возьми да и случись незадача — в районе… ну, пусть донской дельты потерпел аварию крупный — по азовским меркам — танкер с нефтепродуктами. Пленка растеклась чуть ли не по всему морю, планктон, естественно, дохнуть начал, за ним рыба, птиц погибло немерено… Угадайте, где эти биологи со своей моделью оказались?
Мораль сей басни можете вывести сами. Я бы определил ее так: не нужно, ребята, строить из себя демиургов и конструировать то, что конструированию нашими слабыми силенками не поддается в принципе. Это в равной степени относится как к ИИ (именно к интеллекту-творцу, а не к шахматным машинам или распознавателям рукописного текста), так и к управлению людьми. Есть много других рецептов, как поработать на благо общества, — только выбирайте.

P.S. Тут слишком мало места для того, чтобы затронуть еще одну проблему, непосредственно относящуюся к нашей теме: дело в том, что Стаффорд Бир, Норберт Винер, Виктор Глушков, Уильям Росс Эшби, как и многие другие ученые того времени, называли себя кибернетиками (ваш покорный слуга, между прочим тоже окончил специальность, в названии которой присутствует слово «кибернетика»). Между тем, сейчас вы едва ли найдете хоть одного живого кибернетика. Можно сколько угодно спорить об этом, но такой науки — кибернетики — как доказала сама жизнь, не существует. Просто потому, что у нее нет предмета изучения. Насколько основательны в этом контексте могут быть претензии на построение «кибернетически управляемого общества»?

Эксперименты Бира и проблема ИИ

Проблема создания ИИ заключается в первую очередь в том, что человеческий мозг, который только один и умеет создавать новые знания, функционирует, как сейчас уже фактически доказано, неалгоритмическим образом. Процедуры, которые не поддаются алгоритмизации, носят еще название «невычислимых»*. Парадокс развития ИИ заключается в том, что само понятие невычислимости ввел тот же самый человек, который явился одним из основателей искусственного интеллекта как научной дисциплины — Алан Тьюринг. В своей эпохальной работе 1936 года «О вычислимых числах с приложением к проблеме разрешимости» («On the Computable Numbers, with an Application to the Entscheidungsproblem»), в которой впервые возникло понятие универсальной машины («машины Тьюринга»), ученый подробно разбирал понятие «вычислимости». Тьюринг вслед за известным математиком Геделем доказал, что математика в целом не является такой «вычислимой» системой и не может быть представлена в виде законченного и непротиворечивого набора аксиом и выведенных из них теорем. А в 1950 году журналом «Mind» была опубликована его работа под названием «Computing maсhinery and intelligence» («Вычислительные машины и интеллект»), которая неоднократно переиздавалась разных странах, в том числе и в СССР (1960), под названием «Can the Machine Think?» («Может ли машина мыслить?»). В ней Тьюринг подробно обсуждает критерий, по которому можно сделать заключение о «разумности» некоего объекта, фактически положив тем самым начало эпохе ИИ. Но еще более поразительно, что эта проблема — в какой мере можно говорить о «машинном разуме» — всерьез обсуждалась еще …за сто с лишним лет до Тьюринга! Вот что писала в 1842 году гениальная Ада Лавлейс, урожденная леди Байрон, вошедшая в историю, как первая программистка: «Аналитическая машина не претендует на то, чтобы создавать что-то действительно новое. Машина может выполнить все то, что мы умеем ей предписать. Она может следовать анализу, но она не может предугадать какие-либо аналитические зависимости или истины. Функции машины заключаются в том, чтобы помочь нам получить то, с чем мы уже знакомы (курсив мой. — Ю.Р.)».

Ну, а какое все это имеет отношение к Стаффорду Биру и его социальным экспериментам? Самое непосредственное — дело в том, что функционирование человеческих сообществ является типичным примером невычислимой процедуры — процедуры, для которой не может быть создано соответствующей машины Тьюринга. И при внимательном рассмотрении, задачи построения ИИ и кибернетической системы управления обществом оказываются, вполне в духе философии Роджера Пенроуза**, одной и той же задачей.


* (назад) См. Пенроуз Р. «Новый ум короля». Пер с англ. — М.: Едиториал УРСС, 2003.
** (назад) Там же, а также тема номера в «КТ» #268 (1998 г).
 

© ООО "Компьютерра-Онлайн", 1997-2024
При цитировании и использовании любых материалов ссылка на "Компьютерру" обязательна.