Архивы: по дате | по разделам | по авторам

Естественный и искусственный разум: джем-сейшн

Архив
автор : Леонид Левкович-Маслюк   13.10.1998

 

Это не научный обзор и не сводка результатов. Просто разговор с людьми, которые много работали над одной из самых интригующих загадок: может ли машина мыслить?

Джем-сейшн - это когда джазисты собираются небольшой компанией и начинают импровизировать кто во что горазд, а когда устают, подкрепляются бутербродами с джемом. Вот и мы организовали нечто подобное - с импровизациями вокруг двух слов: "искусственный интеллект" (или двух букв: ИИ). Солистами были: доцент факультета информатики РГГУ Сергей Бычков и кандидат физико-математических наук, старший научный сотрудник лаборатории нейропсихологии факультета психологии МГУ Анатолий Кричевец. А я по ходу дела подбрасывал им темы для разработки.

Корни, ветви, плоды

Л.: Итак, вы оба много лет изучали проблему: можно ли создать разум в машине. И пришли, каждый своим путем, опираясь на совершенно различные подходы и идеи, к заключению, что это невозможно. А между тем еще 40-50 лет назад такие титаны, как Тьюринг и даже Колмогоров, проявляли большой оптимизм в этом вопросе. Произошла, по-моему, странная вещь: в науке эта идея уже мало кого вдохновляет, а массовое сознание (судя, к примеру, по фантастике в стиле киберпанк) - наоборот, уже почти привыкло к мысли, что скоро можно будет сделать копию той или иной личности и она заживет себе в компьютере...

Б.: Андрей Николаевич Колмогоров в своем знаменитом докладе "Автоматы и жизнь", прочитанном в МГУ в 1961 году, допускал для человека возможность "кодирования" и даже "передачи по телеграфу".

К.: Тьюринг тоже замечательно рассуждал в книге "Может ли машина мыслить": то, что сделать мыслящую машину можно, не подлежит сомнению - возьмем и смоделируем мозг ребенка (он же простенький, что там - нейроны...); потратив на обучение модели столько времени, сколько мы тратим на воспитание настоящего ребенка, мы получим интеллект взрослого человека! Как мы воспитываем детей? Понятно же как. Говорим: это делай, это не делай, дважды два - четыре, и т. д.

Л.: Читая ваши работы, я все время задумывался вот о чем. К примеру, в статье Сергея (1) много тонких рассуждений, остроумия, но знаний, которые не были бы известны в 30-е годы, там нет. Однако делается радикальный вывод: ИИ невозможен. Причем подход, повторяю, очень остроумный: предположим, что естественный интеллект (ЕИ) ограничил свои возможности дедуктивным выводом следствий из постулатов; дальше - изощренная логика и вывод: ничего нового такой интеллект не выдумает. Почему такое рассуждение было невозможно провести сорок лет назад?

Б.: Насчет знаний - не совсем так. Главное - исторический контекст. Дело в том, что концепция ИИ завершила, с логической точки зрения, полный круг своего развития только к середине 70-х гг.

Л.: А когда началось это развитие?

Б.: Пожалуй, с работ Луллия. XIII век, логическая машина Луллия. Она была устроена так: семь концентрических кругов, каждый разделен на двенадцать секторов, в секторах написаны базовые понятия, а при вращении кругов получаются сочетания этих понятий. Для Луллия множество истин было конечно, и поэтому он считал, что вся мудрость в его машине заключена. Кстати, Джордано Бруно был большим поклонником этой идеи. Это - предтеча ИИ в чистом виде, только без адекватного материального воплощения. Но корни ИИ - в греческой математике. Можно сказать, что ИИ - это дедуктивная античная математика, опрокинутая в будущее.

К.: А в наше время возникла другая идея. Условно сформулируем ее так: "человек состоит из нейронов". Поэтому остается пустяк: взяли нейроны, смоделировали - и все. Их много, конечно, - ну и что? Колмогоров говорил: человек - система конечной сложности, и ее можно имитировать.

Л.: Как же это опровергнуть?

К.: Это из той области, где опровергнуть-то - математически - совершенно невозможно. "Человек состоит из атомов" - а это как опровергнешь? С моей точки зрения, это то же самое. Просто если ты не доводишь до явного математического выражения, что значит "состоять из", то ты можешь формулировать какие угодно безумные идеи. А если ты говоришь, что состоять из атомов означает, что, по Демокриту, кроме атомов и пустоты ничего нет, - тогда пожалуйста, только ты должен сформулировать теорию, как все образуется из атомов, в том числе и твое собственное понимание этих атомов. А обычно люди, выдвигающие подобные концепции, не ставят это своей задачей. В обучающихся нейросетях одна из замечательных идей состоит в том, что создатель и сам не знает, что там в сети произошло в процессе обучения. И это его (создателя) почему-то очень радует. Если знаешь, что происходит, - понятно, что ничего неожиданного не произойдет, а если не знаешь - отвернулся, потом повернулся - а там искусственный разум.

Б.: В принципе, задача ИИ может решаться ограниченным числом способов. К середине 70-х годов все они были перепробованы. То, что после этого началось, - генетические алгоритмы, виртуальная реальность - это уже вариации на старые темы. А так как в принципе ничего другого придумать нельзя, то безнадежность этих затей должна быть очевидна заранее. Но как это показать в терминах энтузиастов этого направления - вот в чем задача. Когда сорокалетние усилия не приносят результата, естественно думать о теоремах невозможности. Скажем, Гильберт потратил пятнадцать лет на свои усилия по аксиоматизации, а результат Геделя показал, что в полном объеме это сделать невозможно. Здесь не пятнадцать, а сорок лет делали - пора уже думать, что же здесь не так.

Слово и дело

Л.: А что думать-то? Аргументов против ИИ - масса! Например, был такой очень серьезный математик Константин Бабенко. Однажды на семинаре он мимоходом сказал, что все глупости на тему "может ли машина мыслить" проистекают из элементарного невежества. Надо понимать, что машина может выполнять только марковские алгорифмы. А человек - не только. Вот и все.

К.: Откуда же знать, что он "не только"? Как это можно показать? Лично мне более адекватным для размышлений об ИИ кажется контекст, введенный Тьюрингом в его знаменитом тесте на разумность. Это некая игра - научная игра, - где выдвигаются аргументы и контраргументы. Пропоненты ИИ выдвигают простую гипотезу: смоделируем все нейроны и все вычислим. Оппоненты приводят, например, аргумент Геделя и говорят: не все так просто. После некоторых уточнений вырисовываются наиболее трудные места и так далее.

Б.: Сначала напомним, что такое тест Тьюринга (ТТ). Вы общаетесь с невидимым собеседником; задача - узнать, машина ваш собеседник или человек. Сам Тьюринг говорил, что это и есть проверка на разумное поведение. То есть если арбитр принял ответы машины за ответы человека, машина прошла тест. И Тьюринг предсказывал, что к 2000 году средний арбитр в 70 процентах случаев не сможет распознать машину за пять минут разговора. Только обратите внимание: по условиям ТТ задачу решает человек, а мы уже судим по результатам деятельности этого человека.

К.: А я хочу подчеркнуть другое: ситуация ТТ - это ситуация обмана. Не обмануть ли нам человека, подсунув ему машину? Прекрасная идея! И начинается деятельность по изготовлению таких машин - иногда очень успешная. Скажем, программа ЭЛИЗА (ELIZA) реализовала методику Карла Роджерса (Karl Rogers), известного психотерапевта. Я его видел на публичном сеансе, выглядело это так: Карл Роджерс сидит перед человеком; человек говорит что-то вроде "а мама меня обижала..." Роджерс спрашивает: "Мама вас действительно обижала?.." Затем - пауза. Иногда - до минуты. В это время происходит что-то странное. Человек сидит, но в его сознании явно что-то делается. Потом он произносит следующую фразу... Роджерс обладал какой-то невиданной силой, это невооруженным глазом было видно. Очень мощный человек! Я не большой поклонник психотерапии, но здесь эффект был потрясающий. И самое удивительное, что ЭЛИЗА, где такое же "переспрашивание" делалось чисто формально, достигала того же. Вообще, ТТ тесно связан с проекцией личности на компьютер (для психологов это не секрет). То есть к компьютеру можно отнестись, как к разумному существу, - и он поддержит...

Л.: ЭЛИЗУ сам Роджерс разработал?

Б.: Нет, Вейценбаум (Joseph Weizenbaum). Это главный, пожалуй, критик ИИ в 80-е годы. Он сделал эту программу, но после первых восторгов по ее поводу (а она приобрела огромную популярность во всем мире) стал усиленно доказывать, что все же не может машина мыслить. Пошел против собственного детища. ЭЛИЗА сделала его знаменитым, а все оставшиеся силы он бросил на то, чтобы предотвратить восторженные выводы.

К.: Есть и более свежий пример. Мой однокурсник по мехмату Александр Подколзин сделал решатель задач вступительного экзамена. Программа решает конкурсные задачи (по алгебре и тригонометрии) с 90-процентной вероятностью - то есть на пятерку. Протокол, который эта система выдает, можно сдавать прямо в экзаменационную комиссию. Между прочим, Подколзин - большой специалист по подготовке абитуриентов. Он умеет раскладывать приемы решения на более простые и натаскивать по ним. Так вот, в его систему заложено полтысячи приемов! Слишком много. Вроде бы ясно, что нормальный ученик осваивает какие-то другие вещи, а не эти приемы. Но протокол гипнотизирует настолько, что даже сам Подколзин сначала говорил, что он смоделировал процесс решения задачи ребенком. И действительно, доказать, что ребенок решает не так, трудно. Это классическая ситуация ТТ: они вам конкурсные задачи, вы им - препарирование этих задач, чтобы можно было натаскивать, а потом и программу на этой основе...

Л.: А что, если подойти к ТТ так: мы сначала создадим программу, которая будет писать плохие стихи. Потом ее улучшим. Через некоторое время рядовой читатель не сможет определить, плохие это стихи или нет. А подавляющее большинство людей лучше не напишет. Потом мы так сделаем с музыкой, с наукой и т. д. И получим "интеллект", который "практически" неотличим от человеческого.

К.: Вполне может быть! Ну и что? Вне контекста развития ТТ это совершенно бессмысленная задача, хотя побочные результаты могут быть потрясающе интересны в приложениях. А обмануть, вложив массу усилий, можно, это же очевидно: для вопросов длиной, например, в 40 символов в ТТ можно составить переборную программу, дающую правильные ответы без анализа структуры. Но к пониманию это не приблизит ни на шаг. У Пенроуза в книге "Тени разума" есть потрясающий пример с шахматной позицией. Сильнейшая шахматная программа - она обыгрывала гроссмейстеров - не смогла понять элементарную позицию, очевидную для любого человека (см. рис. на стр. 24). Это была позиция, ориентированная на догадку. А создатели программы не рассматривали позиции такого типа, потому что они "неестественные". Да, эта позиция "неестественная" в контексте шахматной игры, но вполне естественная в контексте ТТ.

Б.: По поводу шахмат в скобках заметим: шахматисты понимают, что они играют не с машиной, а с разработчиками программы. Тем не менее, задача решена. Чемпион мира обыгран. Что дальше? По-моему, в ТТ есть один глубокий порок: он заключается в том, что нельзя о наличии или отсутствии интеллекта судить только на основании ответов на вопросы. Тут нужно посмотреть, как это нечто, которое претендует на то, что у него есть разум, - как оно делает. И судить по результатам. То есть дать задачу и посмотреть, справится оно или нет. Собственно говоря, основная идея моей работы на эту тему и заключается в том, чтобы взять в качестве критерия умение справиться с той или иной задачей. По плодам суди... А не по словам. Дай задачу, посмотри - решила ли?

Л.: Дали задачу - выиграть у Каспарова в шахматы. Она выиграла.

Б.: Так ведь самый важный момент вот в чем: если сто таких задач она уже решила (пусть даже одна из этих задач - обыграть чемпиона мира), то решит ли сама сто первую? Здесь речь идет о вариативности задач. Когда поле интереса стало узким - обыграть чемпиона мира или найти простые числа до 10 в 30-й степени, - результата можно достичь. Но мы же не говорим на этом основании, что программа стала разумной.

Л.: Я понимаю. Но кто из людей выдержит тест на решение любых задач? Давайте искать такой тест, чтобы его прошел "средний" человек, а машина - нет. Именно это интересует широкую публику: можно ли сделать так, чтобы ты понимал, с кем общаешься (по сети, допустим)?

Б.: Хорошо. Вот я сейчас тест придумаю. Из двух вопросов. Первый вопрос: сколько будет дважды два?

Л. иК. (хором): Четыре.

Б.: И человек, и машина отвечают "четыре". Следующий вопрос: докажите, что дважды два - четыре. Машина обречена это не доказать.

Л.: И я не могу это доказать. Это зависит от того, как определить, что такое "2" и что такое умножение.

Б.: А Лейбниц мог это доказать. И после Лейбница все специалисты по искусственному интеллекту умеют это доказывать...

К.: Сережа, ты сказал интересную вещь, но ее надо оттенить. Твоя идея: ни на чем невозможно поймать отличие человека от машины, кроме как на том, что человек способен делать что-то новое. Но как это выразить - вот проблема. Как поймать эту невозможность? Выраженное новое сразу становится старым.

Л.: Ясно, что в ТТ это включить нельзя! Вы же не можете сказать машине...

К.: ... "придумай что-нибудь новенькое!" А она скажет... Вот если бы мне такое сказали, я бы ответил: "Давай в другой раз. А то хочется выпить кофе".

Л.: Так ЭЛИЗА могла бы ответить.

К.: Да. И была бы совершенно права. Это совершенно интеллектуальное поведение.

Цель белых - ничья. Однако программа Deep Thought, играя белыми, решила взять ладью...
(из книги R. Penrose, Shadows of the Mind)

 

"Идея пришла между головами..."

Л.: Давайте посмотрим с другой стороны: можно ли себе представить разум, который качественно превосходит разум человека - обычного, среднего человека? Суперразум?

Б.: Безусловно. Таким разумом является разум всего человечества. То, что в гегелевской философии именовалось Абсолютным Духом. В каждый данный момент умнее человечества ничего нет. Но если сравнить человечество конца XX века и концa XVI века, в преддверии достижений Гюйгенса, Ньютона, то разница будет огромная. Поэтому человечество в целом, конечно же, умнеет с течением времени. Но этот факт с точки зрения адептов ИИ объяснить очень и очень сложно. С точки зрения ИИ, человечество - это глобальная формальная дедуктивная система. Что хотели сделать японцы в проекте ЭВМ пятого поколения? Создать мировую базу данных и в ее рамках получать новые результаты с помощью современных техник логического вывода.

Л.: Но этот суперразум личностью не является. И развивается независимо от воли каждого элемента, который в него входит. Как у Толстого - "сумма миллионов воль", что в конце концов приводит к результату, которого никто не хотел.

К.: Это мое любимое место в третьем томе "Войны и мира"... Я считаю, что рассматривать отдельного человека как единственный источник его разумности нельзя. Потому что человек настолько сильно взаимоувязан с другими агентами своей деятельности, что понять его интеллектуальные достижения временами легче, рассматривая группы людей или, может быть, даже человечество в целом. Поэтому в ИИ следовало бы поставить задачу так: моделировать не разум отдельного человека, а то, что Сергей назвал суперразумом. Для этого надо понять, чем же этот суперразум занят. Но я не рассматриваю отдельного человека просто как "элемент". У человека свои личные задачи и своя ответственность, в том числе и перед Господом...

Б.: Вопрос об ИИ - вопрос провокационный. На него трудно отвечать, не поставив себя сразу в то или иное отношение к Творцу, хотя и не все вопросы, о которых мы тут говорим, такие. Андрей Колмогоров в этом смысле был последователен: в отличие от своего ближайшего друга Павла Александрова (тоже знаменитого математика), который некоторых молодых ученых научил писать слово "Бог" с большой буквы, Андрей Николаевич был принципиальным материалистом. И у Колмогорова убежденность в возможности ИИ была связана с его естественнонаучным интересом. Но я хочу подчеркнуть: даже при чисто научном подходе исключительно важную роль играет традиция. В 50-70-е годы упоение близкими ожиданиями создания искусственного разума привело к забвению классической философской традиции, которая объективно - нравится это кому-то или нет - является средоточием знания о естественном интеллекте. А сегодня у нас в РГГУ, на факультете теоретической и прикладной лингвистики, будущим специалистам по ИИ читают лекции по истории древнегреческой философии.

Беда существующего "суперразума" в том, что он разбит на математиков, физиков, химиков, биологов, социологов, психологов, антропологов, историков, и ни у одной из этих групп нет одинаковых взглядов на кардинальные проблемы познания. Поэтому более важно преодолеть вот эту вавилонскую башню и разобраться в этом суперразуме, чем бросить все силы на то, чтобы создать его искусственную модель.

Л.: Если мы этот объект рассматриваем как разум, получается что-то из области психиатрии. А вдруг, когда все эти разноголосицы будут преодолены, суперразум приобретет какие-то черты личности? И что ему придет в голову? По-моему, вы как-то очень оптимистично подходите к этому абсолютному разуму.

Б.: У Эвальда Ильeнкова (это крупный советский философ-марксист 50-60-х годов, ушедший из жизни в 1979 году) есть работа под названием "Космология духа". Там прямо сказано, что рано или поздно сверхразум должен себя уничтожить - чтобы потом возродиться.

Л.: Может быть, тогда лучше не доводить дело до его возникновения?

К.: Я однажды наблюдал, как реально действует один экземпляр суперразума. Мы делали небольшой проект по интерактивному телевидению, с Михаилом Донским (который с Ботвинником создавал шахматную программу "Каисса") и Анатолием Прохоровым (он культуролог, работает сейчас на ОРТ). Дело было так: мы записывали на магнитофон нашу беседу на эту тему, потом отдавали машинистке, она распечатывала. Основную идею мы произвели за первые двадцать минут первого заседания, и я был твердо уверен, что все придумал я. Но вот я слушаю магнитофонную запись, и кроме "бе" и "ме" - ничего совершенно! Какие-то возгласы, чуть не хрюканье. Понять, о чем идет речь, невозможно. Выделить какие-то моменты, где я или мои собеседники произносим что-нибудь членораздельное, не удается. И я понял, что выдвинул идею не я, не они - а все мы, вместе. Это был хороший опыт в области авторских прав.

Л.: Тот самый случай, когда идея пришла сразу в несколько голов?

К.: Она не то чтобы пришла в несколько голов - она пришла между головами!

Б.: А я считаю, что разница между суперразумом и обычным разумом заключается только в том, что успешные действия суперразума задним числом можно логически понять. А отдельный человек понимает свои действия, рефлексируя о процессе достижения результата, крайне редко. Обычно это только философ может сделать. Но известен по крайней мере один пример ученого, который свою постоянную рефлексию использовал для решения конкретной научной проблемы, - это Карл Маркс. Доказательством служит 46-й том собрания сочинений, черновики. А проблема - проблема прибавочной стоимости. Это - пример того, что мышление бывает не только тогда, когда мы "стоим под столбом".

К.: "Стоять под столбом" - это метафора, которую Сергей использует вместо одного декартовского оборота. Естественный свет разума - нечто такое, чем мы не обладаем постоянно, но к чему можем как бы присоседиться, подключиться и что нельзя насиловать и форсировать. Это нечто, пожалуй, внешнее, но у нас есть средство попасть в этот поток. Об этом писал Мамардашвили, он так трактовал Декарта.

Б.: В свое время мы поставили эксперимент с одной известной задачей (она была представлена на Московской математической олимпиаде 1954 года, и ее тогда никто не решил): дано сто действительных чисел, сумма квадратов которых меньше 10000, а сумма самих чисел больше 300. Доказать, что можно выбрать три числа, сумма которых больше 100. Каждый из нас придумал решение в соответствии со своей идеологией. Я придумал длинное решение на три страницы, где не было ни одной светлой идеи, ради которой нужно вставать под столб. Просто цепь естественных вопросов. А Анатолий придумал короткое красивое решение, в котором надо один раз встать под столб. Мораль: понимание - это нечто совершенно иное, чем то, чего требует от решения математика. И на самом деле есть некий естественный способ, как догадываться до таких вещей.

К.: Здесь у нас разногласия. Сергей утверждает, что существует некий диалектический метод - но не алгоритм в точном смысле, - как решать все задачи (которые можно решить, грубо говоря). А я говорю: предъяви мне этот метод...

Б.: Подобные вещи интересовали умы Декарта, Лейбница, Эйлера, Пуанкаре. Много чрезвычайно ценного дал в XX веке Д. Пойа. Отдельные математические примеры - в частности, "естественный" способ получения алгоритма построения жорданова базиса - содержатся и в моих работах. Но усилия, которые при этом требуются, намного выше, чем при обычном решении задач, когда делаешь одну попытку, вторую, третью... И не понятно, ради чего эти усилия. С жордановым базисом я три месяца потратил, отслеживал каждый шаг. Убедился, что да, это достижимо. Ну и что? В математике задачи слишком специальные, слишком мало нужные, чтобы на это тратить силы.

Л.: Хорошо, тогда вопрос: а какие задачи стоят того, чтобы на них тратить силы?

К.: Конечно, это самый интересный вопрос. И мне кажется, что на него ответить просто нельзя. Интересная задача, интересная постановка задачи - это искусство. Например: придумать, как летать. Это очень общая задача - летать. ИИ тоже относится к таким самым общим (и самым интересным) задачам. Как с полетами удалось реализовать не совсем то, о чем мечталось, так же в ИИ реализуются очень интересные новые вещи, но это вовсе не полет мышления. Какие задачи считать интересными - это проблема, которую совершенно невозможно формализовать. На мой взгляд, именно постановка задачи, которую можно решать и интересно решать, - это та самая грань, тот самый критерий различия человека и машины.

Б.: Я тоже считаю, что это самый важный вопрос. Он суммирует все, что здесь есть. Ответы предлагались разные, в том числе довольно категоричные. Ильенков, например, в книге "Об идолах и идеалах" говорил вполне определенно: необходимо строить общество, в котором умные люди составляли бы большинство, а не исключение из правила.

Л.: Хорошо. Давайте перейдем к следующей теме.

Барьеры

Л.: Обратите внимание, что все те попытки с помощью машины моделировать различные виды разумной деятельности, о которых у нас шла речь, были успешными. ЭЛИЗА лечила не хуже Роджерса, а подколзинский решатель сдает экзамены не хуже хорошего абитуриента. А есть такие области, где сейчас даже в принципе не ясно, как имитировать человека?

К.: Я бы отнес моделирование движений к таким областям. Есть специальная наука о физиологии движения, двигателистика. Один из классиков этой науки Бернштейн (он работал в Центральном институте протезирования) развил теорию о существовании в мозгу нескольких уровней управления движением. Первый уровень занимается только тонусом мышц. Второй - синергией, то есть согласованием одновременных действий разных мышц. Третий уровень - пространственный, потом - уровень целевых движений, потом - вообще уровень смысла... Во время второй мировой войны теория Бернштейна нашла множество подтверждений: при ранениях в голову иногда полностью выпадал ровно один из уровней. Например, человек не может просто поднять руку - но снять шляпу может. И почему так сложно смоделировать движение человека? Потому, что все эти уровни управляют одними и теми же мышцами, в которые приходят нервные волокна от соответствующих мозговых центров. Но как могут несколько процессоров, как мы бы сказали сегодня, вместе управлять одними и теми же мышцами? И даже чисто механическая сторона далека от понимания. Ведь мышца управляется по ускорению. Сигнал от мозга приводит к напряжению мышцы, сила меняется, то есть ускорение меняется. Когда начали делать первые следящие системы для военных целей, быстро выяснилось, что управление по ускорению неустойчиво. Отсюда понятно, что механизмы управления движением человека очень хитрые.

Так что запрограммировать движение, которое бы воспринималось, как естественное, очень трудно. Мне однажды попалась статья Шиллера (того самого) "О грации и достоинстве", где он отличал хорошие движения от плохих по вложенной в движение свободе. Поэтому компьютерные попытки имитировать движения человека кажутся обреченными, и появляются новые технологии. Уже упоминавшийся Анатолий Прохоров делает на ОРТ передачу "Чердачок Фрутис". Там анимируют так: датчики ставят на живых людей, а компьютер порождает персонаж, который воспроизводит движения. Но все равно качество движений не очень хорошее. Как-то я спросил Прохорова, почему у них на экране все так мельтешат, а он говорит: как только кто-нибудь остановится - сразу выглядит покойником. Видимо, в нас что-то такое имеется, что не так пугает...

Л.: А существует обратная связь - движение руки влияет на то, что происходит в голове?

К.: В голове или нет - тоже не ясно...

Л.: А где? Кстати говоря, то, что мозг является единственным органом мышления в организме человека, - это твердо установленный факт?

К.: Первый период бурного развития нейропсихологии совпал с первой мировой войной, второй такой период - со второй мировой войной... Локальные повреждения мозга давали хороший материал. Зафиксировано выпадение функций при повреждениях мозга у взрослого человека.

Л.: В то же время при потере руки или ноги такого выпадения не происходит.

К.: Да. И это что-то доказывает, это проливает какой-то свет. Но я бы не стал говорить, что мозг единственный орган мышления. Например, Ильенков утверждал, что рука очень важна. И есть знаменитые эксперименты, когда подвешивали двух котят, один соприкасался лапами с полом, другой только вертелся, делал те же самые движения. Так вот, у первого пространственные навыки сформировались, а второй, висящий, оказался полным нулем в пространстве, хотя и видел то же самое.

Б.: Все, что связано с движением, играет колоссальную роль в проблеме ИИ. Я уже говорил о корнях идеи ИИ в античности. Так вот, очень важно, что рука играла разную роль в культурах египтян и греков. Без этого даже идея искусственного интеллекта не возникла бы. То, что египтяне делали (например, пирамиды), греки только видели. По этой причине доставшиеся им от египтян математические сведения практического характера поневоле должны были стать теоретическими. Теоретическая же геометрия должна была со временем неизбежно облечься в аксиоматическую форму. А по поводу органа мышления я приверженец известной формулы: мыслит не мозг, а человек с помощью мозга. И я не думаю, что даже в XXI веке будет дан четкий, с естественнонаучной точки зрения, ответ на вопрос о роли мозга как органа мышления. Настолько сложен этот вопрос. А проблему искусственного интеллекта нельзя решить, не решая проблему естественного интеллекта - это утверждение можно довольно аккуратно обосновать.

Л.: А теперь я хочу попросить каждого из вас высказаться о перспективах идеи искусственного разума.

К.: Мне кажется, мы глубоко промахиваемся, думая, что все, что мы наблюдаем, должно сводиться к мелким и отчетливым событиям. Я сейчас говорю не о какой-нибудь квантовой неопределенности, нет, просто мы всегда имеем дело с линеаризациями, упрощениями. А реальные траектории немножко отклоняются. Отклоняются всякий раз бесконечно мало - но самые интересные вещи, такие как свобода, возникновение нового, при этом уходят своим путем. Я не знаю, какими средствами можно уловить свободу. Мы просто знаем, что она имеется. Какими средствами можно описать возникновение нового? "Ну, новое... это хорошо забытое старое" - всегда можно возражать так. Но большинство верит, что новое действительно образуется. Такие вещи невозможно уложить в компьютероподобное поведение системы. Я думаю, что в ИИ, как и во всех науках, ситуация такова: искать то, что на самом деле найти нельзя, в надежде, что получится что-нибудь хорошее.

Самый сильный, по-моему, аргумент против ИИ я хотел бы представить вот в каком контексте. Совсем недавно я взял, с подачи Пенроуза, книжку про игру "Жизнь". Написана она драматично, детективно даже. Результат Конвея (J. Conway), автора игры, в том, что он на этом хилом клеточном автомате реализовал универсальный компьютер, машину Тьюринга. Это действительно настоящая драма: придумали простенькую игрушку - и вдруг оказалось, что в ней могут самопорождаться сколь угодно сложные системы. Возникает искушение предположить, что системами такого типа можно породить все, что угодно. В том числе и интеллект. Надо только правила для автомата удачно подобрать.

И вот здесь можно выдвинуть тот аргумент, о котором я говорю: движение назад по причинному ряду очень четко показывает невозможность таких проектов. Причем не только для клеточных автоматов. Никуда не денешься: либо ты должен предположить, что Творец сделал вот этот клеточный автомат, или семейство клеточных автоматов, или еще что-то - либо всякий раз будет оставаться вопрос: откуда это взялось? Механическое объяснение может построить только бесконечную систему вложенных порождателей. Кант в "Критике чистого разума" говорит, что бесконечный причинный ряд вперед по времени можно помыслить, а назад по времени - невозможно помыслить. Это немыслимая вещь - бесконечный ряд материальных причин в прошлом. Когда речь идет о процессах происхождения, всегда причина - качественно другая, и это не позволяет повернуть время обратно. Речь не идет о доказательстве, это аргумент. Но с ним не так просто спорить.

А резюме такое: деятельность вокруг ИИ - это большая, совершенно необходимая деятельность, проецирующаяся во многие предметные области. Для нее нужны как люди, одержимые идеей создания ИИ, так и их противники: только при их взаимодействии действительно что-то происходит.

Л.: Теперь послушаем резюме Сергея.

Б.: По-моему, главная проблема - критерий "интеллектуальности". О прогрессе в создании ИИ нельзя судить по одному частному критерию, наподобие теста Тьюринга. Мой тест несколько шире - посмотреть на результаты решения задач. Его недостаток вот в чем: скорее всего, под любую задачу будет создана программа, которая справится с ней. Пример - шахматы. А потом все это вместе взятое можно выдать за успех ИИ как научного направления. В случае ТТ это возможно, только если программа будет отвечать на любые вопросы. Весь фокус в том, что если спрашивающий будет знать особенности этой программы, он сможет задать вопрос, на который программа не ответит. Важнее всего в ТТ свобода выбора, которой обладает арбитр. При переходе к программе эта свобода выбора исчезает. Никто до сих пор не научился моделировать не случай, а именно свободу выбора! Это совершенно разные вещи! В философии предложено много определений свободы выбора. Но в философии ИИ этот вопрос пока не стоял. И скорее всего, вопрос об ИИ будет решен не раньше, чем будет получен общезначимый ответ на вопрос о том, что такое свобода выбора, можно ли ее моделировать, и т. д.

Важнейший барьер при создании ИИ - целенаправленная деятельность. Обычными логическими средствами можно строго доказать, что чисто дедуктивный интеллект может предъявить решение задачи, только если он уже в какой-то форме его знает. Человек же может рассуждать неформально. Колмогоров говорил, что, когда он пишет свои математические работы, у него в голове возникает определенная картинка и с ее помощью он отслеживает все нюансы проблемы. И только когда ответ на вопрос фактически готов, возникает изложение в соответствии с канонами дедуктивного метода. Так вот, сможет ли когда-нибудь ИИ оперировать подобными картинками - это вопрос будущего. Но пока компьютер представляет собой вот этот ящик, а внутри у него машина Тьюринга, надежды на это нет. Другое дело, если бы существовали такие роботы, у которых процесс размышления сопровождал бы процесс действия. Но как это сделать - чтобы размышление шло параллельно действию, - пока совершенно непонятно.

Л.: А почему машину нельзя запрограммировать так, чтобы она создавала неформальные образы? Все равно никто не знает, что объективно происходит в это время у человека в голове. Отчет человека о собственных мыслях - крайне ненадежный источник.

Б.: Дело-то в том, что сам человек оперирует этими образами неформально. Не по законам рассудочного мышления. Наш интеллект каким-то образом отбирает среди всех возможных комбинаций только те, которые ведут к цели. При формализации проблема выбора является центральной. Опять-таки, математик, когда решает задачу, никогда не уверен до конца, докажет он предположение или опровергнет. У него перед глазами всегда две противоречащие альтернативы. А работать формальным образом с двумя противоречащими альтернативами в принципе невозможно. Это и вынуждает математика мыслить содержательно. Можно показать, что из спора в принципе не может возникнуть идея формального дедуктивного доказательства (вопреки тому, что писал А. Колмогоров в известной статье "Математика" в БСЭ).

В чем недостаток современных систем ИИ? Если они решили 1000 задач, то для решения 1001-й задачи все равно нужно начинать сначала. Это глобальная проблема всей этой науки, о которой хорошо говорили в начале 90-х годов ведущие специалисты по ИИ Г. С. Поспелов и Д. А. Поспелов. Максимум, на что способны эти системы: допустим, что задачу решили, а потом решение "рассыпали". Тогда машина может его собрать, восстановить. Это то, что Э. Х. Тыугу делал в 70-е годы в Таллинне. Идея разрабатывавшегося Тыугу концептуального программирования такова: для решения многих задач лучше искать не длинные выводы в системах с малым числом аксиом, а сравнительно короткие выводы с большим числом аксиом (скажем, 10000 аксиом). Такие системы были сконструированы ("ПРИЗ"), и они могли, например, "решать треугольники" - допустим, найти радиус описанной окружности, если известны три стороны. Но только если схема решения задачи заранее известна.

Так вот, вопрос: что, собственно, должен делать ИИ? Ответ: решить хотя бы одну задачу, которая в него заранее не заложена (но при этом должна быть возможность это строго проконтролировать).

Л.: Спасибо вам обоим за беседу.

Дополнительная литература

  • С. Н. Бычков. Естественный и искусственный интеллект. М., 1995.
  • С. Н. Бычков. Геометрия и аксиоматический метод//Историко-математические исследования. Серия 2, вып. 1 (36), # 2. М., 1996.
  • Э. В. Ильенков. Об идолах и идеалах. М., 1968.
  • Э. В. Ильенков. Космология духа// Э. В. Ильенков. Философия и культура. М.,1991.
  • А. Н. Кричевец. Априорность и адаптивность. М., Российское психологическое об-во, 1998.
  • А. Н. Колмогоров. Автоматы и жизнь//Кибернетика - неограниченные возможности и возможные ограничения. Итоги развития. М., 1991.
  • Ж.-Л. Лорьер. Системы искусственного интеллекта. М., 1991.

Шахматные позиции, легкие для человека, но трудные для машины:

  • Seymore, J. and Norwood, D. (1993). A game for life, New Scientist, 139, No.1889, 23-6.


1 С. Н. Бычков. Естественный и искусственный интеллект. М., 1995.

© ООО "Компьютерра-Онлайн", 1997-2024
При цитировании и использовании любых материалов ссылка на "Компьютерру" обязательна.