Наука массового поражения
АрхивКак журнал компьютерный мы и пишем в основном о безопасности компьютерной.
Как журнал компьютерный мы и пишем в основном о безопасности компьютерной. Однако не менее — а то и более, как показывают последние события, — актуальны для современного мира проблемы безопасности научной. Здесь, как и в компьютерном мире, наблюдается два противоположных подхода. Первый — жесткое ограничение на распространение любой информации о возможных опасностях (в ИТ-мире исповедуется компанией Microsoft). Второй — оповещение о дыре широкого круга людей в надежде на то, что одновременно с хакерскими утилитами появятся и противоядия, нейтрализующие брешь. Что лучше? Или, точнее, что хуже?
Пандора — дура, а Рис — молодец?
Многие понятия, которыми мы оперируем, сформированы масскультом. Образ чудаковатого советского ученого, знакомый нам по довоенным фильмам, давно уже вытеснен из сознания голливудскими картонками, в которых талантливый исследователь либо выступает в роли злого гения, либо — что реже — гения, которого преследуют спецслужбы. Априори предполагается, что злой гений не желает распространения знания, так как намерен использовать его для воплощения очередного безумного плана, а добрый, наоборот, желает рассказать о своем открытии всем и каждому, но спецслужбы не дают ему этого сделать, чтобы сохранить научный приоритет собственной страны.
Разумеется, архетипы эти придумал не Голливуд. Они существуют испокон веков. Прометей, принесший людям огонь, считается положительным героем, поскольку доктрина распространения знания (правда, не без исключений) в современной цивилизации явно довлеет над доктриной знания скрытого. Но существует еще одна греческая легенда, о ящике Пандоры. Ее цитируют гораздо реже, и только когда что-то идет не так. В массовом сознании открытие ящика Пандоры — это случайность, обусловленная тем, что Пандора, извините, дура. О том, что парадигма тотального распространения знания может быть неверна в целом, в голову приходит не каждому.
Тем не менее, такие люди есть. В этом году ряды тех, кто считает, что научные открытия не должны становиться предметом публичного обсуждения, пока не будут взвешены все за и против, пополнил видный британский астрофизик сэр Мартин Рис (Martin Rees), опубликовав книгу со спекулятивным названием «Наш последний час» («Our Final Hour»). В ней он оценивает шансы человечества встретить XXII век как 50 на 50. Не слишком оптимистично, верно?
Главная опасность, по мнению Риса, кроется в научных открытиях, которые, попади они в руки злоумышленников, могут привести к разрушительным последствиям. А в некоторых случаях и злоумышленников никаких не надо. Любопытные испытатели могут сами угробить и себя, и Землю, и всю Вселенную. И это не гипербола. Широко известен, например, скандал с Брукхейвенским экспериментом, когда физики из Брукхейвенской Национальной лаборатории запускали мощнейший ускоритель частиц для получения так называемой кварк-глюонной плазмы1. Перед началом серии экспериментов физик Уолтер Вагнер (Walter Wagner) написал в журнал «Scientific American» открытое письмо, в котором утверждал, что существует небольшой шанс спонтанного возникновения черной дыры, способной поглотить не только саму лабораторию, но и всю планету. Письмо Вагнера, хоть и не сопровождалось внятным обоснованием его точки зрения, получило широкий резонанс. Проблема ускорителя попала в газеты, и лаборатории пришлось созывать независимый консилиум, чтобы научное сообщество могло оценить возможную опасность такого исхода событий. Эксперты пришли к выводу, что подобное крайне маловероятно, и эксперименты были продолжены. Но что было бы, если б эксперты ошиблись?
У Риса нет готового ответа, и он высказывается на эту тему очень осторожно. Возможность возникновения черной дыры в конкретном случае с Брукхейвеном кажется Рису маловероятной, однако он настаивает на том, что решение о проведении подобных экспериментов должны приниматься после длительного обсуждения. Понятно, что не будь злосчастного письма Вагнера, не было бы и проверок, не было бы консилиума. Очевидно, что ученые вовсе не жаждут разделять с кем-то ответственность за проведение тех или иных экспериментов.
О научной этике спорят до хрипоты, но до сих пор распространено мнение, что ученый не несет ответственности за последствия применения своих открытий. Широко известна фраза Энрико Ферми «А мне интересно», сказанная им в ответ на предложение присоединиться к мораторию на исследования в области ядерной физики.
Ограничения тематики исследований ученые принимают плохо и сами себе ограничений стараются не ставить. В современной истории можно вспомнить разве что Асиломарское соглашение, участники которого согласились соблюдать довольно жесткие меры безопасности при проведении экспериментов с ДНК. И даже это соглашение впоследствии неоднократно пересматривалось в сторону смягчения. Потому что интересно. Потому что одно из главных качеств хорошего исследователя — любопытство.
А что будет, если результаты потенциально опасных открытий попадут в руки злоумышленников? Проецируя эту ситуацию на сегодняшнюю реальность, на людей, которые с радостью погибнут за дело, которое считают правым, потому что уверены в милости Аллаха? Рис полагает, что исследования, способные стать эффективным оружием в руках террористов, нужно как минимум перестать финансировать, как бы интересны они ни были.
Все будет хорошо
Рис не одинок. Пессимистически оценивают шансы выживания человечества в ближайшие 100–200 лет и другие видные ученые. Правда, у каждого свой сценарий. Наиболее близким к Рису кажется Билл Джой из Sun Microsystems, чья статья в «Wired»2 о будущем, которое в нас не нуждается, принесла ему больше популярности, чем участие во множестве ИТ-проектов (Джой — один из основателей Sun, присутствовал при зарождении Unix, и именно ему мы обязаны появлением Java и всех ее потомков). Ему тоже кажется, что уровень современной науки предоставляет террористам и безумцам слишком широкие возможности. Впрочем, понятно, что злой умысел вовсе не обязательное условие. Понятие «техногенная катастрофа» сегодня незнакомо, пожалуй, лишь отшельнице Агафье. Однако предлагаемые Джоем меры по самоограничению научного сообщества выглядят куда более жесткими, чем то, что предлагает Рис. Джой считает, что мы попросту должны отказаться от исследования некоторых направлений, в том числе генетики, нанотехнологии и роботоинженерии.
Вторит ему и Рэй Курцвайль, описывающий в своих книгах безрадостную картину порабощения Земли роботами. В силу неправдоподобного антуража фантазии Курцвайля могут испугать только любителей «космической оперы», однако, по сути, мало чем отличаются от опасений Джоя и Риса.
Опасно для жизни
Свидетельств того, что Джой и прочие неолуддиты3 в чем-то правы, с каждым днем все больше и больше. Самое обидное, что эти свидетельства зачастую касаются самых перспективных технологий. Оставим в стороне генетику, апологетов которой через пять-десять лет начнут подозревать во всех смертных грехах, если, не дай бог, случится еще несколько эпидемий, подобных эпидемиям AIDS и SARS. В случае с биотехнологиями джинн уже выпущен из бутылки, и единственное, что могут сделать западные страны, — это не отставать в очередной «гонке вооружений» от представителей третьего мира. Однако все больше голосов раздается о том, какую опасность несут в себе нанотехнологии, которые станут реальностью в ближайшие двадцать-тридцать лет.
Самая наглядная и от того самая популярная иллюстрация опасности нанотехнологий — наноботы. Это микроскопические роботы, которые, в частности, могут проникать в человеческий организм и выполнять заложенные программы. Но кто сказал, что не могут быть созданы такие наноботы, которые принесут человеку вред? Привычный контраргумент — «мы создадим новые наноботы, которые будут бороться с вредными наноботами» — не выдерживает никакой критики, поскольку все мы прекрасно знаем, что фармакологическая индустрия (или производители антивирусов — если терминология ИТ читателю ближе) всегда как минимум на один шаг позади4. А вдруг наноботы, способные воспроизводить себя, по Эрику Дрекслеру, выйдут из-под контроля? Несмотря на кажущуюся фантастичность последнего сценария некоторые исследователи принимают опасность всерьез и даже придумали для нее специальный жаргонизм: «серая слизь» (gray goo). А футуролог Рэй Курцвайль, к которому официальная академическая наука относилась примерно так же, как астрономы и археологи к Эриху фон Деникену, уже цитируется в серьезном отчете «Converging Technologies for Improving Human Performance», подготовленном Национальным научным фондом.
Есть и другая опасность нанотехнологий, гораздо более приземленная. Особенности поведения наноботов в человеческом организме, несмотря на шумиху в прессе, рассказывающей о будущих медицинских применениях этих устройств, исследованы сегодня очень слабо. И гарантировать безопасность внедрения наноботов в человеческое тело не возьмется, наверное, ни один серьезный исследователь. Более того, есть данные, свидетельствующие о токсичности наноустройств. Токсичность эта вызвана не столько материалами, из которых они изготовлены, сколько размерами наноботов. Совсем недавно, в апреле 2003 года, канадская общественная организация etcGroup (www.etcgroup.org/about.asp) опубликовала отчет «Размер имеет значение» («No Small Matter II: The Case for a Global Moratorium. Size Matters!»), в котором, помимо прочего, опубликованы результаты изысканий Вивьена Ховарда, пришедшего к выводу о возможной безусловной (не зависящей от материала) токсичности наноботов на основании анализа почти трех десятков исследований. Разумеется, сами ученые, непосредственно работающие в этой области, от подобных предупреждений предпочитают отмахиваться. Сегодня в нанотехнологии вложены колоссальные средства, и инвесторам нужны результаты. Кроме того, ученым просто интересно (помните Энрико Ферми?).
Знание — сила
Вместе с тем многие понимают опасность «открытого знания» и уже принимают как должное ответственность за распространение тех или иных технологий. В феврале этого года на заседании Американской ассоциации усовершенствования науки редакторы тридцати двух научных журналов приняли декларацию об изменении редакторской политики своих изданий. Теперь из научных публикаций будут удаляться любые детали, способные дать возможность «террористам» повторить описанные опыты. Разумеется, подобная редактура будет применяться только в тех случаях, когда предмет научной статьи выглядит потенциально опасным. Правда, редакторы были вынуждены смягчить свою позицию, уверив научное сообщество, что отбирать «опасные» публикации будут экспертные советы и ни одна статья, принятая к печати, не будет отвергнута или полностью переписана по соображениям безопасности. Обещания заведомо невыполнимые, но скандала избежать помогли. Хочу отметить, что принятое решение — добровольное и ни к чему редакторов не обязывает. Но эти люди своими руками возложили на себя ответственность за контроль над распространением научной информации. Возложили не от хорошей жизни, а потому что сами исследователи этого не делают.
Не исключено, что подобные меры с каждым годом будут ужесточаться, и в конце концов мы вернемся к испытанной веками модели «ограниченного знания», когда информация о высоких технологиях доступна узкому кругу специалистов и не может быть передана общественности. А сегодняшняя научная элита станет основой для касты «жрецов», создающей безопасные продукты технологий, не раскрывая принципов их работы.
Если, конечно, человечество не сгинет в одночасье от новоявленного вируса, а Землю не поглотит черная дыра, созданная заботливыми руками исследователей, моделирующих на своем ускорителе Большой Взрыв.
1 (назад)www.sciam.com/article.cfm?articleID=0008626D-3501-1C74-9B81809EC588EF21.
2 (назад) «Wired» 8.04: Why the Future Doesn’t Need Us, Bill Joy. (www.wired.com/wired/archive/8.04/joy.html).
3 (назад) Чаще их называют все же нанолуддитами. — Прим. ред.
4 (назад) Уставший от этого Касперский при каждом удобном случае призывает к перестройке Интернета и отказу от анонимности пользователей. — Прим. ред.