Интернет: начало конца?
АрхивВнешняя средаАтаки на интернет со временем будут все более опасными. Так что возможно, однажды нам суждено проснуться в мире, в котором интернета больше нет...
На заре
Как известно, вначале интернет, который сегодня имеет широчайшую сферу применения – от среды общения и развлечений до мощного инструмента коммерции и работы – создавался как технология чисто стратегического значения. А в его появлении, как это ни странно, в весьма значительной степени "виновен" Советский Союз – ведь именно в ответ на запуск СССР первого искусственного спутника Земли президент США подписал указ о создании DARPA (Defence Advanced Research Project Agency,
Агентства по перспективным научным проектам), организации, которой принадлежат первые разработки в сфере сетевых и коммуникационных технологий, и которая, по сути, заложила основы Сети. Одной из основных черт самых ранних моделей коммуникационных систем была ставка на живучесть. Теоретически, создаваемая сеть должна была обладать достаточным запасом прочности, чтобы продолжать функционирование даже после уничтожения значительной части компонентов, например, вследствие атомного удара.
Для достижения этой цели предлагалась децентрализованная система управления, состоящая из множества равноправных узлов, "каждый из которых должен был иметь собственные блоки приема, обработки и формирования сообщений". В 1967 был представлен первый план создания такой сети – ARPANET, а в 1969 появился первый узел сети – ULCA – Центр испытаний сети, которому вскоре
подключились Станфордский исследовательский институт и университеты Санта-Барбары и Юты.
Дальнейший рост и развитие сетевых технологий, а также параллельное увеличение подключенных хостов в некотором роде напоминали развитие колонии микроорганизмов, попавшей в благоприятную среду. Так, в 1984 году число хостов достигло 1000, в 1987 – 10 000, 1989 – 100 000, через три года – миллиона, а в начале 1996 составило более 9,5 миллионов. Напомню, что Россия, а также Украина подключились к Интернет всего каких-то 10 лет назад в 1993.
Однако стремительный рост и совершенствование сетевых технологий одновременно имели и обратную сторону, а именно обусловили развитие целого ряда процессов и явлений, которые, по мнению некоторых специалистов, превращаются во всё более серьёзную угрозу для самого существования интернета. а именно об этих тенденциях речь пойдет дальше.
Эффекты централизации
Начиная с 1994 года началась торговая деятельность через Интернет. Однако ещё намного раньше стало ясно, что WWW может служить не только, да и не столько оборонным или строго научным целям. Структура Сети всё больше ориентировалась не столько на исходную живучесть и надёжность, сколько на целую серию иных факторов, всё чаще коммерческого или потребительского характера. Интернет эволюционировал - подобно тому, как развивалась нервная система животных организмов. И, подобно
преобразованию диффузных нейронных сетей в нервную систему централизованного типа, всё больше централизуется WWW. Конкуренция среди провайдеров заставляла последних искать наиболее эффективные и дешёвые варианты реализации сетевых задач, в результате чего многие из них склонялись к варианту так называемых "hub-and-spoke" систем ("систем ступицы и спиц"), реализующих принцип централизации. Системы такого типа более уязвимы в плане устойчивости, зато обходятся
дешевле и имеют ряд иных плюсов.
По этому поводу представляют интерес результаты исследований учёных из Университета штата Огайо (Ohio State University), в частности Тони Грубесика (Tony Grubesic), которые проанализировали возможные последствия разрушения той или иной части электронной инфраструктуры США для всей системы.
Согласно полученным результатам, наиболее уязвимыми являются сети с преобладанием именно hub-and-spoke-организации по сравнению с классической "сетеобразной". Так, сетями, которые наиболее восприимчивы к разрывам соединений, и соответственно, имеющими наибольшие шансы пострадать при повреждении, оказались AT&T, GTE и Multacom. По прогнозам учёных, потеря одного из соответственно восьми, семи или шести магистральных серверов данных сетей чревата полной утратой соединения для некоторых небольших городов и районов.
С другой стороны, 11 провайдеров, сети которых имеют распределённую топографию, имеют больше шансов оставаться функциональными при потере любого из главных хабов.
Для примера, в качестве одного из возможных вариантов учёные смоделировали функционирование сети Multacom после полного отключения одного из ключевых узлов. Так, в случае, если Атланта, наиболее важный узел магистрали Multacom, потеряет все свои соединения, ожидаются разрывы между городами Даллас, Лос-Анджелес, Майями и Тампа, а также между каждым из названных и примерно 10 другими, а также между Чикаго, Денвером, Нью-Йорком, Портландом, Сан-Хосе, Сиэтлом и Вашингтоном, и между каждым из названных и пятью другими. Это не обязательно означает, что названные населённые пункты потеряют какой-либо доступ в интернет, поскольку, как правило, крупные города обслуживаются несколькими провайдерами, что позволяет перераспределять трафик.
И тем не менее, указанные прогнозы заставляют задуматься.
Излишняя концентрация функций всей системы в ограниченном числе элементов имела ключевое значение, в частности, и в реализации легендарной DOS-атаки на корневые сервера, имевшей место 21 октября прошлого года. Однако об этом несколько позже.
ЦНС высших животных, бесспорно, имеет свои преимущества. Однако чем сложнее и более высокоорганизованна система, тем более чувствительна она к внешним воздействиям и дезинтеграции. Как известно, разрезанная пополам гидра, в отличии от курицы, вырастает в двух новых, а смертельная доза облучения для человека и бактерии отличается в тысячи раз.
В усложненном механизме интернета возникло новое специфическое явление, последствия появления которого трудно переоценить.
Вирусы
Впервые пользователи персональных компьютеров столкнулись с вирусами в 1987 году. Длительное время рядовые юзеры жили спокойно и беззаботно, поскольку считалось, что ОС Unix, на которой базировалось большинство серверов, надежно гарантирует от каких-либо проблем с вирусам. И тем сильнее был эффект события конца 1988 года.
2 ноября 1988 года выпускник Корнельского университета Роберт Таппан Моррис запустил в сети свою программу, которая из-за ошибки начала бесконтрольное распространение и многократное инфицирование узлов сети. В результате было инфицировано около 6200 машин, что составило 7,3 % общей численности машин в сети. Согласно подсчетам, общий ущерб от прямых и косвенных потерь
был оценен в 98 253 260 долларов.
Происшествие дало представление о потенциальных масштабах компьютерной опасности, а компьютерные вирусы стали причиной постоянной головной боли пользователей сети.
Производство вирусов, использующих для распространения интернет, было поставлено на поток, а бескорыстное (хоть и не всегда) творчество и пытливое воображение энтузиастов обеспечили появление вирусов самых различных категорий. Одни писали вирусы, другие пытались с ними бороться. Появились антивирусы и службы, занимающиеся вопросами вирусных заражений. Противостояние щита и меча чертило всё новые петли, а результатами этого своеобразного естественного отбора мы можем наслаждаться в наши дни.
Прекрасным примером сказанному может быть червь W32/SQL Slammer, наделавший много шуму после своего появления 25 января текущего года. Его атака, на протяжении которой за 10 минут заражению подверглось по различным данным от 67 до 75 тысяч (!) компьютеров, является самой мощной за всю историю существования вирусов. Последним временем черви приобретают всё больший интерес со стороны авторов этих зловредных программ.
На всякий случай напомню, что, по определению, “черви” (worm),– это вирусы, которые распространяются в компьютерной сети и, заражая компьютер, не изменяют файлы или сектора на дисках. Они проникают в память компьютера из компьютерной сети, вычисляют сетевые адреса других компьютеров и рассылают по этим адресам свои копии. Такие вирусы иногда создают
рабочие файлы на дисках системы, но могут вообще не обращаться к ресурсам компьютера (за исключением оперативной памяти).
SQL Slammer или Sapphire – червь, длина кода которого составляет всего 376 знаков, для проникновения использовал известную дыру популярной базы данных Microsoft SQL Server 2000. Согласно подсчётам, на протяжении первой минуты атаки количество зараженных компьютеров росло экспоненциально, удваиваясь каждые 8,5 секунды. В поисках потенциальных жертв за 10 минут вирус смог "просканировать" около 3,6 миллиардов интернет-адресов из примерно 4 млрд. существующих. На протяжении первых трёх минут скорость сканирования достигала 55 миллионов хостов в секунду, и в дальнейшем замедлялась только из-за недостаточной пропускной мощности сетей.
Небывалая мощность и агрессивность атаки повлекла не только замедление передачи данных в Интернет, но также сбои в компьютерных системах американских служб "911" и пожарных, работе банкоматов и иных систем.
Наиболее пострадали пользователи США (43 % зараженных машин) и Южной Кореи (14 %), на территории которой вирус на некоторое время практически полностью затормозил какой-либо трафик.
По словам специалистов, Slammer не смотря на свою простоту и отсутствие деструктивных свойств, демонстрирует значительный прогресс в развитии компьютерных червей и заставляет задуматься над будущими перспективами Интернет с точки зрения вирусной безопасности.
По этому поводу старое выражение принимает новую форму – "Мы говорим "интернет" – подразумеваем вирусы, мы говорим "вирусы" – подразумеваем интернет". Однако вирусы не появляются из неоткуда. Каждый из них принадлежит определённому автору, некой личности, с теми или иными мотивами запускающей частицу себя в вольное плаванье по Сети. Поэтому вполне логично остановиться на следующем, вероятно, основном и лежащем в основе предыдущих, явлении, которое несомненно будет иметь непосредственное воздействие на судьбу интернет.
Хакеры
21 октября 2002 года девять из 13 серверов корневого уровня были подвергнуты массированной часовой Dos-атаке, которую некоторые эксперты расценивают как наиболее серьёзную за всю историю существования Интернет. Некоторые специалисты полагают, что, продлись она, по крайней мере, несколько часов, и это могло бы вызвать нарушения функционирования Интернет глобального масштаба.
Причины такой внезапно обнаружившейся уязвимости связаны с тем, что именно эти 13 серверов содержат базы данных всех Интернет адресов. Именно они обеспечивают то, что Вам, чтобы попасть на этот сайт, нет необходимости набирать в адресной строке браузера четырехзначные цифры, а достаточно просто ввести www.computerra.ru. При отключении корневых серверов, многие веб-ресурсы станут недоступными уже через несколько часов.
Некоторые специалисты склонны считать удар попыткой дезорганизации и уничтожения сети, другие видят в этом не более, чем "занятное времяпровождение" группы хакеров-профессионалов. И всё же некоторые особенности данного происшествия заставляют серьёзно задуматься. Боб Альберти, президент сетевой службы безопасности и соавтор интернет-протокола Gopher, подчеркивает одну особенность, которая, по его мнению, много чего значит, а именно: ровно часовая длительность атаки. "То, что она длилась ровно час, - говорит он, - аргумент в пользу очень серьёзного уровня её организованности. В данном случае мы имеем дело не с атакой, которую запускают, чтобы просто увидеть, что получится, а с 1-часовым ударом, который может быть трактован как "Мы проверяем, насколько действенны наши методы"". Альберти считает, что эти лишь первые признаки того, что будущее Всемирной сети связано с дотоле невиданной хакерской деятельностью.
Итог
При некотором обобщении интернет очень напоминает природную экосистему – только места хищников, паразитов, продуцентов и других организмов занимают иные действующие лица - от разумных представителей "фауны" - юзеров и хакеров - до неодушевленных вирусов. Не исключено, что все они пребывают в некотором динамическом равновесии, а последнее даёт повод надеяться, что пессимистические прогнозы относительно судьбы World Wide Web ошибочны, и "начало конца" – лишь первые признаки новой стадии развития. Так ли это, предлагаю обсудить в форуме.