Архивы: по дате | по разделам | по авторам

SUPERкомпьютеры завтра и сегодня

Архив
автор : Киви Берд   03.02.2002

Индустрия высокопроизводительных вычислений настолько широка и необъятна, что всякую попытку обзора, занимающую лишь несколько журнальных страниц и при этом претендующую на глубину, следует расценивать по меньшей мере как неосторожную. Посему всех интересующихся "глубиной" я отправляю к объемной аналитической работе Aad J. van der Steen and Jack J. Dongarra, "Overview of Recent Supercomputers", мы же сосредоточимся на области, получившей с некоторых пор название High End Computing.

По направлению к петафлопсам

Индустрия высокопроизводительных вычислений, или High Performance Computing (HPC), настолько широка и необъятна, что всякую попытку обзора, занимающую лишь несколько журнальных страниц и при этом претендующую на глубину, следует расценивать по меньшей мере как неосторожную. Посему всех интересующихся «глубиной» я отправляю к объемной аналитической работе двух общепризнанных авторитетов - Aad J. van der Steen and Jack J. Dongarra, «Overview of Recent Supercomputers» 1, мы же сосредоточимся на «самых-самых» сверхвысокопроизводительных вершинах, то есть на области, получившей с некоторых пор название High End Computing (HEC). Да и здесь, понятное дело, не будем вдаваться в технические подробности архитектуры или программного обеспечения, а лишь коснемся наиболее впечатляющих достижений.

Летом прошлого года директор НАСА Дэн Голдин выступал на одном из узкоспециализированных форумов-семинаров, посвященных совместным суперкомпьютерным проектам индустрии и федерального правительства. Несмотря на то что США - бесспорный лидер в области HPC, главной темой речи Голдина была острейшая нужда американской нации в новых нетрадиционных компьютерных технологиях, поскольку производительность современных машин на кремниевых чипах не удовлетворяет нынешним запросам ученых и конструкторов. Сейчас, по словам директора НАСА, когда компьютерные компании едва достигли терафлопсного рубежа, то есть производительности порядка нескольких триллионов (1012) операций в секунду, уже очевидно, что для успешной работы его агентству требуются компьютеры мощностью на четыре порядка большей, то есть в десятки квадриллионов (1016) операций в секунду, или десятки петафлопс, как выражаются в компьютерном мире. Помимо проектирования сложных космических систем есть масса других научно-исследовательских и военно-прикладных задач (моделирование ядерных взрывов и криптография, гидродинамика и астрофизика, биомолекулярные исследования и т. д.), требующих петафлопсной производительности компьютеров.

Но даже с учетом небывалого прогресса КМОП-технологии и массивно-параллельных архитектур прогнозы показывают, что к вычислениям петафлопсного масштаба в рамках закона Мура и традиционных технологических подходов удастся подойти лишь после 2010 года. Экономические соображения заставили разработчиков, проектировавших первые терафлопсные суперкомпьютеры в рамках программы ASCI Министерства энергетики США, изначально ориентироваться на серийно выпускаемые комплектующие. В массивно-параллельных компьютерах используются процессоры типа Pentium или Alpha, модули DRAM и SRAM для памяти, RAID-массивы для внешних накопителей. Но все эти компоненты развиваются весьма неравномерно. Так, если скорость ЦПУ растет очень быстро, примерно на 60% в год, скорость DRAM возрастает за год лишь на 7%, а это означает, что транзисторы ЦПУ большую часть времени работают вхолостую (так называемая проблема латентности памяти). Но еще хуже - с суперкомпьютерной точки зрения - дело обстоит с соединением ЦПУ между собой и задержками, обусловленными операционной системой. Самые быстрые из общедоступных шин пока и близко не подошли к скоростям, необходимым в петафлопсных машинах.

Ученые США, Японии и других стран активно ищут пути к выходу на заветный петафлопсный рубеж. Один из реальных проектов такого рода, получивший в свое время активную поддержку НАСА, называется HTMT.

Жизнь и смерть HTMT

Концепция принципиально новой компьютерной архитектуры HTMT (Hybrid Technology MultiThreaded, что можно перевести как «гибридно-технологическая многопоточная архитектура») была предложена в 1995 году учеными Калифорнийского технологического института Полом Мессиной и Томасом Стерлингом. Последний, как известно, не только ведущий компьютерный специалист научно-исследовательского центра НАСА Jet Propulsion Lab (JPL); он возглавлял в 1994 году разработку первых ПК-кластеров Beowulf в Годдардском космическом центре. Среди других основных соавторов концепции HTMT называют кочующего по университетам Северной Америки китайца Гуана Гао и нашего соотечественника Константина Лихарева, когда-то возглавлявшего лабораторию криоэлектроники в МГУ, а в начале 1990-х перебравшегося в США. Для полноты картины можно еще упомянуть, что в одном из официальных документов утверждается, что на самом деле идея HTMT родилась в недрах Агентства национальной безопасности (АНБ).

В основе концепции лежит модель многопоточной обработки (multithreading, расщепление параллельных процессов на более мелкие независимые фрагменты - потоки и нити), сочетающаяся с комплексным («гибридным») использованием передовых компьютерных технологий. Прежде всего, это криогенные системы сверхпроводниковой быстрой одноквантовой логики (БОК, или по-английски RSFQ от «rapid single flux quantum logic»), высокоскоростные полупроводниковые СБИС типа «процессор в памяти» (PIM, processor-in-memory), оптические межсоединения и голографические технологии хранения информации. Вычислительное ядро новой системы реализуют несколько тысяч ниобиевых сверхпроводниковых процессоров, работающих на основе БОК-логики. Единицей представления информации в БОК являются одиночные кванты магнитного потока. Кванты перемещаются от вентиля к вентилю микроскопическими токами, наводимыми такими же квантами в управляющих контурах, а в целом сверхпроводниковая логика дает возможность не только в сотни раз повысить скорость, но и примерно в тех же пропорциях снизить энергопотребление по сравнению с традиционными процессорами.

К 1997 году, после этапа начального изучения исходной концепции под патронажем АНБ и Национального научного фонда США реалистичность предложенной архитектуры подтвердилась. Стало ясно, что на базе HTMT петафлопсный компьютер можно создать существенно быстрее, нежели при традиционных подходах. Поэтому был дан старт совместному проекту десятка исследовательских групп ведущих университетов, а также правительственных и промышленных центров. Финансировать работы взялись Военное агентство передовых исследований (DARPA), АНБ и НАСА, а общее управление проектом легло на Калтех (CalTech) и JPL.

Подробности об интереснейшей архитектуре HTMT (см. рис. 1) можно найти на веб-страницах «Компьютерры-онлайн». Увы, если зайти сегодня на сайт проекта http://htmt.jpl.nasa.gov/intro.html, то просто невозможно не ощутить, как выражаются в книгах, «мерзость запустения». Вроде бы никто официально не объявлял о его кончине, однако и признаков жизни там нет никаких. Готовя материал, я обратился за комментариями к одному из непосредственных участников разработки HTMT Дмитрию Зиновьеву, совместно с Лихаревым занимавшемуся дизайном БОК-процессоров и межпроцессорной сети в Университете штата Нью-Йорк (SUNY Stony Brook, gamayun.physics.sunysb.edu/RSFQ/Research/PetaFLOPs). Дмитрий подтвердил, что проект фактически умер, дав первую серьезную течь уже в декабре 1999 года. Причина банальная и до боли знакомая всем ученым-разработчикам - урезание финансирования. Причем урезание сильнейшее: DARPA полностью отказалось от участия, НАСА сослалось на сокращение своего бюджета, а АНБ не пожелало становиться ведущим спонсором. Для экспериментального доказательства жизнеспособности проекта было сочтено достаточным изготовить единичный микропроцессор, условно названный SPELL (Superconductor Processing ELement). Группе из трех человек поручили в течение календарного года по-стахановски разработать, смоделировать, изготовить и протестировать SPELL в двухпроцессорной конфигурации. При этом и денег на задачу выделили с рачительностью советского государства: на все про все, включая зарплату, - около 300 тысяч долларов. Итог разработки оказался тоже вполне «совковым»: к концу 2000 года для отчетности и рапорта был изготовлен один образцово-показательный микропроцессор, а фирма IBM, обещавшая изготовить двухпроцессорную плату, к этому времени от участия в проекте официально устранилась. До тестирования микропроцессора дело так и не дошло. Сами же разработчики SPELL, вдоволь хлебнувшие из американского «совка», уже разбрелись по разным университетам и фирмам.

Звезда по имени Blue Gene

В декабре 1999 года IBM объявила о запуске собственного петафлопсного проекта под названием Blue Gene. В проектирование суперкомпьютера производительностью 1015 операций в секунду было намечено вложить 100 миллионов долларов, а построить его - в течение пяти лет. Согласно пресс-релизам, петафлопсный «Голубой Ген» создается под конкретную задачу - исследование процесса сворачивания белков, поскольку понимание этого процесса представляет собой одну из фундаментальных проблем и влечет за собой глубокие экономические и научные последствия, в частности, в деле борьбы с болезнями и разработки лекарств узконаправленного действия.

Чтобы построить петафлопсную машину лишь за треть того времени, что требуется при естественной эволюции массивно-параллельных систем, разработчикам IBM, по их словам, пришлось «переосмыслить компьютерную архитектуру». Результатом переосмысления стала новая концепция под названием SMASH (simple, many, self-healing), то есть «простая, множественная и самоисцеляющаяся» архитектура. Благодаря SMASH суперкомпьютер Blue Gene будет содержать 1 миллион процессоров, которые смогут обрабатывать 8 миллионов потоков одновременно. Одно из важнейших мест в архитектуре занимают функции самостабилизации, автоматически устраняющие проблемы, вызванные сбоями в отдельных процессорах и вычислительных потоках. В целом же можно сказать, что в отличие от HTMT проект Blue Gene опирается на старую добрую технологию кремниевых чипов, которая, правда, примерно на поколение опережает нынешние процессоры массового производства.

IBM предполагает заключить 32 гигафлопсных процессора вместе с DRAM-памятью в одну микросхему производительностью 32 миллиарда операций в секунду и разместить 64 таких чипа на системной плате размером 60х60 см. Таким образом, вычислительная мощь каждой платы составит 2 терафлопса. (В настоящее время суперкомпьютеры подобной производительности занимают огромные машинные залы.) Восемь 2-терафлопсных плат будут монтироваться в стойку высотой около 1,8 м. Для сбора петафлопсной машины понадобится 64 таких шкафа (см. рис. 2).

Прошлой осенью было объявлено, что по заказу научно-исследовательского центра Lawrence Livermore National Laboratory (LLNL) корпорация IBM к концу 2004 года создаст суперкомпьютер Blue Gene/L, состоящий из 65 тысяч процессоров и предназначенный для моделирования процессов старения ядерных зарядов и ядерных взрывов. «Облегченная» архитектура Blue Gene/L позволит достигать вычислительной мощи в 200 триллионов операций в секунду. С одной стороны, это лишь пятая доля петафлопса исходной архитектуры (теперь именуемой Blue Gene/C, от Cyclops), с другой же - эта цифра существенно превосходит суммарную производительность машин из нынешнего суперкомпьютерного рейтинга Top500. Известно, что в архитектуре «L» используются не сверхплотно упакованные 32-процессорные чипы, а более традиционные, похожие на IBM’овскую линию процессоров Power. Каждый из этих чипов содержит два процессора - один для вычислений, другой для коммуникаций с остальными процессорами, - а также встроенную оперативную память, так что по скорости передачи данных модифицированная архитектура «L» превосходит исходную архитектуру «C».

Тысяча двухпроцессорных модулей Blue Gene/L монтируется в стойку величиной примерно с холодильник, а 65 таких стоек займут площадь половины теннисного корта. Это существенно меньше, чем размеры находящегося здесь же в LLNL суперкомпьютера-чемпиона IBM ASCI White, занимающего в рейтинге Top500 самую верхнюю строчку, а в здании Ливерморского центра - площадь размером с две баскетбольные площадки. В целом же, по подсчетам IBM, в сравнении с ASCI White машина Blue Gene/L будет в 15 раз быстрее, в 15 раз экономичнее и более чем в 50 раз компактнее в пересчете на терафлопс производительности.

Лидеры рейтингов

Упомянув ASCI White, естественно поговорить о лидерах высокопроизводительных вычислений и о знаменитом Top 500 - «независимом и наиболее авторитетном» рейтинге суперкомпьютеров, который дважды в год совместно составляют американский Университет Теннесси и германский Университета Мангейма (кавычки вокруг эпитетов вызваны растущим несогласием с такой оценкой среди пользователей суперкомпьютеров, о чем чуть позже). С некоторых пор увязанный с международным форумом Supercomputing Conference, также проходящим два раза в год, Top 500 служит удобной стартовой платформой для оценки тенденций в отрасли и объективного выявления лидеров (см. табл. 1).

Таблица 1. Рейтинг Top 500


Фирма

Компьютер

Максимальная
производительность,
GFLOPS

Место установки

Число
процессоров

Пиковая
производительность,
GFLOPS

1

IBM

ASCI White, SP Power3 375 MHz

7226

Lawrence Livermore National Laboratory

8192

12288

2

Compaq

AlphaServer SC ES45/1 GHz

4059

Pittsburgh Supercomputing Center

3024

6048

3

IBM

SP Power3 375 MHz 16 way

3052

NERSC/LBNL

3328

4992

4

Intel

ASCI Red

2379

Sandia National Labs

9632

3207

5

IBM

ASCI Blue-Pacific SST, IBM SP 604e

2144

Lawrence Livermore National Laboratory

5808

3868

6

Compaq

AlphaServer SC ES45/1 GHz

2096

Los Alamos National Laboratory

1536

3072

7

Hitachi

SR8000/MPP

1709,1

University of Tokyo

1152

2074

8

SGI

ASCI Blue Mountain

1608

Los Alamos National Laboratory

6144

3072

9

IBM

SP Power3 375 MHz

1417

Naval Oceanographic Office

1336

2004

10

IBM

SP Power3 375 MHz

1293

Deutscher Wetterdienst

1280

1920

Источник: www.top500.org


В последние несколько лет в списке Top 500 лидирующие позиции занимает IBM. Этой фирмой изготовлен самый быстрый 12-терафлопсный компьютер ASCI White, в первой десятке - пять ее машин, а во всем списке ей принадлежит 32% систем, на которые приходится 37% суммарной вычислительной мощности сравниваемых суперкомпьютеров.

По суммарному числу машин следующие после IBM места в рейтинге Top500 занимают компании Hewlett-Packard (153 системы), SGI (41), Cray (39), Sun Microsystems (31), Fujitsu (19), NEC и Compaq (по 16, к тому же у последней две системы AlphaServer SC ES45 находятся в первой десятке), Hitachi (15).

Впрочем, несколько месяцев назад появился иной аршин для измерения производительности и общего ранжирования суперкомпьютеров (см. «КТ» #424) - так называемый сбалансированный рейтинг исследовательской компании International Data Corporation (IDC Balanced Rating, www.idc.com/hpc). В двух словах, история его появления такова. За годы эксплуатации суперкомпьютеров их пользователи четко осознали, что приводимая в Top 500 пиковая производительность фактически ничего реального не отражает. Более того, популярный тест Linpack, с 1993 года и по сию пору являющийся базисом для ранжирования в Top500 по «максимальной производительности», идеально коррелирует с расчетной пиковой производительностью, но тоже мало что говорит о реальных возможностях системы. Как следствие, суперкомпьютеры последнего поколения стали преднамеренно «затачиваться» некоторыми изготовителями под тест Linpack, дабы демонстрировать потенциальным покупателям поразительное быстродействие. Однако при решении реальных задач такие машины работают весьма и весьма посредственно (в привязке к их стоимости, конечно).

Поэтому в 2000 году компания IDC объединила усилия с пользователями суперкомпьютеров из промышленности, академических институтов и правительственных ведомств США для создания более приближенных к жизни тестов. В результате к Linpack был добавлен обширный набор известных тестов SPEC FP, исследующих математическую производительность процессоров на задачах из самых разных научно-прикладных областей; тест Stream, замеряющий скорость обмена данными между процессором и памятью; и наконец еще один, третий компонент оценивающий степень масштабируемости суперкомпьютера, сопоставляя общее количество процессоров системы и суммарную пропускную способность памяти.

В итоге к осени 2001 года по замерам нового комплекса тестов первая десятка «самых-самых» мощных компьютеров стала выглядеть существенно иначе (см. табл. 2).

Таблица 2. Рейтинг IDC.


Изготовитель

Модель

Количество
ЦПУ

Рейтинг
процессоров
LP+SPEC

Рейтинг
памяти
STREAM

Рейтинг
масштабируемости

Общий
рейтинг

1

Compaq

PSC AlphaServer SC45/1000

3024

0,781

0,005

0,657

0,481

2

IBM

ASCI White, SP Power3 375 MHz

8192

0,500

0,001

0,425

0,309

3

NEC

SX-5/128M8

128

0,082

0,386

0,430

0,300

4

NEC

SX-5/32M2

32

0,017

0,629

0,171

0,272

5

Cray

T3E

1904

0,139

0,415

0,250

0,268

6

NEC

SX-5/40M3

40

 

0,563

0,214

0,259

7

Compaq

LANL AlphaServer ES45/1000

1536

0,399

0,001

0,334

0,245

8

Intel

ASCI Red

9632

0,165

 

0,500

0,222

9

IBM

ASCI Blue-Pacific SP 604e

5856

0,148

0,001

0,478

0,209

10

NEC

SX-5/16A

16

0,011

0,500

0,107

0,206

Источник: www.cray.com/news/0111/idc_release.pdf


Очевидно, что гораздо хуже стала выглядеть IBM. В то же время по-новому заиграли теракластеры компании Compaq и японские векторно-конвейерные системы NEC. Но что еще важнее, результаты близких к жизни тестов неожиданно вывели в безусловные чемпионы компанию Cray, по мнению многих, давно сдавшую свои некогда лидерские позиции. Из 149 систем, вошедших в высший «мощный класс» машин (Capability Class, он же самый дорогой), Cray принадлежит 58 компьютеров, то есть около 40%. У корпораций IBM и SGI здесь по 24 системы (по 16%). Далее следуют Compaq (15 машин), NEC (12) и Fujitsu (8).

Вполне понятно, что такие результаты крайне не понравились компании IBM, разом потерявшей лавры бесспорного лидера. Гораздо труднее понять, почему организаторы «независимого и наиболее авторитетного» Top500 фактически игнорируют новый сбалансированный рейтинг. И отсутствие на сайте www.top500.org даже малейших упоминаний об исследованиях IDC не добавляет авторитета этому солиднейшему в целом предприятию, особенно если учесть, что на определенном этапе организаторы обоих рейтингов конструктивно сотрудничали.

Новые результаты тестирования заставляют иначе взглянуть и на соотношение сил среди скалярных массивно-параллельных и векторно-конвейерных архитектур. Согласно проведенным недавно на основе Top 500 подсчетам, с 1993 по 2001 год соотношение между скалярными и векторными архитектурами изменилось следующим образом (см. табл. 3).

Таблица 3. Эволюция классов архитектур


Системы
изготовителей

Количество

Системы

Количество
изготовителей

Из них новых

Скалярные

133

9

450

6

3

Векторные

332

4

50

3

0

Источник: ftp://ftp.research.microsoft.com/pub/tr/tr-2001-76.pdf


Глядя на статистические данные, можно было бы подумать, что векторно-конвейерные системы явно сдают под мощным натиском более простых в изготовлении и программировании скалярных суперкомпьютеров. Однако это не совсем так, поскольку период повального увлечения сравнительно более дешевыми массивно-параллельными системами на основе серийно выпускаемых микропроцессоров достиг, похоже, своего пика. Ныне пользователи high-end-суперкомпьютеров, уставшие от разительного несоответствия между теоретической и реальной производительностью таких систем, все с большим интересом обращают взоры на новейшие векторно-конвейерные архитектуры SV2 (компания Cray) и SX-6 (NEC). Благо степень их масштабируемости практически не уступает традиционным массивно-параллельным системам, а модели создания программного обеспечения становятся все более похожими.


1 (обратно к тексту) - Из русскоязычных Интернет-ресурсов наиболее представительным является, видимо, сайт Лаборатории параллельных инфотехнологий НИВЦ МГУ.

SUPERстарцы

Самые первые в истории компьютеры одновременно были и суперкомпьютерами - других тогда, из-за уникальности каждого экземпляра, не знали. Осознание факта, что не для всех задач требуется предельная производительность, часто связывают с именем советского конструктора И. С. Брука, который в 1955-56 гг. сформулировал концепцию малых ЭВМ и их отличия от компьютеров предельной производительности (нынешних «супер»).

Мы, живущие в век гигабайт, гигабод и гигагерц, конечно, имеем право рассматривать «суперы» того времени со снисходительной усмешкой: ОЗУ выдающегося для своего времени «Атласа» (Манчестер, 1962) составляло 672 Кбайт (точнее - 114688 48-разрядных слов), а основная тактовая частота знаменитой и без всяких скидок передовой на тот момент БЭСМ-6 (1967) равнялась 10 МГц. О более ранних машинах нечего и говорить: EDSAC (1949) имел память 1024 17-битных слова и быстродействие 650 инструкций в секунду при тактовой частоте 500 кГц. Но не будем забывать, что принципы построения современных компьютеров - параллелизм, конвейеризация, векторная и суперскалярная архитектуры - были обкатаны и теоретически обоснованы именно тогда.

Первым в истории суперкомпьютером и по быстродействию, и по роду решаемых задач следует, видимо, считать Colossus («Колосс»), к созданию которого имел непосредственное отношение знаменитый математик Джон фон Нейман. Кстати, Colossus - вообще первая электронная программируемая вычислительная машина. Ее относительное забвение простительно: введенная в строй на Рождество 1943 года (на три с половиной года раньше «официального» первенца - американского ENIAC), она была засекречена настолько, что о ее существовании знали только несколько человек в высшем руководстве Британии, и даже в 1970-х годах, когда по английским законам истек срок давности засекречивания архивов, далеко не все сведения о ней были опубликованы (документации об этом проекте присвоен гриф секретности «Ultra»).

Colossus I был специализированным компьютером и предназначался для расшифровки переписки верхушки вермахта. Но зато как он справлялся со своей задачей! Вдвое быстрее, чем Pentium образца 1996 года, работавший с эмулятором функций Colossus на языке Си. Кроме того, Colossus, в отличие от остальных первенцев вроде EDVAC и ENIAC, существовавших в одном-единственном опытно-эксплутационном экземпляре, был серийной машиной.

Самым мощным криптографическим устройством, которое использовали Гитлер и высшее командование Германии, был шифратор Lorenz Schlussel-Zelsatz, применявший теоретически невскрываемые одноразовые коды под названием «одноразовые блокноты Вернама» 1. В конце концов, воспользовавшись ошибкой шифровальщика, дважды использовавшего один и тот же ключ в 1941 году, полковник Джон Тилтман (Tiltman) и Билл Тьютте (Tutte) из английского криптографического центра Bletchley Park воссоздали схему шифратора. Для разработки методов взлома привлекли фон Неймана, работавшего в Принстоне, и по его идеям был построен механический вариант машины, названной Heath Robinson (по имени художника - автора комиксов о фантастических машинах). Машина подтвердила правильность выбранного направления, но работала плохо: при необходимой скорости синхронизации двух бумажных перфолент порядка 1000 символов в секунду (на одной ленте размещались взламывающие коды, на другой - исходный текст сообщения), бумага рвалась. Поэтому под руководством лучшего электронщика английского Министерства почт Томми Флауэрса (Tommy Flowers) и был сконструирован Colossus - электронный вариант Robinson’а с переключателями на электронных лампах. Первоначально конструкторы сомневались, что такое большое количество ламп (около 1500) будет работать надежно, но Томми имел богатый опыт в разработке ламповых устройств (до войны он конструировал усилители для линий связи) и уверил, что все будет в порядке. Интересно, что одной из мер повышения надежности было обеспечение по возможности непрерывной работы ламп - как известно, львиная доля отказов электронных компонентов приходится на момент включения.

Colossus имел оптическое (!) считывающее устройство для перфоленты, кольцевые регистры на тиратронах, 5-битные сдвигающие регистры на тетродах, ламповые управляющие логические схемы и десятичные четырехразрядные релейные счетчики. Система могла обрабатывать 5 тысяч 5-битных символов (телеграфные коды Бодо, легшие в основу современного 7-битного ASCII) в секунду. Занимало все устройство примерно 25 квадратных метров и имело высоту 2,3 метра. Потребление энергии - около 5 кВт, общий вес около тонны. Хотя сам конструктор Томми Флауэрс иронически называл машину «веревочно-сургучной», о том, насколько конструкция была передовой для того времени, может свидетельствовать факт, что в начале семидесятых автор этой статьи своими глазами видел действующие считывающие устройства для перфоленты, основанные на чисто механических принципах (правда, в СССР).

По оценкам историков, Colossus I сыграл важнейшую роль в обеспечении успеха высадки союзников в Нормандии. Полная информация о его усовершенствованной модификации Colossus Mark II, вступившей в строй в начале июня 1944 года, за неделю до высадки, стала доступна лишь в 2000 году, что объясняется не только неповоротливостью британских бюрократов, но и тем, что положенные в основу Colossus криптографические принципы сохраняли актуальность до самого последнего времени. В конце войны восемь из десяти построенных «Колоссов» были демонтированы, а два оставшихся просуществовали аж до 1960 года, когда все чертежи машин были уничтожены - как видим, не только в нашей стране можно наблюдать наплевательское отношение к собственной истории. Благодаря активности Энтони Сейла (Anthony Sale, теперь хранитель музея Bletchley Park) Colossus I был любовно восстановлен в 1996 году, как раз к юбилею постройки ENIAC.

Фон Нейман был инициатором создания и первой машины из знаменитой серии ILLIAC (ILLInois Automated Computer). В 1948 году в Иллинойском университете на грант от Министерства обороны в 150 тысяч долларов была создана Digital Computer Laboratory для разработки двух суперкомпьютеров. ILLIAC I, первый компьютер, построенный в учебном учреждении, вошел в строй в 1952 году и содержал 2800 ламп. Вес его составлял около пяти тонн. Наибольшую известность получил ILLIAC IV (1965), построенный университетом совместно с корпорацией Burroughs по заказу NASA - прямой конкурент советской БЭСМ-6. Архитектурно ILLIAC IV представлял собой мультипроцессорную систему (первоначально было задумано 64 процессора, но когда к 1972 году стоимость системы возросла до 31 миллиона долларов, остановились на 16). Он стал первым компьютером, в котором использовалась быстрая память на микросхемах. Емкость каждой микросхемы (производства Fairchild Semiconductor, основанной, кстати, Г. Муром) - 256 бит, а всего было набрано 1 Мбайт - по 64К на процессор. Быстродействие такого варианта достигало 150-200 Мфлопс. Некоторые характеристики ILLIAC IV впечатляют и сейчас: например, быстродействие подсистемы ввода/вывода - 1 Гбод. Для сравнения, быстродействие БЭСМ-6 составляло всего 1 Мфлопс, но по соотношению производительность/цена она далеко обходила своего конкурента: в БЭСМ было всего 60 тысяч транзисторов, а в «Иллиаке» только одна микросхема памяти содержала тысячу. Демонтирован ILLIAC IV был только в 1983 году.

Совершенно иную, векторную архитектуру имел еще более знаменитый Cray. Сеймур Крэй, основавший в 1972 году компанию Cray Research работал над созданием суперкомпьютеров долго - с 1958 года, сначала самостоятельно, затем в корпорации Control Data Corporation, где принимал участие в разработке машин серии Cyber. Cray-1, созданный в 1976 году, широко использовал интегральные технологии (самую быстродействующую по тем временам ЭСЛ-логику). Память Cray-1 составляла 8 Мбайт, поделенных на 16 блоков емкостью 64К 48-разрядных слов каждый, с суммарным временем доступа 12,5 нс. Имелась и внешняя память на магнитных дисках емкостью около 450 Мбайт, расширявшаяся до 8 Гбайт. Для машины был создан оптимизирующий транслятор с Фортрана, макроассемблер и специальная многозадачная ОС. Оценивать быстродействие Cray-1 трудно: на скалярных операциях с плавающей точкой он показывал 20-60 Мфлопс, но на некоторых классах задач производительность доходила до 160 Мфлопс. Следует отметить, что Cray-1 изначально создавался для коммерческих применений и был заметно дешевле, чем военные системы типа ILLIAC IV.

При подготовке статьи использованы материалы сайта Codes and Ciphers in the Second World War и сайта Charles Babbage Institute Миннесотского университета.

Юрий Ревич [revich@computerra.ru]


1 (обратно к тексту) - См., например, статьи Берда Киви на сайте «Компьютерра-онлайн» («Секретный предок» и «Криптостраницы истории»), а также: Максим Отставнов, «Почему шифры стойкие» //«Компьютерра», #305-306.
© ООО "Компьютерра-Онлайн", 1997-2024
При цитировании и использовании любых материалов ссылка на "Компьютерру" обязательна.