Архивы: по дате | по разделам | по авторам

Куда идет компьютерная техника?

Архив
автор : АНДРЕЙ КОЛЕСОВ    07.07.1997

 

Уважаемый Евгений!

Отправляю Вам свои материалы к теме номера. К сожалению, мне физически не хватило времени выложиться "по полной программе". Впрочем, с другой стороны, нужно же что-то и на будущее оставить.

Буду очень рад, если этот текст подойдет Вам.

С наилучшими пожеланиями, Андрей Колесов

Говорить о перспективах развития вычислительной техники довольно сложно. С одной стороны, мы привыкли к сумасшедшим, не имеющим аналогов в истории человечества темпам роста ее мощностей и проникновению в самые разнообразные сферы жизни человеческого общества. И в результате появляются критические письма читателей, которые сетуют на то, что новое поколение микропроцессоров всего на 10-20 процентов повышает производительность предыдущего. (Для примера, сегодня еще во всю летает пассажирский самолет Ил-62, появившийся более тридцати лет назад.) С другой стороны, действительно, даже как-то не верится, что подобные темпы смогут сохранить такими же высокими.

Прогнозы - дело тонкое

И в подтверждение этих слов я хотел бы вспомнить об одной истории двадцатилетней давности. Будучи тогда молодым выпускником МИФИ, мне пришлось прослушать на паре технических конференций один и тот же доклад, в изложении В. С. Бурцева - директора Института точной механики и вычислительной техники АН (ИТМиВТ), члена-корреспондента АН СССР (очень солидный титул по тем временам). Для справки: ИТМиВТ был ведущим разработчиком семейства БЭСМ, а в конце 70-х там заканчивалась разработка первого советского многопроцессорного суперкомпьютера "Эльбрус", предназначенного в первую очередь для нужд ВПК (точнее - ПВО страны). Этот институт не только создавал супер-ЭВМ на архитектурном уровне, но и вел разработку первых в СССР быстродействующих цифровых микросхем на переключателях тока (так называемая 500-я серия) специально для проекта "Эльбрус".

Основной темой доклада было обоснование необходимости перехода от однопроцессорных систем к многопроцессорным. Острота вопроса определялась противоборством в тот момент (разные министерства) "Эльбруса" с семейством ЕС, которое в тот момент было безусловным лидером в советском компьютерном мире.

Одним из главных аргументов было то, что возможности повышения производительности однопроцессорных систем (по крайней мере, на основе полупроводниковой интегральной технологии) уже практически исчерпаны. Обоснование этого тезиса, с весьма серьезными математическими выкладками, строилось на том, что дальнейшее повышение быстродействия микросхем связано с нелинейным увеличением энергопотребления (все это рассматривалось на уровне детального анализа физических процессов p-n перехода) и, следовательно, с перегревом полупроводникового кристалла, от которого не спасут никакие системы принудительного охлаждения. (Кстати, в то время обсуждалась возможность использования для охлаждения микросхем серьезных устройств на базе криогенных систем, вместо простых вентиляторов.) А если при этом иметь в виду проблему повышения интеграции, то есть плотности транзисторов на кристалле и, следовательно, увеличения удельного тепловыделения, то вывод был очевидным - нужно либо переходить к созданию многопроцессорных вычислительных систем, либо ждать появления цифровых приборов, работающих на иных физических принципах.

Так вот, теперь об итогах прогноза. Уже через лет десять стало ясно: они не сбылись, полупроводниковая технология стабильно развивалась, повышая и плотность интеграции активных элементов, и их быстродействие.

При каком поколении ЭВМ мы живем?

Когда-то в СССР была принята четкая классификация поколений ЭВМ. Как истинные материалисты, мы считали, что оно определяется элементной базой компьютеров. 1-е - электронные лампы, 2-е - дискретные полупроводниковые приборы, 3-е - интегральные микросхемы. Присмотритесь: первые двадцать лет эпохи ЭВМ прогресс аппаратуры определялся в основном решительной сменой физических принципов, лежащих в ее основе. А последние тридцать лет мы фактически живем в условиях одной и той же электронной технологии. Вот это и вправду удивительно.

В соответствии с прогнозами специалистов Intel можно ожидать дальнейшего роста показателей микропроцессоров и по плотности интеграции, и по быстродействию (см. например, полный вариант статьи Альберта Ю "Будущее микропроцессоров" в "ComputerWeek-Moscow" 22-23'97, стр. 50-55). Но вполне возможно, что общие темпы повышения производительности компьютеров несколько снизятся.

Здесь хотелось бы отметить, что сравнение Pentium и Pentium Pro даже сегодня является несколько преждевременным. По сути дела, Pentium Pro был экспериментальной и не очень удачной моделью (например, идея интеграции на одном кристалле самого процессора кэш-памяти и их работы на одной тактовой частоте явно не оправдалась). На самом деле, фактически рабочая история семейства P6 начинается только сейчас, с выходом Pentium II: у него есть отличный потенциал для снижения себестоимости и одновременно - повышения частоты.

Возможное снижение темпов роста производительности микропроцессоров - явление довольно понятное. Дело в том, что с точки зрения большинства вычислительных задач размерность данных в 32 бита является оптимальной. 16-разрядный процессор работал существенно быстрее 8-разрядного, а 32-разрядный - и того быстрее. Но вот переход к 64-разрядной схеме уже вряд ли принесет столь же весомый результат. Вполне возможно, что будущий Merced будет действительно очень сильно опережать Pentium II, но только на 64-разрядных тестах.

Честно говоря, я не вижу никакой особой трагедии в некотором замедлении темпов наращивания производительности компьютеров чисто механическими способами (повышением тактовой частоты). Имеется немало методов ее увеличения архитектурными методами - например, за счет параллельных вычислений, которые в последние 10-15 лет отступили на второй план.

Не говоря уже о том, что у разработчиков ПО появится стимул более критично посмотреть на свои продукты, которые превратились в пожирателей ресурсов. (Я полностью согласен с Георгием Кузнецовым, что в этом нет никаких злобных происков Microsoft & Co - просто сегодня таковы реалии компьютерного рынка.)

Считать завтра быстрее, чем сегодня. Но что считать?

Существует большая опасность в иллюзиях, будто повышение мощности компьютера чуть ли не автоматически сможет решить все наши проблемы. Действительно, существует ряд задач, где увеличение производительности дает очень высокий эффект (например, графическая обработка данных). Но немало и таких, где такого результата уже давно не наблюдается.

Вот что написал недавно мой приятель и бывший коллега (это я сменил профессию), доктор наук 39 лет, который всю сознательную жизнь занимается исследованиями в области математических моделей геофильтрации, сейчас в университете Беркли (Калифорния): "Десять лет нам казалось: поставьте нам на стол 286-й (386-й, 486-й) компьютер, и мы тогда... Сегодня у меня на столе стоит рядовой ПК, который по совокупной мощности равен двум ВЦ Минмясопрома, куда я хаживал в молодости на четыре часа в неделю. Но не то что пропорционального эффекта - пожалуй, и логарифмической пропорции не наблюдается..."

Эта проблема во многих областях, особенно в научных исследованиях, стала довольно заметной еще десять-пятнадцать лет назад: оказалось, что адекватность математических моделей определяется не ростом числа элементов, а соответствием действительности самой теории.

Вот над чем было бы полезно поразмышлять.

© ООО "Компьютерра-Онлайн", 1997-2024
При цитировании и использовании любых материалов ссылка на "Компьютерру" обязательна.