Мегагигасердцы
АрхивВыпуск процессора Pentium 4 с частотой 2,2 ГГц отложен до начала будущего года. Много это или мало, если возраст всей индустрии исчисляется тремя десятками лет? Причем за это время тактовые частоты процессоров скакнули с двух с небольшим мегагерц у знаменитого Z80 до двух с небольшим, но уже гигагерц.
Выпуск процессора Pentium 4 с частотой 2,2 ГГц отложен до начала будущего года. Много это или мало, если возраст всей индустрии исчисляется тремя десятками лет? Причем за это время тактовые частоты процессоров скакнули с двух с небольшим мегагерц у знаменитого Z80 до двух с небольшим, но уже гигагерц. Если же вспомнить первый однокристальный микропроцессор Intel 4004, работавший на частоте «всего» 740 кГц, скачок станет еще заметнее. А сейчас «длина волны» уже подбирается к 10 см. Оставим в стороне вопрос о том, что произойдет, когда частоты поднимутся еще на порядок (при сохранении нынешних темпов это должно случиться в ближайшие десять лет), а попробуем понять, зачем потребовалось это бряцание мощью и куда оно может нас завести.
Измерять производительность лишь тактовой частотой неправомерно. Тот же Intel 4004, подай на него хоть 50 ГГц, и в подметки не будет годиться даже безнадежно устаревшим ныне 486-м. Дело еще и в наборе инструкций, и в разрядности процессора. Но прежде чем перейти к анализу положения нынешнего и попытке предсказать дальнейшее развитие ситуации, заглянем в историю и разберемся с причинами столь бурного успеха персональных компьютеров. Как ни странно, он обусловлен стечением целого ряда обстоятельств, подчас курьезных, подчас нелепых, - но если бы не они, вычислительная техника могла пойти совершенно иным путем.
Первые доступные и удобные персональные компьютеры, выпущенные компанией IBM в 1981 году (отчего их клоны долго именовались в наших прайс-листах IBM-совместимыми), были основаны на процессорах Intel 8086 - далеко не лучших на тот момент. Инженеры IBM предпочли бы процессор Motorola 68000, но компании принадлежали права на производство 8086 в обмен на право Intel на ЦМД-память разработки IBM, поскольку Голубой Гигант использовал процессоры 8086 в своем текстовом процессоре Displaywriter. Кроме того, в производстве можно было использовать недорогие компоненты типа 8085, а компоненты 68000 были распространены не так широко.
Далее, не последнюю роль сыграли и проблемы с операционной системой для нового ПК. В то время стандартной операционной системой считалась CP/M. Однако условия, предъявленные IBM, пришлись не по вкусу Гэри Килдоллу (Gary Kildall), основателю компании Digital Research, которой принадлежали права на CP/M, и IBM предложила фирме Microsoft написать новую ОС (вернее, переделать менее распространенную QDOS, приобретенную Microsoft у компании Seattle Computer Products и в конце концов переименованную в MS-DOS).
Вот это-то сочетание - процессоры Intel и операционная система Microsoft - и определило эволюционный, а не революционный характер дальнейшего развития персональных компьютеров, обусловленный прежде всего зависимостью Microsoft Windows от определенной архитектуры процессора.
Тогда же была заложена главная идеологическая ошибка: дело в том, что процессор использует всю свою мощь только в «пиковых» режимах, изрядную часть времени непроизводительно простаивая - недаром же такую популярность приобрели распределенные вычисления, использующие этот нереализованный ресурс.
Правда, и здесь все было не столь однозначно: альтернативные архитектуры, востребованные другими секторами рынка, продолжали успешно развиваться, порождая порой самые неожиданные решения, как мертворожденные, к которым, пожалуй можно отнести попытку Sun Micrtosystems выпустить Java-процессор, так и весьма перспективные, подобные Transmeta Crusoe, впервые «оторвавшемуся от железа» и способному эмулировать практически любой другой процессор (в том числе и Java-процессор). Стоит упомянуть и о совершенно неожиданном союзе в лице IA-64, где Intel пытается сейчас «поженить» RISC и VLIW, добиваясь максимальной эффективности процессоров.
Однако все это не объясняет, зачем же нужны невероятные вычислительные мощности? В принципе, для самого упрощенного ответа на этот вопрос достаточно сравнить аскетичную, «стройную» MS-DOS и ненасытную Windows XP, только что появившуюся на прилавках. Если для работы в первой без какой-либо программной оболочки наподобие Norton Commander требовалась не только квалификация, но и умение системно мыслить, то вторую запросто освоит почти любой начинающий пользователь. Хорошо это или плохо - вопрос скорее риторический. Заострим внимание на другом. Этот пример хорошо показывает, что компьютер все больше переходит в разряд обычной бытовой электроники со всеми вытекающими последствиями: во-первых, воспользоваться им без труда должен любой человек, как утюгом или телевизором, а во-вторых, он должен применяться везде, где подходит…
Здесь действует закон Фьюбини: поначалу люди используют технику, чтобы делать то, что они делают сейчас, только быстрее и лучше. Затем постепенно начинают примерять ее к чему-то новому. Новое воздействует на образ жизни и деятельности. Новый стиль жизни и деятельности меняет общество, а со временем и саму технику.
Весьма яркой иллюстрацией этого принципа могут послужить беспроводные технологии: если поначалу они предназначались только для телефонной связи, то на следующем этапе начали подменять собой кабели в ЛВС, а теперь вообще превращают компьютеры в набор отдельных, вроде бы ни к чему не подключенных блоков: беспроводные клавиатуры, «бесхвостые» мыши, плоскопанельные мониторы с перьевым вводом... Отсюда и такое сходство концепт-моделей ПК совсем не связанными между собой компаниями - Intel и Apple: стройный системный блок, экран-«таблетка», ни к чему не подключенная клавиатура... А дизайн устройств все больше делает их предметами интерьера, все дальше уводя от первоначальной строгой функциональности и унификации.
Вот тут-то и выплывает на свет новая роль ПК: он уже перестал быть вычислительной машиной; для сугубо математических нужд их использует лишь ничтожное число пользователей, а в сознании остальных компьютер из калькулятора-переростка превратился в помесь гипертрофированной пишущей машинки с аудиовидеоцентром. Вот здесь вроде бы и следовало искать нужду в гигагерцах: развитый графический интерфейс, множество мультимедийных приложений... Но в том-то и дело, что эти функции уже сняты с центральных процессоров и возложены на процессоры специализированные! Равно как и ряд других функций понемногу перекладывается на узкоспециализированные устройства - в качестве органайзера удобнее использовать КПК, для веб-серфинга - веб-планшет, для игр - приставку (хотя новейшие модели таковых по мощности уже не уступают «нормальным» компьютерам, зато имеют перед ними существенное преимущество: они «заточены» специально под игры).
С другой стороны - не без влияния Интернета, - появляется возможность отделить процессор от устройства, превратив последнее в терминал. Это преимущество ярко проявляется в беспроводной связи, именно поэтому концепция ASP будет востребована в самое ближайшее время, позволяя найти компромисс между относительно низкой ценой терминала (пока что его роль играют сотовые телефоны и некоторые модели КПК, но вскоре следует ожидать появления и других устройств) и высокой сложностью выполняемой работы. Тогда, может быть, дело в серверных приложениях? Не в них ли причина накрутки гигагерцев: собственно говоря, нужны они не клиенту, а серверу, вынужденному справляться с большими потоками данных, причем весьма неоднородных, - и в ближайшие годы нагрузка на Сеть будет непрерывно возрастать: по оценкам IDF трафик удваивается каждые 9 месяцев. Относительно малое распространение КПК объясняется тем, что они слабо задействованы в корпоративном секторе, однако с продвижением онлайн-сервисов ситуация быстро изменится.
Но теперь место для серверов нашлось и в быту. Недаром же Intel так активно продвигает концепцию «цифрового дома» (см. врез на стр. 26), где центральный компьютер играет прежде всего роль сервера для бесчисленного множества интеллектуальных устройств: холодильника, ведущего строгий учет продуктов и по мере надобности заказывающего через Интернет те, чьи запасы исчерпываются; системы охраны, музыкального центра, стиральной машины - да чуть ли не тостера, выжигающего на гренках прогноз погоды на сегодня! И опять-таки: нет, для всех этих функций гигагерцы не нужны, потому что потоки данных сравнительно ничтожны, и даже если сервер применяется для пересылки потокового видео, ограничивающим фактором будет не обработка информации, а ширина канала.
Так кому же все-таки реально требуется такая производительность? Ну, разумеется, серверам - не только в Интернете, но и корпоративных сетях. Профессионалам, имеющим дело с графикой - от разработчиков игр до издательств и киностудий. Ученым, обрабатывающим огромные массивы данных, процессам и производствам, требующим контроля и управления в реальном времени... Пожалуй, все. Рядовому пользователю вполне комфортно в зоне ниже 1 гигагерца. Правда, ситуацию может изменить дальнейшее развитие пользовательского интерфейса, к которому сейчас усиленно стараются «прикрутить» голосовой ввод. И отнюдь недаром изрядная часть разработчиков именует свои системы «искусственными интеллектами» - ведь по-настоящему продвинутая система голосового ввода должна уметь отличить диктовку от команды и все это вместе взятое - от простых разговоров, не относящихся к компьютеру. Правда, в самой этой идее все-таки заложен серьезный изъян: попробуйте-ка представить, что будет, если в офисе все работники будут день-деньской разговаривать с компьютерами вместо того, чтобы молча стучать по клавишам...
Тем более, что взвинчивать гигагерцы до бесконечности не удастся, и приближение физических пределов частоты может загнать индустрию в тупик, если не задуматься об изменении идеологии уже сейчас.
[i42130]