Архивы: по дате | по разделам | по авторам

Горячие головы

АрхивКолонка Золотова
автор : Евгений Золотов   31.03.2004

Обратите внимание на поведение микропроцессорных производителей: компании перестраивают свою работу, готовя большой сюрприз. В ближайшие годы вместо наращивания тактовых частот акцент будет сделан на оптимизации внутренней структуры чипов. А вызвано это физическим барьером, на который наткнулись и Intel, и AMD, и другие компании.

Тактовая частота микропроцессоров с момента появления первого такого чипа и до недавнего времени оставалась едва ли не самой важной характеристикой, напрямую и единственно демонстрировавшей истинную производительность компьютерных "сердец" и позволявшей сравнивать такие продукты между собой. Четырехразрядный Intel 4004, увидевший свет в 1971 году и работавший на 740 кГц, конечно, положил начало мегагерцевой гонке лишь номинально, но уже десятилетие спустя, в 1982 году, чип i286 был выпущен в двух вариантах с разными тактовыми частотами (6 и 8 МГц). И началось. За последующие два с лишним десятка лет компания, породившая на свет программируемый микрочип, подняла тактовые частоты своих продуктов в 500 раз: к концу нынешнего года нам предстоит увидеть и опробовать Pentium 4, работающий на 4 ГГц. Конечно, не одни лишь мегагерцы двигали массовую компьютерную индустрию: были и разные платформы, были и резкие эволюционные скачки от одной разрядности к другой, но, в общем и целом, всё многообразие RISC- и CISC-чипов, 16-, 32- и даже 64-разрядных процессоров подчинялось всё той же тенденции: рост тактовых частот следовал эмпирическому правилу, сформулированному одним из основателей Intel - закону Мура, декларирующему удвоение сложности микропроцессоров каждые полтора года.

Последние два года, однако, обозначили явный перелом в четвертьвековой тенденции. AMD, сменившая упоминание тактовой частоты в названиях своих микропроцессоров на сравнительный рейтинг производительности и добившаяся на этом пути успеха (семейство Athlon XP), теперь поддержана Intel, которая также намерена, если и не исключить частотный параметр из маркировок, то уж точно переместить акцент с него на некое "процессорное число", по сути, тот же самый сравнительный рейтинг. Что заставило электронных гигантов "почесаться" и изменить своим традициям? Пусть для AMD это был рекламный шаг - способ, сойдя с трека мегагерцевой гонки, обойти конкурента на повороте. Но почему Intel? Официальная мотивация - путаница, возникшая в последнее время в головах покупателей: в их сознании не укладывается тот факт, что микропроцессор с меньшей тактовой частотой или порядковым номером порой может быть производительней своего "старшего" брата.

Действительно, параметр тактовой частоты к настоящему моменту потерял свою универсальность и доминирующую позицию: реальная производительность любого современного микропроцессора при прочих равных условиях зависит от множества факторов, среди которых, помимо собственно частоты процессорного ядра, числятся пропускная способность шин, объём встроенной кэш-памяти, умение одновременно выполнять несколько процессов (Hyper-Threading от Intel, двуядерный UltraSPARC IV от Sun Microsystems).

Изюминка, однако, в том, что и сегодня тупое наращивание тактовой частоты центрального микропроцессора в большинстве случаев остаётся самым эффективным способом поднять общую производительность вычислительной системы. Оптимизация процесса исполнения команд и интеграция прежде периферийных компонентов (как та же кэш-память) в кристалл чипа, позволяют повышать скорость вычислений лишь до определённого предела, тогда как рост тактовой частоты ведёт к стабильному пропорциональному росту, а что самое приятное, запас традиционной микроэлектроники по частотному режиму ещё далеко не выбран (по крайней мере, до 100 ГГц трудностей с увеличением частоты тактовых генераторов не предвидится). Так почему даже Intel всё же решила сместить фокус внимания покупателей с параметра частоты?

Если проанализировать сообщения с крупных конференций микроэлектронных разработчиков (IDF, ISSCC и др.), ответ становится очевиден: микропроцессорную индустрию беспокоит проблема тепловыделения. В последние два года не было, наверное, ни одной конференции, на которой не обсуждался бы вопрос отвода тепла, в избытке выделяемого микропроцессорами. Повышение частоты требует увеличения подводимой к процессору энергии, часть которой неизбежно идёт на бесполезный нагрев окружающего пространства, и снизить тепловыделение инженеры не в силах, поскольку сталкиваются с ограничениями физического характера. Penitum 4, работающий на частоте в 3,2 ГГц, выделяет около сотни ватт. При сохранении прежнего темпа роста тактовых частот, уже через три года в персоналки придётся ставить микрохолодильники и жидкостные системы, а через пять лет ни одна из существующих сегодня систем охлаждения будет не в состоянии предотвратить расплавление чипа (не подумайте, что это преувеличение: об этом говорят и в Intel, и в HP, и в других компаниях). Таким образом, оптимизация архитектуры с целью изыскания резервов для дальнейшего наращивания производительности без увеличения тактовой частоты - единственно приемлемый для гигантов выход из сложившейся ситуации. Ну, а к моменту, когда девять десятых персонального вычислительного парка будет основано на многоядерных, многопотоковых, ультрасуперскалярных чипах, возможно, подоспеют и новые решения для охлаждения горячих электронных "сердец" (так, кулеры на основе углеродных нанотруб обещают быть в сто раз эффективнее металлических). И уж тогда всех нас точно ждёт новый виток мегагерцевой гонки.

© ООО "Компьютерра-Онлайн", 1997-2024
При цитировании и использовании любых материалов ссылка на "Компьютерру" обязательна.