Архивы: по дате | по разделам | по авторам

Тронный залп

Архив
автор : Марат Зиннатов   26.04.2004

Наверное, не стоит напоминать, как развивались события вокруг Nvidia в последние пару не слишком удачных для нее лет.

Наверное, не стоит напоминать, как развивались события вокруг Nvidia в последние пару не слишком удачных для нее лет. Да, было потеряно безоговорочное лидерство. Да, пошатнулась репутация в связи с заточками под популярные бенчмарки. Но никто, разумеется, не предполагал, что это конец, что такой крупный игрок так просто сдастся и уйдет на второй план.

Как всегда, задолго до премьеры слухи из всевозможных источников раскрывали некие подробности архитектуры очередной революции от Nvidia под кодовым именем NV40. По сложившейся традиции качественные изменения происходят в чипах с порядковым номером, кратным десяти. В свое время это были GeForce256, GeForce 3, GeForce FX 5800. А теперь нам представили GeForce 6800 Ultra (забегая вперед, скажу, что обычный GeForce 6800 отличается от варианта Ultra даже архитектурно).

Презентация, как и в случае с NV30, прошла пышно. Разговоров о наступлении эры кинематографического качества изображения в играх поубавилось (или маркетологи посчитали, что еще семейство GeForce FX добилось декларируемой цели?). Теперь нам говорят о «приближении качества к фотореализму». Строго говоря, этот аргумент можно было выдвигать с момента зарождения видеокарт (даже не ускорителей), так как каждое улучшение было шагом вперед на пути к тому самому реализму.

Ну да ладно, оставим маркетологов в покое. Выбор нужно делать, опираясь не на рекламные слоганы, а на технические данные (см. таблицу).

Чип Ultra производится по 0,13-мкм технологическому процессу, как и предшественник. Однако теперь изготовление GPU доверили гиганту IBM. А посмотрите на количество транзисторов! 222 миллиона! Чтобы оценить эту цифру, достаточно сравнить ее с показателями GeForce FX 5950 Ultra и Radeon 9800 XT. Преимущество над последним двукратное! Правда, оборотной стороной медали является повышенное энергопотребление, тепловыделение и сложность производства.

Да-а-а… Говорили мы про требования к питанию во времена выхода Radeon 9700, GeForce FX 5800 Ultra… Потом Volari Duo удивили наличием сразу двух разъемов внешнего питания. Но NV40 не просто требует подключения двух дополнительных кабелей (только для версии Ultra). Они к тому же должны быть свободны. Что, в общем, вполне логично. Если в паре с видеокартой работает винчестер, проблемы с качеством картинки практически обеспечены. Особенно при использовании маломощных блоков питания. А для GeForce 6800 Ultra Nvidia настоятельно рекомендует БП мощностью от 480 Вт!

Скорее всего, можно будет работать и при более скромных показателях. В свое время ради интереса я запускал GeForce FX 5800 Ultra на стареньком БП мощностью всего 230 Вт, при рекомендуемой — 400 Вт. Стабильностью, конечно, не пахло. Компьютер даже загружался через раз. А если бы я поставил два жестких диска и включил на запись CD-RW, ни о какой работе и речи бы ни шло.

Вы спросите, а как же PCI-Express от Intel? Ведь одним из достоинств этой шины, которым ускорители могут реально воспользоваться уже сегодня, является как раз передача большей мощности по питанию. Увы, GeForce 6800 Ultra, похоже, переплюнул даже способности x16 (около 70 Вт)! Так что, об этом основном доводе в пользу перехода современных видеоускорителей на новую шину можно забыть. Неудивительно, что представители Nvidia практически не затронули эту тему в презентации.

Со времен GeForce FX 5800 Ultra охлаждение топовых продуктов Nvidia стало горячей (уж простите за каламбур) темой. Правда, такого кошмара, как с NV30, больше не было, но все равно ATI явно выигрывала и по шуму, и по размерам, и по влиянию на температуру в корпусе системного блока. И снова референс-дизайн предлагает использовать габаритные пассивные элементы в системе охлаждения. В корпусе занимается два слота (хотя и только одна щель на задней панели), из-за чего первый PCI-разъем на материнской карте становится недоступен. Впрочем, так же было и с NV35/38, пока ASUSTeK не выпустила двухвентиляторную систему охлаждения с относительно тонким радиатором, что решило проблему. Один из вариантов референс-дизайна NV40 был однослотовым по высоте, и все же в Nvidia решили пожертвовать габаритами во имя меньшего шума. Хочется написать — во имя тишины, но увы!

Сложность производства чипа, состоящего из 222 млн. транзисторов, приведет к большому проценту брака, что, разумеется, повысит цену видеокарты. Однако hi-end уже давно далек от себестоимости. При небольших объемах продаж он выступает визитной карточкой фирмы-производителя. И хотя в цену закладываются стоимость компонентов, брак, маркетинг и, конечно же, затраты на разработку новой архитектуры, немалую долю составляет оплата нашего имиджа. Такую карту можно сравнить даже не с представительской машиной, например Mercedes класса S, — это уже спортивный суперкар. Только более утилитарный. У видеокарты нет проблем с плохими дорогами (если не вспоминать о питании), а потому щеголять ею можно и в деревне.

О целесообразности использования нового типа памяти говорить пока рано. Лучше посмотреть ее в действии. Хотя уже сейчас ясно, что добиться потрясающей пиковой пропускной способности в 35,2 Гбайт/с со старой DDR было бы тяжело.

По сравнению с GeForce 6800 количество пиксельных и вершинных шейдеров в новом чипе удвоилось. Кроме того, GeForce 6800 Ultra поддерживает свежую ревизию API DirectX 9.0c. Соответственно версия шейдеров сменилась на 3.0. Наверно, не стоило присваивать ей полноценный новый номер, при том, что сама библиотека вроде бы только подновилась. Однако изменения в спецификациях шейдеров сопоставимы с разницей между версиями 1.0 и 2.0.

Рассказывать о том, сколько теперь доступно регистров, какова максимальная длина программы и так далее, я не буду. Большинству читателей, использующих видеокарту для игр, эти подробности ничего не скажут. Программисты же могут обратится к специализированному разделу сайта Microsoft или Nvidia.

Как всегда в таких ситуациях, хочется напомнить, что преимущество новых спецификаций владельцы NV40 почувствуют только после появления соответствующего ПО. На сокращение времени создания эффектов с использованием новых функций и направлены основные усилия разработчиков как спецификаций (чем меньше ограничений, тем проще творить), так и высокоуровневых языков программирования шейдеров.

Для пользователей интерес представляет встроенный в GPU видеопроцессор. Он возьмет на себя работу по кодированию/декодированию в популярные форматы MPEG1, 2 и 4, а также новый WMV9. Вывод изображения в формате HDTV и некоторые другие функции по работе с видео тоже можно переложить на плечи ускорителя. Это уже значительно лучше, чем оставшийся практически незаметным VIDEOSHADER у ATI. В современном компьютере центральному процессору найдется работа, а видеозадачи следует оставить специализированным чипам.

Некоторые источники уже опубликовали первые сведения о производительности GeForce 6800 Ultra. Поскольку использовались разные платформы и методики тестирования, сравнивать показатели некорректно. Но все они подтверждают заметный отрыв как от GeForce FX 5950 Ultra, так и от Radeon 9800 XT. Приведу наиболее интересные цифры, полученные на Tom’s Hardware. В игре «Unreal Tournament 2004» при разрешениях 1024х768, 1280х1024 и 1600х1200 NV40 показал практически один и тот же результат — 103 FPS, что говорит о недостаточной мощности центрального процессора ( а ведь это P4 3,4 ГГц!). Более того, результат не изменился и при включении четырехкратного полноэкранного сглаживания в первых двух разрешениях, и только в максимальном он снизился до 96 FPS. С анизотропной фильтрацией дела обстоят хуже, но тоже впечатляюще. При 1600х1200 падение производительности по сравнению с «чистым» режимом составило всего 25%, тогда как GeForce FX 5950 Ultra и Radeon 9800 XT потеряли все 50%.

Революция, несомненно, удалась. По сравнению с предыдущим поколением произошло немало и количественных, и качественных изменений. Вскоре мы увидим, насколько удачно воплотились эти идеи в «железе».

Впрочем, на новинку Nvidia у ATI уже готов ответ (R420, он должен быть представлен в этом месяце). Называться топовая карта будет Radeon X800 XT. С поддержкой DirectX 9.0c пока нет ясности. Судя по слухам, производительность шейдеров третьей версии совершенно недостаточна, а потому возможно, что их поддержка не будет даже заявлена. Но по остальным параметрам карты очень близки. Те же шесть блоков вершинных шейдеров, шестнадцать конвейеров рендеринга, 256-разрядная шина DDR3-памяти. Рабочие частоты пока точно не известны. Ожидается 500 МГц для ядра и 1 ГГц для памяти. Как видите, на бумаге NV40 и R420 достойны друг друга. Так что пока я воздержусь от излишне восторженных оценок GeForce 6800 Ultra.


GDDR2, GDDR3

Процессор NV40 использует GDDR3 — самую быструю из доступных сегодня видеопамять. В чем же ее отличие от (G)DDR, GDDR2? Прежде всего, и GDDR2, и GDDR3 — разновидности общей концепции памяти DDR2. Любая DDR2-память передает 4n бит за такт (в отличие от 2n DDR), в ней применяется внутрикристальная терминация линий (on-die termination), в отличие от внешней терминации DDR. Это относится и к памяти для универсальных процессоров (Intel, AMD и т. д.), так и к ее графическим разновидностям — GDDR2, GDDR3. Передача 4n бит за такт позволяет поднять скорость передачи данных вдвое при той же частоте ядра по сравнению с уходящим стандартом DDR. Внутрикристальная терминация имеет решающее значение для обеспечения целостности сигналов на высоких скоростях передачи данных.

Вдобавок и GDDR2, и GDDR3 по сути являются DDR2 с интерфейсом и упаковкой, спроектированными специально для работы на максимально возможных частотах и для коротких шин. При этом отличия GDDR2 от «обычной» DDR2 почти полностью заключаются в упаковке, а GDDR3 — специализированная память, использующая интерфейс псевдооткрытого стока, иной способ стробирования и другой метод подъема мощности. Интерфейс с псевдооткрытым стоком (Pseudo-Open Drain Logic, PODL) обеспечивает лучшее качество сигналов при работе на частотах около 1 ГГц и выше по сравнению со стандартным интерфейсом SSTL. Дополнительно GDDR3 каждые 70 мс автоматически перекалибровывает импеданс шинного формирователя, чтобы подстраиваться под изменения температуры и напряжения. Перекалибровка отнимает меньше одного такта синхронизации. В итоге все усовершенствования приводят к повышению частоты синхронизации с 500 МГц для GDDR2 (и «обычной» DDR) до 800 МГц для GDDR3. Рост частоты и, как следствие, пропускной способности — главная цель при разработке GDDR3, именно в этом она намного опережает неудачную, в общем-то, GDDR2 — ведь самые быстрые образцы «старой» DDR успешно работают на предельных для нее 500 МГц. Еще один плюс — снижение питающего напряжения ядра памяти с 2,5 В до 1,8 В, что очень полезно для мощной видеокарты, работающей в достаточно жестких температурных условиях. Латентность GDDR3 несколько выросла, но это не так уж важно для графических приложений, обычно работающих с большими блоками памяти.

В таблице приведены спецификации фирмы Samsung на чипы GDDR2 и GDDR3 SDRAM, используемой с видеопроцессорами Nvidia. Samsung K4N26323AE-GC20 — как раз та «проблемная» GDDR2-память GeForce FX 5800 Ultra c повышенным тепловыделением. K4J55323QF-GC12 — самая быстрая память GDDR3 от Samsung; GeForce 6800 Ultra использует более медленную версию с частотой синхронизации 600 МГц. В целом GDDR3 соответствует сегодняшним запросам 3D-процессоров и даже имеет 33-процентный запас по наращиванию частоты. Но похоже, после выхода ATI R420 и очередной схватки за лидерство в 3D-графике дополнительная пропускная способность будет выбрана до капли.


© ООО "Компьютерра-Онлайн", 1997-2019
При цитировании и использовании любых материалов ссылка на "Компьютерру" обязательна.