Архивы: по дате | по разделам | по авторам

Nvidia GeForce 6800, он же долгожданный NV40, он же со сверхпамятью GDDR3, он же с гиперпотребностью в блоке питания на 480 Вт...

АрхивВидео
автор : Марат Зиннатов   21.04.2004

GeForce 6800 Ultra (он же NV40) — революция, в которой задействовано 222 миллиона транзисторов и погибнет, по-видимому, не один детский блок питания...

Наверное, не стоит в очередной раз повторять, как развивались события вокруг NVIDIA в последние пару не слишком удачных для нее лет. Да, было потеряно безоговорочное лидерство. Да, пошатнулась репутация в связи с заточками под популярные бенчмарки. Но никто из серьезных людей не думал, что это конец, что такой крупный игрок так просто сдастся и уйдет на второй план.

Как всегда, задолго до премьеры, слухи из всевозможных источников раскрывали некие подробности архитектуры очередной революции от NVIDIA под кодовым именем NV40. По сложившейся традиции качественные изменения происходят в чипах с порядковым номером кратным десяти. В свое время это были GeForce256, GeForce 3, GeForce FX 5800. А теперь нам представили GeForce 6800 Ultra (забегая немного вперед, скажу, что обычный GeForce 6800 от варианта Ultra отличается даже архитектурно).

GeForce 6800 Ultra: очередная революция от NVIDIA под кодовым именем NV40.

Презентация, как и в случае с NV30, прошла пышно, хотя и не столь помпезно. Разговоров о наступлении эры кинематографического качества изображения в играх поубавилось (или маркетологи посчитали, что еще семейство GeForce FX добилось декларируемой цели?!). Теперь нам говорят о «приближении качества к фотореализму». Строго говоря, этот аргумент можно было выдвигать с момента зарождения видеокарт (даже не ускорителей), так как каждое улучшение было шагом вперед на пути к тому самому реализму.

Ну да ладно, оставим маркетологов в покое. В идеале, их дела нас касаться не должны. Свой выбор стоит делать, опираясь не на рекламные слоганы, а на реальную обстановку. Основу которой формируют, хочется надеяться, технические данные (см. табл. 1).

Таблица. 1. Основные технические характеристики видеоускорителей

GeForce
6800 Ultra

GeForce FX
5950 Ultra

Radeon
9800 XT

Технологический процесс, мкм

0,13

0,13

0,15

Число транзисторов, млн.

222

130

110

Рабочая частота GPU, МГц

400

475

410

Тип памяти

DDR3

DDR

DDR

Шина памяти, бит

256

256

256

Рабочая частота памяти, МГц

1100

950

730

Пиковая пропускная способность памяти, Гбайт/с

35,2

30,4

23,4

Блоков вершинных шейдеров

6

3

4

Версия вершинных шейдеров

3.0

2+

2.0

Конвейеров вершинных шейдеров

16

8

8

Версия пиксельных шейдеров

3.0

2+

2.0

Версия DirectX

9.0c

9+

9.0

Чип производится по 0,13-мкм технологическому процессу, как и предшественник. Однако теперь задачу изготовления GPU доверили гиганту IBM. А посмотрите на количество транзисторов! 222 миллиона! Чтобы понять, насколько это много, достаточно сравнить с показателями GeForce FX 5950 Ultra и Radeon 9800 XT. Преимущество над последним двукратное! Оборотной стороной этой медали является повышенное энергопотребление, тепловыделение и сложность производства.

Чип, состоящий из 222 млн. транзисторов!

Да-а-а. Говорили мы про требования к питанию во времена выхода Radeon 9700, GeForce FX 5800 Ultra… Потом Volari Duo удивили наличием сразу двух разъемов внешнего питания. Но NV40 не просто требует подключения двух дополнительных кабелей (только для версии Ultra). Они к тому же должны быть свободны. Что, в общем, вполне логично. Если в паре с видеокартой работает винчестер, проблемы с качеством картинки практически обеспечены. Особенно при использовании маломощных блоков питания. А для GeForce 6800 Ultra NVIDIA настоятельно рекомендует использовать БП мощностью от 480 ватт!

Скорее всего, можно будет работать и при более скромных показателях. В свое время, ради интереса я запускал GeForce FX 5800 Ultra на стареньком БП мощностью всего 230 ватт, при рекомендуемой — 400 ватт. Стабильностью, конечно, не пахло. Компьютер даже запускался через раз. А если бы я поставил туда два жестких диска и включил на запись CD-RW, ни о какой работе и речи бы ни шло.

И все же есть еще один аргумент в пользу мощного блока питания. Если два кабеля занимает видеокарта, минимально необходимое количество «хвостов», идущих от блока становится равным трем. Этого количества хватит только в случае использования одного винчестера и одного CD/DVD-ROM. И все! Больше ничего подключить нельзя. Таким образом, минимальный комфорт обеспечит лишь наличие четырех кабелей питания. А это за редким исключением наблюдается только у мощных БП.

Тепловыделение тоже достойно отдельного разговора. Со времен появления GeForce FX 5800 Ultra охлаждение топовых продуктов NVIDIA стало «горячей» (уж простите, за каламбур) темой. Правда, такого кошмара как с NV30 больше не было, но все равно ATI явно выигрывала и по шуму, и по размерам, и по влиянию на температуру в корпусе. И снова референс-дизайн предлагает использование габаритных пассивных элементов в системе охлаждения. В корпусе занимается два слота, и, естественно, первый PCI-слот на материнской карте становится недоступен. Впрочем, так же было и с NV35/38. Однако ASUS выпустил тогда двухвентиляторную систему охлаждения собственного дизайна с относительно тонким радиатором, что решило проблему. Надо полагать, на этот раз мы увидим нечто подобное. Тем более, что один из вариантов референс-дизайна NV40 был однослотовым (то есть карта занимает всего одну стандартную щель на задней стенке корпуса), и все же в NVIDIA решили пожертвовать габаритами во имя меньшего шума. Хочется написать, во имя тишины, но, увы! Читать дальше >>>

Сложность производства чипа, состоящего из 222 млн. транзисторов, приведет к большому количеству брака. Все это плохо сказывается на цене конечной видеокарты. Однако, hi-end уже очень давно далек от себестоимости. При небольших объемах продаж, он выступает визитной карточкой фирмы-производителя. И хотя в цену закладываются стоимость компонентов, брак, маркетинг, и, конечно же, затраты на разработку новой архитектуры, немалую долю составляет оплата нашего имиджа. Такую карту можно сравнить даже не с представительской машиной, например, Mercedes класса S. Это уже спортивный супер-кар. Только более утилитарный. У видеокарты нет проблем с плохими дорогами (если не вспоминать про питание), а потому щеголять ею можно и в деревне.

О целесообразности использования нового типа памяти говорить пока рано. Лучше посмотреть ее в действии. Хотя уже сейчас понятно, что добиться потрясающей пиковой пропускной способности в 35,2 Гбайт/с со старой DDR было бы очень тяжело.

Видеопамять GDDR2, GDDR3

Процессор NV40 использует GDDR3 — самую быструю доступную сегодня видеопамять. В чем же ее отличие от (G)DDR, GDDR2? Прежде всего, и GDDR2, и GDDR3 — разновидности общей концепции памяти DDR2. Любая DDR2-память передает 4n битов за такт (в отличие от 2n DDR), в ней применяется внутрикристальная терминация линий (on-die termination), в отличие от внешней терминации DDR. Это относится и к памяти для универсальных процессоров (Intel, AMD и т.д.), так и к ее графическим разновидностям — GDDR2, GDDR3. Передача 4n битов за такт позволяет поднять скорость передачи данных вдвое при той же частоте ядра по сравнению с уходящим стандартом DDR. Внутрикристальная терминация имеет решающее значение для обеспечения целостности сигналов на высоких скоростях передачи данных.

Далее, как было сказано выше, и GDDR2, и GDDR3 по сути являются DDR2 с интерфейсом и упаковкой спроектированными специально для работы на максимально возможных частотах и для коротких шин. При этом отличия GDDR2 от «обычной» DDR2 заключаются почти полностью в упаковке, а GDDR3 — более специализированная память, использующая интерфейс псевдооткрытого стока, иной способ стробирования и другой метод подъема мощности. Интерфейс с псевдооткрытым стоком (PODL, Pseudo-Open Drain Logic) обеспечивает более высокое качество сигналов при работе на частотах около 1 ГГц и выше по сравнению со стандартным интерфейсом SSTL. Дополнительно, GDDR3 каждые 70 мс производит автоматическую рекалибровку импеданса шинного формирователя, чтобы подстраиваться под изменения температуры и напряжения. Рекалибровка отнимает менее одного такта синхронизации. В итоге все усовершенствования приводят к повышению частоты синхронизации с 500 МГц для GDDR2 (и «обычной» DDR) до 800 МГц для GDDR3. Рост частоты и, как следствие, пропускной способности — основная цель при разработке GDDR3, где она намного опережает неудачную, в общем-то, GDDR2 — ведь наиболее быстродействующие образцы «старой» DDR вполне успешно работают на предельных для нее 500 МГц. Еще один положительный момент — снижение питающего напряжения ядра памяти с 2,5 В до 1,8 В, что очень полезно для мощной видеокарты, работающей в достаточно жестких температурных условиях. Латентность GDDR3 несколько выросла, но это не так уж важно для графических приложений, обычно работающих с большими блоками памяти.

Cпецификации Samsung на чипы GDDR2 и GDDR3 SDRAM, используемой с видеопроцессорами nVidia

Чип

K4N26323AE-GC20

K4J55323QF-GC12

Тип памяти

GDDR2

GDDR3

Макс. частота, МГц

500

800

Макс. скорость передачи данных, Mбит/с на вывод

1000

1600

Интерфейс

SSTL_18

PODL_18

Напряжение ядра, В

2,5

1,8

CAS latency

5-7

5-9

В таблице приведены спецификации Samsung на чипы GDDR2 и GDDR3 SDRAM, используемой с видеопроцессорами nVidia. Samsung K4N26323AE-GC20 — как раз та «проблемная» GDDR2-память GeForce FX 5800 Ultra c повышенным тепловыделением. Samsung K4J55323QF-GC12 — наиболее быстродействующая память GDDR3 от Samsung, GeForce 6800 Ultra использует более медленную версию с частотой синхронизации 600 МГц. В целом, GDDR3 вполне соответствует сегодняшним запросам 3D-процессоров и даже имеет 33-процентный запас по наращиванию частоты. Но, похоже, после выхода ATI R420 и очередной схватки за лидерство в 3D-графике эта дополнительная пропускная способность будет выбрана до капли.

По количественным показателям среди пиксельных и вершинных шейдеров произошло удвоение (GeForce 6800 обладает «всего» 12 пиксельными конвейерами). Но не только это изменилось. GeForce 6800 Ultra обеспечивает поддержку новой ревизии API DirectX 9.0c. Соответственно, версия шейдеров сменилась на 3.0. Наверно, не стоило давать им полноценный новый номер, при том, что сама библиотека, вроде как, только подновилась. Однако, изменения, произошедшие в спецификациях шейдеров, сопоставимы с разницей между версиями 1.0 и 2.0.

«Сердце» GeForce 6800 (вверху) и 6800 Ultra.

Рассказывать о том, сколько теперь доступно регистров, какова максимальная длина программы и так далее, я не буду. Простым читателям, использующим видеокарту для игр, все эти подробности ничего не скажут. Программисты все равно для подробного ознакомления обратятся к специализированному отделу сайта Microsoft или NVIDIA.

Как всегда в таких ситуациях, хочется напомнить, что преимущество новых спецификаций владельцы NV40 почувствуют только после появления соответствующего программного обеспечения. На сокращение времени создания эффектов с использованием новых функций и направлены основные усилия разработчиков как спецификаций (чем меньше ограничений, тем проще творить), так и высокоуровневых языков программирования шейдеров. Я хочу подчеркнуть, что речь идет не о сокращении времени разработки игры. Только упрощение при создании или изменении некоего графического эффекта. Что, впрочем, тоже немало.

Для пользователей больший интерес представляет наличие встроенного в GPU видеопроцессора. Он возьмет на себя работу по кодированию/декодированию в популярные форматы MPEG 1, 2 и 4, а также новый WMV9. Вывод изображения в формате HDTV и некоторые другие функции по работе с видео также можно теперь переложить на плечи ускорителя. Это уже значительно лучше, чем оставшийся практически незаметным VIDEOSHADER у ATI. В современном компьютере центральному процессору найдется работа, а видеозадачи лучше оставить специализированным чипам (хотя, как известно, у Intel на этот счет особое мнение).

Некоторые источники уже предоставили первые данные о производительности GeForce 6800 Ultra. Поскольку использовались разные платформы и методики тестирования, прямое сравнение результатов проводить некорректно. Но все они подтверждают заметный отрыв как от GeForce FX 5950 Ultra, так и от Radeon 9800 XT. Приведу наиболее интересный результат, полученный на Tom’s Hardware. В игре Unreal Tournament 2004 при разрешения 1024х768, 1280х1024 и 1600х1200 NV40 показал практически один и тот же результат — 103 FPS, что говорит о недостаточной мощности центрального процессора ( а ведь это P4 3,4 ГГц!). Более того, результат не изменился и при включении четырехкратного полноэкранного сглаживания в первых двух разрешениях, и только в максимальном он снизился до 96 FPS. С анизотропной фильтрацией дела обстоят похуже, но так же впечатляюще. При 1600х1200 падение производительности по сравнению с «чистым» режимом составило всего 25%, в то время как GeForce FX 5950 Ultra и Radeon 9800 XT потеряли все 50%.

Революция, безо всяких сомнений, удалась. По сравнению с предыдущим поколением произошло достаточно как количественных, так и качественных изменений. В скором времени мы сможем посмотреть на практике, сколь удачным стало воплощение этих идей в «железе». Ну и не стоит забывать, что у ATI готов ответ (R420), и он будет представлен еще в этом месяце.

Уже известно, что называться топовая карта будет Radeon X800 XT. С поддержкой DirectX 9.0c пока нет ясности. Судя по просочившимся слухам, производительность шейдеров третьей версии будет очень низкой, а потому возможно, что их поддержка не будет даже заявлена. Но по остальным параметрам карты очень близки. Те же шесть блоков вершинных шейдеров, шестнадцать конвейеров рендеринга, 256-битная шина DDR3 памяти. Рабочие частоты пока точно не известны. Ожидается 500 МГц для ядра и 1 ГГц для памяти. Как видите, в теории NV40 и R420 очень близки. И сравнивать надо именно эти два продукта. Так что пока я воздержусь от излишне восхищенных оценок GeForce 6800 Ultra.

© ООО "Компьютерра-Онлайн", 1997-2019
При цитировании и использовании любых материалов ссылка на "Компьютерру" обязательна.