XFX GeForce 280 GTX: для вас, богатые маньяки!
АрхивВидеоПомню времена, когда за флагманские продукты на чипах nVidia просили $200, и эта сумма казалась верхом наглости. Тем не менее с каждым годом "верх" поднимался всё выше и выше.
Помню времена, когда за флагманские продукты на чипах nVidia просили $200, и эта сумма казалась верхом наглости. Тем не менее с каждым годом "верх" поднимался все выше и выше, так что сегодня никого не возмутишь и пятью сотнями. Однако новый акселератор GeForce 280 GTX задел за живое даже самых привычных, потому что в начале продаж за него заряжали аж $900, и только спустя месяц цена опустилась до хоть сколько-то разумных $500.
С вашего позволения, я не буду подробно останавливаться на технических отличиях GeForce 280 от предыдущего одночипового флагмана - 9800 GTX. Достаточно сказать, что на смену GPU G92, знакомому многим еще по 8800 GT, наконец-то пришел действительно новый чип GT200 с умопомрачительным числом потоковых процессоров, которых насчитывается аж 240. Число транзисторов выросло вдвое - с "жалких" 754 миллионов у G92 до 1,4 миллиарда, а ширина шины памяти составила 512 бит вместо 256, к тому же ее стандартный объем достиг гигабайта. Карта получилась, мягко говоря, увесистой, а ее габариты исключают применение GeForce 280 GTX в компактных корпусах - она туда банально не влезет. Причем если 9800 GTX была такой же длинной скорее для солидности, поскольку практическая аналогичная по мощности 8800 GTS 512 прекрасно работала, будучи гораздо короче, то здесь лишние сантиметры используются на полную катушку. Мало того что компоновка платы весьма плотная, так еще и для борьбы с резко повысившимся тепловыделением нужна система охлаждения с радиатором большой площади. Если сказанное вас не напугало и пять сотен долларов продолжают жечь карман, вот еще одна страшилка. Подобно предшественницам, GeForce 280 GTX снабжена двумя разъемами для подключения дополнительного питания, но один из них не простой, а восьмипиновый. Это значит, что либо придется обзавестись соответствующим БП, либо использовать переходник, который обычно поставляется в комплекте. Кстати, с блоком питания все не так просто. В нашей тестовой станции установлен 700-ваттный FSP Epsilon, снабженный восьмипиновым штекером, так вот с последним видеокарта заводиться отказалась, раздраженно подмигивая красным диодом, расположенным под радиатором. С тем же БП, но через переходник все заработало, как надо, однако осадочек остался. Да, этой карте действительно нужно качественное питание, и в изрядных порциях, так что если в вашем компьютере установлено что-нибудь беспородно-китайское, сначала проапгрейдите его. И лучше, если вместе с корпусом, потому что греется 280 GTX очень сильно.
На мой взгляд, причин для установки такого монстра в домашний компьютер может быть всего две. Первая - желание принять участие в проекте по изучению процесса свертывания белков. Там, благодаря фирменной технологии CUDA, позволяющей использовать видеокарту для подобных расчетов, ваш компьютер быстро войдет в тысячу, если не сотню самых полезных в мире. Вторая причина - игра Crysis, потому что 280 GTX первой из одночиповых видеокарт позволяет играть в нее с приличным количеством FPS даже при разрешении 1600х1200.
Собственно, о производительности в Crysis мы и поговорим, так как другие современные игры прекрасно обходятся "скромными" возможностями какой-нибудь 8800 GTS 512. Установив в нашу тестовую станцию процессор Core 2 Duo E7300, разогнанный до 3,5 ГГц, и скачав самые свежие на 28 июля официальные драйверы, я приступил к замерам. Следует подчеркнуть, что в качестве подопытного кролика выступала видеокарта от XFX (модель GX-280N-ZDD9), дизайн которой идеально повторяет референсный, а вот рабочие частоты прямо на заводе немного подняли. Так, ядро под нагрузкой работало на частоте до 670 МГц вместо стандартных 600, а память - на 2484 вместо 2200. Оговорка про нагрузку сделана не случайно: карта у nVidia получилась очень прожорливая, и, чтобы хоть как-то сэкономить электричество, в 2D-режиме частоты сбрасываются весьма значительно. Если верить всезнающей утилите RivaTuner, частота ядра падает до 300 МГц, а памяти до 600. Сильнее же всего экономят на шейдерном домене - он мухой сгоняется почти с 1450 МГц до сотни (!).
Меня, обладателя 20-дюймового монитора, больше всего интересовало поведение Crysis при разрешении 1600х1200. Тем более что с 1280х1024 недурно справляется и предыдущее поколение GeForce. Результаты, честно говоря, озадачили - во встроенных в игру бенчмарках (GPU, CPU1 и CPU2) среднее число FPS при максимальных настройках качества достигло лишь 25. Очень и очень странно, ведь во время "просто игры" претензий к плавности не возникало вообще, и, пользуясь случаем, я за три рабочих дня прошел Crysis в 12-й раз. Прирост производительности по сравнению с 9800 GTX был заметен невооруженным глазом, что подтверждают и тесты: так, прежний флагман смог обеспечить лишь средние 15 FPS, в сценах со снегом проваливаясь до жалких 11.
Добавлю, что чип GT200 под нагрузкой гораздо горячее предшественника (по моим замерам, он прогревался до 90 градусов против 75 у G92 в тех же условиях), а тихой GTX 280 нельзя назвать при всем желании. Купил бы я такую плату домой? Честно говоря, сомневаюсь, потому что связка из двух 8800 GTS 512 в том же Crysis работает не хуже, а стоит ощутимо дешевле, да и не слышно ее совсем. GeForce 280 GTX - решение для богатых компьютерных маньяков, у которых гигантские системные блоки с киловаттными БП стоят посредине специальных хорошо проветриваемых помещений. Нам же, домашним пользователям, стоит подождать следующей попытки nVidia.
Из журнала "Компьютерра"