Архивы: по дате | по разделам | по авторам

Radeon X1900 XTX vs. GeForce 7800GTX 512 + AMD Athlon FX60

АрхивВидео
автор : Сергей Озеров   15.02.2006

Топовый графический процессор от ATI подтвердил своё преимущество над конкурентом от nVidia.

Не могу удержаться и в очередной раз не посетовать на то, что писать о комплектующих с каждым годом становится все труднее. Ну увеличили частоту на двести мегагерц, ну второе ядро добавили - кого этим сейчас удивишь?

Правда, двуядерники обеспечили впечатляющий прирост производительности в ряде "долгих" приложений вроде того же рендеринга, а в случае AMD - существенно подняли комфортность работы с операционными системами семейства Windows, да и вообще - за ними будущее, достойное описания в любом случае. А вот написать столь же подробный отчёт о чрезвычайно дорогих новинках "игрового" рынка, увы, не получается, - слишком скучны подобные отчёты, насыщенные деталями - что, где и как "подкручивали" создатели очередного монстра. Ибо хочется не столько услышать о том, что делали, сколько увидеть, что получилось, не ограничиваясь жалкими десятками процентов прироста производительности и красивыми, - но, увы, неинтересным демками. На современных ускорителях сегодня банально нечего запускать. Практических сдвигов в геймплее современных игрушек нет, да и не нужен для хорошего геймплея сверхнавороченный ускоритель, - двухсотдолларовая современная карточка за глаза подойдёт. В "графике" прогресс, конечно, более заметен, но хитовые Far Cry, Doom 3 и Half Life 2 все современные ускорители уже спокойно "тянут", а ничего принципиально более красивого - как не было, так и нет. А значит, нет и того самого "killer application", игры, ради которой не жалко было бы выбросить две - две с половиной тысячи долларов (за системник) на ветер только ради того, чтобы комфортно в неё прямо сейчас поиграть, не дожидаясь, пока сегодняшние лидеры скатятся в лоу-энд. К примеру, моя собственная старушка GeForce FX 5900 Ultra именно туда уже и скатилась. А ведь ещё два года назад неплохая была флагманская видеокарта…

Впрочем, возможно, что только в нашей стране серьезные взрослые люди готовы копить по три месяца на заветную вторую "ультру" в пару к первой видеокарте, а в более экономически развитых странах Запада никаких проблем с покупкою семисотдолларовых игрушек "просто чтобы покрасивее было не возникает", о чём косвенно говорит тот факт, что основную прибыль ATI и nVidia получают именно с дорогих решений. Однако лично мне хочется надеяться, что это всё же не так, потому что в этом случае останется только признать, что Дэвид Вон со товарищи прав, и будущее игровой индустрии на ближайшие несколько лет следует нарисовать в жутко скучных тонах "тупых голливудских боевиков", не несущих в себе ни идей, ни режиссуры, и запоминающихся разве что спецэффектами. Многопользовательские игры по интернету не в счет, их бум ещё впереди (хотя ради Battlefield 2 уже стоит задуматься о покупке двухсотдолларовой видеокарты), но тупиковость даже этого направления очевидна. В конце концов, в реальной жизни не все могут быть одновременно генералами и суперменами-спецназовцами, - должен кто-то и боеприпасы подносить, и в окопах сидеть. Понятно, что основные потребители игровой продукции - подростки или люди, желающие немного расслабиться, однако существуют же в кино помимо боевиков и "мыльных опер" и другие жанры! И если раньше эту ситуацию "простоты" еще можно было объяснить с позиции недостаточной мощности "железа", то сегодня ресурсы последнего просто расходуются в высшей степени расточительно. Право же, я скорее переиграю еще разок построенный на слегка модифицированном движке первого "квейка" Half-Life, вращающийся вокруг красивой идеи и обладающий интересным нетривиальным сюжетом, нежели запущу на своей машине ещё раз "сверхтехнологичные", но скучные до зевоты Doom 3 и F.E.A.R.

Впрочем, на вкус и цвет товарищей нет. Будем исходить из того, что вы обожаете римейки вроде Splinter Cell: Chaos Theory, жить без анизотропии и антиалиасинга не можете и располагаете лишними пятью-двадцатью сотнями долларов. Или хотя бы надеетесь, что когда деньги появятся, вам ещё не расхочется покупать подобные процессоры и видеокарты.

Жаркая зима 2006-го

Первой в минувшем году "отстрелялась" компания nVidia, доминировавшая на рынке всю вторую половину 2005 года со своим GeForce 78003. "Вылизанное" за несколько лет совершенствования линейки FX-6xxx-7xxx графическое ядро успешно демонстрировало безусловно лучшие показатели быстродействия, отличную масштабируемость, поддержку самого широкого набора возможностей и умеренное энергопотребление - пусть и ценою громадного и весьма дорогостоящего в производстве кристалла, производимого по "старому" 110-нм технологическому процессу. "Завязшая" в производственных проблемах ATI достойной альтернативы почти четыре месяца предложить не могла - и, в результате, запоздавший прогрессивный Radeon X1800, ценою громадных усилий, высоких тактовых частот и крайне дорогостоящей памяти хитом так и не стал. Однако он составил вполне серьезную конкуренцию 7800-м картам, - и nVidia решила разменять низкое тепловыделение данных карт на повышение производительности.

Пикантность ситуации заключается в том, что незадолго до того nVidia едва ли не клятвенно заявляла, что для линейки GeForce 7800 она не будет выпускать "ультр" - традиционных "разогнанных" видеокарт (вроде 6800 Ultra). И своё обещание, надо сказать, сдержала - поскольку на свет божий появился не 7800 Ultra, а… 512*Мб вариант 7800 GTX. Маркетинговый приёмчик, конечно, не новый - будь у маркетологов такие возможности, они бы и по гигабайту памяти на видеокарты ставили, причём на все без разбору, благо, что половина покупателей до сих пор меряет производительность ускорителей мегабайтами; однако в исполнении nVidia он звучал как-то… странно. Тактовые частоты графического ядра были разом подняты на 30% (!), оперативной памяти - более чем на 40% (!!!), - не то что "ультры", следующие поколения графических ускорителей нечасто получали подобную "прибавку".

Правда, всё это - не в массовых количествах и по очень высокой цене. Получилась такая вот "стратегическая операция" с военной хитростью и оперативным резервом, в результате которой свежевыпущенный Radeon X1800, ещё едва-едва начинавший выходить на рынок, остался далеко позади, и, фактически, был накануне самого прибыльного "предрождественского" периода с рынка полностью выбит, зажатый снизу более дешевыми и менее горячими, но столь же быстрыми "256-мегабайтными", а сверху - более дорогими и более быстрыми "512-мегабайтными". Запасы 512-мегабайтных карт, действительно продававшихся, несмотря на внушительную цену, пачками, правда, разлетелись практически моментально, быстро перейдя в разряд покупаемого на аукционах дефицита, но на пиаре и продажах младших моделей это уже никак не могло отразиться. Уж не знаю, открывали ли на радостях в офисах nVidia в эти дни шампанское, но, в принципе, все необходимые поводы для этого у сотрудников американской корпорации, когда-то (история развивается по спирали!) оказавшейся из-за канадцев в точно такой же ситуации с линейкой GeForce FX, были.

Думаете, ATI, поставленная в донельзя невыгодное положение, растерялась? Ничуть! Вооруженная наконец-то доведённым до ума прогрессивным 90-нм технологическим процессом (позволяющим впихнуть на миллиметр кристалла в полтора раза больше транзисторов, чем у nVidia) и новой архитектурой, остаток осени и начало зимы канадская корпорация ковала настоящее "оружие возмездия". Это сейчас новости о Radeon X1900 читаются спокойно, а когда мне в почтовый ящик под NDA свалился пресс-релиз, в котором раскрывались технические подробности о новом графическом процессоре, я едва не выпал из кресла. Если совсем вкратце - то в X1900 находится 48 блоков обработки пиксельных шейдеров, или три (!) видеокарты в X1800-м пиксельном эквиваленте. Честно говоря, ещё полгода назад я весьма скептически относился к перспективам появления графических процессоров, снабженных 32 блоками обработки пиксельных шейдеров, а тут - ни много ни мало - предлагается в массовых количествах (ATI хорошо подготовилась к анонсу!) чип c 48 блоками PS (в "пересчёте" к старой архитектуре). Причем, что характерно, несмотря на гораздо большее число транзисторов (380 против 300 миллионов), с заметно меньшим размером кристалла, а стало быть, и меньшей себестоимостью и большим выходом, нежели у конкурента.

Вдобавок, переплюнув конкурента вдвое по числу устройств обработки пиксельных шейдеров, ATI ещё и не сдала ни мегагерца запредельно высокой тактовой частоты Radeon X1800, почти на 20% большей, чем даже у 512-мегабайтного варианта 7800 GTX. Не выиграть, имея на руках такое подавляющее "численное преимущество", было практически невозможно, - и X1900 XTX действительно практически всюду (за парой исключений, связанных не то с драйверами, не то с "прямыми" руками разработчиков игр) бывшего лидера от nVidia "задавил". Массой. Всю линейку Radeon X1800 сразу же после выхода X1900 свернули, самый продаваемый период пропустили, но зато ATI теперь гордо носит корону безоговорочного лидера производительности в 3D-графике. Впрочем nVidia, надо думать, долго мириться с таким положением дел не будет, и ближе к весне, (когда у покупателей снова появятся деньги), закончив отложенное ради запуска 7800 GTX освоение 90-нм технологического процесса, тоже выкатит "что-нибудь эдакое". Право же, наблюдая за этой сумасшедшей гонкой, в которой производительность видеокарт меньше чем за год удваивается, я жалею только об одном - что не могу менять видеокарты в своем компьютере с сопоставимой периодичностью.

Своё сражение, хотя и в меньших масштабах, разыграла этой зимой и еще одна парочка "заклятых друзей" - Intel и AMD. Находившаяся уже длительное время в роли догоняющей, первая наконец-то выпустила Pentium 4 "таким, каким он должен был изначально быть" - без страшных технологических усечений Wilamette, архитектурных перекосов Northwood и перегрева Prescott. Переход на 65-нм техпроцесс породил процессор с отличным потенциалом разгона, хорошей масштабируемостью и "умеренным" (по меркам Prescott’а, к которому, впрочем, все уже более или менее привыкли) тепловыделением; процессор, в принципе, способный преодолеть пресловутый 4-ГГц барьер и, возможно, даже "доползти" до заветных 5 ГГц, которые в начале "эпохи NetBurst" нам клятвенно обещали. Но по иронии судьбы как раз такой процессор компании Intel сейчас не нужен, поскольку, намучившись с Prescott’ом, она уже приняла решение о "похоронах" архитектуры и её замене принципиально новым процессором. А создавать конкуренцию самой себе, когда "старая" архитектура будет длительное время обгонять "новую", выходящую в конце лета - невыгодно. Поэтому вместо того, чтобы открыть новый виток "гонки мегагерцев", Intel предпочла просто обеспечить массовый выпуск недорогих двуядерников, взяв, так сказать, если не качеством, то числом. Однако упускать возможность "прищучить" AMD по производительности тоже не хотелось - и вместе с "массовыми" ЦП Intel выбросил на рынок и новый Pentium Extreme Edition за номером 955. Обладая увеличенным вдвое кэшем второго уровня, ускоренной на пару десятков процентов шиной и чуть более высокой тактовой частотой по сравнению с Pentium 840, новый "экстремал" резко сократил имевший до того место разрыв в производительности, "догнав" самый быстрый на тот момент двуядерный процессор AMD Athlon 64 X2 4800+.

Впрочем, это тема для отдельной статьи, а здесь мы рассмотрим "симметричный ответ" AMD - Athlon 64 FX60, который, по сути, является обычным Athlon 64 X2 4800+, только работает на чуть большей частоте - 2,6 ГГц. Изначально предполагалось, что AMD анонсирует его раньше, чем Intel представит Pentium 955, однако Intel, по заложенной этим летом традиции, упускать лавры первого анонса не стала и в последний момент скорректировала сроки. Учитывая, что FX60 существенно опережает её топовое решение - вполне разумная мера: теперь вместо двух отчётов о лидерстве AMD и "догоняющем" Intel в Сети находится как отчёт о лидерстве AMD, так и вполне лестные отзывы на 955-й. Впрочем, AMD, похоже, не в обиде, - в любом случае, она продает столько процессоров по высокой цене, сколько вообще в состоянии произвести. Интересна разве что смена вектора традиционно "геймерской" серии с "быстрых одноядерников" на "быстрый двуядерник", пусть и с чуть меньшей тактовой частотой (2,6 против 2,8 у FX-57). Скорее всего, воспользовавшись мощным пиаром двуядерников со стороны Intel-а и недавно появившейся серией задействующих многопоточность патчей (в том числе и на уровне драйверов), AMD решила, что момент для этого выбран более чем подходящий. И сейчас мы это проверим.

Вооружившись всеми "игровыми" новинками, мы собрали в лаборатории шикарный тестовый стенд, где на практике проверили, к чему же, в конце концов, привела волна анонсов "железа" на практике. Для того чтобы можно было оценить выгоду на текущий момент от задействования второго ядра и обеспечить более объективные показатели сравнения видеокарт, мы слегка разогнали наш FX60 до тактовой частоты 2,8 ГГц и основные тесты проводили на нём, используя FX57 в качестве "референсного" одноядерного образца. В качестве драйверов мы взяли самые последние стабильные сборки nVidia Forceware 8x.xx и ATI Catalyst 6.x; причём для них обоих производители заявили об "оптимизациях под двуядерные процессоры".

Тестовая система: процессор AMD Athlon 64 FX−60 @ 2,80 ГГц (двуядерный), AMD Athlon 64 FX−57 @ 2,80 ГГц (одноядерный); системная плата MSI K8N SLI (чипсет nForce 4 SLI), оперативная память: 2х512 Мбайт DDR 400 Corsair 2−2−2−5; блок питания: OCZ 520W. ОС и драйверы: Windows XP Professional SP2; nVidia nForce4 Platform Driver 6.39; DirectX 9.0c End User Runtime; Catalyst 6.1 è ForceWare 81.98

Эксперимент

В итоге получилась довольно интересная картинка. Во-первых, "оптимизации под двуядерность" действительно принесли в ряде приложений весьма ощутимые плоды, выразившиеся примерно в 10-15-процентном приросте производительности в 3Dmark 2006 и Far Cry. Причём, если с 3Dmark ситуация не вполне понятна (возможно, разработчики Futuremark приложили здесь свою руку), то с Far Cry-однозначна: эта игра многопоточность до сих пор не поддерживает, и существенный прирост производительности при переходе к двуядерным процессорам в ней - это в чистом виде эффект новых драйверов. nVidia каких-либо комментариев по поводу своих "оптимизаций", к сожалению, не даёт (и, что еще хуже, пользователи в некоторых ситуациях жалуются на нестабильную работу "оптимизированных" драйверов, вплоть до необходимости эти оптимизации через реестр отключать), а вот представители ATI охотно поясняют, что, по сути, основные их оптимизации сводятся к разнесению потоков видеодрайвера (обрабатывающего "сырые" данные, передаваемые ему через Direct3D- или OpenGL-интерфейсы, и отправляющего их на ускоритель) и потока игры по разным процессорам. Far Cry традиционно славен огромными объёмами используемой в этой игре "геометрии", а потому, по видимости, их обработка действительно занимает настолько существенное время, что подобное "распараллеливание" даёт ощутимый прирост. Однако в остальных случаях, как нетрудно видеть, от существующих "оптимизаций" нет, в общем-то, ни вреда, ни толку.

Для некоторых игр, и, в частности, Quake 4 и Call of Duty 2, существуют специальные патчи, вносящие в эти игры "врождённую" поддержку многопоточности. Поскольку здесь речь заходит уже не о тривиальном "разделении" драйвера и игры по разным процессорам, а о более интеллектуальном распределении между процессорами различных подсистем одной игры, то и прирост производительности здесь стабильнее и выше - до 40% (!). Но здесь, к сожалению, следует упомянуть одно "но": происходит это далеко не во всех игровых ситуациях и, к сожалению, наибольший прирост достигается на наиболее простых и потому "быстрых" игровых сценах, которые, в общем-то, ускорять и не обязательно. И объяснение этому эффекту довольно простое: основной "тормоз" в играх - это графический ускоритель, а до тех пор, пока 80% времени процессор ожидает, пока ускоритель выведет очередной кадр на экран, получить более чем 1/(1 - (1-80%) / 2) ~ 11% прироста производительности, увы, даже в идеальном случае невозможно. А чем проще сцена, тем меньше времени съедает видеокарта и тем больше прирост производительности. И, к сожалению, пока при разработке игр основной упор делается на "графику", эта ситуация к лучшему не изменится. К примеру, в российском "Периметре", многопоточность довольно эффективно используется для параллельной обработки повреждений и изменений игрового мира. Но сегодняшние стратегии и так не могут пожаловаться на недостаточную производительность машин игроков, а когда вы в последний раз видели шутер, где можно было бы соорудить не то что дырку в стене дома, а хотя бы воронку в земле от взрыва снаряда?

Одним словом, определённая польза от перехода на двуядерность в играх, безусловно, уже появляется; однако, в общем и целом - не оправдывает затрачиваемых на неё средств (проще уж видеокарту купить подороже). Отсюда и минимальная разница в цене между FX-57 и FX-60. Однако критиковать AMD за "преждевременный переход Athlon 64 FX на двуядерность", думаю, глупо - в конце концов, лишние 6-8% сугубо потенциального преимущества FX-57 в играх явно не стоят огромных преимуществ, предоставляемых FX-60 во всём остальном, включая типовую повседневную работу. Другой вопрос, что хотелось, в принципе, большего, чем скромное увеличение тактовой частоты топового двуядерного решения на 8,3%.

Во-вторых, Radeon X1900 XTX, как и предполагалось, действительно заметно обгоняет своего 7800-512-го конкурента. Правда, не везде и не во всём: судя по всему, сказывается заметно менее быстрая оперативная память (1450-1550 МГц против 1700 МГц), и в полтора раза меньшее число модулей выборки текстурных данных. Специалисты ATI, правда, утверждают, что, в среднем, в пиксельном шейдере приходится до семи математических инструкций на одну инструкцию выборки, а потому "вычислительная мощь" 48 пиксельных блоков (кстати, на удивление "дешёвых" в производстве, судя по незначительному увеличению числа транзисторов в R580 по сравнению с вроде бы втрое более простым R520) важнее "текстурных" мощностей GPU, однако ж - от процессора, обладающего вдвое большим числом обрабатываемых за такт пикселей и существенно большей частотой, можно было бы ожидать и большего. Есть, правда, и альтернативное предположение - что центральный элемент архитектуры X1000, блок диспетчеризации Ultra-Treading Dispatch Engine, попросту не успевает достаточно эффективно загрузить доступные ему вычислительные ресурсы; однако оно для ATI звучит гораздо печальнее и едва ли соответствует истине. В любом случае, X1900 пока - безусловный лидер, и каким будет на него весенний ответ nVidia - ещё непонятно.

С GeForce 7800 GTX 512 Mбайт всё проще - она везде и всюду сильно (до 40%) опережает своего предшественника, чего и следовало ожидать от "разогнанного" решения. Это очень хорошая видеокарта, но её бывшее лидерство уже утрачено, массовое распространение ей не светит, а шум и тепловыделение лишь немногим меньше, чем у X1900. Одним словом, в "царях горы" может ходить только один, и период "царствования" 7800 GTX 512, отлично расходившегося еще пару месяцев назад, позади.

Благодарим компанию AMD за предоставление тестового набора на базе процессора FX-60 и компанию MSI за материнскую плату K8N SLI.


По материалам еженедельника "Компьютерра"
© ООО "Компьютерра-Онлайн", 1997-2019
При цитировании и использовании любых материалов ссылка на "Компьютерру" обязательна.