Войти

GeForce GTX 280 в исполнении LeadTek

Выход нового графического процессора GT200 от компании NVIDIA геймеры всего мира и оверклокеры, в частности, ждали с нетерпением. Немудрено, так как фактически с далёкой осени 2006 года ничего действительно нового и революционного компания не выпускала. Год и почти восемь месяцев - срок небывалый для данного сектора Hi-Tech. C момента релиза G80 в сегменте высокопроизводительных чипов появился разве что G92, по большому счёту являющийся лишь переводом G80 на более тонкий техпроцесс с несущественными для геймера изменениями и снижением себестоимости. На самом же деле, те, кто в то время приобрел GeForce 8800 GTX (а немногим позже и GeForce 8800 Ultra), ничего лучшего позволить себе не могли, даже при наличии средств и желании вложить их в видеокарту(ы). Как вариант, для роста производительности можно было рассматривать появившуюся недавно GeForce 9800 GX2 или чрезмерно дорогие 3-Way SLI системы, но всё-таки нужно признать, что называть эти решения новыми и уж тем более революционными, было бы по меньшей мере некорректно.

Наконец, 16 июня 2008 года компания NVIDIA представила публике свой новый графический процессор GT200. Выпущенный по 65-нм техпроцессу чип, содержит около 1400 миллионов транзисторов – небывалая доселе величина. Инженеры компании в купе с маркетинговым отделом решили максимально расширить функциональность столь мощного GPU, наделив его наконец возможностями расчётов "физики", расчётов в программе распределённых вычислений Folding@Home, способностью обработки изображений и даже кодирования видеоконтента. Поддержка технологии CUDA (Compute Unified Device Architecture), фактически воплощающая в действительность перенос вычислений с центрального процессора на GPU, также является приятным бонусом нового чипа. В общем, на просторах Интернет даже бытует мнение, что до анонса и выхода на рынок продуктов конкурента, компания NVIDIA решила не раскрывать всю мощь GT200, производительность которого пока ограничена драйверами.

Как бы то ни было, в настоящее время графический процессор GT200 лёг в основу двух видеокарт: GeForce GTX 260 и топовой GeForce GTX 280. Первая представляет собой несколько урезанную версию GTX 280, с меньшим числом потоковых процессоров, TMU и ROP, с пониженными частотами GPU и видеопамяти, объём которой также уменьшен в сравнении с оным у GTX 280, а также с более узкой шиной обмена с видеопамятью. Рекомендованная стоимость на GeForce GTX 260 заявлена на уровне 399 долларов США, а появление в розничной продаже произошло на пару недель позже, нежели GeForce GTX 280. Вторая видеокарта являет собой бескомпромиссное решение класса Hi-End с рекомендованной стоимостью в 649 долларов США. Розничные цены на момент анонса были традиционно завышены и нередко превышали отметку в 850 долларов США. С одной из таких видеокарт мы и познакомим вас в сегодняшней статье.

1. Обзор LeadTek WinFast GeForce GTX 280 1024 Мбайт

Видеокарта производства компании LeadTek приехала к нам в OEM упаковке, поэтому традиционного "обзора" коробки сегодня не будет. Однако, для полноты картины мы можем привести фото коробки с официального сайта компании:

Зато даже в OEM поставку включены самые необходимые аксессуары:

Перечислю их слева направо и сверху вниз:

  • один переходник 15 pin DVI / D-Sub;
  • адаптер-разветвитель с S-Video выхода на компонентный;
  • два кабеля для подключения дополнительного питания видеокарты (восьмипиновый и шестипиновый разъёмы);
  • DVD-диск с игрой Neverwinter Nights 2;
  • компакт-диск с драйверами видеокарты;
  • инструкция по установке видеокарты и драйверов.

Внешне видеокарта вовсе несущественно отличается от GeForce 9800 GTX. Её длина чуть более 270 мм, а вся лицевая сторона закрыта пластиковым кожухом системы охлаждения, в котором с правой стороны установлена турбина:

LeadTek WinFast GeForce GTX 280 1024 Мбайт, как и все выпускаемые сегодня GTX 280, основана на референсном дизайне. Определить производителя можно только по наклейке на турбине, да по изображению на кожухе системы охлаждения (таков новый стиль оформления продуктов компании LeadTek).

Оборотная сторона PCB видеокарты, в отличие от продуктов GeForce 9800 GTX, закрыта чёрной алюминиевой пластиной с прорезями, являющейся своеобразным радиатором для микросхем памяти, расположенных на оборотной стороне PCB:

В плане интерфейсов, изменений не произошло: LeadTek WinFast GeForce GTX 280 оснащена PCI-Express x16 интерфейсом, двумя портами DVI-I (dual link), а также S-Video выходом, совмещёнными с решёткой для выброса нагретого воздуха из корпуса системного блока:

Толщина видеокарты составляет всё те же 32 мм, уже ставшие стандартом для топовых графических решений (блокировка соседнего к видеокарте слота на материнской плате давно перестала удивлять):

Сверху под резиновой крышкой скрыты два разъёма MIO для построения SLI и 3-Way SLI систем из двух или трёх одинаковых видеокарт:

А с правой стороны, как и у GeForce 9800 GTX, размещены шести- и восьмиконтактный разъёмы для подключения дополнительного питания:

Согласно спецификаций, GeForce GTX 280 необходим блок питания мощностью в 550 Ватт, обеспечивающий силу тока не менее 40 А по 12 В каналам. Для SLI конфигураций нужен блок мощностью в 750 Ватт и выше. Рядом с разъёмами для подключения дополнительного питания можно увидеть звуковой разъём S/P-DIF.

PCB новой видеокарты, выполненная на 14-слойном дизайне, достаточно сложна и очень насыщена элементами:

Видеопамять общим объемом в 1024 Мбайт теперь расположена не только с лицевой, но и с оборотной стороны видеокарты. Силовая часть платы выглядит следующим образом:

Графический процессор, выпущенный на Тайване в конце апреля текущего года, маркирован как G200-300-A2, что говорит о его принадлежности к второй ревизии:

Нетрудно заметить, что GPU снова закрыт крышкой теплораспределителя, как и у G80, что рассматривается с положительной стороны теми, кто при замене системы охлаждения опасается сколоть чип, и в какой-то степени с отрицательной стороны теми экстремалами, кто для рекордов разгона будет эту крышку снимать :). Кстати, металлической рамки вокруг крышки нет. Графический процессор имеет 240 унифицированных шейдерных процессоров, 80 текстурных блоков и 32 блока растеризации (соответственно на 112, 16 и 16 больше чем у GeForce 9800 GTX). А вот частоты графического чипа и его шейдерного домена ниже, чем у 9800 GTX и составляют 602 МГц против 675 МГц и 1296 МГц против 1688 МГц. Последняя разница довольно существенна, хотя преимущество в числе унифицированных шейдерных процессоров более чем впечатляет. В архитектурные особенности нового GPU в сегодняшней статье мы вдаваться не будем.

Слева на PCB от графического процессора расположена микросхема NVIO2 (также ревизии А2).

Как и в случае с G80, в данную микросхему вынесены оба RAMDAC, все интерфейсы и видеопроцессор. Чип выпущен на Тайване на 15 неделе 2008 года. Ревизия – А2. Охлаждается микросхема радиатором основного кулера через термопрокладку с пропиткой.

16 микросхем видеопамяти стандарта GDDR3 общим объемом в 1024 Мбайт производства компании Hynix расположены на лицевой и оборотной сторонах PCB видеокарты.

Маркировка чипов H5RS5223CFR N2C, напряжение равно 2.05 В, а номинальное время доступа составляет 0.83 нс, что соответствует теоретической эффективной частоте в 2400 МГц. Тем не менее, частота работы видеопамяти у LeadTek WinFast GeForce GTX 280 1024 Мбайт составляет 2214 МГц, что полностью соответствует спецификациям GeForce GTX 280 и оставляет надежду на неплохой разгон. Ширина шины обмена с памятью видеокарты составляет 512 Бит, что вдвое выше, чем у GeForce 9800 GTX.

Таким образом, спецификации GeForce GTX 280 выглядят следующим образом:

Система охлаждения новой видеокарты напоминает собой кулер серии GeForce 8800 GTS/512 и GeForce 9800 GTX:

Медное основание кулера контактирует с поверхностью теплораспределителя графического процессора посредством густой серой термопасты (как всегда, нанесённой с избытком), а алюминиевая подложка с чипами памяти – через термопрокладки с пропиткой. Обратите внимание, что контактных площадок для микросхем памяти 16, а не 8, как того требует видеокарта с каждой из её сторон.

Как я уже упоминал выше, на оборотную сторону видеокарты для охлаждения микросхем памяти теперь также устанавливается алюминиевая пластина с термопрокладками:

Пластиковую крышку системы охлаждения несложно отвернуть, в результате чего можно детально изучить составляющие кулера:

В первую очередь, это крупный радиатор, набранный из тонких алюминиевых рёбер:

Рёбра пронизаны тремя медными тепловыми трубками диаметром 6 мм, которые контактируют с первыми посредством пайки:

Ещё две тепловые трубки также выходят из медного основания, но распределяют тепловой поток уже не на рёбра, а на подложку алюминиевого радиатора вверх и вправо.

Качество обработки медного основания кулера заметно выше, чем у GeForce 9800 GTX:

Всю конструкцию охлаждает небольшая турбина мощностью 5.76 Ватт, выпущенная компанией Protechnic:

Скорость вращения турбины регулируется автоматически в диапазоне от ~400 до ~1600 об/мин. Уровень шума не указывается даже производителем турбины, поэтому субъективно отмечу, что после отметки в 900~1000 об/мин уровень шума становится явно некомфортным. В целом же шум кулера GeForce GTX 280 по уровню и тональности практически такой же как и у GeForce 9800 GTX.

Теперь я предлагаю проверить эффективность референсной системы охлаждения GeForce GTX 280. Методика тестирования заключалась в десятикратном прогоне бенчмарка Firefly Forest из синтетического графического бенчмарка 3DMark 2006 в разрешении 1920 х 1200 с активированным полноэкранным сглаживанием степени 4х и анизотропной фильтрацией уровня 16х. Все тесты проводились в закрытом корпусе ASUS Ascot 6AR2-B системного блока (конфигурацию вентиляторов в нём вы можете найти ниже в разделе с методикой тестирования). Комнатная температура во время тестирования была равна 24 градусам Цельсия. Мониторинг осуществлялся с помощью RivaTuner v2.09. Стандартный термоинтерфейс во время тестирования был заменён на высокоэффективную термопасту Arctic Silver 5, нанесённую тонким слоем. При этом температуру графического процессора в пике нагрузки в сравнении с оригинальной термопастой удалось снизить на 4 градуса Цельсия.

В результате, температурный режим графического процессора видеокарты с номинальными частотами и при автоматической работе турбины системы охлаждения оказался следующим:

C учётом возросшей мощности, площади и прочих характеристик нового графического чипа, я бы не сказал, что температура видеокарты внутри корпуса системного блока является критической. Хотя 85 градусов Цельсия по GPU (после замены термоинтерфейса) и 70 по температуре окружения скорее всего скажутся негативно на температуре компонентов системного блока, даже несмотря на тот факт, что турбина СО выбрасывает практически весь нагретый видеокартой воздух за пределы корпуса.

Теперь выставляем скорость вращения турбины на максимум и снова проверяем температурный режим видеокарты:

Очевидна высокая зависимость эффективности работы радиатора кулера GeForce GTX 280 от скорости вращения турбины, так как снижение произошло аж на 12 градусов по графическому процессору и по 11 по температуре окружения. Неплохо. Жаль только, что уровень шума при этом слишком высок, чтобы эксплуатировать видеокарту в таком режиме постоянно. Уверен, что производители альтернативных систем охлаждения не заставят себя долго ждать и совсем скоро мы будем тестировать новинки для охлаждения GeForce GTX 280.

Пока же оверклокерский потенциал видеокарты проверялся со стандартной системой охлаждения, но на максимальных оборотах вращения её турбины. В результате частоту графического процессора удалось поднять до 695 МГц или на 15.5 % к номиналу. Шейдерный домен разгонялся асинхронно до частоты в 1420 МГц (или +8.7 % к номиналу). В свою очередь, видеопамять без потери в стабильности и качестве картинки удалось разогнать до впечатляющих 2600 МГц или +17.4 % к номиналу:

После разгона видеокарты, её температурный режим вырос несущественно:

Температура графического процессора возросла на 2 градуса Цельсия по отношению к номинальным частотам видеокарты, а температура окружения достигла 61 градуса, что также лишь на пару градусов больше, чем в номинале.

К сожалению, цены на новинку традиционно завышены и в рознице начинаются от 850 долларов США, что довольно далеко от рекомендованных 649 долларов. Кроме того, в настоящее время наблюдается дефицит видеокарт GeForce GTX 280, в том числе и в связи с этим ждать скорого снижения стоимости не приходится.

2. Технические характеристики, рекомендованная стоимость и энергопотребление

Технические характеристики GeForce GTX 280 в сравнении с GeForce 9800 GTX и 9800 GX2 представлены вашему вниманию в следующей таблице:

Наименование технических характеристик NVIDIA GeForce
9800 GTX
NVIDIA GeForce
9800 GX2
NVIDIA GeForce
GTX 280
Графический(е) процессор(ы) G92-420 (TSMC) 2 x G92 (TSMC) GT200 (TSMC)
Техпроцесс, нм 65 (low-k) 65 (low-k) 65 (low-k)
Площадь ядра(ер), кв.мм 330 2 x 330 576
Число транзисторов, млн. 754 2 x 754 1 400
Частота(ы) графического(их) процессора(ов),
МГц
675
(1 688 shader)
600
(1 500 shader)
602
(1 296 shader)
Эффективная частота работы видеопамяти, МГц 2 200 2 000 2 214
Объем памяти, Мб 512 2 x 512 1 024
Тип поддерживаемой памяти GDDR3 GDDR3 GDDR3
Разрядность шины обмена с памятью, Бит 256 2 x 256 512
Интерфейс PCI-Express x16
(v2.0)
PCI-Express x16
(v2.0)
PCI-Express x16
(v2.0)
Число унифицированных шейдерных
процессоров, шт.
128 2 x 128 240
Число текстурных блоков, шт. 64 2 x 64 80
Число блоков растеризации (ROPs), шт. 16 2 x 16 32
Поддержка версии Pixel Shaders / Vertex Shaders 4.0 / 4.0 4.0 / 4.0 4.0 / 4.0
Полоса пропускания видеопамяти, Гб/сек ~70.4 ~64.0 x 2 ~141.7
Теоретическая максимальная скорость закраски,
Гпикс./сек
~10.8 ~9.8 x 2 ~19.3
Теоретическая максимальная скорость выборки
текстур, Гтекс./сек
~43.2 ~38.4 x 2 ~48.2
Пиковая потребляемая мощность в 3D режиме
работы, Ватт
Требования к мощности блока питания, Ватт ~450 ~580 ~550
Размеры видеокарты референсного дизайна, мм
(Д х В х Т)
270 х 100 х 32 220 х 100 х 32 270 х 100 х 32
Выходы 2 х DVI-I (Dual-Link),
TV-Out, HDTV-Out,
HDCP
2 х DVI-I (Dual-Link),
TV-Out, HDTV-Out,
HDCP
2 х DVI-I (Dual-Link),
TV-Out, HDTV-Out,
HDCP
Дополнительно поддержка SLI
(3-Way SLI)
поддержка SLI поддержка SLI
(3-Way SLI)
Рекомендованная стоимость, долларов США ~199 ~599 ~649

Теперь об энергопотреблении. Со времён GeForce 6-й серии, NVIDIA перестала заботится об энергосбережении своих десктопных решений. Тогда, как вы помните, у GeForce FX было разделение на 2D- и 3D-частоты, что позволяло снижать энергопотребление и тепловыделение видеокарты во время её бездействия. С течением времени эти механизмы были забыты – пропало как разделение частот в новых семействах видеокарт, так и поддержка этой технологии в драйвере.

В прошлом году при выпуске линейки 38xx компания ATI представила технологию энергосбережения PowerPlay, которая позволяет во время простоя видеокарты снижать частоты и даже отключать большую часть потоковых процессоров. В новом графическом процессоре GT200 NVIDIA тоже применила технологии энергосбережения, которые позволяют видеокарте работать в одном из четырёх режимов:

  1. полное отключение, доступно только в рамках HybridPower;
  2. режим простоя (минимальной нагрузки), потребление около 25 Ватт;
  3. режим просмотра видео, потребление около 35 Ватт;
  4. игровой режим, когда карта используется на все 100 %, потребляя, по заверениям NVIDIA, в пике нагрузки до 236 Ватт.

Выше на температурных графиках хорошо видно, как видеокарта, после выхода из тестового 3D-приложения, переходит сначала в режим "просмотра видео", снижая частоты ядра и памяти до 400/400 МГц, а потом в режим простоя до 300/100 МГц. Шейдерный домен, в обоих режимах опускается до частоты в 100 МГц. Тут, кстати, есть небольшой нюанс. В десктопных версиях графических процессоров G8x и G9x частота шейдерного домена не могла быть ниже удвоенной частоты ядра, а здесь мы наблюдаем падение до 100 МГц, что втрое ниже частоты ядра в данный момент времени. Нет, чуда не произошло, и частота шейдерного домена, как и раньше, не может быть ниже удвоенной частоты ядра, но она может переключаться во время простоя GPU на частоту шины PCI-E, которая как раз и равна искомым 100 МГц. Слово "десктопных" было употреблено не случайно, ибо подобная технология была на мобильных версиях GPU G8x и G9x серий, но достоянием десктопных решений стала только теперь, с выходом GT200.

Ну что же, довольно теории, пора переходить к практике. Измерение энергопотребления видеокарты LeadTek WinFast GeForce GTX 280 1024 Мбайт осуществлялось с помощью многофункциональной панели Zalman ZM-MFC2. Данная панель измеряет потребление системы в целом без учёта монитора, а не отдельного компонента системного блока (подробная конфигурация указана в следующем разделе). Измерение было проведено в 2D-режиме, при обычной работе в Word или Internet-серфинге, а также в 3D-режиме, нагрузка в котором создавалась с помощью пятикратного бенчмарка Firefly Forest из синтетического графического бенчмарка 3DMark 2006 в разрешении 1920 х 1200 с активированным полноэкранным сглаживанием степени 4х и анизотропной фильтрацией уровня 16х. Столь ресурсоемкий для видеокарт графический режим выбран в целях минимизации влияния на результаты измерений прочих компонентов системного блока (в первую очередь центрального процессора). Выбор для создания 3D-нагрузки теста Firefly Forest из пакета 3DMark 2006 основан на сравнительном тестировании, которое было дополнительно проведено в десяти играх и ещё одном синтетическом бенчмарке (список приведён в следующем разделе), которое показало, что именно данный тест больше всего нагружает графическую подсистему компьютера.

Результаты измерения энергопотребления GeForce GTX 280 в сравнении с другими ранее протестированными нами видеокартами представлены вашему вниманию на следующей диаграмме:

В номинальном режиме работы видеокарт GeForce GTX 280 в пике 3D-нагрузки потребляет электроэнергии примерно на 50 Ватт больше, чем GeForce 9800 GTX. Нужно отметить, что это весьма небольшая разница, если принять во внимание отличия в числе транзисторов GPU, площади ядра и прочих характеристиках.

3. Тестовая конфигурация, инструментарий и методика тестирования

Тестирование видеокарт было проведено в закрытом корпусе системного блока следующей конфигурации:

  • Материнская плата: ASUSTek P5K Deluxe/WiFi-AP (Intel P35), LGA 775, BIOS v0812;
  • Процессоры:
    • Intel Core 2 Extreme QX9650, 3.0 ГГц, 1.25 В, L2 2 x 6 Мбайт, FSB: 333 МГц x 4, (Yorkfield, C0);
    • Intel Core 2 Duo E8400, 3.0 ГГц, 1.3125 В, L2 2 x 3 Мбайт, FSB: 333 МГц x 4, (Wolfdale, C0);
  • Система охлаждения CPU: ZEROtherm Nirvana NV120 Premium (~1320 об/мин);
  • Термоинтерфейс: Arctic Silver 5;
  • Оперативная память:
    • 2 x 1024 Мбайт DDR2 Corsair Dominator TWIN2X2048-9136C5D (Spec: 1142 МГц / 5-5-5-18 / 2.1 В);
    • 2 x 1024 Мбайт DDR2 CSX DIABLO CSXO-XAC-1200-2GB-KIT (Spec: 1200 МГц / 5-5-5-16 / 2.4 В);
  • Дисковая подсистема: SATA-II 500 Гбайт, Samsung HD501LJ, 7200 об/мин, 16 Мбайт, NCQ;
  • Система охлаждения и звукоизоляции HDD: Scythe Quiet Drive;
  • Привод: SATA-II DVD RAM & DVD±R/RW & CD±RW Samsung SH-S183L;
  • Корпус: ATX ASUS ASCOT 6AR2-B Black&Silver (на вдув и выдув установлены 120-мм корпусные вентиляторы Scythe Slip Stream на ~960 об/мин на силиконовых шпильках, на боковой стенке – такой же вентилятор на ~800 об/мин);
  • Панель управления и мониторинга: Zalman ZM-MFC2;
  • Блок питания: Enermax Galaxy DXX (EGA1000EWL) 1000 Ватт (штатные вентиляторы: 135-мм на вдув, 80-мм на выдув).
  • Монитор: 24" BenQ (Wide LCD, 1920 x 1200 / 60 Гц).

Все тесты были проведены в операционной системе Windows Vista Ultimate Edition x64 preSP1. Драйверы чипсета материнской платы - Intel Chipset Drivers версии 9.0.0.1008. Использовались библиотеки DirectX 9.0с (дата релиза – июнь 2008 года), а также драйверы видеокарт NVIDIA ForceWare 177.35. Драйверы ForceWare 177.41 вышли когда уже все тесты были завершены, тем не менее производительность видеокарты с новыми драйверами была проверена повторно и, к сожалению, прироста производительности в бенчмарках и играх, в которых проводились тесты, обнаружить не удалось. Тем не менее, в нашей конференции от пока ещё редких обладателей GeForce GTX 280 можно услышать позитивные отзывы о новых драйверах, приносящих до 5 % производительности новой видеокарты (правда, под Windows XP).

C учетом многочисленных просьб наших читателей тестирование видеокарт было проведено в трёх разрешениях: пока ещё наиболее популярном 1280 x 1024, а также при двух широкоформатных 1680 х 1050 и 1920 х 1200. Настройки качества графики в драйверах выставлены на "High Quality". То есть все оптимизации, доступные в ForceWare, были отключены. Включение анизотропной фильтрации и полноэкранного сглаживания выполнялось непосредственно в настройках игр. В случае, если изменение данных настроек в самих играх не было реализовано, то параметры выставлялись в панелях управления драйверов ForceWare. Сглаживание прозрачных поверхностей (текстур) – "Transparency Antialiasing (multi-sampling)" – активировано.

Для проведения тестирования производительности видеокарт был использован следующий набор из двух синтетических бенчмарков и восьми разнообразных игр:

  • 3DMark 2006 (Direct3D 9/10) – build 1.1.0, default settings;
  • 3DMark Vantage (Direct3D 10) – v1.0.1, профиль “Perfomance” (тестировались только основные тесты);
  • S.T.A.L.K.E.R. - Shadow of Chernobyl (Direct3D 9) – версия игры 1.006, включено полное динамическое освещение, анизотропная фильтрация x16 и прочие максимальные настройки качества графики, использовалась демо-запись “x” (тройной цикл теста);
  • Call of Juarez Bench (Direct3D 10) – Shadowmap size: 1024x1024, Shadows quality: Low, Audio: Disable;
  • World in Conflict (Direct3D 10) – версия 1.0.0.7(b87), профиль качества графики “Very High”, UI texture quality = Compressed; Water reflection size = 512; DirectX 10 рендеринг активирован;
  • Enemy Territory: Quake Wars (OpenGL 2.0) – версия 1.4, максимальные настройки графики, демо “d2”;
  • Call of Duty 4: Modern Warfare MP (Direct3D 9) – версия 1.4, настройки графики и текстур на уровень "Extra";
  • Unreal Tournament 3 (Direct3D 9) – версия 1.2, максимальные настройки графики, тестировались 90 секунд “Fly By” на уровне “DM-ShangriLa”;
  • Crysis (Direct3D 10) – версия игры 1.2.1, профиль настроек “High”, Shadows Quality: Medium, трёхкратный цикл теста видеокарты из бенчмарка Crysis Benchmark Tool версии 1.05;
  • Devil May Cry 4 Benchmark (Direct3D 10) – максимальные настройки качества графики.

Так как для сравнения с GeForce GTX 280 достать GeForce 9800 GX2 мне, к сожалению, не удалось, то сравнивать производительность новой видеокарты сегодня будем только с GeForce 9800 GTX 512 Мбайт производства компании Chaintech. Впрочем, GeForce 9800 GX2 хоть и являлась до выхода GeForce GTX 280 самой быстрой видеокартой, новинка приходит на смену именно GeForce 9800 GTX и всем одночиповым видеокартам так или иначе ей предшествующим, а GeForce 9800 GX2 совсем скоро снимут с производства.

4. Результаты тестов производительности GeForce GTX 280 их анализ

В данном разделе сегодняшней статьи в целях минимизации зависимости производительности видеокарт от скорости системы, центральный процессор во время тестирования с увеличением напряжения до 1.6 В был разогнан до частоты в 4.04 ГГц:

При этом оперативная память функционировала на частоте в 1077 МГц с таймингами 5-5-5-12 при напряжении в 2.1 В.

На диаграммах результаты видеокарты GeForce 9800 GTX выделены фиолетовым цветом, а результаты GeForce GTX 280 – изумрудным цветом. Изучение результатов начнем с синтетического бенчмарка 3DMark 2006.

3DMark 2006

Первое число на линейчатой диаграмме – результат видеокарт в тестах HDR/SM3.0 Score, а второй, выделенный полужирным, – суммарный балл в 3DMark 2006:

Преимущество новой видеокарты в первом синтетическом бенчмарке не очень велико. Но здесь, скорее всего, имеет место быть невысокая для современных видеокарт нагрузка 3DMark 2006 при стандартных настройках качества графики. В более высоких разрешениях и с полноэкранным сглаживанием разница в производительности видеокарт была бы наверняка выше, но в данном бенчмарке большинству "попугаи" интересны именно при стандартных настройках 3DMark 2006, а мы с вами лучше уделим больше внимания игровым тестам, нежели синтетическим.

3DMark Vantage

Второй и последний синтетический бенч демонстрирует подавляющее превосходство GeForce GTX 280 над прежним топом в лице GeForce 9800 GTX. Новинка быстрее своей предшественницы на 82.8 % по числу общих баллов и на 99.7 % (!) в тесте графической подсистемы! Таким образом, можно сказать, что в тесте 3DMark Vantage видеокарта на новом графическом чипе почти вдвое превосходит GeForce 9800 GTX. Великолепный результат! Проверим теперь: подтверждается ли он в реальных играх.

S.T.A.L.K.E.R. - Shadow of Chernobyl (Direct3D 9)

Ну что же, GeForce GTX 280 опережает GeForce 9800 GTX на 40~47 % в зависимости от разрешения и режима качества. Пусть и не такой впечатляющий результат как в 3DMark Vantage, но всё-таки достаточно уверенное превосходство новинки над GeForce 9800 GTX. Справедливости ради, здесь необходимо отметить, что в S.T.A.L.K.E.R. - Shadow of Chernobyl вполне комфортный режим обеспечивает даже GeForce 9800 GTX, поэтому поклонникам данной игры приобретать новую видеокарту особого смысла нет.

Call of Juarez Bench (Direct3D 10)

От 46 % до 53 % преимущества над GeForce 9800 GTX демонстрирует новая GeForce GTX280 в Direct3D бенчмарке игры Call of Juarez. Тем не менее, даже несмотря на тот факт, что зачастую минимальный фрейм-рейт на GeForce GTX 280 близок к среднему на GeForce 9800 GTX, в режиме с полноэкранным сглаживанием и анизотропной фильтрацией комфортных ощущений в Call of Juarez оверклокерам не видать, как победы сборной России на чемпионате Европы 2008. На мой взгляд, тот факт, что новейшая видеокарта не способна обеспечить высокий фрейм-рейт в игре, вышедшей более года назад, говорит о том, что игра и бенчмарк на её основе оптимизирован под иную архитектуру GPU. Напомню, что видеокарты, в основе которых лежат графические процессоры ATI, демонстрируют более высокий фрейм-рейт в игре Call of Juarez, нежели на GPU от NVIDIA.

World in Conflict (Direct3D 10)

Тестирование видеокарт в игре World in Conflict наглядно демонстрирует рост преимущества GeForce GTX над GeForce 9800 GTX с переходом к более высоким разрешениям и качественным режимам графики. Так, всего лишь +19.3 % прироста в разрешении 1280 х 1024 без методик улучшения качества графики превращаются в +95.0 (!) % в разрешении 1920 х 1200 с полноэкранным сглаживанием степени 4х и анизотропной фильтрацией уровня 16х. Про минимальный фрейм-рейт у GeForce GTX 280 в этом режиме и вовсе можно слагать песни, он выше чем средний на GeForce 9800 GTX.

Enemy Territory: Quake Wars (OpenGL 2.0)

Обращаю ваше внимание, что в отличие от предыдущих тестов GeForce 9800 GTX, тестирование в данной игре в качественном режиме было проведено с полноэкранным сглаживанием степени 8x вместо использовавшегося ранее 4x. Это обусловлено невысокой нагрузкой на видеокарту в Enemy Territory: Quake Wars.

Прямо сказать, Enemy Territory: Quake Wars не слишком сложная игра для видеокарт предыдущего поколения, что уж тут говорить о GeForce GTX 280? В самых тяжелых режимах графики средний фрейм-рейт не опускается ниже 60 кадров в секунду, поэтому обладатели новых видеокарт или те, кто собираются их приобрести в будущем, могут позволить себе одновременно и роскошную картинку и комфортный режим по скорости. Ну а что касается преимущества GeForce GTX 280 над GeForce 9800 GTX, то в зависимости от режима качества и разрешения оно находится в диапазоне от +27.3 % до +66.5 %, что тоже довольно неплохо.

Call of Duty 4: Modern Warfare MP (Direct3D 9)

Похожую ситуацию мы можем наблюдать и в тестах Call of Duty 4. Скорость GeForce GTX 280 в этой игре выше чем у GeForce 9800 GTX на 29.9~49.9 %.

Unreal Tournament 3 (Direct3D 9)

В Unreal Tournament 3 преимущество новой видеокарты куда более существенно чем в двух предыдущих играх и в максимальной нагрузке на графическую подсистему достигает впечатляющих 88.9 %. Кроме того, с учетом того, что в реальном игровом процессе фрейм-рейт в Unreal Tournament 3 будет на 25~30 кадров в секунду ниже, нежели в тестовой сцене облёта, то в отношении GeForce 9800 GTX нельзя сказать, что игровой режим на данной видеокарте будет комфортен при любом качестве и разрешении, а GeForce GTX 280, напротив, удовлетворяет любые запросы геймера.

Crysis (Direct3D 10)

Crysis тестировался при следующих настройках качества графики (с учётом изменения AA):

Результаты тестов оказались более чем интересными:

В режиме без методик улучшения качества графики скорость GeForce GTX 280 выше, чем у GeForce 9800 GTX примерно на столько же, как и в предыдущих играх, а вот с полноэкранным сглаживанием и анизотропной фильтрацией в плане производительности видеокарт творятся в буквальном смысле чудеса. В разрешении 1280 х 1024 GeForce 9800 GTX ещё как-то пытается бороться со своим грозным соперником, но в более высоких разрешениях GeForce GTX 280 улетает вперёд, как стартующий болид F1 против Daewoo Matiz, а прирост производительности достигает трёх раз. Объясняется сей момент достаточно просто: в данном режиме качества и при высоких разрешениях игре Crysis уже попросту не хватает 512 Мбайт видеопамяти, имеющихся у GeForce 9800 GTX, в то время как 1024 Мбайта GeForce GTX 280, вкупе с существенно более мощным GPU, обеспечивают ему подавляющее лидерство в данной игре. Тем не менее, нельзя не обратить внимание на тот факт, что фрейм-рейт всё-таки низкий для комфортного игрового процесса.

Devil May Cry 4 (Direct3D 10)

Продолжая исследовать новый бенчмарк, хотелось бы отметить, что он оказался достаточно капризным в отношении активации полноэкранного сглаживания. Дело в том, что если вы активировали соответствующий пункт в настройках бенчмарка, то это ещё не значит, что сглаживание включено. Приходится выходить и вновь входить в бенч, либо снова изменять настройки. В принципе, активацию сглаживания в Devil May Cry 4 можно определить визуально, поэтому дополнительный контроль за тестом не помешает.

В бенчмарке мы можем быть свидетелями того, как GeForce GTX 280 опережает GeForce 9800 GTX на величину в 45.7~85.3 % в зависимости от режима качества графики и разрешения.

Теперь посмотрим на сводные диаграммы сравнения производительности GeForce 9800 GTX и GeForce GTX 280. Так как данных получилось довольно много, то диаграммы было решено разбить на три штуки, по одному разрешению на каждой. За основу (100 % производительности) принята скорость GeForce 9800 GTX, а процентами показан прирост, который демонстрирует GeForce GTX 280 в том или ином бенчмарке:

 

Рассчитав усреднённый процент прироста производительности по каждой диаграмме, можно сказать, что в разрешении 1280 х 1024 новая GeForce GTX 280 оказывается быстрее чем GeForce 9800 GTX на 45.3 %, в 1650 х 1080 на 56.0 %, ну а в 1920 х 1200 на 66.3 %. Если же брать во внимание только качественные режимы графики с полноэкранным сглаживанием и анизотропной фильтрацией, то прирост производительности составляет +55.1 %, +75.5 % и +88.9 % для 1280 х 1024, 1680 х 1050 и 1920 х 1200, соответственно.

5. "Процессорозависимость" GeForce GTX 280: блиц-тест

Чтобы проверить зависимость новой видеокарты от скорости платформы и центрального процессора, в частности, тестирование было дополнительно проведено и в номинальном режиме работы четырёхъядерного процессора Intel Core 2 Extreme QX9650 с оперативной памятью, функционирующей на 1066 МГц эффективной частоты. Кроме того, в тесты добавлен процессор Intel Core 2 Duo E8400 в двух режимах работы: номинальном на 3000 МГц с памятью на 1066 МГц, а также при разгоне до 4338 МГц с памятью на 1158 МГц. Вряд ли у потенциальных владельцев столь дорогой видеокарты GeForce GTX 280 окажется процессор медленнее и дешевле чем E8400, поэтому на других CPU и платформах тесты не проводились.

Дело в том, что термин “процессорозависимость” в заголовке данного подраздела статьи взят в кавычки не случайно. Далее станет понятно, почему так, поэтому без лишних комментариев привожу результаты тестов.

3DMark 2006
3DMark Vantage
S.T.A.L.K.E.R. - Shadow of Chernobyl (Direct3D 9)
Call of Juarez Bench (Direct3D 10)
World in Conflict (Direct3D 10)

 

Enemy Territory: Quake Wars (OpenGL 2.0)

 

Call of Duty 4: Modern Warfare MP (Direct3D 9)

 

Unreal Tournament 3 (Direct3D 9)

 

Crysis (Direct3D 10)

 

Devil May Cry 4 (Direct3D 10)

Итого: на существующих процессорах, драйверах ForceWare, и в тестируемых сегодня бенчмарках и играх для видеокарты GeForce GTX 280 быстрый процессор не нужен. Исключение составляют два “попугаемера”, в которых тесты GPU на разных процессорах различаются в пределах погрешности, и игра Unreal Tournament 3 в лёгких режимах графики. Во всех остальных игровых тестах разница между производительностью GeForce GTX 280 на разогнанных и неразогнанных, двухъядерных и четырёхъядерных процессорах минимальна. Очень интересная ситуация и мы обязательно вернёмся к её изучению в будущих статьях.

Заключение

По результатам сегодняшнего тестирования можно сделать вывод, что GeForce GTX 280, безусловно, удалась. Рассматривая новый графический чип и первую видеокарту на его основе с точки зрения производительности, необходимо отметить, подавляющее превосходство новинки над её одночиповым предшественником, достигающее, порой, трёхкратного. Усреднённые проценты прироста производительности в каждом режиме качества графики и разрешении варьируются от 45 до 90 %, что несомненно впечатляет. К сожалению, мне не удалось сравнить новинку с таким монстром, как GeForce 9800 GX2, но даже если скорость GeForce GTX 280 на фоне двухчиповой видеокарты уже не будет выглядеть столь впечатляющей, то однопроцессорный вариант всегда выгоднее с точки зрения отсутствия лагов из-за AFR-режима SLI.

Высокая стоимость новинки вряд ли уже кого-то удивляет, так как подобная ситуация повторяется из при анонсе топовых графических решений из года в год. Температурный режим сопоставим с оным у существующих видеокарт, также как и уровень шума турбины. GeForce GTX 280 не стала ни тише GeForce 9800 GTX, ни громче её. В плане энергопотребления аппетиты, конечно же, возросли, хотя и не так существенно, как было заявлено. Отдельно хотелось бы отметить движения компании NVIDIA в расширении функциональности графического процессора и наделения его массой дополнительных функций. Это, безусловно, очень интересные аспекты нового GPU, к исследованию которых мы обязательно ещё вернёмся.

Что же касается потенциальных соперников GeForce GTX 280 из “стана” компании ATI, то их обзор и тестирование вас также ожидает в скором времени. В общем, не уходите далеко, впереди ещё много интересного.