Карты geforce

Видеокарты являются неотъемлемым компонентом стационарных компьютеров, в которых не используется интегрированное видео. Задачей видеоадаптеров является обработка графической информации и ее вывод на внешние источники (например – мониторы, телевизоры или проекторы). В настоящее время дискретные видеоадаптеры используются в составе преимущественно домашних компьютеров. Бывают и исключения: видеокарты начального уровня часто монтируются в офисные системные блоки. Отдельный класс видеокарт составляют профессиональные модели, которые обычно используются для видеомонтажа и графического дизайна. Выбор видеокарт следует производить, исходя из уровня технических характеристик. Игровые компьютеры нужно комплектовать игровыми видеоадаптерами. Уровень производительности видеокарт главным образом зависит от возможностей графического процессора. Штатная частота видеочипа не имеет решающего значения: большое количество графических процессоров с меньшей частотой превосходят по производительности своих «собратьев» с большей частотой. Похожая ситуация и с видеопамятью: значительный объем памяти не самодостаточен. При этом из двух видеокарт с одинаковыми видеочипом более высокий уровень производительности будет иметь устройство с большим объемом памяти. Важным свойством видеокарт является наличие и количество видеоразъемов определенных типов. В интернет-магазине DNS вы сможете приобрести видеокарты ведущих мировых производителей. Воспользовавшись информацией о параметрах видеоадаптеров, вы сможете сделать выбор с высокой точностью.

Видеокарты NVIDIA поколения Pascal, появившиеся на свет еще в 2016 году, актуальны по сей день. И уже через несколько месяцев после выхода первых версий GeForce GTX 1080 и GTX 1070 стало понятно — ждать инструментов для модификации BIOS не стоит, так как Nvidia решила крепко связать всем руки, не позволяя выходить за рамки дозволенного рядовым пользователям. Многим такая политика не нравилась, но особого выбора не было: если было желание расширить лимиты мощности, увеличить базовую частоту и частоту ускорения без использования программных средств, то необходимо было искать совместимый с видеокартой BIOS от сторонних производителей. Главное, чтобы была схожая настройка системы охлаждения и одинаковый регулятор напряжения.

Но компания NVIDIA всё же оставила небольшую лазейку для регулировки работы GPU Boost 3.0: с помощью программ типа MSI Afterburner, EVGA Precision, Palit ThunderMaster и прочих, пользователи могут детально настраивать таблицу напряжений и частот. И в данной статье мы с вами рассмотрим основные нюансы данных настроек. Но начнем со знакомства с видеокартой Palit GeForce GTX 1080 Ti GameRock Premium, которая будет нашим верным помощником.

Внешний вид Palit GeForce GTX 1080 Ti GameRock Premium

Ни для кого не секрет, что выход GeFroce GTX 1080 и GTX 1070 для компании Palit стал серьезным рывком вперед: они одними из первых смогли насытить рынок достаточным количеством видеокарт, параллельно сопровождая их многочисленными обзорами. Palit GameRock и JetStream особенно отличались производительной системой охлаждения: одна из самых тихих систем охлаждения по нынешний день, при этом всего два вентилятора и менее 290 мм в длину. Да, пришлось заплатить толщиной видеокарт, но это не проблема для геймеров. Высокий заводской разгон — пожалуйста. Три года гарантии и одни из самых низких цен — всё здесь. Это привело к тому, что видеокарты Palit стали одними из самых популярных в сериях GTX 1060, GTX 1070 и GTX 1080.

С GeForce GTX 1080 Ti нужно было придумывать что-то новое, но оставив то, что привлекало покупателей. Думаю, что именно поэтому Palit GeForce GTX 1080 Ti GameRock Premium имеет внешнее сходство с младшей серией GameRock:

Немного изменилась цветовая гамма, но все основные черты родства прослеживаются.

Не осталась в стороне и обратная сторона видеокарты: укрепительная пластина с надписью GameRock пронизана множеством точек крепления с системой охлаждения, что придает уверенности в целостности сборки и отсутствии люфтов.

К сожалению, пропала контрольная панель для замера напряжений. Для рядовых пользователей это останется незаметным, те, кто любит заниматься экстремальным оверклокингом, могут почувствовать некоторые неудобства.

Количество занимаемых слотов расширения не изменилось: несмотря на увеличение тепловыделения по сравнению с GeForce GTX 1080, героиня обзора всё так же вписывается в три слота.

Мы видим то же самое двухсекционное строение радиатора. Даже количество и толщина тепловых трубок не перетерпели изменений. Неужели компания Palit так уверена в предельных возможностях системы охлаждения Palit GeForce GTX 1080 GameRock?

Панель видеовыходов имеет в своём арсенале DVI-D, что отличает Palit GeForce GTX 1080 Ti GameRock Premium от референсных решений GeForce GTX 1080 Ti. Поддержка аналоговых сигналов (DVI-I, VGA) отсутствует как класс, но зато есть три видеовыхода Displayport 1.4 и один HDMI 2.0.

Система охлаждения и печатная плата

Детальное изучение системы охлаждение подтверждает первые наблюдения: радиатор полностью повторяет решение 2016 года за исключением металлической пластины, исполняющей главную роль в отводе тепла от подсистемы питания.

В остальном традиции сохраняются: большое медное основание, пять толстых тепловых трубок, две отдельные секции на подсистему питания и графический процессор.

Главное отличие наблюдается при детальном рассмотрении: фирменная система охлаждения под названием TurboJet4 предусматривает использование двух соосных вентиляторов.

Особенностью данной конструкции является Anti-Vortex: в каждой паре вентиляторы вращаются в противоположных направлениях, что позволяет воздушным потокам более эффективно охлаждать массивный радиатор. На практике я так и не смог выявить никаких отличий (кроме повышения уровня шума, что естественно для такой конструкции), так как в наличии не было видеокарты JetStream для сравнения.

Печатная плата собственного дизайна Palit GeForce GTX 1080 Ti GameRock Premium имеет внушительные достоинства относительно референса: подсистема питания насчитывает 14 фаз (12 для графического процессора и 2 для микросхем памяти), дополнительное питание осуществляется с помощью двух восьмиконтактных разъемов.

В качестве регулятора напряжения выступает NCP 81274, расположенный на обратной стороне платы.

Хочется также отметить наличие двух микросхем BIOS, термопрокладок под укрепительной пластиной, возможность подключения RGB-лент и синхронизацию ее работы с подсветкой видеокарты.

Думаю, что на данной ноте мы закончим знакомство с видеокартой, посмотрим на тестовый стенд и приступим к главному вопросу статьи.

Тестовый стенд

• Процессор: Intel Core i7-5960X Extreme Edition «Haswell-E» 3000 МГц с разгоном до 4600 МГц при напряжении 1.28 В;

• Система охлаждения: самосборная СЖО;

• Термоинтерфейс: GELID GC-Extreme;

• Материнская плата: ASUS X99-A II (BIOS 1701);

• Оперативная память: 4х8 Гб KFA2 Hall of Fame (HOF4CXLBS4000M19SF162K);

• Видеокарта: Palit GeForce GTX 1080 Ti GameRock Premium (установлен водоблок полного покрытия от Bykski);

• Блок питания: Corsair RM1000i мощностью 1000 ватт;

• Системный накопитель: NVMe Plextor M8Pe(y) объемом 256 Гбайт;

• Корпус: Fractal Design Define S Window Black;

Программное обеспечение:

• Операционная система: Windows 10 x64 «Профессиональная» со всеми текущими обновлениями с Windows Update;

• Драйвер видеокарты: Nvidia GeForce Game Ready Driver WHQL 390.65.

Рабочие частоты, напряжения и энергопотребление видеокарт серии GeForce GTX 10

Перед тем как приступить к изучению работы видеокарты Palit GeForce GTX 1080 Ti GameRock Premium в различных условиях, мы с вами рассмотрим особенности ее микрокода.

С помощью программы TechPowerUp GPU-Z (можно бесплатно ) мы узнаем основную информацию о графическом процессоре и видеокарте, установленной в компьютер.

Для нас сейчас важны версия BIOS (на рассматриваемом образце — 86.02.40.00.49), базовая частота графического процессора (1595 МГц) и частота ускорения (1709 МГц). Эффективная частота памяти для GDDR5X высчитывается легко: умножаем значение в Memory на 8. В нашем случае 1376*8=11008 МГц, что соответствует стандартным спецификациям для Palit GeForce GTX 1080 Ti GameRock Premium.

Для GDDR5 (вся 10 серия, кроме видеокарт GeForce GTX 1080 и выше) значение в Memory необходимо умножать на 4.

Во вкладке Advanced находятся ответы на вопросы с энергопотреблением: в подразделе General/Power Limit видим текущий, минимальный, стандартный, и максимальный лимиты в процентном выражении,…

… а вкладка NVIDIA BIOS повествует нам то же самое, но в ваттах.

Диапазон регулирования для установленной версии BIOS на Palit GeForce GTX 1080 Ti GameRock Premium составляет -50% ~ +40%, что позволяет как расширить лимит потребления со стандартных 250 Вт до 350 Вт, так и «задушить» видеокарту, чтобы ее потребление не превышало 125 Вт.

Проверить точность указанных значений мы можем с помощью стандартных инструментов видеодрайвера Nvidia, а точнее — с помощью NVSMI.

Для этого запустите командную строку, перейдите в папку NVSMI, расположенную в каталоге с драйвером. При стандартной установке команда будет иметь следующий вид:

cd C:\Program Files\NVIDIA Corporation \NVSMI\

Далее вводим следующее:

nvidia-smi -i 0 -q -d POWER

и наблюдаем все значения лимитов мощности, включая мгновенные и усредненные за определенный промежуток времени:

Полезным функционалом обладает приложение NVIDIA Inspector: оно фиксирует текущие значения частоты графического процессора и микросхем видеопамяти, напряжение, потребление и состояние (P-state).

В режиме бездействия графический процессор видеокарты Palit GeForce GTX 1080 Ti GameRock Premium работает на частоте 139 МГц при напряжении 0.65 В, эффективная частота микросхем памяти находится на отметке 810 МГц, а потребление не превышает 20 Вт. Данные параметры являются состоянием P8, что мы и видим в NVIDIA Inspector:

Базовой частотой состояния P0, как я писал выше, являются 1594 МГц. Это та частота, которая может достигаться в режиме 2D без серьезной нагрузки на видеокарту. Запуск многих приложений (в том числе и браузера) заставляет видеокарту работать некоторое время на данной частоте.

Как видим, в такие моменты эффективная частота памяти может подниматься до 11008 МГц.

Следующее состояние — состояние повышенной нагрузки, когда графический процессор работает на максимальной частоте, прописанной в таблице частот и напряжений BIOS’а видеокарты. Благодаря использованию технологии GPU Boost 3.0, при отсутствии превышения текущего лимита энергопотребления видеокарта с графическим процессором Pascal работает на гораздо более высокой частоте, чем указывается в спецификациях (частота ускорения, или же boost).

Технология GPU Boost 3.0 является достаточно продвинутой, ее работа зависит от множества факторов: температуры графического процессора, лимита потребления, лимита напряжения, качества графического процессора (несмотря на невозможность считывания ASIC у видеокарт поколения Pascal, зависимость построения кривой частоты и напряжения никуда не делась, но выражается в меньшей степени, нежели это было у поколения Maxwell с технологией GPU Boost 2.0), а также версии микрокода BIOS.

Мой экземпляр Palit GeForce GTX 1080 Ti GameRock Premium в нагрузке без упора в лимит потребления и при температуре графического процессора 32°C работал на частоте 1987 МГц при 1.043 В. При нагрузке встроенным в GPU-Z рендером потребление видеокарты не превышало 180 Вт.

Еще одно состояние видеокарты, с которым явно знакомы майнеры, любители «интернет без антивируса» и люди, работающие со специализированным софтом — P-state 2 (P2). В данном режиме частота графического процессора следует алгоритмам P0, а вот микросхемы памяти работают на сниженной эффективной частоте: она достигает 10008 МГц вместо 11008 МГц (т.е. снижена на 1 ГГц). Это смещение работает и при разгоне памяти.

Отключить использование состояния P2 в вычислениях достаточно просто: запускаете nvidiaProfileInspector.exe, скачанный по ссылке выше, в пятой графе находите Cuda — Force P2 State и переводите в состояние Off.

Программа MSI Afterburner в представлении не нуждается: несмотря на широкий выбор программ от различных производителей видеокарт, данное приложение унифицировано и имеет самую лучшую поддержку с постоянно улучшаемым функционалом.

Видеокарты поколения Pascal не стали исключением: специально для них была реализована возможность регулирования таблицы частоты и напряжений. Следующие подсказки помогут в понимании того, что и как нужно делать:

Нажатие сочетания клавиш ctrl+F (или же можно нажать на значок рядом с ползунком графического процессора) выводит на экран эту самую таблицу в виде кривой. По ней мы можем определить алгоритм работы GPU Boost 3.0. И сделать это не так сложно.

Для видеокарт Pascal предельным рабочим напряжением по умолчанию является 1.063 В. Смотрим на график, находим по оси напряжений 1.063 В, проводит от него линию вверх, и находим точку пересечения с осью частот. При температуре графического процессора 27°C совпадающей частотой для рассматриваемого экземпляра Palit GeForce GTX 1080 Ti GameRock Premium является 1999 МГц.

Как я писал выше — GPU Boost 3.0 достаточно сложная технология. И указанная частота будет являться лишь мгновенной, потому что с появлением пределов напряжения и с повышением температура кривая частоты и напряжения будет меняться:

Точка с частотой 1999 МГц опустилась на один шаг и стала уже знакомой нам частотой 1987 МГц. Причем, если частоты диапазона рабочих напряжений расположены на одном уровне, то видеокарта будет работать на крайнем левом напряжении данной горизонтальной прямой. В нашем случае это напряжение 1.050 В и частота 1987 МГц.

Нагружаем видеокарту и видим описанный алгоритм воочию (программа указывает рабочую точку пересечением пунктирных линий):

Рассмотрим же и спецификации от производителей. Базовая частота на кривой находится без особых проблем: 1594 МГц, которые мы с вами видели в GPU-Z, соответствует напряжению 812 мВ.

Переводим видеокарту в режим low 3D (P0) и видим,…

… что наши предположения снова находят подтверждения.

А вот искать частоты ускорения (boost) может быть бесполезным занятием: рассматриваемая видеокарта по умолчанию даже не имеет частоты 1709 МГц в таблице состояний:

Столь жесткое ограничение в сочетании с тяжелой нагрузкой дают свои «плоды»: строка PerfCap Reason в GPU-Z пронизана зелеными линиями, обозначающими превышение лимита мощности.

Зафиксированная максимальная частота 1987 МГц является кратковременным пиком (скорее всего, на загрузочном экране перед тестом), недостаток потребления сказывается на рабочей частоте: она постоянно прыгает от 1795 до 1898 МГц.

Средняя частота находится на уровне 1850 МГц и выше паспортных значений, но далека от частоты, которую мы видели в рендере GPU-Z.

Естественно, что столь частые переключения частоты сказались и на действующем напряжении: оно находилось в диапазоне 925-990 мВ, следуя кривой частот и напряжений.

График энергопотребления подтверждает гипотезу о жесткости его лимита: среднее значение составило 245 Вт, и лишь короткие скачки фиксировались выше 260 Вт.

Соответствующий график в процентном выражении приводит нас к тем самым 100% лимита в MSI Afterburner:

Среднее количество кадров в секунду едва превышало 40, но мы видим высокую повторяемость от теста к тесту. Немудрено, ведь тест стабильности Firestrike Ultra был пройден с результатом 97.7%.

Немного отойдем от темы снижения энергопотребления и рассмотрим алгоритм работы графического процессора при увеличении лимита мощности до максимума. Для этого сдвигаем соответствующий ползунок в MSI Afterburner до максимума.

Визуальные изменения не заставили себя ждать: PerfCap Reason в GPU-Z имеет редкие зеленые всплески, что говорит о практическом отсутствии упора в лимит энергопотребления.

И вот теперь частота графического процессора достигла 1987 МГц, и лишь температура и уровень нагрузки заставили снизиться ее на один шаг — до 1974 МГц.

Таблица напряжений следует неизменному алгоритму. Бо́льшую часть теста видеокарта работает на частоте 1974 МГц при 1.05 В.

Среднее энергопотребление составило 312 Вт с короткими пиками до 350 Вт.

График процентного соотношения показывает частые ограничения на 138%, что и выливается в 98% стабильности в тесте устойчивости.

Частота кадров поднялась выше 42 в секунду, что соответствует приросту производительности в 5%.

Всего 5% при росте энергопотребления в 26%!

Нет, так дело не пойдет. Открываем MSI Afterburner и устанавливаем ползунок лимита энергопотребления на 80%, что соответствует ограничению на 200 Вт.

В тесте устойчивости воспроизводится картина с заводскими настройками: превышение лимита мощности на протяжении всего теста.

Это приводит к постоянному переключению частоты…

… и напряжения.

Средняя частота графического процессора опускается ниже указанной производителем, что уже является нестандартным режимом для видеокарты. Зато среднее энергопотребление находится на уровне 196 Вт, что даже ниже, чем у нереференсных версий GeForce GTX 1080!

Количество кадров в секунду опустилось ниже 38, что является снижением производительности почти на 11% относительно теста с расширенными до максимума лимитами потребления.

Только вот энергопотребление снизилось более чем на треть — на 37%!

Да, можно еще снизить лимит энергопотребления и наблюдать за падением частоты, напряжения и производительности. Но у нас с вами другая задача, поэтому приступим к изменению кривой частот и напряжений.

Снижение рабочего напряжения с помощью таблицы частот и напряжений

Как я писал выше, изначально предел напряжения для стоковых BIOS видеокарт поколения Pascal установлен на 1.063 В. С помощью сторонних программ этот предел можно увеличить до 1.093 В (несмотря на громкие +100 мВ в том же MSI Afterburner). Но нас сейчас интересует не это, а рабочие частоты и диапазон их работы. Чтобы приступить к андервольтингу с помощью кривой частот и напряжений, стоит запомнить одно правило: максимальная частота ускорения при отсутствии внешних ограничивающих факторов не будет ниже частоты, находящейся на отметке 1.063 В. Действующее напряжение на горизонтальной прямой данной частоты принимается за крайнюю левую точку.

Следующий график наглядно демонстрирует нам это:

Красная линия — отметка 1.063 В. Зеленая горизонтальная линия — частота на отметке 1.063 В. Зеленая вертикальная линия — действующее напряжение

Продолжая логическую цепочку: для того, чтобы уменьшить максимальное напряжение в состояниях P0/P2, необходимо продолжить указанную горизонтальную линию влево, чтобы нужное нам напряжение находилось на данной прямой и было самым крайним.

Легким движением руки превращаем 1.050 В в 1.0 В:

Нет никаких пределов напряжения, в GPU-Z наблюдается VRel.

Если же все точки до напряжения 1.2 В разместить на одном уровне, то в GPU-Z увидим флаг предела напряжения, который с нагревом видеокарты может превратить линию в «светофор» — возникновение всех лимитов.

Данным способом мы снижаем рабочее напряжение, не изменяя частоту ускорения. Но все частоты слева от данной точки остаются неизменны. А ведь практически все видеокарты Pascal (как нереференсные, так и эталонные) имеют неплохой частотный запас. Почему бы не разогнать героиню обзора с помощью смещения ползунка в MSI Afterburner,…

… а потом провести действия со снижением напряжения?

Кроме смещения частоты ползунком функционал MSI Afterburner позволяет изменять только близлежащие к выбранной точки. Для этого нужно удерживать CTRL и с помощью мыши тянуть точку вверх.

Это общие принципы, теперь перейдем к получению стабильных сочетаний частоты и напряжения для тестируемого экземпляра Palit GeForce GTX 1080 Ti GameRock Premium.

Если не ограничивать лимит энергопотребления видеокарты, то максимальная частота достигает 1987 МГц при 1.05-1.062 В, а среднее потребление — 310 Вт (~124%). Насколько можно снизить напряжение для получения такой частоты?

GeForce GTX 1080 Ti на частоте 1987 МГц полностью стабильна была при 0.975 В.

Но данная частота достигалась лишь при расширенном до максимума лимите энергопотребления. Ограничиваем его на 250 Вт — наблюдаем прыжки частоты и напряжения.

Средняя частота находилась на отметке 1885 МГц, что лишь на 35 МГц превышает полученные на заводских настройках результаты.

Напряжение следовало за частотой:

Картина с энергопотреблением не изменилась — всё так же упиралось в 250 Вт (100%).

В производительности мы выиграли 0.5 кадра в секунду, а потребление не изменилось.

Это говорит о том, что результаты, полученные с расширенным до максимума лимитом потребления, не получится повторить при его ограничении до 250 Вт и снижении рабочего напряжения.

Но что, если ограничить напряжение на ~0.9 В?

Даже по GPU-Z мы видим ровные графики напряжения и частоты.

Видеокарта даже при ограничении лимита энергопотребления на 250 Вт способна стабильно работать на частоте 1860 МГц при 0.9 В.

Среднее потребление составило 220 Вт, а в пиках не превышало 240 Вт.

А производительность по сравнению со стоковым значением не изменилась.

Но мы получили стабильную частоту и уменьшили среднее энергопотребление. Следующий шаг — 250 Вт (80% лимита мощности).

Уменьшаем напряжение еще на 50 мВ. При 0.85 В графический процессор отлично работал на частоте 1760 МГц, что всё еще выше гарантированной частоты ускорения.

Провалов по частоте и напряжению не было.

Результаты значительно лучше, чем при простом ограничении лимита на 80%

А среднее энергопотребления составило всего 195 Вт!

В производительности мы потеряли 0.5 кадра в секунду.

Но итоговый результат на 3% выше, чем полученный при простом ограничении лимита.

Заключительный аккорд: напряжение 0.825 В, стабильность достигнута на частоте 1721 МГц.

Картина повторяется, но пиковое потребление зафиксировано на 80.2% (200 Вт).

Говорить о стабильности частоты и напряжения — просто констатировать факты.

Что нас действительно интересует — это энергопотребление и производительность.

И результат нельзя назвать выдающимся: среднее энергопотребление снизилось лишь на 9 Вт.

Зато и производительность практически не изменилась, потери составили 0.3 кадра в секунду.

Да, всему есть свой предел. Но снижение с 250 Вт до 186 Вт практически без потери производительности — это отличный результат.

Подведение итогов

Изначально хотелось провести лишь небольшое исследование, но всё вылилось в «простыню». Надеюсь, что не утомил вас, дорогие читатели. И постараюсь вкратце подвести итоги.

Видеокарты поколения Pascal благодаря GPU Boost 3.0 имеют сложные алгоритмы работы. Мы изучили следующие влияния:

1) Расширение лимита энергопотребления до максимального значения может стабилизировать частоту графического процессора, но ценой значительного увеличения энергопотребления при малом росте производительности.

2) Снижение лимита энергопотребления может приводить к снижению действующей частоты ниже гарантированной производителем, падение производительности при этом не прямо пропорционально снижению энергопотребления.

3) С помощью ручной настройки кривой частоты и напряжения можно добиться стабильной частоты графического процессора и снижения энергопотребления без уменьшения его лимита.

Следующая диаграмма позволяет оценить в процентном соотношении зависимость количества кадров в секунду от рассмотренного режима работы графического процессора.

Соотнесем это с аналогичным графиком энергопотребления:

И переведем полученные данные в соотношение производительности к потреблению:

Да, дорогие читатели, ситуация с рассматриваемой GeForce 1080 Ti мало чем отличается от рассматриваемой ранее AMD Radeon RX Vega 56: заводские настройки многих нереференсных плат не оптимальны, и для получения жалких 5% производительности отклонение энергопотребления в сторону увеличения может составлять 26%. А повышенное энергопотребление приводит к увеличению рабочих температур, шума, счетов за электричество.

Как поступить, разогнать или прибегнуть к undervolting? Пусть на этот вопрос каждый сам найдет ответ.

Современные графические процессоры содержат множество функциональных блоков, от количества и характеристик которых зависит и итоговая скорость рендеринга, влияющая на комфортность игры. По сравнительному количеству этих блоков в разных видеочипах можно примерно оценить, насколько быстр тот или иной GPU. Характеристик у видеочипов довольно много, в этом разделе мы рассмотрим самые важные из них.

Тактовая частота видеочипа

Рабочая частота GPU измеряется в мегагерцах, в миллионах тактов в секунду. Эта характеристика прямо влияет на производительность видеочипа, чем она выше, тем больший объем работы чип может выполнить в единицу времени, обработать большее количество вершин и пикселей. Пример из реальной жизни: частота видеочипа, установленного на плате RADEON X1900 XTX равна 650 МГц, а точно такой же чип на RADEON X1900 XT работает на частоте в 625 МГц. Соответственно будут отличаться и все основные характеристики производительности. Но далеко не только рабочая частота чипа однозначно определяет производительность, на его скорость сильно влияет и архитектура: количество различных исполнительных блоков, их характеристики и т.п.

В последнее время участились случаи, когда тактовая частота для отдельных блоков GPU отличается от частоты работы всего остального чипа. То есть, разные части GPU работают на разных частотах, и сделано это для увеличения эффективности, ведь некоторые блоки способны работать на повышенных частотах, а другие — нет. Из последних примеров можно назвать семейство GeForce 8800 от NVIDIA, видеочип модели GTS работает на частоте 512 МГц, но универсальные шейдерные блоки тактуются на значительно более высокой частоте — 1200 МГц.

Скорость заполнения (филлрейт)

Скорость заполнения показывает, с какой скоростью видеочип способен отрисовывать пиксели. Различают два типа филлрейта: пиксельный (pixel fill rate) и текстурный (texel rate). Пиксельная скорость заполнения показывает скорость отрисовки пикселей на экране и зависит от рабочей частоты и количества блоков ROP (блоков операций растеризации и блендинга), а текстурная — это скорость выборки текстурных данных, которая зависит от частоты работы и количества текстурных блоков.

Например, пиксельный филлрейт у GeForce 7900 GTX равен 650 (частота чипа) * 16 (количество блоков ROP) = 10400 мегапикселей в секунду, а текстурный — 650 * 24 (кол-во блоков текстурирования) = 15600 мегатекселей/с. Чем больше первое число — тем быстрее видеокарта может отрисовывать готовые пиксели, а чем больше второе — тем быстрее производится выборка текстурных данных. Оба параметра важны для современных игр, но они должны быть сбалансированы. Именно поэтому количество блоков ROP в чипах семейства G7x, на которых построено семейство GeForce 7, меньше количества текстурных и пиксельных блоков.

Количество блоков пиксельных шейдеров (или пиксельных процессоров)

Пиксельные процессоры — это одни из главных блоков видеочипа, которые выполняют специальные программы, известные также как пиксельные шейдеры. По числу блоков пиксельных шейдеров и их частоте можно сравнивать шейдерную производительность разных видеокарт. Так как большая часть игр сейчас ограничена производительностью исполнения пиксельных шейдеров (см. технологические обзоры игр), то количество этих блоков очень важно! Если одна модель видеокарты основана на GPU с 8 блоками пиксельных шейдеров, а другая из той же линейки — 16 блоками, то при прочих равных вторая будет вдвое быстрее обрабатывать пиксельные программы, и в целом будет производительнее. Но на основании одного лишь количества блоков делать однозначные выводы нельзя, обязательно нужно учесть и тактовую частоту и разную архитектуру блоков разных поколений и производителей чипов. Чисто по этим цифрам прямо можно сравнивать чипы только в пределах одной линейки одного производителя: AMD(ATI) или NVIDIA. В других же случаях нужно обращать внимание на тесты производительности в интересующих играх.

Количество блоков вершинных шейдеров (или вершинных процессоров)

Аналогично предыдущему пункту, эти блоки выполняют программы шейдеров, но уже вершинных. Данная характеристика важна для некоторых игр, но не так явно, как предыдущая, так как даже современными играми блоки вершинных шейдеров почти никогда не бывают загружены даже наполовину. И, так как производители балансируют количество разных блоков, не позволяя возникнуть большому перекосу в распределении сил, количеством вершинных процессоров при выборе видеокарты вполне можно пренебречь, учитывая их только при прочих равных характеристиках.

Количество унифицированных шейдерных блоков (или универсальных процессоров)

Унифицированные шейдерные блоки объединяют два типа перечисленных выше блоков, они могут исполнять как вершинные, так и пиксельные программы (а также геометрические, которые появились в DirectX 10). Впервые унифицированная архитектура была применена в видеочипе игровой консоли Microsoft Xbox 360, этот графический процессор был разработан компанией ATI. А в видеочипах для персональных компьютеров унифицированные шейдерные блоки появились не так давно, с появлением плат NVIDIA GeForce 8800. И, похоже, что все DirectX 10 совместимые видеочипы будут основаны на подобной унифицированной архитектуре. Унификация блоков шейдеров значит, что код разных шейдерных программ (вершинных, пиксельных и геометрических) универсален, и соответствующие унифицированные процессоры могут выполнить любые программы из вышеперечисленных. Соответственно, в новых архитектурах число пиксельных, вершинных и геометрических шейдерных блоков как бы сливается в одно число — количество универсальных процессоров.

Блоки текстурирования (TMU)

Эти блоки работают совместно с шейдерными процессорами всех указанных типов, ими осуществляется выборка и фильтрация текстурных данных, необходимых для построения сцены. Число текстурных блоков в видеочипе определяет текстурную производительность, скорость выборки из текстур. И хотя в последнее время большая часть расчетов осуществляется блоками шейдеров, нагрузка на блоки TMU до сих пор довольно велика, и с учетом упора некоторых игр в производительность блоков текстурирования, можно сказать, что количество блоков TMU и соответствующая высокая текстурная производительность являются одними из важнейших параметров видеочипов. Особое влияние этот параметр оказывает на скорость при использовании трилинейной и анизотропной фильтраций, требующих дополнительных текстурных выборок.

Блоки операций растеризации (ROP)

Блоки растеризации осуществляют операции записи рассчитанных видеокартой пикселей в буферы и операции их смешивания (блендинга). Как мы уже отмечали выше, производительность блоков ROP влияет на филлрейт и это — одна из основных характеристик видеокарт всех времен. И хотя в последнее время её значение несколько снизилось, еще попадаются случаи, когда производительность приложений сильно зависит от скорости и количества блоков ROP (см. технологические обзоры игр). Чаще всего это объясняется активным использованием фильтров постобработки и включенным антиалиасингом при высоких игровых настройках.

Нужно еще раз отметить, что современные видеочипы нельзя оценивать только числом разнообразных блоков и их частотой. Каждая серия GPU использует новую архитектуру, в которой исполнительные блоки сильно отличаются от старых, да и соотношение количества разных блоков может отличаться. Компания ATI первой применила архитектуру, в которой количество блоков пиксельных шейдеров было в разы больше числа блоков текстурирования. Это было сделано немного преждевременно, на наш взгляд, но в некоторых приложениях пиксельные блоки используются более активно, чем остальные и для таких приложений подобное решение будет неплохим вариантом, не говоря уже о будущем. Также, в предпоследней архитектуре AMD(ATI) нет отдельных пиксельных конвейеров, пиксельные процессоры не «привязаны» к блокам TMU. Впрочем, у NVIDIA в GeForce 8800 получилось еще сложнее…

Рассмотрим ситуацию на примере видеокарт GeForce 7900 GT и GeForce 7900 GS. Обе они имеют одинаковые рабочие частоты, интерфейс памяти и даже одинаковый видеочип. Но модификация 7900 GS использует GPU с 20 активными блоками пиксельных шейдеров и текстурных блоков, а видеокарта 7900 GT — по 24 блока каждого типа. Рассмотрим разницу в производительности этих двух решений в игре Prey:

Разница в количестве основных исполнительных блоков в 20% дала разный прирост скорости в тестовых разрешениях. Значение 20% оказалось недостижимо потому, что производительность в Prey не ограничена на этих видеокартах только скоростью блоков TMU и ROP. Разница в разрешении 1024×768 составила меньше 8%, а в более высоких достигла 12%, что ближе к теоретической разности в количестве исполнительных блоков.

Объем видеопамяти

Собственная память используется видеочипами для хранения необходимых данных: текстур, вершин, буферов и т.п. Казалось бы, что чем её больше — тем лучше. Но не всё так просто, оценка мощности видеокарты по объему видеопамяти — это наиболее распространенная ошибка! Значение объема памяти неопытные пользователи переоценивают чаще всего, используя его для сравнения разных моделей видеокарт. Оно и понятно — раз параметр, указываемый во всех источниках одним из первых, в два раза больше, то и скорость у решения должна быть в два раза выше, считают они. Реальность же от этого мифа отличается тем, что рост производительности растет до определенного объема и после его достижения попросту останавливается.

В каждой игре есть определенный объем видеопамяти, которого хватает для всех данных, и хоть 4 ГБ туда поставь — у нее не появится причин для ускорения рендеринга, скорость будут ограничивать исполнительные блоки, о которых речь шла выше. Именно поэтому почти во всех случаях видеокарта с 320 Мбайт видеопамяти будет работать с той же скоростью, что и карта с 640 Мбайт (при прочих равных условиях). Ситуации, когда больший объем памяти приводит к видимому увеличению производительности, существуют, это очень требовательные игры в высоких разрешениях и при максимальных настройках. Но такие случаи весьма редки, поэтому, объем памяти учитывать нужно, но не забывая о том, что выше определенного объема производительность просто не растет, есть более важные параметры, такие как ширина шины памяти и ее рабочая частота. Подробнее о выборе объема видеопамяти читайте во второй части статьи.

Ширина шины памяти

Ширина шины памяти является важнейшей характеристикой, влияющей на пропускную способность памяти (ПСП). Большая ширина позволяет передавать большее количество информации из видеопамяти в GPU и обратно в единицу времени, что положительно влияет на производительность в большинстве случаев. Теоретически, по 128-битной шине можно передать в два раза больше данных за такт, чем по 64-битной. На практике разница в скорости рендеринга хоть и не достигает двух раз, но весьма близка к этому во многих случаях с упором в пропускную способность видеопамяти.

Современные видеокарты используют разную ширину шины: от 64 до 512 бит, в зависимости от ценового диапазона и времени выпуска конкретной модели GPU. Для low-end видеокарт чаще всего используется 64- и (значительно реже) 128-бит, для среднего уровня 128-бит и иногда 256-бит, ну а high-end видеокарты используют шины от 256 до 512 бит шириной.

Частота видеопамяти

Еще одним параметром, влияющим на пропускную способность памяти, является её тактовая частота. А как мы поняли выше, повышение ПСП прямо влияет на производительность видеокарты в 3D приложениях. Частота шины памяти на современных видеокартах бывает от 500 МГц до 2000 МГц, то есть может отличаться в четыре раза. И так как ПСП зависит и от частоты памяти и от ширины ее шины, то память с 256-битной шиной, работающая на частоте 1000 МГц, будет иметь большую пропускную способность, по сравнению с 1400 МГц памятью с 128-битной шиной.

Рассмотрим относительную производительность видеокарт с разной пропускной способностью на примере видеокарт RADEON X1900 XTX и RADEON X1950 XTX, которые используют почти одинаковые GPU с одними характеристиками и частотой. Основные их отличия состоят в типе и частоте используемой памяти — GDDR3 на частоте 775(1550) МГц и GDDR4 на 1000(2000) МГц, соответственно.

Хорошо видно, как отстает карта с меньшей пропускной способностью памяти, хотя разница никогда не достигает теоретических 29%. Разница между достигнутой частотой кадров растет с увеличением разрешения, начинаясь с 8% в 1024×768 и достигая 12-13% в максимальных режимах. Но это сравнение видеокарт с небольшой разницей в ПСП, а особенное внимание на параметры ширины шины памяти и частоты ее работы следует уделять при покупке недорогих видеокарт, на многие из которых ставят лишь 64-битные интерфейсы, что сильно сказывается на их производительности. Вообще, покупка решений на базе 64-бит шины для игр вовсе не рекомендуется.

Типы памяти

На видеокарты устанавливают несколько различных типов памяти. Старую SDR память с одинарной скоростью передачи мы рассматривать не будем, её уже почти нигде не встретишь. Все современные типы памяти DDR и GDDR позволяют передавать в два раза большее количество данных на той же тактовой частоте за единицу времени, поэтому цифру её рабочей частоты зачастую указывают удвоенной (умножают на два). Так, если для DDR памяти указана частота 1400 МГц, то эта память работает на физической частоте в 700 МГц, но указывают так называемую «эффективную» частоту, то есть ту, на которой должна работать SDR память, чтобы обеспечить такую же пропускную способность.

Основное преимущество DDR2 памяти заключается в возможности работы на больших тактовых частотах, а соответственно — увеличении пропускной способности по сравнению с предыдущими технологиями. Это достигается за счет увеличенных задержек, которые, впрочем, не так важны для видеокарт. Первой платой, использующей DDR2 память, стала NVIDIA GeForce FX 5800 Ultra. По сути, на ней стояла GDDR2 память, которая не настоящая DDR2, а нечто среднее между технологиями DDR и DDR2. После применения GDDR2 в серии GeForce FX 5800, последующие видеокарты NVIDIA использовали DDR память, но эта память получила дальнейшее распространение в GeForce FX 5700 Ultra и в некоторых более поздних mid-end видеокартах. С тех пор технологии графической памяти продвинулись дальше, был разработан стандарт GDDR3, который близок к спецификациям DDR2, с некоторыми изменениями, сделанными специально для видеокарт.

GDDR3 — это специально предназначенная для видеокарт память, с теми же технологиями, что и DDR2, но с улучшениями характеристик потребления и тепловыделения, что позволило создать микросхемы, работающие на более высоких тактовых частотах. И опять же, несмотря на то, что стандарт был разработан в ATI, первой видеокартой, ее использующей, стала вторая модификация NVIDIA GeForce FX 5700 Ultra, а следующей стала GeForce 6800 Ultra.

Ну а GDDR4 — это последнее поколение «графической» памяти, работающее почти в два раза быстрее, чем GDDR3. Основными отличиями GDDR4 от GDDR3, существенными для пользователей, являются в очередной раз повышенные рабочие частоты и сниженное энергопотребление. Технически, память GDDR4 не сильно отличается от GDDR3, это дальнейшее развитие тех же идей. Первыми видеокартами с чипами GDDR4 на борту стали RADEON X1950 XTX, а у компании NVIDIA продукты на базе этого типа памяти еще не вышли. Преимущества новых микросхем памяти перед GDDR3 в том, что энергопотребление модулей может быть примерно на треть ниже. Это достигается за счет более низкого номинального напряжения для GDDR4.

Итак, видеопамять самых современных типов: GDDR3 и GDDR4, отличается от DDR некоторыми деталями, но также работает с удвоенной передачей данных. В ней применяются некоторые специальные технологии, позволяющие поднять частоту работы. Так, GDDR2 память обычно работает на более высоких частотах, по сравнению с DDR, GDDR3 — на еще более высоких, ну а GDDR4 обеспечивает максимальную частоту и пропускную способность.