Кратеры производительности NVIDIA GPU Когда G-Sync, SLI используются вместе

Кратеры производительности NVIDIA GPU Когда G-Sync, SLI используются вместе

Несколько дней назад один из наших читателей поднял идею о том, что G-Sync имеет ограничение производительности, связанное с его использованием. Было немного удивительно видеть - Nvidia ранее заверил меня, что для G-Sync нет штрафа за производительность, но в отчетах на форумах Nvidia есть пользователи с результатами тестов, сравнивающих G-Sync On с G-Sync Off. Имеются обширные отчеты, и они встречаются в течение нескольких месяцев, включая сообщения в сообществе reddit Nvidia.

Снижение производительности, о котором сообщается на форумах, похоже, связано с SLI. Существует некоторая двусмысленность в отношении того, как долго проблема существует. Я видел, как некоторые люди утверждают, что она связана с драйверами, выпущенными после семейства 391.xx, и другими, которые заявили, что проблема существует в течение всего времени. На Nvidia были графические процессоры Pascal на рынке , Вопрос прост: согласно сообщениям на форумах Nvidia и в субредите Nvidia, включение G-Sync одновременно с SLI приводит к значительному снижению производительности во многих играх.

SLI - технология Nvidia для использования более одного графического процессора для одновременной рендеринга сцены, а G-Sync - технология, которая сглаживает частоту кадров по сравнению со стандартным V-Sync, гарантируя, что монитор синхронизируется с частотой обновления графического процессора и представляет так же быстро, как дисплей способен доставить его. И хотя я не могу точно рассказать о том, в чем проблема, мы можем понять причину: Сроки.

Как G-Sync, так и SLI имеют важные временные последствия. Хранение графического процессора и монитора в синхронизации требует времени. Перенос данных с одного графического процессора на другой, а затем отображение кадров, созданных этим же графическим процессором, требует времени. Если вы нацеливаете 30 кадров в секунду, вам необходимо доставить новый кадр каждые 33,3 мс. Если вы хотите работать со скоростью 60 кадров в секунду, это означает, что вам нужен новый кадр каждые 16,6 мс. Если вы нацеливаете 120 кадров в секунду, это означает, что вам нужен новый кадр каждые 8,3 мс. В определенный момент у вас есть очень ограниченное окно, с которым можно работать.

Это наша теория, по крайней мере, потратив некоторое время на изучение этой проблемы. Чтобы начать, давайте посмотрим на результаты пользователя octiceps, размещенные на форумах Nvidia:

Данные пользователей Nvidia.
Данные пользователей Nvidia.

На этом графике есть огромные капли. Rising Storm 2 идет от более чем 200 кадров в секунду до 75? А потом, наоборот, есть очень небольшие пробелы. 10-процентное падение в «Ведьмаке-3» по-прежнему значимо - никто не хочет бросать фреймы, но если мы будем честными, это будет не тот пробел, который вы заметили бы, если бы вы не использовали бенчмарк или не знали какую-то определенную область с мамонтовым кадром Это.

Я решил сам проверить ситуацию с помощью пары графических процессоров GTX 1080, карт самого высокого уровня, которые у меня есть в согласованной паре. Оптика проблемы довольно плохая. Хотя владельцев SLI не так много, а тем более владельцев SLI с мониторами G-Sync, немногие из которых, вероятно, представляют собой крупнейшие потребители в экосистеме энтузиастов. Если вы купили в G-Sync несколько лет назад, вы могли бы легко сбросить 600 долларов за GTX 1080 (или 700 долларов за 1080 Ti) плюс монитор за 500 долларов. Учитывая, что наиболее распространенной конфигурацией Steam Survey является GTX 1060 в паре с монитором 1080p, это люди, бросающие серьезные деньги на оборудование Nvidia.

Испытательная установка

Я подозреваю, что существует существенная разница в конфигурации между монитором G-Sync, который у нас имеется, и аппаратным обеспечением, которым пользуются эти энтузиасты. Единственный монитор G-Sync, который у меня есть, - Acer XB280HK, и хотя он поддерживает 4K, он поддерживает максимальную частоту обновления 60 Гц. Это означает, что по определению я не могу использовать G-Sync в тестах, которые влияют на частоту кадров выше 60 Гц. Если это проблема синхронизации, которая возникает только выше этой частоты кадров, я, по определению, ее не увижу.

Спойлер: Это не так, и я это сделал.

Что облегчает проверку, так это то, что наш тестовый стенд Core i7-8086K, который мы использовали для RTX 2080 и 2080 Ti, все еще полностью собран. Вся система была совершенно новой установкой Windows 10 с одним драйвером Nvidia, когда-либо установленным (411.63). Это нетронутая конфигурация - даже игры загружались с нуля, а не копировали архивные библиотеки Steam.

Мы протестировали две игры, которые были упомянуты энтузиастами, поскольку они были специально затронуты, а один титул - нет. Наши целевые частоты кадров были настолько близки к 60fps, насколько это возможно, не обойдя его, и мы смоделировали поведение различных заголовков при разных разрешениях, чтобы проверить, насколько проблема возникла или исчезла в зависимости от средней частоты кадров графического процессора. Мы также протестировали множество других потенциальных переменных, в том числе, был ли G-Sync установлен на полноэкранный режим или также активен в режиме без полей и был ли включен или отключен V-Sync. Мы не наблюдали различий в производительности, которые в противном случае не объяснялись изменением самого V-Sync. Мы также протестировали, чтобы определить, имеет ли значение использование DX11 по сравнению с DX12 в названиях, которые поддерживали оба.

Мы не заметили никакого влияния на производительность от изменения G-Sync, чтобы работать в режиме без полей, а не только в полноэкранном режиме, и мы не видели изменения производительности при переключении между V-Sync и V-Sync. Имейте в виду, что мы тестировали только несколько игр - мы искали потенциальные доказательства проблемы, не пытаясь выполнить исчерпывающую оценку всех условий, при которых производительность G-Sync может варьироваться в 10-15 играх.

Поскольку пара 1080-х, в некоторых случаях, способна повысить современные игры до 60 кадров в секунду даже при 4K, мы также проверили игры, которые позволяют суперсэмплинг. Наконец, мы провели эти тесты как на одном GTX 1080 Ti, так и на паре GTX 1080. Все проблемы, которые мы наблюдали, по-видимому, уникальны для графических процессоров, работающих в SLI. 1080 Ti не испытывал никаких проблем в какой-либо тестовой конфигурации, и мы не видели никакой разницы между включенной G-Sync и G-Sync при тестировании одного GPU.

Deus Ex: человечество разделено

Deus Ex: Mannind Divided показывает небольшую, но определенную потерю производительности, когда включен G-Sync, как показано ниже. Интересно, что этот пробел появляется только в режиме DX11. Когда мы перешли на DX12, он исчез.

Кратеры производительности NVIDIA GPU Когда G-Sync, SLI используются вместе
Кратеры производительности NVIDIA GPU Когда G-Sync, SLI используются вместе

Far Cry 5

Поскольку мы должны постоянно поддерживать частоту кадров менее 60 кадров в секунду, чтобы увидеть истинное влияние включения или выключения G-Sync, мы протестировали FC5 в четырех разных разрешениях: суперкаспрессую 4K, 4K + 1,1x, суперкаспертизацию 4K + 1,3x и 4K + 1,5x суперсэмплинг. Ниже приведены результаты и разрыв в производительности между G-Sync и G-Sync:

Кратеры производительности NVIDIA GPU Когда G-Sync, SLI используются вместе

Чем ближе GPU работает до 60 кадров в секунду, тем больше разрывов. По мере уменьшения частоты кадров разрыв между двумя решениями также уменьшается. Это, по-видимому, означает, что наша теория времени может быть правильной. По крайней мере, наши результаты подтверждают наблюдение пользователя shaunwalsh в Nvidia, что «запуск Gsync снижает FPS на 10-20% в зависимости от названия. Я тестировал это в FC5 и Ghost Recon Wildlands. «Наши результаты показывают, что FC5 находится в диапазоне от 1.09x и 1.20x быстрее, когда G-Sync отключен, в зависимости от цели разрешения. FC5 не поддерживает DX12, поэтому мы не смогли протестировать этот режим.

До этого момента мы видели два разных вывода.

1) Включение DX12 может исключить штраф.2) Размер штрафа увеличивается с увеличением частоты кадров.

Понял? Хорошо. Мы выбрасываем его из окна.

Хитман (2016)

Хитман не был указан как ударный титул, но я все равно взял его за спину. Я рад, что сделал. Это послужило полезным третьим примером в наших тестах. Вот наши результаты Hitman как в DX11, так и в DX12. Как и в случае с Far Cry, мы протестировали Hitman с суперсэмплированием с разрешением 1.3x и 1.5x, чтобы полностью увеличить частоту кадров в диапазоне G-Sync нашего монитора. На этот раз нам нужно было использовать суперсэмплинг на 4K, поэтому вы не видите статические результаты теста «4K».

Кратеры производительности NVIDIA GPU Когда G-Sync, SLI используются вместе

Хорошей новостью является то, что вы можете еще раз исключить штраф производительности DX11, связанный с использованием G-Sync и SLI одновременно. Плохая новость заключается в том, что вы должны принять 30 кадров в секунду, чтобы сделать это. В DX11 удар производительности является статическим 1,27x в обоих режимах суперсэмплинга. Это объясняет тренд, который мы видели с FC5 и Deus Ex.

Нам не удалось сравниться с такими играми, как «Спящие собаки», потому что мы не смогли снизить частоту кадров графического процессора до уровня ниже 60 пунктов в секунду. Мы наблюдали разницу в 2fps в этом названии между включенным и отключенным G-Sync (71 fps против 73 fps), но это может подпадать под разумные пределы погрешности.

Тем не менее, картина здесь ясна. Включение G-Sync и использование SLI не гарантируют, что вы будете танковать свою частоту кадров. Мы также протестировали Metro Last Light Redux с принудительным профилем рендеринга AFR2, и эта игра не показала никакого снижения производительности между включенным и отключенным G-Sync. Deus Ex Mankind Divided сообщил о небольшом штрафе, который исчез в DX12, в то время как Hitman использует слишком большой удар в этом режиме при использовании SLI, чтобы оправдать его. Три игры, три разные модели производительности.

Всегда полезно анализировать отчеты о форуме, а не потому, что комментаторы форума - лжецы, а потому, что большинство из них не предоставляют достаточную техническую информацию, чтобы убедиться, что вы правильно воспроизводите проблему. На данный момент у меня нет объяснений по этому вопросу, и я понимаю, что «проблема синхронизации» крайне расплывчата. Это теория, которая, как представляется, соответствует некоторым фактам здравого смысла. Наши результаты в совокупности свидетельствуют о том, что проблема реальна и что разрыв в производительности может быть таким же большим, как пользователи Nvidia, особенно если они продолжают ухудшаться по мере увеличения частоты кадров.

Nvidia должна встать перед этим

Кратеры производительности NVIDIA GPU Когда G-Sync, SLI используются вместе

Но, хотя это может не повлиять на очень много людей, это очень сильно влияет на людей, которые вылили больше всего денег на продукты Nvidia и представляют своих крупнейших поклонников. Если у вас есть пара GTX 1080 Tis и монитор G-Sync, вы, вероятно, потратили почти 2 000 долларов на свой графический процессор и показывали в одиночку. Даже скобка GTX 1070s могла бы запустить 700 долларов за пару и еще 422 доллара за самый дешевый дисплей Dell G-Sync на Newegg. Минимальная стоимость бай-ин для этой технологии превышает грандиозный, предполагая, что люди покупают по ценам 2018 года. Это достаточно денег, чтобы купить новый игровой ПК, и ваши клиенты, занимающие высокие позиции, бросают его на графические процессоры. Не заботясь о своих покупателях ореола, это может быть очень дорогостоящей ошибкой, и, хотя в Reddit не так много людей говорят об этой теме, темы разговоров возвращаются в течение нескольких месяцев. Многие люди были терпеливыми и находчивыми, пытаясь сотрудничать, обмениваться информацией и находить обходные пути.

Если Nvidia не может гарантировать, что SLI будет совместим с G-Sync без потерь производительности от незначительных до больших и не сможет заранее предсказать, что вы увидите, ему необходимо сообщить об этом факте. Вполне возможно, что сложное пересечение игровых движков, графических процессоров и мониторов создает ситуации, при которых G-Sync нельзя эффективно использовать без массивной производительности, независимо от того, что делает Nvidia. Тот факт, что мы видим разные модели производительности из разных игр, предполагает, что игровой движок играет здесь определенную роль. Также существует тот факт, что G-Sync предназначен для работы, когда частота кадров низкая, и это делает наибольшую разницу в этом режиме. Чем выше частота кадров, тем меньше влияние отсутствия цикла обновления V-Sync. Если вы играете со скоростью 30 кадров в секунду, отсутствие представления кадра означает, что текущий кадр отображается на ~ 66,6 мс. Если вы играете со скоростью 120 кадров в секунду, пропущенная презентация приводит к повторению кадра в течение 16,6 мс. По мере увеличения частоты кадров разница между использованием и не использованием G-Sync (или FreeSync) уменьшается. При определенной частоте кадров вы не сможете сказать разницу, потому что недостаточно времени для ее обнаружения.

Но если это правда, что SLI и G-Sync - это больше сэндвич с арахисовым маслом-майонезом, чем комбо PB-шоколад, который нужно сообщить. Этот монитор за 422 доллара - это только дисплей 1440p, и вы можете купить панель 4K IPS без G-Sync за ту же сумму денег. Или сверхширокий монитор 21: 9. Или монитор с поддержкой FreeSync, который не приносит премии. Вы понимаете.

Я не обвиняю Nvidia в том, что вы не можете решить проблемы, которые не являются их созданием, или те, которые требуются отвратительные законы физики. Но компания обязана своим клиентам объяснять это поведение и честное обновление об их способности разрешать его, в том числе тот факт, что он никогда не будет разрешен, если это так. Нынешняя ситуация плохо отражается на Nvidia.

Для записи вполне возможно, что у AMD тоже есть эта проблема. Если это так, то то же самое. Это сложные возможности, которые конечные пользователи платят большие страховые взносы, в некоторых случаях, для доступа. Все клиенты заслуживают честности, без каких-либо исключений, но клиенты, готовые тратить тысячи долларов на ваши продукты, заслуживают того, чтобы узнать, покупают ли они маркетинговую сделку или реальную производительность.

Читать далее

Обзор MSI Nvidia RTX 3070 Gaming X Trio: производительность 2080 Ti, цены на Pascal
Обзор MSI Nvidia RTX 3070 Gaming X Trio: производительность 2080 Ti, цены на Pascal

Новый RTX 3070 от Nvidia - потрясающий графический процессор по хорошей цене, и MSI RTX 3070 Gaming X Trio хорошо это демонстрирует.

Nvidia будет имитировать память AMD Smart Access на Ampere: отчет
Nvidia будет имитировать память AMD Smart Access на Ampere: отчет

Память AMD Smart Access еще даже не отправлена, но Nvidia утверждает, что может дублировать эту функцию.

Nvidia представляет графический процессор Ampere A100 80 ГБ с пропускной способностью памяти 2 ТБ / с
Nvidia представляет графический процессор Ampere A100 80 ГБ с пропускной способностью памяти 2 ТБ / с

На этой неделе Nvidia анонсировала графический процессор Ampere A100 объемом 80 ГБ для разработчиков программного обеспечения AI, которым действительно нужно немного места, чтобы размять ноги.

Nvidia и Google будут поддерживать облачные игры на iPhone через веб-приложения
Nvidia и Google будут поддерживать облачные игры на iPhone через веб-приложения

И Nvidia, и Google объявили о поддержке iOS для своих облачных игровых платформ через прогрессивные веб-приложения. Apple не может это заблокировать.