Грати продуктивності GPU Nvidia при використанні G-Sync, SLI використовуються разом

Грати продуктивності GPU Nvidia при використанні G-Sync, SLI використовуються разом

Кілька днів тому один з наших читачів підняв ідею, що G-Sync має штраф за виконання, пов'язаний з його використанням. Це було трохи несподівано, побачивши - Nvidia раніше запевнив мене, що не застосовується жоден штраф за використання G-Sync, але звіти на форумах Nvidia включають користувачів із результатами тесту порівняння G-Sync On з G-Sync Off. Є великі звіти, і вони датуються місяцями, включаючи повідомлення в спільноті Nvidia reddit.

Зниження показників, про які повідомляється на форумах, здається, пов'язано з SLI. Існує деяка невизначеність щодо того, як довго існувала проблема. Я бачив, як деякі люди стверджують, що воно пов'язане з драйверами, випущеними після сімейства 391.xx, а також з тими, хто вважає, що проблема існує на весь час. Nvidia має на своєму ринку графічні процесори Pascal . Проблема проста: згідно з повідомленнями на форумах Nvidia і в Subviddit Nvidia, активація G-Sync одночасно з тим, що SLI призводить до значного зниження продуктивності в багатьох іграх.

SLI - технологія Nvidia для використання більше одного графічного процесора для одночасної обробки сцени, а G-Sync - це технологія, яка згладжує частоту кадрів порівняно з стандартною V-Sync, забезпечуючи синхронізацію монітора з частотою оновлення GPU і подарунки кадр так швидко, як дисплей здатний доставити його. І хоча я не можу спекулювати на тому, що таке проблема, ми можемо інтуїтивно зрозуміти причину: Час.

Як G-Sync, так і SLI мають великі терміни. Тривалість синхронізації графічного процесора та монітора триває. Переміщення даних з одного графічного процесора в інший, а потім відображення кадрів, що відображаються тим же самим графічним процесором, вимагає часу. Якщо ви націлюєте частоту кадрів 30 кадрів в секунду, вам потрібно додати нову рамку кожні 33,3мс. Якщо ви хочете працювати на швидкості 60 кадрів / с, це означає, що вам потрібна нова рамка кожні 16,6 мс. Якщо ви націлюєте 120 кадрів на секунду, це означає, що вам потрібна нова рамка кожні 8,3 мс. У певний момент у вас є дуже обмежене вікно, з яким потрібно працювати.

Це наша теорія, принаймні, через деякий час, вивчаючи цю проблему. Щоб розпочати, давайте подивимось на результати, отримані користувачем octiceps на форумах Nvidia:

Дані користувачів Nvidia.
Дані користувачів Nvidia.

На цьому графіку є декілька великих крапель. Зростаючий шторм 2, що йде від 200 кадрів / с до 75? І тоді, навпаки, є дуже малі прогалини. 10-відсоткове падіння у "Ведьмака 3" все ще значне - ніхто не хоче скидати фрейми - але якщо ми чесно говоримо, це не є прогалиною, яку ви помітите, якщо ви не запустите тестування або не знали конкретної області з падінням мамонта це

Я вирішив протестувати ситуацію себе з парою графіків GTX 1080, найвищою картою, яку я маю у відповідній парі. Оптика цього питання досить погана. Хоча власників SLI не так багато, набагато менше власників SLI з моніторами G-Sync, мало хто, які існують, ймовірно, представляють найбільших споживачів витрат у екосистемі ентузіастів. Якщо ви купили в G-Sync кілька років тому, ви могли б легко знизити 600 доларів за GTX 1080 (або 700 доларів за 1080 Ti) плюс 500 доларів монітора. З огляду на те, що найпоширенішою конфігурацією Steam Survey є GTX 1060 у сполученні з монітором 1080p, це люди, які скидають серйозні гроші на апаратні засоби Nvidia.

Тестова установка

Існує істотна різниця в конфігурації, я вважаю, між монітором G-Sync, який ми маємо, і обладнання, яке ці ентузіасти використовують. Єдиний монітор G-Sync у мене є Acer XB280HK, і, хоча він 4K здатний, він підтримує максимальну частоту оновлення 60 Гц. Це означає, що за визначенням я не можу використовувати G-Sync в тестах, які вражають частоту кадрів вище 60 Гц. Якщо це питання, пов'язане з синхронізацією, яке виникає тільки вище частоти кадрів, я, певно, не побачу це.

Попередження спойлера: це не так, і я це зробив.

Те, що стало простіше перевірити, полягає в тому, що тест-серія Core i7-8086K, яку ми використовували для огляду RTX 2080 і 2080 Ti, все ще повністю зібрана. Вся система була абсолютно нова установка Windows 10 за допомогою одного драйвера Nvidia (411.63). Це незаймана конфігурація - навіть ігри були завантажені з нуля, а не копіювання через архівну бібліотеку Steam.

Ми протестували дві гри, які були згадані ентузіастами як такі, що особливо вплинули, і одне з них не було. Наші цільові частоти кадрів були максимально наближені до 60 кадрів на секунду, не переходячи через неї, і ми моделювали поведінку різних назв з різними роздільною здатністю, щоб перевірити, наскільки проблема виникла або зникли залежно від середньої частоти кадрів GPU. Ми також протестировали безліч інших потенційних змінних, включаючи те, чи встановлено G-Sync повністю або повністю активно в режимі без полів, а також включено чи вимкнено V-Sync. Ми не спостерігали жодних розбіжностей продуктивності, які не пояснювалися іншим шляхом зміни самого V-Sync. Ми також перевірили, чи мало значення для використання DX11 і DX12 у титрах, які підтримували обидва.

Ми не спостерігали ніякого впливу продуктивності на зміну G-Sync, щоб працювати в режимі без полів, а не в повноекранному режимі, і ми не бачили жодних змін у продуктивності при зміні між V-Sync і V-Sync відключені. Майте на увазі, що ми протестували лише кілька ігор - ми шукали можливі ознаки проблеми, не намагаючись провести вичерпну оцінку всіх умов, за яких G-Sync може відрізнятися залежно від 10-15 ігор.

Оскільки пара 1080-х років, в деяких випадках, здатна підвищити сучасні ігри на рівні вище 60 кадрів за секунду навіть при 4 Кб, ми також перевірили ігри, які дозволяють здійснювати супердискретизацію. Нарешті, ми провели ці тести як на одному GTX 1080 Ti, так і на пару GTX 1080. Всі розглянуті нами проблеми, здається, унікальні для GPU, що працюють у SLI. 1080 Ti не мав жодних проблем в жодній тестовій конфігурації, і ми не бачили різниці між G-Sync і G-Sync вимкнули при тестуванні одного графічного процесора.

Дьюс Екс: Розподіл людства

Deus Ex: Розподіл людства показує невелику, але певну втрату продуктивності, коли G-Sync активовано, як показано нижче. Цікаво, що цей пробіл з'являється тільки в режимі DX11. Коли ми перейшли на DX12, він зник.

Грати продуктивності GPU Nvidia при використанні G-Sync, SLI використовуються разом
Грати продуктивності GPU Nvidia при використанні G-Sync, SLI використовуються разом

Far Cry 5

Оскільки нам доводиться постійно підтримувати частоту кадрів під 60 кадрів за секунду, щоб побачити реальний вплив вимкнення або вимкнення G-Sync, ми перевірили FC5 в чотирьох різних дозволах: суперсемпінг 4K, 4K + 1.1x, суперсемпінг 4K + 1.3x, і 4K + 1.5x supersampling. Результати та розрив продуктивності між наявністю G-Sync та G-Sync вимкнено.

Грати продуктивності GPU Nvidia при використанні G-Sync, SLI використовуються разом

Чим ближче GPU працює до 60 кадрів / с, тим більші пробіли. Оскільки частота кадрів зменшується, розрив між двома рішеннями також зменшується. Здається, це означає, що наша теорія часу може бути правильною. Як мінімум, наші висновки свідчать про те, що "запуск Gsync знижує FPS на 10-20% в залежності від назви". Я протестував це в FC5 і Ghost Recon Wildlands. "Наші результати показують, що FC5 переходить від 1.09x до 1.20x швидше, при цьому G-Sync вимкнено, в залежності від цілі розбиття. FC5 не підтримує DX12, тому нам не вдалося протестувати цей режим.

До цього моменту ми бачили два різних висновки.

1) Увімкнення DX12 може позбавити покарання.2) Розмір штрафу збільшується, коли частота кадрів зростає.

Що це? Добре. Ми викидаємо його з вікна.

Хітман (2016)

Хітман не був зареєстрований як ударний титул, але в будь-якому випадку я взяв його за спину. Я радий, що зробив. Це був корисний третій приклад у наших тестах. Ось наші Hitman результати в DX11 і DX12. Як і в Far Cry, ми протестували Hitman з 1.3x та 1.5x суперсемплінгом, щоб повністю пересувати частоту кадрів у діапазоні G-Sync нашого монітора. Цього разу нам довелося використовувати суперсемпінг на рівні 4K, отже, ви не бачите статичних результатів тестування "4K".

Грати продуктивності GPU Nvidia при використанні G-Sync, SLI використовуються разом

Хороша новина полягає в тому, що ви можете ще раз усунути штраф за ефективність DX11, пов'язаний із використанням G-Sync та SLI одночасно. Погана новина полягає в тому, що ви повинні прийняти частоту кадрів 30 кадрів в секунду, щоб зробити це. У DX11 хіт продуктивності - це статичний 1,27x у обох режимах суперсемпінгу. Це перевершує тенденцію, яку ми бачили з FC5 і Deus Ex.

Ми не змогли оцінити ігровий вміст, як Sleeping Dogs, тому що ми не змогли достатньо знизити частоту кадрів графічного процесора, щоб зробити його нижче нашої вимоги на 60 кадрів в секунду. Ми спостерігали різницю в 2 біт / с у цьому заголовку між включенням та вимкненням G-Sync (від 71 кадрів / с до 73 кадрів в секунду), але це може потрапити в розумну межу помилки.

Тим не менше, схема тут ясна. Переведення G-Sync на та використання SLI не гарантує вашим частотам кадрів. Ми також протестували Metro Last Light Redux з примусовим профілем рендеринга AFR2, і ця гра не показувала зниження продуктивності взагалі між включеним та вимкненим G-Sync. Розлучення Deus Ex Mankind розділило невелику кару, яка зникли в DX12, а Хітман займає надто велику кількість ударів у цьому режимі, коли використовує SLI, щоб коли-не виправдовувати це. Три ігор, три різні моделі продуктивності.

Завжди помилково спробувати і перевіряти звіти форуму, а не тому, що коментатори на форумі є брехунами, але оскільки більшість не надають достатньої технічної інформації, щоб переконатися, що ви правильно відтворюєте проблему. У мене зараз немає пояснення цієї проблеми, і я усвідомлюю, що "проблема синхронізації" є надто невизначеною. Це теорія, яка, як видається, відповідає деяким здоровим фактам. Наші результати колективно свідчать про те, що ця проблема є реальною і що пропускна здатність продуктивності може бути такою ж великою як користувачі Nvidia, особливо якщо вони продовжують погіршуватися, оскільки збільшення частоти кадрів.

Nvidia потребує цього

Грати продуктивності GPU Nvidia при використанні G-Sync, SLI використовуються разом

Але, хоча це може не вплинути на дуже багато людей, це дуже сильно впливає на людей, які вилили більшість грошей на продукти Nvidia і які представляють його найбільших шанувальників. Якщо у вас є пара GTX 1080 Tis і монітор G-Sync, ви, ймовірно, витратили близько 2000 доларів на своєму графічному процесорі та відображали окремо. Навіть ланцюг GTX 1070 може скласти $ 700 за цю пару, а ще $ 422 за найдешевший дисплей Dell G-Sync на Newegg. Мінімальна вартість придбання цієї технології перевищує величезний, якщо припускати, що люди придбали ціни на 2018 рік. Цього достатньо для того, щоб придбати новий ігровий комп'ютер, і ваші клієнти, які витрачають найбільшу частину витрат, кидають його на GPU. Не турбуючись про ваших клієнтів гало може бути дуже дорогою помилкою, і поки не багато людей, які говорять про цю тему на Reddit, потоки бесіди триватимуть кілька місяців. Багато людей були як пацієнтом, так і винахідливими, намагаючись співпрацювати, обмінюватись інформацією та знаходити шляхи вирішення.

Якщо Nvidia не зможе гарантувати, що SLI буде сумісним з G-Sync без невисоких втрат продуктивності і неможливо заздалегідь передбачити, що ви побачите, йому потрібно повідомити про це. Цілком можливо, що складне перетину між ігровими движками, графічними процесорами та моніторами створює ситуації, в яких G-Sync не може бути ефективно застосований без масованого ефекту, незалежно від того, що робить Nvidia. Той факт, що ми бачимо різні моделі продуктивності від різних ігор, говорить про те, що тут грає роль ігровий движок. Існує також той факт, що G-Sync призначений для роботи, коли частота кадрів є низькою, і це найбільше відрізняється в цьому режимі. Чим вище частота кадрів, тим менше вплив відсутності циклу оновлення V-Sync. Якщо ви граєте на 30 кадрах в секунду, відсутність презентації кадру означає, що поточний кадр відображається на ~ 66,6мс. Якщо ви граєте на частоті 120 кадрів в секунду, пропущена презентація призводить до повторення кадру на 16,6 мс. Коли частота кадрів зростає, різниця між використанням та невикористанням G-Sync (або FreeSync) зменшується. За певної частоти кадрів ви не змогли б сказати різницю, оскільки не вистачало часу, щоб ви могли його виявити.

Але якщо це правда, що SLI та G-Sync є більшою частиною сендвіча з арахісовим маслом-майонезом, ніж комбінат PB-шоколаду, то це потрібно повідомляти. Цей 422-дюймовий монітор - це лише дисплей 1440 пікселів, і ви можете придбати 4K IPS панель без G-Sync за таку ж суму. Або 21: 9 ультраширокий монітор. Або монітор із підтримкою FreeSync, який не поставляється з премією. Ви маєте сенс.

Я не звинувачую Nvidia в тому, що він не зміг вирішити проблеми, які не є її створенням, або ті, що передбачені злочистими законами фізики. Але компанія зобов'язана своїм клієнтам пояснити таку поведінку та чесне оновлення про їх здатність до її вирішення, включаючи те, що це ніколи не може бути вирішено, якщо це так. Нинішня ситуація погано відображається на Nvidia.

Для запису це цілком можливо AMD має цю проблему також. Якщо це так, це ж стосується. Це складні можливості, які кінцеві користувачі платять за важкі премії, в деяких випадках - для доступу. Усі клієнти заслуговують на чесність, період, без винятку, але клієнти, які готові витрачати тисячі доларів на продукти, заслуговують на те, що вони купують маркетингову кампанію або фактичну продуктивність.

Читати далі

Огляд Ryzen 9 5950X та 5900X: AMD розв’язує Zen 3 проти останніх бастіонів продуктивності Intel
Огляд Ryzen 9 5950X та 5900X: AMD розв’язує Zen 3 проти останніх бастіонів продуктивності Intel

AMD продовжує натиск на те, що колись було безперечним торфом Intel.

Intel поширює FUD щодо нібито величезних падінь продуктивності Ryzen 4000 на батареї
Intel поширює FUD щодо нібито величезних падінь продуктивності Ryzen 4000 на батареї

Intel вважає, що представила докази, які заперечують цінність набору продуктів Ryzen 4000 від AMD. Intel помиляється.

Поточні виміри продуктивності x86 порівняно з Apple M1 неправомірні
Поточні виміри продуктивності x86 порівняно з Apple M1 неправомірні

Існує внутрішня різниця між процесорами процесорів x86 та ARM, що ускладнює порівняння продуктивності - і це не помітили в початковій хвилі покриття.

Огляди мобільних RTX 3070 показують варіації продуктивності в іграх
Огляди мобільних RTX 3070 показують варіації продуктивності в іграх

Зараз мобільні RTX 3070 і RTX 3070 Max-Q від Nvidia запускаються в мобільних системах. Карти пропонують високу продуктивність, але гравці повинні порівняти ефективність певних ноутбуків, які вони хочуть придбати, перш ніж натискати на курок.