Samsung тепер випускає 16Gbit GDDR6 для майбутніх графічних процесорів

Samsung тепер випускає 16Gbit GDDR6 для майбутніх графічних процесорів

Samsung кидає свою капелюшку в кільце GDDR6 і приєднується до Micron, щоб витримати нову технологію пам'яті для майбутніх продуктів GPU. Це не дивно, але GDDR6 буде більш прийнятним, ніж його попередник GDDR5X.

Samsung називає нову пам'ять побудованою на процесі з частотою 10 nm * у подвійній щільності попередньої пам'яті. 16 Гбіт чіпів означає збільшення до 2 ГБ оперативної пам'яті на чіп GDDR6. Це також очищає шлях до набагато більших об'ємів бортових графічних процесорів упродовж часу, хоча я сумніваюсь, що найближчим часом ми побачимо багато 24 Гб. Навіть просунуті титули 4K з HDR та іншими дзвінками та свистками не натискають такий конверт (наразі).

Однією з потенційних переваг натискання GDDR6 є те, що ми повинні нарешті побачити 2 Гб карти, що випадає з карти цієї генерації. Завдяки Intel, що тепер оснащує 4 Гб GPU на його інтегрованому апаратному забезпеченні Radeon, сподіваюсь, ми побачимо перехід на більші буфери пам'яті по всій платі.

Samsung стверджує, що його GDDR6 може збільшуватись до 72 Гбіт / с на канал (18 Гбіт / с на штифт), що більш ніж вдвічі перевищує старий стандарт GDDR5 та його 8 Гбіт / с. Це, звичайно, ігнорує GDDR5X, але оскільки Samsung ніколи не будував такий тип оперативної пам'яті, він може зникнути, пропустивши його як точку порівняння. Ранні GPU, швидше за все, обиратимуть операційну пам'ять з меншою частотою, але швидкість передачі даних на 72 Гбіт / с є вражаючою, що означає, що 256-бітний графічний процесор може досягти 576 Гбіт / с пропускної здатності пам'яті. Наступне покоління середніх карток від AMD та Nvidia - це могутні конкуренти саме з цієї причини.

GDDR5X у порівнянні з GDDR6.
GDDR5X у порівнянні з GDDR6.

Той факт, що Samsung збирає GDDR6, також свідчить про стійкий попит з боку декількох компаній. GDDR5X - це гра Nvidia-Micron, але ніколи не бачила більш широкого застосування на ринку. З кількома компаніями, які працюють на GDDR6, зрозуміло, що вона буде більш популярною.

Одне велике питання полягає в тому, як GDDR6 буде порівнювати з HBM2 на високих та широких каналах. Вища вартість та більш складний виробничий процес HBM2 збалансовані, в значній мірі, завдяки значно меншому енергоспоживанню і меншому, простішому плануванні плати. Це дозволяє графічним процесорам, як AMD Radeon Nano, і покращує загальну ефективність. Якщо GDDR6 може збігатись або підходити до цих результатів, ми можемо побачити, що HBM2 скорочується або взагалі зникає. З іншого боку, Samsung намагається випустити свій стек HBM2 2,4 Гбіт / с, що дозволило б графічним процесорам на основі цього зробити суттєвий ефект.

Samsung стверджує, що новий стандарт забезпечує 35-відсоткове покращення споживання електроенергії в порівнянні з GDDR5, при цьому на 30% вищу дохідність на плату GDDR6 порівняно з GDDR5 завдяки меншій геометрії процесу. Там немає слова про введення продуктів, але 2018 запускає, швидше за все.

* - Samsung називає виробництво 10-нм для GDDR6 "10нм-класом", а не "10нм". Термін позначає процесовий вузол між 10нм-19нм, тобто це взагалі не визначає процесовий вузол. "10нм-клас" або еквівалентні терміни від усіх постачальників повинні розглядатися як вигадані етикетки, а не суттєві класифікації продуктів.

Читати далі

Як стати менш пристрасним до вашого телефону, який тепер розумніше, ніж у вас

Ми вступили в епоху програм, які можуть запрограмувати нас, і вони стають все більш ефективними до цього дня. Дізнайтеся, як захистити себе від "циклів зворотного зв'язку, орієнтованих на допамін".

Android 8.1 тепер розповідає, наскільки швидко розташовані найближчі мережі Wi-Fi

Ви не отримаєте точні вимірювання швидкості, але загальний дескриптор повідомляє вам, якщо мережа блискавично швидко або повільно, як меляса.

Купівля попередньо встановленого ігрового ПК тепер розумніше, ніж побудова власного

Зі зростанням цін на компоненти, ви, насправді, зможете придбати попередньо розроблений ігровий комп'ютер, навіть якщо це не зовсім те, що ви хочете.

Суб'єкти обробки тензора, орієнтовані на AI, тепер доступні в бета-версії

Google готовий відкрити платформу Cloud TPU для розробників та дослідників, які прагнуть перевірити робочі навантаження на навчальні пристрої - і це новий, більш потужний дизайн Cloud TPU, ніж чіпи, про які ми вже говорили.