Для процесора наступного покоління, не рухоме дані є новим 1 ГГц

Для процесора наступного покоління, не рухоме дані є новим 1 ГГц

Зростання в шести ядрі та восьмитеріальних процесорів дійсно було щось, щоб побачити. У липні 2011 року 43,3 відсотка геймерів мали квадрочний процесор відповідно до опитування апаратного забезпечення, і лише 0,08 відсотка ринку мали вісімнадцять чіпів, а 1,36 відсотка мали шість основних процесорів. У липні 2017 року 51,99 відсотка геймерів мали квадрочний процесор, 1,48 відсотка мали шість ядерних чіпів, а 0,49 відсотка геймерів мали вісімтерний чіп. Сьогодні 31,11 відсотка геймерів мають шість основних чіпів, а 13,6 відсотка мають восьми ядром. Це 21x і 27x зростання популярності протягом чотирьох років, а оновлена ​​конкуренція між Intel і AMD - подякувати за це.

На жаль, розраховується, що рампи також має свої межі. Існує зменшення граничного повернення від додавання нових процесорних сердечників у більшості випадків, а ринок все ще перетравлює збільшення кількості ядра 2017-2019 років. Літографія більше не дає покращення продуктивності, які колись робили; Загальне сукупне покращення продуктивності та енергоспоживання, що TSMC виступає з 7NM -> 5NM -> 3nm приблизно дорівнює поліпшенню, отриманим від скорочення від 16 м -> 7 нм. Intel та інші напівпровідникові фірми продовжують досліджувати матеріало для покращення, вдосконалення упаковки та нових методів взаємозв'язку, які є більш енергоефективними або виконавцями, ніж у нас сьогодні, але один з найбільш ефективних способів підвищення ефективності енергоефективності в сучасній системі, це Виявляється, полягає в тому, щоб зупинити переміщення даних по всьому місці.

Після десятиліть оптимізації потужності та постійно-покращувальної літографії, загальна кількість споживаної електроенергії для виконання роботи на одному біт даних становить приблизно 1/3. Вартість його вилучення з пам'яті. За даними, опублікованими Rambus, 62,6 відсотка потужності витрачається на рух даних та 37,4 відсотка на обчислення.

Для процесора наступного покоління, не рухоме дані є новим 1 ГГц

Один із способів вирішення цієї проблеми є обчислювальним сховищем. Ідея є простим: замість того, щоб обробляти процесор, як, добре, центральний одиниця обробки, обчислювальне зберігання вбудовувала можливість обробки безпосередньо в саму пам'ять. Це більш правдоподібно з сьогоднішніми твердостальними приводами, ніж з старшими жорсткими дисками; Наденні флеш-контролери вже виконують ступінь управління даними під капотом. Нещодавній документ розглянув потенційну енергозбереження запущених додатків у місці, що традиційно, будуючи повністю функціональний прототип. Система виступила 2,2x збільшення продуктивності та зменшення енергоспоживання та 54 відсотків у споживанні енергії "для запуску багатовимірних критів від FFT на різних наборах даних".

Ідея обробки даних має застосування за межами зберігання; Samsung оголосив про те, що у цьому році поєднує в собі Samsung, який поєднує в собі HBM2 з масивами регістрів FP16, які можуть виконувати обчислення безпосередньо, а не на процесорі. У цьому випадку Samsung стверджував покращення 2x продуктивності з зменшенням енергії 70 відсотків.

Ці технології знаходяться в їхній дитинстві - ми, швидше за все, через роки від основних додатків - але вони ілюструють, як інженери можуть продовжувати вдосконалювати продуктивність системи, навіть як літографічний масштабування. Повністю перевага цих ідей вимагатиме переосмислення відносин між різними компонентами всередині комп'ютера або в SOC.

Від центрального блоку обробки до "Прискорювач останнього курорту"

Я готовий ставити, що всі ми, в якийсь момент, потрапив до діаграми, яка виглядає трохи, як це:

Для процесора наступного покоління, не рухоме дані є новим 1 ГГц

Комп'ютери організовуються навколо ідеї, що багато, якщо не більшість загальних завдань обчислення відбуваються на процесорі, і КПУ служить як свого роду арбітра щодо потоку даних через систему. Це було не завжди так. Наприкінці 1990-х років кожен з високопродуктивним масивом для зберігання використовував RAID-карту для її обробки. Починаючи з початку 2000-х років, CPUS став достатньо потужним для виробників материнських платників, таких як Via, щоб інтегрувати підтримку програмного забезпечення RAID-масивів у своїх південних бухгах. Інші компанії, такі як AMD, Intel, NVIDIA та SID зробили те ж саме, з однією помітною різницею: VIA була єдиною компанією, яка готова доставити Southbridges, які викликали незаперечні помилки зберігання, якщо кінцевий користувач також запустив звуковий сигнал.

Оскільки CPU став більш потужним, вони поглинули більше функцій від мікроконтролерів та спеціалізованих апаратних чіпів, які колись виконували їх. Це було дешевше для багатьох компаній дозволити КПУ обробляти різні завдання, ніж інвестувати в продовження будівництва спеціалізованого кремнію, який може відповідати або перевищувати Intel.

Після декількох десятиліть оптимізації та постійного виробничого та матеріального інженерного покращення, параметри проблеми змінилися. Комп'ютери працюють на величезних наборах даних зараз, а перевезення петабайтів інформації вперед і назад на автобусі пам'яті на рівні підприємства є величезною енергією.

Створення більш ефективної обчислювальної моделі, яка спирається на рухомі дані в процесорі, вимагає переосмислення, які дані процесора робить і не обробляє в першу чергу. Це також вимагає фундаментального переосмислення того, як побудовані програми. Подружжя нещодавно опублікувала пару чудових історій щодо зменшення вартості руху даних та ідеї обчислювального зберігання, і вони розмовляли з Крісом Тьясам, старшим директором з оптичних рішень та стратегії в Intel. Деякі продукти Optane Intel, як і його пряма підтримка опточної стійкої пам'яті, можуть бути використані як величезний банк нестабільного DRAM - один набагато більший, ніж будь-який типовий басейн DRAM, - але скориставшись опцією, вимагає модифікації існуючого програмного забезпечення.

"Єдиний спосіб, яким ви можете скористатися цим, полягає в тому, щоб повністю реструктурувати ваше програмне забезпечення", - сказав Тобіас. "Те, що ви робите зараз, - це те, що ми маємо цю частину [заявки], що обчислювальне зберігання робить хорошу роботу. Ми збираємося, що відповідальність від серверного програмного забезпечення, а потім фермуйте декілька копій цієї частини до SSD, і саме там вони всі збираються виконати цю штуку. Хтось повинен зробити подрібнення серверного програмного забезпечення в шматок, який переходить у SSDS. "

Ці типи підвищення ефективності покращують реакцію та продуктивність процесора, дозволяючи чіп витратити більше часу, виконуючи корисну роботу, і менше часу відвідування запитів введення / виводу, який може бути краще обробляти в іншому місці. Одна цікава річ, яку ми дізналися про Apple M1 та Macos кілька місяців тому, полягає в тому, що Apple покращив загальну реакційну систему, переважно планування фонових завдань на невеликих системах Ice Cores CPU, що залишив сердечнику Firestorm Free для більш важливих завдань. Користувачі повідомили, що M1 MACS відчувають себе нюхаючим, ніж звичайні пристрої Intel, навіть якщо тестування не підтверджують фактичну швидкість збільшення. Платформа Ion Notbook Nvidia - це ще один історичний приклад того, як покращить латентність - дисплей та затримку інтерфейсу, у цьому випадку - зробила систему, яка відчуває себе набагато швидше, ніж це насправді.

Ніщо, що вимагає оптового повторного уявлення про стек зберігання, збирається в будь-який час споживачів, але довгостроковий потенціал для поліпшень є реальним. Для більшості історії комп'ютерної індустрії ми покращили продуктивність, збільшуючи кількість роботи процесора, виконаного за цикл. Виклик обчислювального сховища та інших методів рухомих робочих навантажень з процесора полягає в тому, щоб покращити продуктивність процесора, даючи йому меншу роботу, щоб зробити за цикл, що дозволяє зосередитись на інших завданнях.

Під цією моделлю процесор буде трохи більше, як сам прискорювач. Зокрема, ЦП стає "прискорювачем" останнього курорту. Коли робоче навантаження є складним, серіалізованим або повним розгалуженим, непередбачуваним кодом, який робить його непридатним для GPU та / або будь-якого майбутнього AI апаратного AMD та Intel може один день корабля, він отримує ногами до ЦП, який спеціалізується на цьому вид проблеми. Перемістіть пошук зберігання та деяких обчислень у SSDS та RAM, а процесор має ще багато годинних циклів, щоб фактично кризвати дані.

Ось що не рухає дані новим "1 ГГц". У середині 2010-х років це була гонка до 0 В, яка визначила X86 енергоефективності, а Intel і AMD обидва оцінювали значні винагороди від зменшення вільної потужності. Протягом наступного десятиліття ми можемо побачити нову гонку - одна, яка зосереджена на тому, скільки даних КПУ може уникнути обробки, на відміну від того, щоб підкреслити, скільки інформації вона може Гувер.

Читати далі

RISC-V навшпиньки до основного потоку завдяки платформі розробників SiFive, високопродуктивний процесор
RISC-V навшпиньки до основного потоку завдяки платформі розробників SiFive, високопродуктивний процесор

RISC V продовжує проникати на ринок, цього разу завдяки дешевшій та повнофункціональнішій тестовій материнській платі.

VIA Technologies, Zhaoxin зміцнюють зв'язки з процесором x86
VIA Technologies, Zhaoxin зміцнюють зв'язки з процесором x86

VIA та Zhaoxin поглиблюють своє стратегічне партнерство за допомогою додаткових передач ІР, спрямованих на пришвидшення довгострокової розробки продуктів.

Intel випускає нові мобільні графічні процесори Xe Max для творців вмісту початкового рівня
Intel випускає нові мобільні графічні процесори Xe Max для творців вмісту початкового рівня

Intel випустила новий споживчий мобільний графічний процесор, але він має дуже конкретний варіант використання, принаймні зараз.

Що це означає для ринку ПК, якщо Apple робить найшвидший процесор?
Що це означає для ринку ПК, якщо Apple робить найшвидший процесор?

SoC від M1 від Apple може мати глибокий вплив на ринок ПК. Через 25 років x86 може перестати бути найефективнішою архітектурою центрального процесора, яку ви практично можете придбати.