Для процесора наступного покоління, не рухоме дані є новим 1 ГГц
Зростання в шести ядрі та восьмитеріальних процесорів дійсно було щось, щоб побачити. У липні 2011 року 43,3 відсотка геймерів мали квадрочний процесор відповідно до опитування апаратного забезпечення, і лише 0,08 відсотка ринку мали вісімнадцять чіпів, а 1,36 відсотка мали шість основних процесорів. У липні 2017 року 51,99 відсотка геймерів мали квадрочний процесор, 1,48 відсотка мали шість ядерних чіпів, а 0,49 відсотка геймерів мали вісімтерний чіп. Сьогодні 31,11 відсотка геймерів мають шість основних чіпів, а 13,6 відсотка мають восьми ядром. Це 21x і 27x зростання популярності протягом чотирьох років, а оновлена конкуренція між Intel і AMD - подякувати за це.
На жаль, розраховується, що рампи також має свої межі. Існує зменшення граничного повернення від додавання нових процесорних сердечників у більшості випадків, а ринок все ще перетравлює збільшення кількості ядра 2017-2019 років. Літографія більше не дає покращення продуктивності, які колись робили; Загальне сукупне покращення продуктивності та енергоспоживання, що TSMC виступає з 7NM -> 5NM -> 3nm приблизно дорівнює поліпшенню, отриманим від скорочення від 16 м -> 7 нм. Intel та інші напівпровідникові фірми продовжують досліджувати матеріало для покращення, вдосконалення упаковки та нових методів взаємозв'язку, які є більш енергоефективними або виконавцями, ніж у нас сьогодні, але один з найбільш ефективних способів підвищення ефективності енергоефективності в сучасній системі, це Виявляється, полягає в тому, щоб зупинити переміщення даних по всьому місці.
Після десятиліть оптимізації потужності та постійно-покращувальної літографії, загальна кількість споживаної електроенергії для виконання роботи на одному біт даних становить приблизно 1/3. Вартість його вилучення з пам'яті. За даними, опублікованими Rambus, 62,6 відсотка потужності витрачається на рух даних та 37,4 відсотка на обчислення.
Один із способів вирішення цієї проблеми є обчислювальним сховищем. Ідея є простим: замість того, щоб обробляти процесор, як, добре, центральний одиниця обробки, обчислювальне зберігання вбудовувала можливість обробки безпосередньо в саму пам'ять. Це більш правдоподібно з сьогоднішніми твердостальними приводами, ніж з старшими жорсткими дисками; Наденні флеш-контролери вже виконують ступінь управління даними під капотом. Нещодавній документ розглянув потенційну енергозбереження запущених додатків у місці, що традиційно, будуючи повністю функціональний прототип. Система виступила 2,2x збільшення продуктивності та зменшення енергоспоживання та 54 відсотків у споживанні енергії "для запуску багатовимірних критів від FFT на різних наборах даних".
Ідея обробки даних має застосування за межами зберігання; Samsung оголосив про те, що у цьому році поєднує в собі Samsung, який поєднує в собі HBM2 з масивами регістрів FP16, які можуть виконувати обчислення безпосередньо, а не на процесорі. У цьому випадку Samsung стверджував покращення 2x продуктивності з зменшенням енергії 70 відсотків.
Ці технології знаходяться в їхній дитинстві - ми, швидше за все, через роки від основних додатків - але вони ілюструють, як інженери можуть продовжувати вдосконалювати продуктивність системи, навіть як літографічний масштабування. Повністю перевага цих ідей вимагатиме переосмислення відносин між різними компонентами всередині комп'ютера або в SOC.
Від центрального блоку обробки до "Прискорювач останнього курорту"
Я готовий ставити, що всі ми, в якийсь момент, потрапив до діаграми, яка виглядає трохи, як це:
Комп'ютери організовуються навколо ідеї, що багато, якщо не більшість загальних завдань обчислення відбуваються на процесорі, і КПУ служить як свого роду арбітра щодо потоку даних через систему. Це було не завжди так. Наприкінці 1990-х років кожен з високопродуктивним масивом для зберігання використовував RAID-карту для її обробки. Починаючи з початку 2000-х років, CPUS став достатньо потужним для виробників материнських платників, таких як Via, щоб інтегрувати підтримку програмного забезпечення RAID-масивів у своїх південних бухгах. Інші компанії, такі як AMD, Intel, NVIDIA та SID зробили те ж саме, з однією помітною різницею: VIA була єдиною компанією, яка готова доставити Southbridges, які викликали незаперечні помилки зберігання, якщо кінцевий користувач також запустив звуковий сигнал.
Оскільки CPU став більш потужним, вони поглинули більше функцій від мікроконтролерів та спеціалізованих апаратних чіпів, які колись виконували їх. Це було дешевше для багатьох компаній дозволити КПУ обробляти різні завдання, ніж інвестувати в продовження будівництва спеціалізованого кремнію, який може відповідати або перевищувати Intel.
Після декількох десятиліть оптимізації та постійного виробничого та матеріального інженерного покращення, параметри проблеми змінилися. Комп'ютери працюють на величезних наборах даних зараз, а перевезення петабайтів інформації вперед і назад на автобусі пам'яті на рівні підприємства є величезною енергією.
Створення більш ефективної обчислювальної моделі, яка спирається на рухомі дані в процесорі, вимагає переосмислення, які дані процесора робить і не обробляє в першу чергу. Це також вимагає фундаментального переосмислення того, як побудовані програми. Подружжя нещодавно опублікувала пару чудових історій щодо зменшення вартості руху даних та ідеї обчислювального зберігання, і вони розмовляли з Крісом Тьясам, старшим директором з оптичних рішень та стратегії в Intel. Деякі продукти Optane Intel, як і його пряма підтримка опточної стійкої пам'яті, можуть бути використані як величезний банк нестабільного DRAM - один набагато більший, ніж будь-який типовий басейн DRAM, - але скориставшись опцією, вимагає модифікації існуючого програмного забезпечення.
"Єдиний спосіб, яким ви можете скористатися цим, полягає в тому, щоб повністю реструктурувати ваше програмне забезпечення", - сказав Тобіас. "Те, що ви робите зараз, - це те, що ми маємо цю частину [заявки], що обчислювальне зберігання робить хорошу роботу. Ми збираємося, що відповідальність від серверного програмного забезпечення, а потім фермуйте декілька копій цієї частини до SSD, і саме там вони всі збираються виконати цю штуку. Хтось повинен зробити подрібнення серверного програмного забезпечення в шматок, який переходить у SSDS. "
Ці типи підвищення ефективності покращують реакцію та продуктивність процесора, дозволяючи чіп витратити більше часу, виконуючи корисну роботу, і менше часу відвідування запитів введення / виводу, який може бути краще обробляти в іншому місці. Одна цікава річ, яку ми дізналися про Apple M1 та Macos кілька місяців тому, полягає в тому, що Apple покращив загальну реакційну систему, переважно планування фонових завдань на невеликих системах Ice Cores CPU, що залишив сердечнику Firestorm Free для більш важливих завдань. Користувачі повідомили, що M1 MACS відчувають себе нюхаючим, ніж звичайні пристрої Intel, навіть якщо тестування не підтверджують фактичну швидкість збільшення. Платформа Ion Notbook Nvidia - це ще один історичний приклад того, як покращить латентність - дисплей та затримку інтерфейсу, у цьому випадку - зробила систему, яка відчуває себе набагато швидше, ніж це насправді.
Ніщо, що вимагає оптового повторного уявлення про стек зберігання, збирається в будь-який час споживачів, але довгостроковий потенціал для поліпшень є реальним. Для більшості історії комп'ютерної індустрії ми покращили продуктивність, збільшуючи кількість роботи процесора, виконаного за цикл. Виклик обчислювального сховища та інших методів рухомих робочих навантажень з процесора полягає в тому, щоб покращити продуктивність процесора, даючи йому меншу роботу, щоб зробити за цикл, що дозволяє зосередитись на інших завданнях.
Під цією моделлю процесор буде трохи більше, як сам прискорювач. Зокрема, ЦП стає "прискорювачем" останнього курорту. Коли робоче навантаження є складним, серіалізованим або повним розгалуженим, непередбачуваним кодом, який робить його непридатним для GPU та / або будь-якого майбутнього AI апаратного AMD та Intel може один день корабля, він отримує ногами до ЦП, який спеціалізується на цьому вид проблеми. Перемістіть пошук зберігання та деяких обчислень у SSDS та RAM, а процесор має ще багато годинних циклів, щоб фактично кризвати дані.
Ось що не рухає дані новим "1 ГГц". У середині 2010-х років це була гонка до 0 В, яка визначила X86 енергоефективності, а Intel і AMD обидва оцінювали значні винагороди від зменшення вільної потужності. Протягом наступного десятиліття ми можемо побачити нову гонку - одна, яка зосереджена на тому, скільки даних КПУ може уникнути обробки, на відміну від того, щоб підкреслити, скільки інформації вона може Гувер.
Читати далі
Звіт: графічний процесор Nvidia наступного покоління міг упакувати 18 432 ядра CUDA, 64TFLOPS
Майбутній Ampere від Nvidia, який може бути названий на честь обчислювальної піонерки Ади Лавлейс, міг би скласти до 18 432 ядер CUDA, що суттєво збільшилось порівняно з сучасними топовими картами, такими як RTX 3090.
Нова поверхня ноутбука 4 витоку пропонує AMD, Intel моделі запуску наступного тижня
Microsoft, швидше за все, запускає нові моделі ноутбуків 4 поверхні, засновані на території Intel, так і на CPUS Intel, так і на AMD. Нове обладнання може скинути, як тільки наступного тижня.
Microsoft поставить Internet Explorer з його нещастя в наступному році
Internet Explorer впав за більш здібними браузерами, як Chrome та Firefox у віці тому, а Microsoft, нарешті, вийшла на себе у відміну від браузера старіння в 2022 році.
Apple може принести бездротовий заряд до наступного iPad Pro
Наступним iPad Pro Refresh може мати бездротовий зарядку та скляну задню панель, каже Марк Блумберг Гурман.