Samsung вкладає процесор AI 1.2TFLOP у HBM2 для підвищення ефективності та швидкості

Компанія Samsung оголосила про доступність нової версії Aquabolt. На відміну від типового стрибка тактової частоти або покращення пропускної здатності, яке ви очікуєте, цей новий HBM-PIM може виконувати обчислення безпосередньо на мікросхемі, які в іншому випадку обробляються приєднаним процесором, графічним процесором або FPGA.
PIM розшифровується як «Процесор в пам’яті», і Samsung заслуговує на увагу в цьому. В даний час процесори спалюють величезну кількість енергії, переміщуючи дані з одного місця в інше. Переміщення даних вимагає часу та витрат. Чим менше часу процесор витрачає на переміщення даних (або очікування на іншому мікросхемі для доставки даних), тим більше часу він може витратити на виконання обчислювально корисної роботи.
Розробники процесорів роками вирішували цю проблему, розгортаючи різні рівні кеш-пам’яті та інтегруючи функціональність, яка колись жила у власному сокеті. Як FPU, так і контролери пам'яті колись були встановлені на материнській платі, а не безпосередньо інтегровані в центральний процесор. Чіплети насправді працюють безпосередньо проти цієї тенденції агрегування, саме тому AMD довелося бути обережним, щоб його конструкції Zen 2 і Zen 3 могли підвищити загальну продуктивність, одночасно дезагрегуючи планку процесора.
Якщо зблизити центральний процесор і пам’ять добре, створення елементів обробки безпосередньо в пам’яті було б ще кращим. Історично це було важко, оскільки логіка та DRAM зазвичай будуються дуже по-різному. Samsung, мабуть, вирішила цю проблему, і вона використала можливості HBM для укладання штампів, щоб зберегти доступну щільність пам'яті досить високою, щоб зацікавити клієнтів. Samsung заявляє, що може забезпечити більш ніж вдвічі поліпшення продуктивності при 70-відсотковому зниженні потужності одночасно, без необхідних змін обладнання та програмного забезпечення. Компанія очікує, що перевірка буде завершена до кінця першої половини цього року.

THG має деякі подробиці про нове рішення HBM-PIM, висвітлене на презентації ISSCC Samsung цього тижня. Новий чіп включає програмований обчислювальний блок (PCU) з тактовою частотою лише 300 МГц. Хост керує PCU за допомогою звичайних команд пам'яті і може використовувати його для обчислення FP16 безпосередньо в DRAM. Сам HBM може працювати як звичайна оперативна пам'ять, так і в режимі FIM (функція в пам'яті).
Включення PCU зменшує загальний обсяг доступної пам’яті, саме тому FIMDRAM (це інший термін, який Samsung використовує для цього рішення) пропонує лише 6 ГБ ємності на стек замість 8 ГБ, які ви отримаєте зі стандартним HBM2. Всі показані рішення побудовані на 20 нм DRAM-процесі.

У статті Samsung описується дизайн як "DRAM з функціональною пам'яттю (FIMDRAM), який інтегрує 16-широкий механізм множинного обміну даними з однією інструкцією в банках пам'яті і використовує паралельність на рівні банку, щоб забезпечити в 4 рази більшу пропускну здатність обробки, ніж рішення для чіп-пам'яті ".

Одне питання, на яке Samsung не відповів, - це спосіб боротьби з тепловіддачею, що є основною причиною того, чому історично складно було побудувати логіку обробки всередині DRAM. Це може бути вдвічі складніше з HBM, коли кожен шар укладається поверх іншого. Порівняно низька тактова частота на PIM може бути способом збереження DRAM в прохолоді.
Ми не бачили розгортання HBM для центральних процесорів, незважаючи на Hades Canyon, але кілька високоякісних графічних процесорів від Nvidia та AMD обрали HBM / HBM2 як основну пам’ять. Незрозуміло, чи виграє звичайний графічний процесор від цієї можливості розвантаження або як така функція буде інтегрована у власні вражаючі обчислювальні потужності графічних процесорів. Якщо Samsung може запропонувати покращення продуктивності та потужності, як вона заявляє, для ряду клієнтів, ми, безсумнівно, побачимо, що цей новий HBM-PIM з’явиться у продуктах через рік-два. Покращення продуктивності вдвічі у поєднанні із зменшенням споживання енергії на 70 відсотків є видом переходів літографічного вузла в старі школи, що використовуються для регулярного забезпечення. Не зрозуміло, чи вдасться PIM від Samsung конкретно встигнути, але будь-яка обіцянка про класичне вдосконалення повних вузлів приверне увагу, якщо нічого іншого.
Читати далі

OnePlus спіймав маніпулювання показниками ефективності смартфонів
Незважаючи на те, що маючи достатню потужність, OnePlus 9 агресивно виступає за продукти для більшості додатків, дозволяючи забезпечити повну потужність. Як результат, його телефони були витягнуті з графіків GeekBench.
![AMD надає більше деталей Radeon VII, прогнозів ефективності [оновлено]](assets/cache/news/2019-01-11-amd-shares-more-radeon-vii-details-performance-projections-updated/5f98a1ea06917.jpg)
AMD надає більше деталей Radeon VII, прогнозів ефективності [оновлено]
Тепер ми знаємо трохи більше про Radeon VII, останній високоякісний графічний процесор AMD має знизитися наступного місяця.

Google EfficientNet пропонує до 10-кратного підвищення ефективності аналізу зображень
Google заслужив репутацію витіснення нових технологій інтелектуальної власності та модернізації у дивовижному темпі, а їхнє оголошення EfficientNet служить останнім прикладом. Використовуючи свою роботу з AutoML, вчені компанії Google використовували метод масштабування, що забезпечує до десятикратного збільшення ефективності мережі.