Нейронні мережеві процесори MIT скорочують споживання електроенергії на 95 відсотків

Нейронні мережеві процесори MIT скорочують споживання електроенергії на 95 відсотків

На сьогодні процеси обробки нейромережець та робочого навантаження AI є гарячими темами, закликаючи декілька компаній оголосити свої власні кремнієві конструкції або підключити власне устаткування до вершини рішення для цих навантажень. Але однією проблемою з нейронними мережами є те, що вони, як правило, надзвичайно енергоємні, і не обов'язково підходять для мобільних пристроїв або такого роду слабкі "розумні" колонки, які нещодавно стали настільки популярними.

MIT стверджує, що розробив нейронний мережевий процесор, який вирішує ці проблеми, при загальному зменшенні потужності до 95 відсотків. Якщо це правда, це може змінити гру для таких видів додатків. Замість того, щоб змусити покладатися на підключення до хеш-пам'яті для керування AI (і використовувати владу, щоб підтримувати активність модему), SoCs могли б включити ці процесори та виконувати локальні розрахунки.

"Загальна модель процесора полягає в тому, що в деякій частині чіпа є пам'ять, а в іншій частині чіпа є процесор, і ви переміщаєте дані назад і вперед між ними, коли ви виконуєте ці обчислення", - сказав Авішек Бісвас , аспірант МІТ з електротехніки та інформатики, який керував розвитком нового чіпа:

Оскільки ці алгоритми машинного навчання потребують стільки обчислень, то передача даних назад і назад є домінуючою частиною споживання енергії. Але обчислення цих алгоритмів може бути спрощено до однієї конкретної операції, яка називається точками продукту. Наш підхід полягав у тому, чи можемо ми впровадити цю функцію точка-продукту всередині пам'яті, щоб вам не потрібно було передавати ці дані назад і назад?

Нейронні мережеві процесори MIT скорочують споживання електроенергії на 95 відсотків

Типова нейронна мережа організована в шари. Кожен вузол підключається до інших вузлів вище і нижче, а кожне з'єднання між вузлами має власну вагу. Вага в цьому контексті стосується того, скільки обчислень на удар, виконаних в одному вузлі, матиме на розрахунках, виконаних у вузлах, з якими він підключається. Вузли, що отримують введення з декількох вузлів над ним, множать входи, які вони отримують, за вагою кожного входу. Результат називається точками продукту. Якщо точка продукту перевищує певний поріг, вона посилається уздовж далі в ланцюжок. Але цей процес надзвичайно інтенсивний для пам'яті, при кожному розрахунку точкового продукту, який вимагає доступу до пам'яті для отримання зважених значень. Ці значення потім повинні бути збережені, і кожен вхід до вузла повинен бути незалежно розрахований.

Що зробив MIT - це створити чіп, який ближче імітує людський мозок. Вхідні значення перетворюються на електричні напруги, а потім множуться на відповідні ваги. Тільки об'єднані напруги перетворюються назад у цифрове представлення і зберігаються для обробки. Прототипний чіп може одночасно обчислити 16 точкових продуктів. Зберігаючи всі свої ваги як 1 або -1, система може бути реалізована як простий набір перемикачів, при цьому лише втрачаючи 2-3% точності в порівнянні з значно дорожчими нейронними мережами.

Непогано для підходу, який може зменшити споживання електроенергії до 95 відсотків. І це перспективна концепція майбутнього, в якій переваги хмарності та інтелектуальної власності не обмежуються тими, хто має надійний інтернет-сервіс у мобільному пристрої або вдома.

Найкращий імідж кредиту: Челсі Тернер / MIT

Читати далі

Intel запускає процесори AMD Radeon-Powered

Нові гібридні процесори Intel від Radeon + Kaby Lake очолюють на полицях магазинів. Ось як розбиваються товарні знаки та те, що вам потрібно знати.

Ціни процесора AMD Slashes Ryzen беруть на кофейне озеро Intel

AMD знижує ціни Ryzen у відповідь на запуск Intel Coffee Lake. Якщо ви переглядаєте новий процесор AMD, це може бути час для його придбання.

Дослідники виявили ще одну серйозну помилку безпеки в процесорах Intel

Дослідники з безпеки виявили ще один недолік процесорів Intel - цього разу пов'язана технологія Intel Active Management. Ще раз цей недолік може бути використаний для повного контролю за системою, незалежно від заходів безпеки, які користувач може використовувати.

Samsung тепер випускає 16Gbit GDDR6 для майбутніх графічних процесорів

Samsung прискорює виробництво GDDR6 з 18 Гбіт годин і новим процесовим вузлом.