Google объявляет о выпуске 8x Faster TPU 3.0 для ИИ, машинного обучения
За последние несколько лет Google создала собственные TPU (модули обработки тензора) для обработки различных задач обработки, связанных с искусственным интеллектом и машинным обучением. Google впервые объявил о существовании ТПУ в 2016 году, но сказал, что он использовал их внутренне более года. ТПУ второго поколения компании недавно сделали новость для значительно улучшенной производительности, и оборудование третьего поколения, по-видимому, продолжит эту тенденцию.
По словам генерального директора Google Сундар Пичаи, новые модули TPU 3.0 на 8 раз мощнее, чем модули Google TPU 2.0, которые мы ранее рассматривали, и Pichai заявил, что они достаточно голодны, чтобы нуждаться в водяном охлаждении - что-то предыдущее ТПУ просто Не требуется. На изображении TechCrunch показана медная система охлаждения, вода из той же трубы проходит через все четыре охлаждающие пластины.
Итак, что мы знаем о TPU 3.0? Не так много, но мы можем сделать несколько образованных догадок. Согласно собственной документации Google, TPU 1.0 был построен на 28-нм технологическом узле в TSMC с тактовой частотой 700 МГц и потреблял мощность 40 Вт. Каждая плата TPU, подключенная через PCIe 3.0 x16.
TPU 2.0 внес существенные изменения. В отличие от TPU v1, который мог обрабатывать только 8-битные целочисленные операции, Google добавила поддержку одноточечных поплавков в TPU v2 и добавила 8 ГБ памяти HBM для каждого TPU для повышения производительности. Кластер TPU состоит из 180 TFLOPS общей вычислительной мощности, 64 ГБ памяти HBM и 2400 ГБ / с пропускной способности памяти в целом (последний из них просто направлен исключительно на то, чтобы заставить энтузиастов ПК стонать от зависти).
В отличие от TPU v1, который использовал 3,5-дюймовые отсеки для дисков в качестве форм-фактора, TPU v2 был скомпонован в группы из четырех чипов ASIC. В настоящее время Google развертывает ТПУ в кластерах до 64 плат, в 11,5 PFLOPS для каждого кластера и 4 ТБ общего хранилища HBM. Потребности в потреблении энергии были оценены в прошлом году довольно высокими, и эти решения потребляют еще больше энергии, поэтому переключение на водяное охлаждение имеет смысл - это, пожалуй, единственный способ справиться с выходом тепла, особенно если Google наполнит 64 ТПУ в один кластер.
Еще нет слов о других передовых возможностях процессоров, и они якобы все еще используются для использования Google, а не для более широкого применения. Pichai утверждает, что TPU v3 может обрабатывать 100 PFLOPS, но это должен быть кластеризованный вариант, если Google не выведет новый предварительный проект, который мы будем называть «Google Stellar-Equivalent Thermal Density». Мы ожидали услышать об этом , если это так. Поскольку все больше компаний стекаются в баннер AI / ML, ожидайте увидеть больше фирм, бросающих шляпы в это пресловутое кольцо.
Читать далее
Google, чтобы сделать Chrome «более полезным» с новыми дополнениями машинного обучения
Google надеется сделать уведомления в хроме менее раздражающих, и он также хочет ожидать поведения пользователя.
AutoML Google создает модели машинного обучения без опыта программирования
Суть Cloud AutoML заключается в том, что почти каждый может принести каталог изображений, импортировать теги для изображений и создать на основе этого функциональную модель машинного обучения.
Машинное обучение работает чудесами на изображениях с низким освещением
Новая работа от Intel и Университета штата Иллинойс Урбана-Шампейн демонстрирует невероятные достижения в области фотографии с низким освещением, любезно предоставленной машинной разведкой.
AMD Demos 7nm Vega для машинного интеллекта на Computex
Новое решение Intel для решения VIA 7nm от AMD дебютирует досрочно.