Google объявляет о выпуске 8x Faster TPU 3.0 для ИИ, машинного обучения

Google объявляет о выпуске 8x Faster TPU 3.0 для ИИ, машинного обучения

За последние несколько лет Google создала собственные TPU (модули обработки тензора) для обработки различных задач обработки, связанных с искусственным интеллектом и машинным обучением. Google впервые объявил о существовании ТПУ в 2016 году, но сказал, что он использовал их внутренне более года. ТПУ второго поколения компании недавно сделали новость для значительно улучшенной производительности, и оборудование третьего поколения, по-видимому, продолжит эту тенденцию.

По словам генерального директора Google Сундар Пичаи, новые модули TPU 3.0 на 8 раз мощнее, чем модули Google TPU 2.0, которые мы ранее рассматривали, и Pichai заявил, что они достаточно голодны, чтобы нуждаться в водяном охлаждении - что-то предыдущее ТПУ просто Не требуется. На изображении TechCrunch показана медная система охлаждения, вода из той же трубы проходит через все четыре охлаждающие пластины.

Изображение TechCrunch
Изображение TechCrunch

Итак, что мы знаем о TPU 3.0? Не так много, но мы можем сделать несколько образованных догадок. Согласно собственной документации Google, TPU 1.0 был построен на 28-нм технологическом узле в TSMC с тактовой частотой 700 МГц и потреблял мощность 40 Вт. Каждая плата TPU, подключенная через PCIe 3.0 x16.

TPU 2.0 внес существенные изменения. В отличие от TPU v1, который мог обрабатывать только 8-битные целочисленные операции, Google добавила поддержку одноточечных поплавков в TPU v2 и добавила 8 ГБ памяти HBM для каждого TPU для повышения производительности. Кластер TPU состоит из 180 TFLOPS общей вычислительной мощности, 64 ГБ памяти HBM и 2400 ГБ / с пропускной способности памяти в целом (последний из них просто направлен исключительно на то, чтобы заставить энтузиастов ПК стонать от зависти).

В отличие от TPU v1, который использовал 3,5-дюймовые отсеки для дисков в качестве форм-фактора, TPU v2 был скомпонован в группы из четырех чипов ASIC. В настоящее время Google развертывает ТПУ в кластерах до 64 плат, в 11,5 PFLOPS для каждого кластера и 4 ТБ общего хранилища HBM. Потребности в потреблении энергии были оценены в прошлом году довольно высокими, и эти решения потребляют еще больше энергии, поэтому переключение на водяное охлаждение имеет смысл - это, пожалуй, единственный способ справиться с выходом тепла, особенно если Google наполнит 64 ТПУ в один кластер.

Еще нет слов о других передовых возможностях процессоров, и они якобы все еще используются для использования Google, а не для более широкого применения. Pichai утверждает, что TPU v3 может обрабатывать 100 PFLOPS, но это должен быть кластеризованный вариант, если Google не выведет новый предварительный проект, который мы будем называть «Google Stellar-Equivalent Thermal Density». Мы ожидали услышать об этом , если это так. Поскольку все больше компаний стекаются в баннер AI / ML, ожидайте увидеть больше фирм, бросающих шляпы в это пресловутое кольцо.