Google объявляет о выпуске 8x Faster TPU 3.0 для ИИ, машинного обучения

За последние несколько лет Google создала собственные TPU (модули обработки тензора) для обработки различных задач обработки, связанных с искусственным интеллектом и машинным обучением. Google впервые объявил о существовании ТПУ в 2016 году, но сказал, что он использовал их внутренне более года. ТПУ второго поколения компании недавно сделали новость для значительно улучшенной производительности, и оборудование третьего поколения, по-видимому, продолжит эту тенденцию.
По словам генерального директора Google Сундар Пичаи, новые модули TPU 3.0 на 8 раз мощнее, чем модули Google TPU 2.0, которые мы ранее рассматривали, и Pichai заявил, что они достаточно голодны, чтобы нуждаться в водяном охлаждении - что-то предыдущее ТПУ просто Не требуется. На изображении TechCrunch показана медная система охлаждения, вода из той же трубы проходит через все четыре охлаждающие пластины.

Итак, что мы знаем о TPU 3.0? Не так много, но мы можем сделать несколько образованных догадок. Согласно собственной документации Google, TPU 1.0 был построен на 28-нм технологическом узле в TSMC с тактовой частотой 700 МГц и потреблял мощность 40 Вт. Каждая плата TPU, подключенная через PCIe 3.0 x16.
TPU 2.0 внес существенные изменения. В отличие от TPU v1, который мог обрабатывать только 8-битные целочисленные операции, Google добавила поддержку одноточечных поплавков в TPU v2 и добавила 8 ГБ памяти HBM для каждого TPU для повышения производительности. Кластер TPU состоит из 180 TFLOPS общей вычислительной мощности, 64 ГБ памяти HBM и 2400 ГБ / с пропускной способности памяти в целом (последний из них просто направлен исключительно на то, чтобы заставить энтузиастов ПК стонать от зависти).
В отличие от TPU v1, который использовал 3,5-дюймовые отсеки для дисков в качестве форм-фактора, TPU v2 был скомпонован в группы из четырех чипов ASIC. В настоящее время Google развертывает ТПУ в кластерах до 64 плат, в 11,5 PFLOPS для каждого кластера и 4 ТБ общего хранилища HBM. Потребности в потреблении энергии были оценены в прошлом году довольно высокими, и эти решения потребляют еще больше энергии, поэтому переключение на водяное охлаждение имеет смысл - это, пожалуй, единственный способ справиться с выходом тепла, особенно если Google наполнит 64 ТПУ в один кластер.
Еще нет слов о других передовых возможностях процессоров, и они якобы все еще используются для использования Google, а не для более широкого применения. Pichai утверждает, что TPU v3 может обрабатывать 100 PFLOPS, но это должен быть кластеризованный вариант, если Google не выведет новый предварительный проект, который мы будем называть «Google Stellar-Equivalent Thermal Density». Мы ожидали услышать об этом , если это так. Поскольку все больше компаний стекаются в баннер AI / ML, ожидайте увидеть больше фирм, бросающих шляпы в это пресловутое кольцо.
Читать далее

Новый AI пишет компьютерный код: еще не Skynet, но это обучение
Сингулярность сейчас находится в частной бета-версии. Но вам все еще нужно заботиться о синтаксических ошибках.

Лучшая техника для обучения в нашем новом гибридном мире
Надеюсь на «просто» один год повлиял на преподавание, большинство из нас в течение другого сложного года. Онлайн-классы часто заменялись различными формами «перевернутыми» или «гибридными» курсами. Мы возьмем вас через некоторые из наших любимых технологий, чтобы максимально использовать ситуацию.

Google, чтобы сделать Chrome «более полезным» с новыми дополнениями машинного обучения
Google надеется сделать уведомления в хроме менее раздражающих, и он также хочет ожидать поведения пользователя.

Interpol запускает «Metaverse» для обучения офицеров по борьбе с виртуальными преступлениями
В Metaverse официально есть свадьбы, Chipotle, а теперь и полицейские.