Google оголошує 8x швидше TPU 3.0 для AI, машинного навчання

Google оголошує 8x швидше TPU 3.0 для AI, машинного навчання

Протягом останніх років компанія Google створює свої власні TPU (блоки обробки тензора) для обробки різноманітних завдань обробки, пов'язаних з штучним інтелектом та машинного навчання. Google вперше оголосив про існування TPU в 2016 році, але заявив, що воно використовувало їх понад три роки. Останнім часом ТПУ другого покоління компанії зробили новини для значного покращення продуктивності, а апаратне забезпечення третього покоління, очевидно, продовжить цю тенденцію.

За словами генерального директора Google Sundar Pichai, нові стручки TPU 3.0 є на 8x потужнішими, ніж Google TPU 2.0, які ми раніше покрили, і Pichai заявили, що вони енергійні, достатній для водяного охолодження - щось попереднє TPU просто притулок Не потрібно. Зображення TechCrunch показує мідну систему охолодження, причому вода з тієї ж труби проходить через всі чотири охолоджувальні пластини.

Зображення від TechCrunch
Зображення від TechCrunch

Тож що ми знаємо про TPU 3.0? Не багато - але ми можемо зробити кілька освічених здогадок. Згідно з власною документацією Google, TPU 1.0 був побудований на 28-нм процесовому вузлі в TSMC, що працював на частоті 700 МГц, і споживав 40 Вт потужності. Кожна PCB TPU підключена через PCIe 3.0 x16.

TPU 2.0 внесла деякі суттєві зміни. На відміну від TPU v1, який міг обробляти лише 8-бітні цілі операції, Google додав підтримку одноточних поплавців у TPU v2 та додав 8 Гб пам'яті HBM для кожного TPU для підвищення продуктивності. Кластер TPU складається з 180 TFLOPS загальної обчислювальної потужності, 64 Гб пам'яті HBM і 2,400 Гбіт / с загальної пропускної здатності пам'яті (останній кинутий суто з метою зробити ентузіастів ПК стогнати з заздрістю).

На відміну від TPU v1, який використовував 3,5-дюймові відсіки для дисків як форм-фактор, TPU v2 зварювався разом у групах з чотирьох чіпів ASIC. Google в даний час розгортає TPU в кластерах до 64 плат, на 11,5 PFLOPS на кластері та 4TB загального об'єму HBM. Витрати на споживання електроенергії були вже оцінені як досить високі з минулорічною моделлю, і ці рішення споживають ще більше енергії, тому перемикання на водяне охолодження має сенс - це, напевно, єдиний спосіб подолати вироблення теплової енергії, особливо якщо компанія Google наповнює 64 ТПУ в єдиний кластер.

Ще немає жодного слова щодо інших розширених можливостей процесорів, і вони, як видно, все-таки для власного використання Google, а не ширшого застосування. Pichai заявляє, що TPU v3 може обробляти 100 PFLOPS, але це має бути кластеризований варіант, якщо Google не розкриє новий попередній проект, який ми називаємо "Google Stellar Equivalent Thermal Density". Ми б очікували, що почує про це , якщо це було так. Оскільки більшу кількість компаній потрапляють на банер AI / ML, очікуйте, що більше фірм кидають капелюхи в це помовче кільце.

Читати далі

Micron оголошує про 176-шаровий NAND, обсяги поставок в даний час
Micron оголошує про 176-шаровий NAND, обсяги поставок в даний час

Micron оголосив сьогодні про 176-шаровий NAND, що є вражаючим кроком вперед для галузі.

У рамках Massive Shift Apple оголошує про нові Mac з чіпом M1 на базі ARM
У рамках Massive Shift Apple оголошує про нові Mac з чіпом M1 на базі ARM

Компанія Apple бачила величезний успіх, коли востаннє перемикала архітектури на Intel, але цього разу? Журі все ще немає, але одне можна сказати точно: Apple збирається заробити набагато більше грошей.

Intel оголошує про закінчення життя своїх чіпсетів серії 300
Intel оголошує про закінчення життя своїх чіпсетів серії 300

Intel звільняє свої чіпсети серії 300, щоб звільнити місце для майбутнього Rocket Lake. 300-й серії процесорів 8-го та 9-го покоління живили до Core i9-9900K.

Як зупинити LG від набивання оголошень у ваш новий OLED-телевізор
Як зупинити LG від набивання оголошень у ваш новий OLED-телевізор

LG вважає, що вам потрібно переглядати рекламу, щоб користуватися телевізорами. Ми не згодні.