Nvidia представляет графический процессор Ampere A100 80 ГБ с пропускной способностью памяти 2 ТБ / с
Ampere был запущен всего шесть месяцев назад, но Nvidia обновляет топовую версию своего графического процессора, чтобы предложить еще больше VRAM и значительно большую пропускную способность. A100 (80 ГБ) сохраняет большинство спецификаций A100 (40 ГБ): тактовая частота в ускоренном режиме 1,41 ГГц, шина памяти 5120 бит, 19,5 терафлопс с одинарной точностью, поддержка NVLink 3 и его TDP 400 Вт не изменились по сравнению с предыдущей версией GPU. Оба чипа также имеют 6192 ядра графического процессора.
Отличается максимальный объем видеопамяти (80 ГБ, вместо 40 ГБ) и общая пропускная способность памяти (HBMe 3,2 Гбит / с вместо HBMe 2,4 Гбит / с). Пропускная способность всего массива HBM2 составляет 2 ТБ / с по сравнению с 1,6 ТБ / с. Это серьезное обновление - для Nvidia не было ничего необычного в уменьшении пропускной способности памяти массива, чтобы удвоить емкость. Вместо этого компания увеличила общую пропускную способность в 1,25 раза.
A100 имеет шесть стеков HBM2, как вы можете видеть на изображении выше, но Nvidia отключает один из стеков для повышения урожайности. Остальные пять стеков имеют 1024-битную шину памяти, отсюда и 5120-битная шина. Nvidia заменила HBM2 на A100 40 ГБ на HBM2E, что позволило существенно обновить базовые характеристики.
Вариант 80 ГБ должен быть полезен при рабочих нагрузках с ограничением как емкости, так и полосы пропускания памяти. Как и вариант 40 ГБ, A100 80 ГБ может поддерживать до 7 экземпляров оборудования с выделением до 10 ГБ видеопамяти для каждого.
Nvidia продает эти графические процессоры в виде мезонинных карт, которые, как ожидается, будут развернуты в конфигурации HGX или DGX. Клиенты, которым нужен отдельный графический процессор A100 в карте PCIe, по-прежнему ограничены вариантом 40 ГБ, хотя это может измениться в будущем.
Ценник сервера с картами A100 емкостью 80 ГБ будет строго соответствовать принципу «если нужно спросить, вы не можете себе этого позволить». Но есть причина, по которой компании, ведущие разработку искусственного интеллекта, могут платить так много. Сложность модели GPU ограничивается встроенной памятью. Если вам придется коснуться основной системной памяти, общая производительность упадет - ЦП могут иметь такую емкость DRAM, которую исследователи ИИ хотели бы использовать для своих моделей, но они не могут обеспечить необходимую пропускную способность (а ЦП не подходят для моделирования нейронных сетей сети в любом случае). Расширение общего пула встроенной видеопамяти может позволить разработчикам повысить абсолютную сложность модели, которую они обучают, или решить проблемы, которые ранее не могли уместиться в пуле видеопамяти объемом 40 ГБ.
Читать далее
Сравнение Apple M1, A14 показывает различия в дизайне SoC
Новый анализ M1 сравнивает дизайн кристалла со смартфонным классом A14 SoC.
Apple представляет новый Bionic A15 Bionic Soc
Apple объявила об A15 на своем событии iPhone 13, но он не сравнил чип против обычных подозреваемых.
Ожидается, что TSMC выиграет эксклюзивные заказы на Apple 2014 A13 SoC
Сообщается, что TSMC заблокировал эксклюзив для следующего A13 от Apple на своем 7-нм узле второго поколения.
Apple iPad Pro A12X почти соответствует процессорам Top-End x86 в GeekBench
Новый A12X Bionic от Apple почти соответствует основным процессорам Intel в современных MacBook Pros, но ситуация немного сложнее, чем может показаться.