Каскадное озеро Intel с DL Boost идет вразрез с Nvidia Titan RTX в тестах AI
В течение последних нескольких лет Intel обсуждала свои серверы Cascade Lake с DL Boost (также известным как VNNI, Vector Neural Net Instructions). Эти новые возможности являются подмножеством AVX-512 и предназначены специально для ускорения работы процессора в приложениях AI. Исторически сложилось так, что многие приложения для искусственного интеллекта предпочитали GPU перед CPU. Архитектура графических процессоров - массивно параллельных процессоров с низкой однопоточной производительностью - гораздо лучше подходит для графических процессоров, чем для процессоров. Процессоры предлагают гораздо больше ресурсов выполнения для каждого потока, но даже современные многоядерные процессоры затмеваются параллелизмом, доступным в высокопроизводительном ядре GPU.
Anandtech сравнил производительность Cascade Lake, Epyc 7601 (который вскоре превзойдет 7-нм процессоры AMD в Риме, но по-прежнему является ведущим сегодня серверным ядром AMD) и RTX Titan. В статье замечательного Йохана Де Геласа обсуждаются различные типы нейронных сетей за пределами CNN (Convolutional Neural Networks), которые обычно сравниваются, и как ключевая часть стратегии Intel состоит в том, чтобы конкурировать с Nvidia в рабочих нагрузках, где графические процессоры не так сильны. или еще не могут удовлетворить растущие потребности рынка из-за ограничений по объему памяти (графические процессоры все еще не могут соответствовать процессорам здесь), использованию «легких» моделей ИИ, которые не требуют длительного обучения, или моделей ИИ, которые зависят от статистические модели нейронных сетей.
Рост доходов центров обработки данных является важнейшим компонентом общего стремления Intel к искусственному интеллекту и машинному обучению. Между тем, Nvidia стремится защитить рынок, на котором она в настоящее время конкурирует практически в одиночку. Стратегия Intel в области искусственного интеллекта широка и включает в себя множество продуктов, от Movidius и Nervana до DL Boost на Xeon, до будущей линейки графических процессоров Xe. Nvidia стремится показать, что графические процессоры могут использоваться для обработки вычислений ИИ в более широком диапазоне рабочих нагрузок. Intel внедряет новые возможности искусственного интеллекта в существующие продукты, внедряет новое оборудование, которое, как она надеется, повлияет на рынок, и пытается создать свой первый серьезный графический процессор, чтобы бросить вызов работе AMD и Nvidia в потребительском пространстве.
В целом тесты Anandtech показывают, что разрыв между Intel и Nvidia остается широким - даже с DL Boost. На этом графике теста с рекуррентной нейронной сетью в качестве нейронной сети использовалась сеть с кратковременной памятью (LSTM). Тип RNN, LSTM избирательно «запоминает» шаблоны за определенный промежуток времени ». Anandtech также использовала три различные конфигурации для его тестирования - готовый Tensorflow с conda, оптимизированный Intel Tensorflow с PyPi и версия Tensorflow, оптимизированная из исходного кода с использованием Bazel, с использованием самой последней версии Tensorflow.
Эта пара изображений отражает относительное масштабирование между процессорами, а также сравнение с RTX Titan. Производительность «из коробки» на AMD была довольно плохой, хотя с оптимизированным кодом она улучшилась. Производительность Intel резко возросла, когда была протестирована версия с оптимизированным исходным кодом, но даже версия с оптимизированным исходным кодом не очень хорошо соответствовала производительности Titan RTX. Де Гелас отмечает: «Во-вторых, мы были очень удивлены, что наш Titan RTX был менее чем в 3 раза быстрее, чем наша установка с двумя Xeon», что говорит вам кое-что о том, как эти сравнения выполняются в большой статье.
DL Boost недостаточно для того, чтобы сократить разрыв между Intel и Nvidia, но, честно говоря, это, вероятно, никогда не предполагалось. Цель Intel - улучшить производительность AI на Xeon, чтобы эти рабочие нагрузки были правдоподобными на серверах, которые в основном будут использоваться для других целей, или при создании моделей AI, не соответствующих ограничениям современного графического процессора. Долгосрочная цель компании - конкурировать на рынке искусственного интеллекта с разнообразным оборудованием, а не только с Xeons. Поскольку Xe еще не совсем готов, конкурировать в пространстве HPC сейчас означает конкурировать с Xeon.
Для тех из вас, кто интересуется AMD, AMD на самом деле не говорит о запуске рабочих нагрузок AI на процессорах Epyc, а сосредоточилась на своей инициативе RocM по запуску кода CUDA на OpenCL. AMD не слишком много говорит об этой стороне своего бизнеса, но Nvidia доминирует на рынке приложений для искусственного интеллекта и графических процессоров HPC. И AMD, и Intel хотят кусочек пространства. Прямо сейчас оба, кажется, борются в гору, чтобы требовать одного.
Читать далее
Бета-тесты скорости Starlink позорят традиционный спутниковый Интернет
Согласно данным Ookla Speedtest и проанализированным нашими коллегами из PCMag, Starlink оправдывает свои высокие требования к скорости.
Результаты тестов показывают, что Apple M1 превосходит все MacBook Pro с процессором Intel
Новая SoC M1 от Apple может превзойти каждую продаваемую ею систему Intel, по крайней мере, в одном из первых результатов тестов. Мы исследуем цифры и вероятную конкурентную ситуацию.
Apple M1 продолжает впечатлять в тестах Cinebench R23 и Affinity Photo
Новые тесты Cinebench R23 изображают AMD в более конкурентном свете по сравнению с M1, но SoC от Apple по-прежнему впечатляет. Однако тест Affinity Photo - это большая победа M1.
PS5 превосходит Xbox Series X в тестах, поскольку Sony обещает больше консолей
Сегодня две интересные новости: PlayStation 5 продолжает превосходить Xbox Series X в своей весовой категории, и Sony обещает, что она быстро получит больше консолей на складе и в руки потребителей.