Intel Позиції Xeon як конкуренція з машинного навчання в робочих навантаженнях висновку
У більшості випадків, коли ми говоримо про машинне навчання, штучний інтелект або подібні навантаження, ми обговорюємо як графічні процесори Nvidia, так і спеціальний кремній з таких компаній, як Google. Компанії, такі як AMD та Intel, були меншими гравцями, хоча Intel до сих пір володіють своїми Knights Mill та іншими продуктами Xeon Phi, а також невеликою любовністю від Movidius. Але оскільки компанії переходять на ці ринки - і штучний інтелект, і машинознавство, і глибоке навчання - це всі нові ринки, навіть якщо вони представляють сфери, де декілька дослідників працювали протягом десятиліть, вони також експериментують з оптимізацією обладнання та найкращими практиками, які можуть різко покращують продуктивність у продуктах, які ви не очікуєте бути конкурентоспроможними. Справа в цьому: процесори Intel Xeon.
По-перше, команда Стенфорд за Даунсенхоном назвала "першою глибиною навчального етапу та конкуренцією, яка вимірює кінцевий результат: час / витрати, необхідні для досягнення найсучаснішого рівня точності для загальних глибоких навчальних завдань, а також латентність / вартість висновку на цьому найсучаснішому рівні точності ", випустила кілька вражаючих результатів висновків. Якщо ви пам'ятаєте, є різниця між часом, необхідним для навчання глибокої навчальної нейронної мережі, і часу, необхідного для того, щоб мережа застосувала те, що вона навчилася новим даним.
Nvidia опублікувала блог, де детально розповідається про те, як працює тестування на висновки, і відмінності між навчанням моделі машинного навчання та тестами на виведення. У тестах висновку Xeon Intel досяг найвищих результатів із затримкою зображення всього 9,96 мс і можливістю обробки 10000 зображень всього за $ 0,02. У більшій серії орієнтирів "Світанок" в машинознавчих і тренувальних орієнтирах, як правило, переважають Nvidia або Google. Вольта, як можна було очікувати, - видатна присутність.
В окремому тесті, Intel заявляє, що воно може перевершити Volta V100 різко в певних тестах. Попередні результати отримані з незалежного розробленого тесту; ці результати є безпосередньо від Intel. Компанія пише:
Процесор Intel Xeon-масштабований з оптимізованим програмним забезпеченням продемонстрував величезну продуктивність для глибокого навчання в порівнянні з попередніми поколіннями без оптимізованого програмного забезпечення. Наприклад, у порівнянні з процесором Intel Xeon v3 (раніше кодова назва Haswell) прибутки складають до 198x для висновку та 127x для навчання. [1] Це стосується різних типів моделей, включаючи багатошарові персептронні (МЛП), згорткові нейронні мережі (CNN) та різні типи повторюваних нейронних мереж (RNN). Розрив продуктивності між графічними процесорами та процесорами для глибокого навчання та висновків звужується, і для деяких робочих навантажень ЦП тепер мають перевагу над графічними процесорами.
Для машинного перекладу з використанням RNN процесор Intel Xeon Scalable перевершує GPU NVidia * V100 * 4 рази за допомогою моделі AWS Socket Neural Machine Translation (NMT) з Apache * MXNet *, коли використовується Intel® Math Kernel Library (Intel MKL).
Ми будемо бачити набагато більше новин такого роду в найближчі кілька років. AMD, Nvidia, Intel, Google і дюжина інших великих і малих компаній кидають свої шапки в кільце AI / ML, і це означатиме велику кількість спонукань до того, що це означає, що це означає, що це означає, що це означає, що права на честь і вимоги щодо ефективності.
Моя порада для загального читача (на відміну від спеціаліста-дослідника) полягає в тому, щоб розглядати ці претензії як дані, які слід розглянути, а не абсолютні заяви перемоги або поразки. Потрібно займе деякий час, щоб поцілувати точно, як порівняти та оцінити це нове поле, і іноді порівняння будуть залежати від випадку використання відповідного продукту. Чіп, який надзвичайно енергозберігаючий, може бути кращим варіантом, ніж чіп, який дуже швидко, але має високий енергоємність, наприклад, при оцінці того, який інтерфейсний розчин найкращим для пристрою, що працює від батареї.
Загальний аргумент Intel - це мета-аргумент, якщо хочете, це те, що це процесори, а існуючі знання мають відігравати певну роль в AI і ML, навіть якщо це прискорює інвестиції в компанії, такі як Movidius, і починає нові проекти GPU. Я думаю, що це справедливий аргумент для компанії, особливо якщо врахувати, що сервери Intel і AMD збираються живити багато серверів у найближчі роки, включаючи сервери, призначені для цих робочих навантажень. Але рано нагороджують виступи коронами, принаймні остаточними.
Читати далі
NVIDIA розкриває процесор глибокого навчання Грейс для суперкомп'ютерних додатків
NVIDIA вже користується придбанням руки з величезним потужним новим комбінацією CPU-Plus-GPU, що заявляє, що він прискорить навчання великих машин-навчальних моделей до 10 років.
Новий AI записує комп'ютерний код: все ще не Skynet, але це навчання
Особливість зараз знаходиться в приватній бета-версії. Але ви все ще повинні піклуватися про помилки синтаксису.
Google забороняє навчання DeepFake на Colab
Google тихо прийняв рішення заборонити користувачам створювати Deepfaks на своїй колораторній обчислювальній службі.
Google, щоб зробити Chrome "більш корисним" з новими доповненнями машинного навчання
Google прагне зробити сповіщення в Chrome менш дратуючим, і він хоче передбачити і поведінку користувача.