Nvidia оголошує про нові етапи роботи компанії Volta AI

Nvidia оголошує про нові етапи роботи компанії Volta AI

Nvidia просуває власну високоякісну продуктивність в основних тестах AI та машинного навчання, оскільки, очевидно, щось відкрите для компаній, які говорять про показники продуктивності для власного апаратного рішення (це не буквально так, але ми були бачачи багато штучного інтелекту, машинного навчання та подібні дані, перетинають наші таблиці пізніше). Згідно з даними Nvidia, це поєднує кілька важливих етапів, серед яких:

Nvidia також говорить про використання Volta як потенційної заміни для ASIC, які в іншому випадку забезпечать чудову функціональність в обмеженому наборі випадків використання чи сценаріїв. Не зрозуміло - і я це справді розумію - як слід тлумачити такі вимоги. Nvidia відзначає: "Наприклад, кожен Tesla V100 Tensor Core GPU забезпечує 125 терафлопів продуктивності для глибокого навчання в порівнянні з 45 teraflops з чіпом Google TPU. Чотири TPU-чіпи в "Cloud TPU" доставляють 180 терафлопів продуктивності; для порівняння, чотири V100 мікросхеми забезпечують 500 терафлопів продуктивності ". Це також стосується проекту fast.ai для оптимізації класифікації зображень на наборі даних CIFAR-10 за допомогою Volta, що перетворює найкращі у всьому класі загальну продуктивність, побиваючи всіх інших конкурентів .

Проте, існують проблеми, які залежать від FLOPS для вимірювання продуктивності. FLOPS обчислюється за допомогою простого математичного рівняння:

Nvidia оголошує про нові етапи роботи компанії Volta AI

У графічних процесорах це працює з серверами GPU * clock * дві команди на годинник (один множимо, один накопичується) = X рейтинг в TFLOPS. Це по суті передбачає, що GPU виконує множення і накопичується на кожному ядрі GPU одночасно. Це припущення дозволяє нам порівняно швидко генерувати порівняльні показники за допомогою постійної формули, але існує величезна лазівка: якщо GPU № 1 зазвичай досягає лише 50 відсотків свого теоретичного максимуму FLOP, його може перевищити GPU № 2, що може бути набагато нижчим максимальна теоретична продуктивність FLOP, але все ще перевищує рівень GPU № 1, якщо він більш ефективний. Це також стосується будь-якого порівняння двох різних рішень.

Nvidia оголошує про нові етапи роботи компанії Volta AI

Наприклад, недавні звіти про хмарні TPU Google були більш ефективними, ніж Volta, були отримані з тестів ResNet-50. Результати Nvidia посилаються на використання набору даних CIFAR-10. Команда Dawnbench не записує жодних результатів для TPU у цьому тесті, а повідомлення блогу fast.ai на цю тему можуть пояснити, чому це таке:

Приклади TPU Google (тепер в бета-версії) також можуть бути хорошим підходом, як показують результати цього змагання, але пам'ятайте, що єдиним способом використання TPU є те, що ви приймаєте блокування для всіх:

Програмне забезпечення Google (TPU) - програмне забезпечення Google (Tensorflow) - хмарна платформа Google (GCP). Більш проблематично немає можливості кодувати безпосередньо для TPU, що суттєво обмежує алгоритмічну творчість (що, як ми бачили, є найважливішою частиною продуктивності ) З огляду на обмежену підтримку нейронних мереж та алгоритмів на TPU (наприклад, відсутність підтримки періодичних нейронних мереж, що є життєво важливим для багатьох програм, включаючи власні мовні системи перекладу Google), це обмежує як проблеми, які ви можете вирішити, так і способи їх вирішення.

Оскільки апаратно-програмне забезпечення продовжує розвиватися, ми побачимо, як ці обмеження та можливості розвиваються поряд з ними. Цілком очевидно, що Вольта є важким нападарем на ринку AI / ML в цілому, має чудову продуктивність та гнучкість у вирішенні багатьох різних завдань. Як це буде змінюватися, коли в мережу з'являється більше користувацького апаратного забезпечення, і дебютне рішення нового покоління все ще незрозуміле.

Читати далі

Новий MIT AI самостійно розробляє роботів
Новий MIT AI самостійно розробляє роботів

Команда вважає, що RoboGrammar може направити дослідників на нові напрямки, що призведе до більш ефективних та винахідливих конструкцій.

Boston Dynamics прощається з 2020 роком із танцювальною вечіркою роботів
Boston Dynamics прощається з 2020 роком із танцювальною вечіркою роботів

Одного разу на наших могилах можуть танцювати роботи, і вони будуть напрочуд добре в цьому!

Апаратні прискорювачі можуть значно покращити час реакції робота
Апаратні прискорювачі можуть значно покращити час реакції робота

Якщо ми хочемо створити кращих роботів, вони повинні швидше планувати власні рухи. Нова дослідницька група вважає, що винайшла комбінований метод розгортання апаратного / програмного забезпечення, який може зменшити існуючі затримки вдвічі.

Пробовідбірник астероїдів OSIRIS-REx НАСА повернеться на Землю 10 травня
Пробовідбірник астероїдів OSIRIS-REx НАСА повернеться на Землю 10 травня

НАСА будує плани OSIRIS-REx повернутися на Землю зі своїм дорогоцінним вантажем. За словами команди, OSIRIS-REx розпочне цю подорож 10 травня.