Nvidia оголошує про нові етапи роботи компанії Volta AI

Nvidia оголошує про нові етапи роботи компанії Volta AI

Nvidia просуває власну високоякісну продуктивність в основних тестах AI та машинного навчання, оскільки, очевидно, щось відкрите для компаній, які говорять про показники продуктивності для власного апаратного рішення (це не буквально так, але ми були бачачи багато штучного інтелекту, машинного навчання та подібні дані, перетинають наші таблиці пізніше). Згідно з даними Nvidia, це поєднує кілька важливих етапів, серед яких:

Nvidia також говорить про використання Volta як потенційної заміни для ASIC, які в іншому випадку забезпечать чудову функціональність в обмеженому наборі випадків використання чи сценаріїв. Не зрозуміло - і я це справді розумію - як слід тлумачити такі вимоги. Nvidia відзначає: "Наприклад, кожен Tesla V100 Tensor Core GPU забезпечує 125 терафлопів продуктивності для глибокого навчання в порівнянні з 45 teraflops з чіпом Google TPU. Чотири TPU-чіпи в "Cloud TPU" доставляють 180 терафлопів продуктивності; для порівняння, чотири V100 мікросхеми забезпечують 500 терафлопів продуктивності ". Це також стосується проекту fast.ai для оптимізації класифікації зображень на наборі даних CIFAR-10 за допомогою Volta, що перетворює найкращі у всьому класі загальну продуктивність, побиваючи всіх інших конкурентів .

Проте, існують проблеми, які залежать від FLOPS для вимірювання продуктивності. FLOPS обчислюється за допомогою простого математичного рівняння:

Nvidia оголошує про нові етапи роботи компанії Volta AI

У графічних процесорах це працює з серверами GPU * clock * дві команди на годинник (один множимо, один накопичується) = X рейтинг в TFLOPS. Це по суті передбачає, що GPU виконує множення і накопичується на кожному ядрі GPU одночасно. Це припущення дозволяє нам порівняно швидко генерувати порівняльні показники за допомогою постійної формули, але існує величезна лазівка: якщо GPU № 1 зазвичай досягає лише 50 відсотків свого теоретичного максимуму FLOP, його може перевищити GPU № 2, що може бути набагато нижчим максимальна теоретична продуктивність FLOP, але все ще перевищує рівень GPU № 1, якщо він більш ефективний. Це також стосується будь-якого порівняння двох різних рішень.

Nvidia оголошує про нові етапи роботи компанії Volta AI

Наприклад, недавні звіти про хмарні TPU Google були більш ефективними, ніж Volta, були отримані з тестів ResNet-50. Результати Nvidia посилаються на використання набору даних CIFAR-10. Команда Dawnbench не записує жодних результатів для TPU у цьому тесті, а повідомлення блогу fast.ai на цю тему можуть пояснити, чому це таке:

Приклади TPU Google (тепер в бета-версії) також можуть бути хорошим підходом, як показують результати цього змагання, але пам'ятайте, що єдиним способом використання TPU є те, що ви приймаєте блокування для всіх:

Програмне забезпечення Google (TPU) - програмне забезпечення Google (Tensorflow) - хмарна платформа Google (GCP). Більш проблематично немає можливості кодувати безпосередньо для TPU, що суттєво обмежує алгоритмічну творчість (що, як ми бачили, є найважливішою частиною продуктивності ) З огляду на обмежену підтримку нейронних мереж та алгоритмів на TPU (наприклад, відсутність підтримки періодичних нейронних мереж, що є життєво важливим для багатьох програм, включаючи власні мовні системи перекладу Google), це обмежує як проблеми, які ви можете вирішити, так і способи їх вирішення.

Оскільки апаратно-програмне забезпечення продовжує розвиватися, ми побачимо, як ці обмеження та можливості розвиваються поряд з ними. Цілком очевидно, що Вольта є важким нападарем на ринку AI / ML в цілому, має чудову продуктивність та гнучкість у вирішенні багатьох різних завдань. Як це буде змінюватися, коли в мережу з'являється більше користувацького апаратного забезпечення, і дебютне рішення нового покоління все ще незрозуміле.

Читати далі

Огляд MSI Nvidia RTX 3070 Gaming X Trio: продуктивність 2080 Ti, ціна паскаль
Огляд MSI Nvidia RTX 3070 Gaming X Trio: продуктивність 2080 Ti, ціна паскаль

Новий RTX 3070 від Nvidia - це казковий графічний процесор за вигідною ціною, і MSI RTX 3070 Gaming X Trio це добре демонструє.

Nvidia буде імітувати пам'ять Smart Access від AMD на Ампері: звіт
Nvidia буде імітувати пам'ять Smart Access від AMD на Ампері: звіт

Пам'ять AMD Smart Access ще навіть не надійшла, але Nvidia стверджує, що може дублювати цю функцію.

Nvidia представила графічний процесор Ampere A100 80 ГБ із пропускною здатністю 2 ТБ / с
Nvidia представила графічний процесор Ampere A100 80 ГБ із пропускною здатністю 2 ТБ / с

Цього тижня Nvidia анонсувала графічний процесор Ampere A100 об'ємом 80 ГБ для розробників програмного забезпечення для штучного інтелекту, яким дійсно потрібно трохи місця для розгинання ніг.

Nvidia, Google для підтримки хмарних ігор на iPhone через веб-програми
Nvidia, Google для підтримки хмарних ігор на iPhone через веб-програми

І Nvidia, і Google оголосили про підтримку iOS своїх відповідних хмарних ігрових платформ за допомогою прогресивних веб-додатків. Apple не може цього заблокувати.