Nvidia оголошує про нові етапи роботи компанії Volta AI
Nvidia просуває власну високоякісну продуктивність в основних тестах AI та машинного навчання, оскільки, очевидно, щось відкрите для компаній, які говорять про показники продуктивності для власного апаратного рішення (це не буквально так, але ми були бачачи багато штучного інтелекту, машинного навчання та подібні дані, перетинають наші таблиці пізніше). Згідно з даними Nvidia, це поєднує кілька важливих етапів, серед яких:
Nvidia також говорить про використання Volta як потенційної заміни для ASIC, які в іншому випадку забезпечать чудову функціональність в обмеженому наборі випадків використання чи сценаріїв. Не зрозуміло - і я це справді розумію - як слід тлумачити такі вимоги. Nvidia відзначає: "Наприклад, кожен Tesla V100 Tensor Core GPU забезпечує 125 терафлопів продуктивності для глибокого навчання в порівнянні з 45 teraflops з чіпом Google TPU. Чотири TPU-чіпи в "Cloud TPU" доставляють 180 терафлопів продуктивності; для порівняння, чотири V100 мікросхеми забезпечують 500 терафлопів продуктивності ". Це також стосується проекту fast.ai для оптимізації класифікації зображень на наборі даних CIFAR-10 за допомогою Volta, що перетворює найкращі у всьому класі загальну продуктивність, побиваючи всіх інших конкурентів .
Проте, існують проблеми, які залежать від FLOPS для вимірювання продуктивності. FLOPS обчислюється за допомогою простого математичного рівняння:
У графічних процесорах це працює з серверами GPU * clock * дві команди на годинник (один множимо, один накопичується) = X рейтинг в TFLOPS. Це по суті передбачає, що GPU виконує множення і накопичується на кожному ядрі GPU одночасно. Це припущення дозволяє нам порівняно швидко генерувати порівняльні показники за допомогою постійної формули, але існує величезна лазівка: якщо GPU № 1 зазвичай досягає лише 50 відсотків свого теоретичного максимуму FLOP, його може перевищити GPU № 2, що може бути набагато нижчим максимальна теоретична продуктивність FLOP, але все ще перевищує рівень GPU № 1, якщо він більш ефективний. Це також стосується будь-якого порівняння двох різних рішень.
Наприклад, недавні звіти про хмарні TPU Google були більш ефективними, ніж Volta, були отримані з тестів ResNet-50. Результати Nvidia посилаються на використання набору даних CIFAR-10. Команда Dawnbench не записує жодних результатів для TPU у цьому тесті, а повідомлення блогу fast.ai на цю тему можуть пояснити, чому це таке:
Приклади TPU Google (тепер в бета-версії) також можуть бути хорошим підходом, як показують результати цього змагання, але пам'ятайте, що єдиним способом використання TPU є те, що ви приймаєте блокування для всіх:
Програмне забезпечення Google (TPU) - програмне забезпечення Google (Tensorflow) - хмарна платформа Google (GCP). Більш проблематично немає можливості кодувати безпосередньо для TPU, що суттєво обмежує алгоритмічну творчість (що, як ми бачили, є найважливішою частиною продуктивності ) З огляду на обмежену підтримку нейронних мереж та алгоритмів на TPU (наприклад, відсутність підтримки періодичних нейронних мереж, що є життєво важливим для багатьох програм, включаючи власні мовні системи перекладу Google), це обмежує як проблеми, які ви можете вирішити, так і способи їх вирішення.
Оскільки апаратно-програмне забезпечення продовжує розвиватися, ми побачимо, як ці обмеження та можливості розвиваються поряд з ними. Цілком очевидно, що Вольта є важким нападарем на ринку AI / ML в цілому, має чудову продуктивність та гнучкість у вирішенні багатьох різних завдань. Як це буде змінюватися, коли в мережу з'являється більше користувацького апаратного забезпечення, і дебютне рішення нового покоління все ще незрозуміле.
Читати далі
Micron оголошує про 176-шаровий NAND, обсяги поставок в даний час
Micron оголосив сьогодні про 176-шаровий NAND, що є вражаючим кроком вперед для галузі.
У рамках Massive Shift Apple оголошує про нові Mac з чіпом M1 на базі ARM
Компанія Apple бачила величезний успіх, коли востаннє перемикала архітектури на Intel, але цього разу? Журі все ще немає, але одне можна сказати точно: Apple збирається заробити набагато більше грошей.
Intel оголошує про закінчення життя своїх чіпсетів серії 300
Intel звільняє свої чіпсети серії 300, щоб звільнити місце для майбутнього Rocket Lake. 300-й серії процесорів 8-го та 9-го покоління живили до Core i9-9900K.
Як зупинити LG від набивання оголошень у ваш новий OLED-телевізор
LG вважає, що вам потрібно переглядати рекламу, щоб користуватися телевізорами. Ми не згодні.